Los modelos de IA generativa están causando furor, pero también están inundando la web de nuevos contenidos a un ritmo frenético. Lo estamos viendo claramente con Midjourney y su capacidad creativa, pero también con ChatGPT, que por ejemplo está ayudando a los spammers a crear miles de sitios web. Ahora hay estudios que hablan de que eso plantea un gran problema en el futuro: el llamado "colapso del modelo".
#4:
Que todas las leyes que están sacando para evitar que las IA se entrenen gratis con el contenido creado por humanos quedarán obsoletas antes de haberse publicado.
#10:
Esto ya se trató y se resolvió hace tiempo. A quien le interese el tema de verdad sin ningún tipo de sesgos y hablado por gente cualificada que sabe de lo que habla le recomiendo fuertemente el siguiente visionado
Que todas las leyes que están sacando para evitar que las IA se entrenen gratis con el contenido creado por humanos quedarán obsoletas antes de haberse publicado.
#21 Claro, porque ya tienen una parte del entrenamiento en el cual se alimenta con información falsa o con datos generados por otras IAs.
Cuando esa información sea mayoritaria...
Seguramente muchas empresas estarán almacenando la información "pura" que han conseguido captar durante estas últimas décadas para ser utilizadas en el futuro por otras IAs.
#17 Pasará como cuando grabas muchas veces una imagen en jpg, si lo haces muchas veces, abrir, guardar, cerrar y volver a abrir, se pierden datos y al final queda muy cutre. Si retroalimentas una IA con contenido generado por IA solo vas a retroalimentas los errores. Todavía no existe una IA que sea realmente inteligente.
#24 Pues a la larga esos textos harán que, las IAs que son alimentados con noticias ya "adaptadas" por IAs, estén llenas de errores, como dice #23 con el ejemplo tan claro de los jpg.
#17 no se trata de alimentar una IA usando otra directamente. Se trata de que un humano pide información a una IA, la publica en internet (revisada o no) y otra IA se acabe alimentando de ese contenido.
No se cuánto contenido hay ya por ahí que sea 100% generado por una IA, supongo que poco, pero si que hay mucho en el que una IA ha hecho buena parte del trabajo. Por ejemplo, escribes una noticia entera, se la das a una IA para que la revise y publicas esa revisión. Si mucha gente hace eso, al final todos los textos periodísticas tendrán un esquema similar y la IA se alimentará de eso mismo. Y lo mismo lo puedes aplicar a cualquier campo.
Esto ya se trató y se resolvió hace tiempo. A quien le interese el tema de verdad sin ningún tipo de sesgos y hablado por gente cualificada que sabe de lo que habla le recomiendo fuertemente el siguiente visionado
Los automatismos sin supervisión son basura y problemas. Cualquiera que se dedique a la automatización mecánica o por software lo sabe. ¿Por qué estos expertos en IA se saltan esa pieza fundamental del proceso?
Puedes tener una IA como apoyo para acelerar procesos, aumentar producción o mejorar resultados. Pero eso no quiere decir que con una IA puedas ahorrarte ni un sólo empleado. Puede que incluso tengas que contratar tres o cuatro más.
Lo cuento además por que tengo experiencia en el sector del desarrollo de automatizaciones para pymes y ya van tres veces que me despiden cuando el software está listo, pensando que el programa va a funcionar maravillosamente con el becario metiendo info en la base de datos durante la hora del almuerzo. Y luego ponen el grito en el cielo cuando ven que el catálogo de 60k productos no se va a meter él solo en la base de datos, y que por muy bien que haga las fotos con el móvil la sobrina de paco, la niña no va a hacer 240k fotos en un fin de semana que tenga libre. Contrata un puto equipo de márketing para darle de comer a la bestia, o se te muere y has perdido los miles que te costó el programa. Y como se te ocurra actualizar los programas asegúrate de saber guardar los archivos con compatibilidad para que el programa los acepte, o no haberle racaneado al desarrollador cuando te comentó el asunto de la compatibilidad de archivos. Que luego queda muy mal llamar tres años después al desarrollador llorando por que nada funciona después de haberlo despedido o incluso de haberle dejado a deber unos cientos del último ajuste.
Según los pocos conocimientos que tengo después de haber cursado “Inteligencia Artificial” y “Mineria de datos” en el grado de ingeniería informática, retroalimentando a una IA sin filtrar manualmente los datos de entrenamiento lo único que se consigue es que falle más que una escopeta de feria. Me explico..
El primer requisito para tener una buena IA es tener los mejores datos de entrenamiento posibles, y para ello hace falta filtrar y preparar los datos cuidadosamente, si tienes datos erróneos en tu set de entrenamiento, la IA aprenderá de ellos y dará resultados erróneos.
Pues bien, incluso las mejores IAs tienen una tasa de error, que puede ser más o menos mayor. Con ChatGPT hay infinidad de ejemplos donde es incapaz de dar una respuesta con sentido o directamente da datos erróneos sobre datos, fechas o hechos fácilmente contrastables.
Pues es 2+2, si retroalimentas una IA, reentrenándola con sus propios datos de salida, por ejemplo artículos generados por la misma IA y publicados en internet, sin haberlos filtrado para eliminar los datos erróneos, lo que conseguirás es potenciar los resultados erróneos, y en cada iteración el porcentaje de errores aumentará hasta que llegue a un punto en el que sus respuestas sean totalmente inservibles.
PD: mis conocimientos de IA son muy limitados, pero infinitamente mejores que los de cualquier “periodista” o articulista que se ha hecho “hesperto” en IA desde que ChatGPT está de moda.
Que se le puede sesgar retroalimentandolo con contenidos, que a su vez puede entrenarse con contenidos generados en zonas muy inciertas (donde no hay contenido para entreno, donde simplemente reaccionada de forma pseudoaleatoria) y retroalimentarse, sesgándose para que crea que eso es más verosimil que una cosa real que se le suministre a posteriori...
Esto lo dije yo en el momento que todo el mundo empezó a usar ChatGPT para hacer código.
Ahora programa "bien" porque se ha alimentado de código de ejemplo correcto, pero no necesariamente lo que genera la IA lo es (de hecho la mayoría de veces necesita correcciones)
Si ya antes de la IA ya se estaba llenando de mierda autogenerada con spam, referidos y resto de putas mierdas de hijosdeputas que no tienen nada que hacer, pues imagínate ahora
Comentarios
Que todas las leyes que están sacando para evitar que las IA se entrenen gratis con el contenido creado por humanos quedarán obsoletas antes de haberse publicado.
#4 Por ahora, lo que dicen los expertos, si una IA se alimenta de otras IAs empieza a hacer cosas raras y se vuelve inservible...
#17 YA hace cosas raras.
#21 Claro, porque ya tienen una parte del entrenamiento en el cual se alimenta con información falsa o con datos generados por otras IAs.
Cuando esa información sea mayoritaria...
Seguramente muchas empresas estarán almacenando la información "pura" que han conseguido captar durante estas últimas décadas para ser utilizadas en el futuro por otras IAs.
#17 Pasará como cuando grabas muchas veces una imagen en jpg, si lo haces muchas veces, abrir, guardar, cerrar y volver a abrir, se pierden datos y al final queda muy cutre. Si retroalimentas una IA con contenido generado por IA solo vas a retroalimentas los errores. Todavía no existe una IA que sea realmente inteligente.
#24 Pues a la larga esos textos harán que, las IAs que son alimentados con noticias ya "adaptadas" por IAs, estén llenas de errores, como dice #23 con el ejemplo tan claro de los jpg.
#17 no se trata de alimentar una IA usando otra directamente. Se trata de que un humano pide información a una IA, la publica en internet (revisada o no) y otra IA se acabe alimentando de ese contenido.
No se cuánto contenido hay ya por ahí que sea 100% generado por una IA, supongo que poco, pero si que hay mucho en el que una IA ha hecho buena parte del trabajo. Por ejemplo, escribes una noticia entera, se la das a una IA para que la revise y publicas esa revisión. Si mucha gente hace eso, al final todos los textos periodísticas tendrán un esquema similar y la IA se alimentará de eso mismo. Y lo mismo lo puedes aplicar a cualquier campo.
Esto ya se trató y se resolvió hace tiempo. A quien le interese el tema de verdad sin ningún tipo de sesgos y hablado por gente cualificada que sabe de lo que habla le recomiendo fuertemente el siguiente visionado
#10 Gracias por compartir! gran aporte!
#18 De nada... La verdad es que sigo a muchos divulgadores y muchos Podcast del estilo. Me parece apasionante.
#10 Cuánta razón
#35 El mérito no es mío. Sólo voy a hombros de gigantes.
Saludos
Que internet se convertirá en telecinco.
#1 bueno eso ya lo es
Últimamente, muchas noticias sobre IA's me están haciendo acordad a ésta película:
Colossus: el proyecto prohibido (1970)
https://es.wikipedia.org/wiki/Colossus:_The_Forbin_Project
Los automatismos sin supervisión son basura y problemas. Cualquiera que se dedique a la automatización mecánica o por software lo sabe. ¿Por qué estos expertos en IA se saltan esa pieza fundamental del proceso?
Puedes tener una IA como apoyo para acelerar procesos, aumentar producción o mejorar resultados. Pero eso no quiere decir que con una IA puedas ahorrarte ni un sólo empleado. Puede que incluso tengas que contratar tres o cuatro más.
Lo cuento además por que tengo experiencia en el sector del desarrollo de automatizaciones para pymes y ya van tres veces que me despiden cuando el software está listo, pensando que el programa va a funcionar maravillosamente con el becario metiendo info en la base de datos durante la hora del almuerzo. Y luego ponen el grito en el cielo cuando ven que el catálogo de 60k productos no se va a meter él solo en la base de datos, y que por muy bien que haga las fotos con el móvil la sobrina de paco, la niña no va a hacer 240k fotos en un fin de semana que tenga libre. Contrata un puto equipo de márketing para darle de comer a la bestia, o se te muere y has perdido los miles que te costó el programa. Y como se te ocurra actualizar los programas asegúrate de saber guardar los archivos con compatibilidad para que el programa los acepte, o no haberle racaneado al desarrollador cuando te comentó el asunto de la compatibilidad de archivos. Que luego queda muy mal llamar tres años después al desarrollador llorando por que nada funciona después de haberlo despedido o incluso de haberle dejado a deber unos cientos del último ajuste.
#22 acabas de describir la pyme hispañistani typical
#30 Lo sé. Lo sé. Y no sigo por que empiezo y no paro, y además se me va notando como me sube el cabreo según escribo.
Pues lo mismo que cuando haces el trabajo del cole con cosas ya hechas.
O haces tu noticia con "declaraciones al medio "x" dijeron que...." y con eso ya tienes.
Lo he visto en la tv seguro que es cierto, Lo he visto en internet seguro que es cierto, lo he visto en una ia seguro que es cierto.
Pues nunca ha sido bueno comer lo que se caga
Va a ser peor que la inundación de los resultados de búsqueda por parte de los p* sitios de afiliados de Amazon.
Web3 y apagar definitivamente la web actual.
#11 lol
#11 LOL
Ya tenemos el reguetón y a VOX próximamente en el gobierno. Creedme, ya nada puede ir a peor.
Según los pocos conocimientos que tengo después de haber cursado “Inteligencia Artificial” y “Mineria de datos” en el grado de ingeniería informática, retroalimentando a una IA sin filtrar manualmente los datos de entrenamiento lo único que se consigue es que falle más que una escopeta de feria. Me explico..
El primer requisito para tener una buena IA es tener los mejores datos de entrenamiento posibles, y para ello hace falta filtrar y preparar los datos cuidadosamente, si tienes datos erróneos en tu set de entrenamiento, la IA aprenderá de ellos y dará resultados erróneos.
Pues bien, incluso las mejores IAs tienen una tasa de error, que puede ser más o menos mayor. Con ChatGPT hay infinidad de ejemplos donde es incapaz de dar una respuesta con sentido o directamente da datos erróneos sobre datos, fechas o hechos fácilmente contrastables.
Pues es 2+2, si retroalimentas una IA, reentrenándola con sus propios datos de salida, por ejemplo artículos generados por la misma IA y publicados en internet, sin haberlos filtrado para eliminar los datos erróneos, lo que conseguirás es potenciar los resultados erróneos, y en cada iteración el porcentaje de errores aumentará hasta que llegue a un punto en el que sus respuestas sean totalmente inservibles.
PD: mis conocimientos de IA son muy limitados, pero infinitamente mejores que los de cualquier “periodista” o articulista que se ha hecho “hesperto” en IA desde que ChatGPT está de moda.
"Computadoras maduras calientes en tu zona"
Yo me lo guiso, yo me lo como.
O la dejamos que gobierne que nosotros llevamos milenios haciéndolo fatal, que gobierne la puta que sus creadores no saben
Ya te digo, ahí las IA se dedicarán a la crítica literaria.
Que se le puede sesgar retroalimentandolo con contenidos, que a su vez puede entrenarse con contenidos generados en zonas muy inciertas (donde no hay contenido para entreno, donde simplemente reaccionada de forma pseudoaleatoria) y retroalimentarse, sesgándose para que crea que eso es más verosimil que una cosa real que se le suministre a posteriori...
Cosas de aprendizaje de datos.
Esto lo dije yo en el momento que todo el mundo empezó a usar ChatGPT para hacer código.
Ahora programa "bien" porque se ha alimentado de código de ejemplo correcto, pero no necesariamente lo que genera la IA lo es (de hecho la mayoría de veces necesita correcciones)
ahora lo mismo pero de cierta calidad.
Seguramente será de mayor calidad que las mierdas desenfocadas o vídeos sin encuadre que sube la peña.
Si ya antes de la IA ya se estaba llenando de mierda autogenerada con spam, referidos y resto de putas mierdas de hijosdeputas que no tienen nada que hacer, pues imagínate ahora
La calidad de los contenidos, al igual que la inteligencia media disminuirá exponencialmente