Hace 1 año | Por Yorga77 a xataka.com
Publicado hace 1 año por Yorga77 a xataka.com

La inteligencia artificial (IA) está avanzando a pasos agigantados. En 2022 vimos aparecer generadores de imágenes a partir de texto tan sorprendentes como...

Comentarios

Yorga77

Lo digo así a lo loco pero estoy casi seguro que por el camino que van pronto podrán generarlos ellos. 😕

D

#3 Me pregunto si entonces los resultados serán peores.

Una imagen generada de "tipo dalí" puede ser muy impactante y parecerse mucho incluso para un experto, pero no será un Dalí.

Los modelos entrenados con imágenes parecidas a Dalí darán, luego, imágenes menos parecidas a Dalí.

Estoy suponiendo, por supuesto. No he hecho pruebas ni tampoco tengo la capacidad para saber si algo es más Dalí o menos


PD: las técnicas para reproducir más imágenes que las ya existentes son conocidas y están mejorando. La más sencilla, que cualquiera entendemos fácilmente, sería la editar una imagen para que sean varias. Por ejemplo, saturar un poco y desaturarla un poco te hace tener fácilmente cinco o seis imágenes de una sola. Igual que añadir un filtro con ruido, o una transformada de Laplace para quitar emborronamientos. Incluso hay redes neuronales que sacan imágenes parecidas a las que tienes para añadir aún más información al dateset.

Pero esto no hace magia, tiene mucho sentido cuando los datos originales son excasos, si tienes millones de datos creo que no se hace porque el paporte es mínimo o inexistente. Es muchísimo mejor tener cien fotos de algo que tener 10 y luego aplicarle estrategias para multiplicarla.

D

#7 Ah, otra estrategia bastante conocida y que se entiende fácil es la de rotar una imagen. Si tienes la imagen de un clip puedes rotarla 360 veces para tener 360 imágenes.

En general, todo estas funcionalidades son útiles pero, como digo, no hacen magia. El techo de los modelos tal como entendemos hoy el deep learning está fijado por la cantidad de datos de buena calidad.

Connect

De los creadores de no podremos tener una tele tan fina como el papel, llega... La IA será inviable en 2026.

powernergia

No creo que todo esto sea verdaderamente una IA al menos no una IA comparable con la mente humana, que es en lo que muchos pensábamos.

#2 Por cada invento y desarrollo que ha funcionado y se ha llevado a cabo hay decenas de cosas que no han llegado a funcionar nunca. No digo con esto que no se puedan llegar a desarrollar verdaderas inteligencias artificiales yo lo que veo es que están muy lejos, y ni siquiera creo que esto de acumular datos a montónes sea el camino, aunque supongo que también se están explorando otras maneras de hacerlo.

h

#2 No lo dice pataka.com, entiendo que no quieras entrar, pero lo dice clarito en el artículo:

De acuerdo a un documento publicado por los investigadores en el archivo en línea ArXiv, la demanda de conjuntos de datos de alta calidad para el entrenamiento de modelos de lenguaje de IA está creciendo aproximadamente un 50% cada año. La generación de estos conjuntos de datos, en cambio, solo crece a un ritmo del 7% anual.

Dejo aquí el acceso directo al link: https://arxiv.org/abs/2211.04325

colipan

Siempre saldrán aplicaciones donde si nos sacamos una foto, nos envejece, o aplicaciones que tras una foto hace cualquier gilipollez, así que tendrán alimento para las IA

Gry

Seguirá creciendo solo que en vez de depender de mejores o mayores conjuntos de datos se tratara de que aproveche mejor lo que hay disponible, más rápido y consumiendo menos recursos.

D

Sabe alguien que pasaría si una IA empieza a auto-hackearse???

anv

El problema que veo hoy en día con estas IAs es que tienen un entrenamiento fijado. Saben lo que aprendieron durante su entrenamiento y no aprenden nada más hasta la siguiente versión.

En casos específicos es útil porque uno entrena una IA para un uso específico que no cambiará nunca. Por ejemplo la IA de las cámaras sabe distinguir animales, paisajes, flores, retratos, etc y ajustarse automáticamente para sacar la mejor foto posible de ese objeto. Pero por ejemplo con la pandemia se notó algo: las IAs que reconocían caras no estaban preparadas para que todo el mundo usara mascarilla y fue necesario cargar software nuevo para que hicieran su trabajo.

Con CHATGPT pasa algo similar: da una respuesta equivocada, tu le explicas que está mal y "simula" que ha aprendido pero terminada esa conversación, en otras sigue con el mismo error.

tdgwho

#5 El peligro de dejar que aprenda cosas nuevas, es que se volverá racista, o machista o cosas así, y la bloquearán.

Y tampoco vale decirle "esto está mal" por parte de los desarrolladores, porque el "está mal" es muy subjetivo o incluso cultural

D

#5 Yo creo que el problema sería que aprendieran solas.

Cuando se realiza un entrenamiento de un nuevo modelo se hacen pruebas y se descartan versiones que dan peor rendimiento. Si de alguna forma mágica los modelos pudieran alimentarse sin tener que entrenarse otra vez, en ocasiones iría mejor y en ocasiones iría peor.