Hace 3 años | Por --491272-- a technologyreview.com
Publicado hace 3 años por --491272-- a technologyreview.com

Un nuevo artículo de la Universidad de Waterloo en Ontario sugiere que los modelos de IA también deberían ser capaces de llevar a cabo un proceso que los investigadores denominan aprendizaje de “menos de un disparo” o LO-shot. En otras palabras, un modelo de IA debería poder reconocer con precisión más objetos que la cantidad de ejemplos en los que fue entrenado. Eso podría resolver un gran problema para un campo que se ha vuelto cada vez más caro e inaccesible a medida que los conjuntos de datos utilizados se vuelven cada vez más grandes

Comentarios

c

#2 Interesante. Trabajé hace unos años con sistemas de visión artificial y eso que dices, para la máquina no es tan obvio.

Se le puede programar para dar un scoring y que te diga que es un 3 pero podría ser un 8. Pero si lo complicas un poco, por ejemplo, apelotonando los números, algo para nosotros obvio, se complica mucho.

casius_clavius

#5 En efecto, no es nada obvio. Es lo fascinante de estas técnicas, que entre otras cosas hacen que uno se dé cuenta de la complejidad que hay detrás de reconocer una forma simple. El cerebro de los animales funciona extraordinariamente bien para reconocer formas con diferentes perspectivas, incompletas, con luz deficiente o con colores extraños. Una máquina necesita un entrenamiento muy bien diseñado.

ContinuumST

#6 Y desde la imaginación... ¿habría alguna manera de premiar a la máquina aprendizajes exitosos? Del modo como sucede en la naturaleza, en el funcionamiento de organismos complejos. Lo digo porque quizás con ese "premio" (ni idea de qué demonios puede ser un premio para un software de IA) la máquina, el programa aprendiera más rápido y eficientemente. Como digo, desde la imaginación.

empe

#15 En eso se basan la mayoría de programas de IA de hecho.

ContinuumST

#22 ¿Ah, sí? Pues no sabía... ¿Y qué tipo de "premio" se adjudica?

empe

#23 No es ningún premio. Simplemente le dices si está bien o mal el resultado y así aprende.
Incluso hay un tipo de programación en la que se hacen 2 programas, uno hace algo y otro intenta reconocer si es real, y así aprenden las 2 solas.
Te recomiendo el canal DOTcsv de YouTube. Ahí te explica bastante bien el funcionamiento.
También puedes ponerla a jugar una partida de ajedrez, donde ganar la partida es el "premio", aunque se le asignan premios menores por diversos progresos como comer una pieza.

ContinuumST

#25 Gracias, le echaré un vistazo al canal.

ContinuumST

#30 Me parece muy interesante... pero algún detalle me da un pelín de miedo... "...coevolucion and competition led to the only generally intelligent species known to date..." Esa adaptación evolutiva mutua basada en la competición... Hmmm...

Cuando hablaba de "premio" me refería al término de Psicología que relaciona el refuerzo positivo con una tarea concreta. Los "premios" o refuerzos positivos son los que han creado y modificado nuestra manera de entender el mundo... algo que aumenta la probabilidad de aparición de esa conducta que se ha producido inmediatamente antes. Y es una herramienta muy poderosa en la creación de nuestra psique y nuestro comportamiento futuro... y por tanto, nuestra "inteligencia" (comillas porque definir inteligencia sigue siendo un lío y hay desacuerdos entre los expertos.) Y de ahí que plantee la posibilidad de "premiar" conductas de las IA como refuerzo a soluciones o resultados concretos que haya hecho de manera autónoma el programa. Pero claro... ¿qué podría ser "premio" para un sofisticado programa de inteligencia artificial?

Idomeneo

#31 ¿qué podría ser "premio" para un sofisticado programa de inteligencia artificial?

El análogo del "premio que refuerza un comportamiento correcto" en psicología sería el "proceso de entrenamiento" de una red neuronal, que tiene lugar antes de dar la "inteligencia artificial" por terminada y lista para usarse.

Este "entrenamiento" es en realidad un problema de optimización. Partes de un sistema que depende de muchos parámetros y que funciona regular. El problema de optimización consiste en ir cambiando los parámetros para que el sistema funcione lo mejor posible. Se considera que un cambio en los parámetros es bueno si hace que el sistema funcione mejor. Esto sería el "premio" y así es como se sabe qué cambios hay que hacer a los parámetros.

He estado buscando un vídeo que lo cuente sin entrar en demasiados detalles (para no aburrir) y he encontrado este de Quantum Fracture:



Las ruedecitas que salen en 5:40 son los parámetros que decía antes.

elvecinodelquinto

#23 Un cierto parámetro se incrementa. No suena muy apasionante, pero funciona.

P

#2 No tengo ni puta idea pero asignando "peso probabilistico" a esas relaciones, por ej color de piel - tipo de pelo, no se soluciona el problema?

De todos modos, no es innato en los humanos, por seguir con tu ejemplo, el saber que determinado color de piel suele estar asociado a determinado tipo de pelo, ese conocimiento tambien requiere de aprendizaje.

trivi

#2 también funciona para identificar tanques, si el cielo está nublado no hay ninguno

ccguy

#24 sub de ciencia

S

The images weren’t selected from the original data set but carefully engineered and optimized to contain an equivalent amount of information to the full set. As a result, when trained exclusively on the 10 images, an AI model could achieve nearly the same accuracy as one trained on all MNIST’s images.

Pues me parece que se están llevando la dificultad de entrenar el modelo a la codificación de las etiquetas/ejemplos. Si en vez de hacerlo a mano le meten un autoencoder seguro que también les funciona el invento.

eldarel

#21 No dicen cómo eligieron esas imágenes, jeje.
Lo que sí me pareció interesante es el estudio de hasta cuánto se logra usando un subconjunto significativo de datos, especialmente para redes neuronales.

a

#12 Posiblemente una IA suficientemente avanzada no notaría la diferencia entre sectarios de derechas y de izquierdas por tener demasiados elementos importantes en común. roll

gustavocarra

#13 Si hubiera una IA lo suficientemente avanzada, dejaría que fuera ella quien gobernara.

a

#17 Yo no, porque exterminaría a los humanos por una serie de razones perfectamente válidas.

NubisMusic

#13 Ouh yeah



(Qué rabia, no lo encuentro en castellano de España )

ewok

Sería la primera IA de verdad inteligente.

fcruz

#1 No. Aun falta mucho para eso.

aunotrovago

Menéame detecta fascistas con menos datos o "low-inteligence shot."

Ñbrevu

#4 El algoritmo real es el siguiente: si mete con calzador una referencia a Podemos en una noticia sobre el PP o Pox, casi con total seguridad es o bien una persona muy de derechas con poco sentido crítico, o bien una cuenta de astroturfing.

d

#8 O un bot con un AI muy pobre que no reconoce bien el patrón donde puede meter eso sin ser demasiado artificial.

Si se sienten muy estimuladas las personas tienen un comportamiento parecido a ese y acabamos todos cambiado de tema más allá de los 3 pueblos.

c

#8 Hay que reconocer que esto está cada vez más equilibrado, hay sectarios y bots de todos los bandos y ya pasó el máximo esplendor de Podemeame.

Aún así los sectarios de Podemos seguís siendo mayoría.

gustavocarra

#10 así es, poniendo siempre nuestro granito de arena. De todas formas, viendo lo que hay alrededor, no me queda otro remedio que seguir siendo un sectario de podemos, no es por fanatismo, es por falta de alternativas.

xyria

[...] sugiere que los modelos de IA también deberían ser capaces [...]

O sea, más humo.

d

#7 Creo que no lo has pillado o no lo parece.

ccguy

#7 si sólo te interesa lo que ya está terminado y listo para usar tu sitio es el corte inglés, no un sitio con noticias de ciencia e investigación

xyria

#19 ¿Desde cuando es meneame un sitio con ciencia e investigación? Es un agregador de noticias, entre las cuales hay algunas que versan sobre la ciencia y la investigación.

Estoy harto de titulares similares al de esta noticia cuando en realidad es que la IA es incapaz de distinguir a un mono de una persona de piel negra.

D

Estas noticias me ponen palote. Fin de la cita.

Pandacolorido

Errrrrrrr

D

El enfoque es interesante, pero lo que han hecho no lo es tanto. Uno de los problemas del aprendizaje con caja negra es que realmente no sabes qué ha aprendido, y ahoran están llevando eso a no saber con qué datos han entrenado la red porque han procesado los datos para que sean representativos. Se está añadiendo una segunda caja negra.

Machine learning typically requires tons of examples. To get an AI model to recognize a horse, you need to show it thousands of images of horses.

Esto es realmente falso, lo que ocurre es que un niño sí ha sido entrenado con miles de imágenes de todo tipo de objetos. Aunque no sepa qué es un unicornio, también ha visto durante su vida muchos animales que son "mezcla" de otros, por ejemplo. Y me resulta curioso que justamente el ejemplo que ponen sea tan relevante respecto a no saber qué se aprende, por la imagen que se pone ahí no tiene nada que ver con un unicornio. lol

k

Lo que sea para no tener que rellenar otro CAPTCHA.