Hace 5 años | Por robustiano a youtube.com
Publicado hace 5 años por robustiano a youtube.com

¿Sabías que un televisor podría bloquear completamente a una Inteligencia Artificial? ¿No...? ¡Pues entonces será mejor que veas este vídeo!

Comentarios

D

#5 que bien te explicas y que envidia me da. Yo a duras penas soy capaz de enseñarles a los no iniciados la diferencia entre aprendizaje supervisado y no supervisado

DotCSV

#5 #11 #15 Muchas gracias! 😄

D

#16 Puto amo es poco, cabron lol que sepas que llevo con Moctezuma's Revenge en la cabeza desde tu café y ya seguía con inspiración tu canal, de hecho actualmente estudio matemáticas con la intención de cursar física por la UNED y es un tema muy interesante por el cual después especializarse, las redes neuronales y la relatividad especial es lo que más me llama la atención en principio a ver cómo me encamino...

No pares de crear contenido por favor.

KomidaParaZebras

#5 te sigo desde hace tiempo. El canal de divulgación con el que más aprendo. clap

Lekuar

#5 Yo no conocia el canal, me ha gustado mucho, me suscribo.
Siento mucho respeto por la gente que se esfuerza en divulgar ciencia o tecnología, si encima se hace bien es maravilloso, muchas gracias .

f

#5 Muy buen trabajo y muy didáctico. ¿Habrá segunda parte explicando cómo el uso de Random Network Distillation o Proximal Policy Optimization eivtan el problema de noisy-tv?

ElPerroDeLosCinco

Ni leer en Menéame.

DotCSV

#26 Efectivamente el "Noisy TV Problem" queda resuelto usando una RND, pero eso no quita que el problema quede desfasado, porque sigue existiendo el problema para otras posibles arquitecturas. Por ejemplo, en el caso de Go-Explore (Paper : https://arxiv.org/pdf/1901.10995.pdf), del que hablabla en el anterior vídeo y que utiliza una técnica completamente diferente, es legítimo preguntarse qué ocurriría si el agente se encuentra con un TV 😀

D

A Watson le pasaron el Urban Dictionary y lo tuvieron que borrar lo aprendido porque empezó a llamar niggers a todo el mundo.

a

#8 Algo similar pasó con Tay, un bot de twitter que sacó microsoft [1] (merece la pena leerselo, es divertida la historia).

> Ejemplos de algunos tweets de Tay ese día incluían: "Bush generó el 11/9 y Hitler habría hecho un trabajo mejor que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos", así como también "Ten sexo con mi concha robótica papá soy una robot tan traviesa".

[1] https://es.wikipedia.org/wiki/Tay_(bot)

D

#12 qué bueno

Jokessoℝ

Las IA apoyarán el fascimo de forma natural, tan pronto consulten en wikipedia la lista de regímenes comunistas y sus resultados, y la lista de regímenes fascistas y sus resultados.

Las IA combatirán el comunismo,y erradicarán al abuelo de Pablo Iglesias en la Guerra Civil.

berkut

#6 El fascismo solo ha servido para hacer más grandes a sus enemigos y llevar a la miseria a los pueblos que lo sustentaron.

LucasK336

#6 siguiendo esa logica..

xiobit

#6 Solo las IA diseñadas al estilo monopoli. Las IA diseñadas al estilo social las combatirán.

Lo malo es que las del estilo monopoli serán capaces de convencer a humanos para que trabajen como esbirros intentando convencerles de que será lo mejor para ellos.

porcorosso

#6 Charlatán.

Jokessoℝ

#28 Pronto venceremos,pronto llegaremos a ocupar el gobierno.Yo mismo ordenaré y dispondré lo que se debe hacer contigo.Un juicio rápido,y Justo.

humanitario y digno.

johel

#30 no podrias poner el chatbot en un canal de ciencias un par de veces a la semana, lehrer rassistisch ?

porcorosso

#30 Eunuco.

jftry

como diría broncano: mis dieses MUY BUEN VIDEO

v

En resumidas cuentas, que la Inteligencia Artificial tiene mucho de Artificial y poco de Inteligencia.

f

#40 Afú. Hay varios tipos de problemas que resuelven las IAs, pero la mayoría son clasificadores y regresiones (aparte de agrupación y recomendación).
Una regresión es obtener valores numéricos del ámbito contínuo, por ejemplo la posición de los ojos, encuadrar un coche, etc...
Una clasificación es cuando dada una entrada la salida es discreta y delimitada a una cierta cantidad de valores (clases).
Si por ejemplo tienes un clasificador para decirte si dada una foto lo que contiene es un perro, un gato o una salchicha, tienes 3 clases: perro, gato, salchicha, y por el medio lo que hay son capas... en el caso de fotos serán convoluciones (producto de matrices) y función de activación (una función que dado un número da otro y que normalmente es casi como un true/false, digo casi porque no es así pero es una manera de entenderlo), y pooling que no es más que reducir las dimensiones de las matrices, por ejemplo si tienes de entrada una matriz de 64x64 el pooling la reduce a 32x32.
Lo importante es, ¿por qué es inteligencia artificial? Porque en las capas no eres tú el que pone los números, sino una función llamada optimizador, y que lo que hace es "back-propagation". Lo que hace el optimizador es que si tú sabes que f(x) = y entonces al meter x en la red da y', con lo que puedes formar una función llamada coste/error/loss que básicamente calcula el error... en este caso el error podría ser algo tan sencillo como y'-y| aunque normalmente se utiliza mínimos cuadrados.
¿De qué le sirve al optimizador esta función de coste? Porque el optimizador lo que busca es que esa función de coste se aproxime lo máximo posible a 0, y para ello tú tienes varias entradas X=[x0, x1, x2,...] y sus salidas Y=[y0, y1, y2...] con lo cual lo que busca es que para ese X el coste global de Y sea lo más bajo posible, y para ello lo que hace es un descenso del gradiente del error. Ten en cuenta que x0, x1, x2 no son números, son inputs, así que podrían ser imágenes, vectores, matrices, etc....

Dicho esto, el tema del NLP es que dados vectores de características donde cada característica es un n-grama (estamos hablando de vectores de más de 6000 características) y esos vectores son tus X, sabes sus Y que serán el nick de la persona caracterizada por esos vectores, que pueden ser muy parecidos entre sí. El clasificador al entrenarlo, y te aseguro que no es trivial y por eso hace falta GPU, lo que hace es minimizar el error para esas X e Y conocidas, y además genralizando, es decir, que no exista "overfitting". El "overfitting" es cuando una red aprende para los datos que ha visto, pero no genraliza para los que no ha visto. Y una vez entrenado si metes el vector de una persona como entrada, te clasifica hacia la persona a la que pertenece. Igual que en imágenes si metes una foto de un perrete, te dice que es un perrete. ¿Te parece poca IA? A ver hombre, el problema básico en Computer Vision se llama MNIST y son números escritos a mano, y el objetivo es dado un número escrito a mano que no conozca que lo acierte. Pues MNIST es 28x28 pixeles en un único canal (gris, no es RGB) con lo cual cada uno es un vector de 784 componentes a clasificar entre 10 clases, en el problema de mi artículo cada vector tiene 6082 componentes a clasificar en más de 500 clases (nicks).

Así que tío, entra ya en razón.

ttestt

#41 jaja, me quito el sombrero. Gracias por la explicación y la paciencia férrea que has tenido.
Me has recordado a las matemáticas que di en la universidad (regresión,convolución...)
Lástima que no nos enseñasen una utilidad práctica más allá de la regresión de ecuaciones en la medición de datos.

Janssen

Pues nada... no se que decir...

D

Ni el fútbol si no quiere acabar haciendo quinielas...

L

No conocia el canal. En ingles hay un par parecidos pero algo mas tecnicos que en su dia tambien analizaron ese paper y otro similar de los mismos autores.


Niobio

#20 Parece que ya le dieron unas vueltas a la cabeza y está desfasado lo del vídeo de la noticia.

D

Supongo que después de enseñarle a la IA lo que es la curiosidad, el siguiente paso es enseñale lo que es el aburrimiento.

ContinuumST

#17 O a cantar.

traviesvs_maximvs

como una ia vea nuestras npticias va a ser como este pero repitiendo Venezuela

ttestt

vaya, una noticia que habla de ia de verdad, y no de programar recopilaciones de datos filtrados y emparejados para obtener estadísticas.

f

#29 El Reinforcement Learning, que es lo que se ve en el vídeo, también es Deep Learning en el que la capa de salida suele ser una softmax. En el caso de aprendizaje de juegos (usualmente se hace con la colección de Atari) hay un número limitado de acciones a realizar, con lo cual la softmax lo que hace es la reducción de un vector n-dimensional de números reales, hacia un vector n-dimensional de números en el rango [0,1] dónde cada dimensión es una de las acciones posibles (arriba, abajo, izquierda, derecha, salto, disparo...) y el escalar es la probabilidad de que esa acción sea la adecuada a realizar.
Lo digo porque en NLP con Deep Learning también la softmax es la única capa en la que existe el concepto de "probabilidad" o de estadística, mientras que todo lo demás es álgebra y cálculo (matrices, optimizador adam, función de activación...).

Oye, que si quieres quedamos por hangouts o skype, y te doy un curso... aunque sigo recomendándote que te compres por amazon el libro "Artificial Intelligence: A Modern Apprach", que es la mejor forma de iniciarse.

P.D.: mírate Deep Learning: Genera tus propias imágenes con BigGAN ahí la salida no es una softmax así que hay 0 estadística

ttestt

#35 Es que ya es la segunda vez que alguien postea un script que saca estadísticas y lo llama ia.

Está este: Inteligencia Artificial aplicada a meneame.net

Hace 5 años | Por --434325-- a iartificial.net


Y luego está tu artículo en el que ya hablamos sobre esto, que precisamente tú me decías:
"Machine learning es todo aquello que conlleve un aprendizaje automático, bien sea supervisado o no supervisado, independientemente de las técnicas empleadas"

Y me dirás qué tiene el script que hiciste de "aprendizaje automático" cuando lo que hace es recopilar datos, buscar coincidencias y sacarte una estadística de porcentajes más cercanos.

P.D: el artículo que linkas sobre generar imágenes es muy interesante, lo miraré más a fondo cuando tenga tiempo.

f

#38 Es que no te enteraste de nada en mi artículo. La recopilación de datos no es la IA, el calcular los n-gramas no es la IA, lo que es la IA es que el clasificador está hecho con Deep Learning. No es que yo busque coincidencias, no es que saque una estadística de porcentajes, es que hay una red neuronal de que dada la entrada (los n-gramas) sabe a quién pertenecen. Hay una neuronal, multicapa con lo cual es deep learning, y está explicado por encima en el artículo:

Ahora tendremos un modelo entrenado que dado un input de una persona (su array de features) nos da la probabilidad de que sea cada usuario del foro

¿Qué crees que es un modelo entrenado? Es la representación matemática de los valores calculados por una red neuronal, en este caso un clasificador.

"En una red neuronal que clasifica, la última capa suele ser una softmax, para interpretar el resultado basta con mirar los pesos más elevados que conectan la capa anterior con el nodo más activado de la softmax, de esa manera encontramos las features más decisivas."

Ahí cuento lo que es la última capa. De varias capas hombre, de varias. Pero es que la softmax es de las capas de salida más comunes que hay, coño ya, que hasta me pongo de mala hostia, que lo que hay en este vídeo sé de buena tinta que la salida es una softmax, que se ve la resolución de Montezuma's Revenge que es uno de los que tienen efecto noisy-tv, y sé perfectamente que la última capa es una softmax.

No soy especialista en Machine Learning general, de hecho no me gusta, la estadística no me va. Soy especialista en Deep Learning, me gusta el álgebra, me gusta el cálculo, es lo que sé hacer, es a lo que me dedico, es con lo que meto los garbanzos en mi olla desde hace años, es lo que estudio y es lo que me define. Así que de verdad, cuando vengas de buenas dispuesto a aprender, te puedo aconsejar, mientras vengas de "opinador" sin conocimiento, entiende que lo que consigues es que a mí me suba la adrenalina pero sigas igual de equivocado.

ttestt

#39 Entiendo tu reacción y lo siento, pero hubiera bastado si en el primer comentario me hubieras explicado que no es lo mismo hacer una estadística relacionando datos dándoles peso a los más raros, que un sistema que te la hace creando correlaciones matemáticas. Que supongo que será más rápido y preciso (espero) .
Aunque sigo sin ver qué aprendizaje tiene cuando el camino es uno y único cuando lo obtienes, pero no es como un videojuego o la vida real, que hay miles de caminos para llegar a un lugar.
En vez de eso te fuiste por las ramas y yo me quedé igual que estaba.

Extremófilo

Las IA del futuro interpretaran la televisión y otras formas de expresión humana como lo que son, folclore.
Los conocimientos que manejen estas IA vendrán de la interacción con auténticos humanos y los datos reales que les de el puto big data.
La IA del futuro no nos eliminará como piensan muchos, la IA del futuro, nos ayudará a resolver las grandes preguntas de la humanidad y gracias a ella seremos capaces de viajar a otras estrellas.
A la IA del futuro le molará mazo la república catalana y se pillará un apartamento entre blanes y cadaqués.

johel

interesante, ya tengo un canal nuevo que ver esta semana

Jack_Herer

Estos son los meneos que molan.