Hace 4 años | Por abelongi a eldiario.es
Publicado hace 4 años por abelongi a eldiario.es

El concepto 'red neuronal' cada vez aparece en más artículos académicos sobre tecnología o artículos periodísticos sobre inteligencia artificial Aquí van unas nociones básicas para comprender mejor qué significan

Comentarios

CortoCircuito

#9 #6 tiene más de 50 años. Lo que las ha hecho resurgir hará unos 10 años ha sido el patrón CNN (convolutional), que se hizo factible de entrenar con potentes GPUs.

L

#23 Segun tu de cuando datan?

F

#23 Eso, y la capacidad computacional que permite entrenar modelos de millones de parámetros. Hace 10 años era impensable.

Además de las técnicas como weight decay, batch normalization o las Residual Nets, que permiten entrenar modelos de decenas de capas evitando uno de los mayores problemas que hace 15 años no tenían solución, como la explosión o desvanecimiento de los gradientes.

L

#1 El de Andrew Ng en Coursera supongo, no?

Siguen usando Octave o ya se han actualizado?

#2 Sí señor. Y seguimos con Octave. Al principio le tuve un poco de tirria porque la interfaz podría ser mejor, pero es acostumbrarse.

Y lo prefiero antes que Matlab.

lawnmowerdog

#5 Hoy día, para Data Science se usa Python y R. Pero para temas de redes neuronales, sobre todo Python con numpy, pandas, keras y tensorflow.

Si queréis probar las TPUs de Google de forma gratuita: https://colab.research.google.com/

Son notebooks basados en colab (un fork de google del sistema jupyter). Va todo con python y puedes elegir entre usar GPUs y TPUs. Para usar TPUs hacen falta datos con dimensión de entrada a la red neuronal que estés diseñando bastante grande y con tamaños de "batch" para el entrenamiento también bastante grandes.

cc: #2 #3

D

#2 Actualizado a qué?

bicha

#4 python?

D

#1 Y no tan pequeños...

La gran diferencia entre el deep learning con el resto del machine learning, es que el DL no produce modelos predictivos interpretables, sino cajas negras.

Lo cual está directamente relacionado con los casos de uso de ambos paradigmas: el ML se utiliza para tareas científicas, en las que la predicción es la comprobación experimental de las hipótesis que se generan y en las que el fin último es la explicación del fenómeno; y el DL para tareas tecnológicas en las que el fin es la categorización en sí misma y no se espera un concimiento profundo (paradójicamente) del fenómeno.

Y aunque el DL tiene un desempeño casi increíble en este tipo de tareas, inalcanzable en muchos casos para otros modelos de ML, también posee una serie de limitaciones, como la incapacidad para lidiar con jerarquías, o la de diferenciar la causalidad de la correlación, que lo invalidan como sustituto de otros paradigmas.

Por otra parte, la falta de interpretabilidad, además de representar un problema en términos de su nula transferencia científica, es también un desafío en términos legales y éticos. Y los resultados de las últimas investigaciones que se están realizando en mejorar este aspecto son francamente decepcionantes, en lo que parece ser ya la tónica en la relación entre el DL y la humanidad, y dejan entrever que ésa es una tarea para la cual la ciencia actual no posee herramientas.

F

#1 Machine Learning es solo un área de la IA. La más efectiva, sí, pero un área. De hecho está a caballo entre la estadística y la IA.

E

#6 más, hace 20 años que hice mi PFC y usé una red neuronal, no eran nada novedoso.

#8 Yo las estudié en la carrera, hará unos veinte años también y no solo no eran novedosas. Por aquel entonces recuerdo que mi profesor nos contaba de casos de uso concretos donde habían dado algún buen resultado (en reconocimiento de formas, creo recordar) pero dudaba de su efectividad general. Me pregunto qué ha cambiado. Supongo que ahora serán mucho más masivas que entonces por la disponibilidad de más hierro y de mejores modelos de computación distribuida y que eso permitirá aplicarlas a más tipos de problemas que antes.

lawnmowerdog

#10 #11 Eso (capacidad de cómputo con GPUs y TPUs) y que han habido cambios matemáticos y de uso de estadística que han hecho que por fin las redes neuronales aprendieran de forma más eficiente. Uno de los cambios, entre otros, más importantes fue el usar le función ReLU para la activación de las neuronas: https://es.wikipedia.org/wiki/Rectificador_(redes_neuronales)
Otro tema fue hacer la normalización de los datos, básicamente para tratarlo todo como una probabilidad (entre 0 y 1).

* TPU: https://cloud.google.com/tpu/docs/tpus

D

#11 TPUs

yoiyitsu

#10 sucede que la potencia de cálculo a crecido drásticamente y la cantidad de información también.

Habitualmente, una red neuronal "funciona" mejor, son más efectivas, a mayor cantidad datos

bicha

#10 Además de las GPUs ahora existe gran cantidad de ejemplos para entrenarlas en muchas areas. Antes no había tantos datos disponibles.

lawnmowerdog

#18 Gran cantidad de ejemplos "clasificados". Hoy se paga para que la gente clasifique datos para luego usarlos para entrenar las redes neuronales.

#20 a Facebook y Google ya le hacen ese trabajo de “clasificación” gratis millones de personas. Otro motivo más aparte de los que habéis mencionado es que los frameworks actuales hacen muy sencillo trabajar con ellas y crear tipologías nuevas

B

#10 ha cambiado el hardware.

Antes con lo que había no daba para hacer cosas decentes.

Jakeukalane

#28 #24 #8 #10 Bueno yo sólo me basaba en un libro que tengo de "inteligencia artificial" del año de la polca que no hacían mención explícitamente a eso pero sí lo describía, pero más en que la serie de libros de ciencia ficción de Otherland salió en 1998 y ya los incorporaba como elemento de ficción, ergo tenían que tener más tiempo sí o sí. La verdad no me esperaba que tuviera ya 50 años el concepto.

snowdenknows

#8 se han vuelto más de moda utilizadas, más estudiadas, y teoricamente más evolucionadas principalmente gracias al aumento de potencia de GPUs y demás

#6 sí, tiene ya sus años como concepto. Pero en aquella época existían algoritmos que funcionaban bastante bien por mucho menos coste computacional. Las redes neuronales cuestan mucho entrenarlas y la más sofisticada que podías encontrar seguramente fuera el perceptrón multi capa, que tampoco es que haga milagros frente a algoritmos más sencillos

r

#6 Lo primero que pensé...

Jakeukalane

#25 Y mucho TPUs, tensorflow, GPUs, pero luego el html hay una tilde y les falla la codificación: "Jes�s". lol

D

#14 Lo siento, pero no has pasado el test de Turing. Necesitas más entrenamiento.

Qué es eso de internet y por qué vamos a oir cada vez más sobre él.

D

#7 Pues lo mismo, 4 billonarios, 400 protagonistas manejando la cosa en EEUU y dos en China ... y 4000 millones de espectadores haber que nos echan hoy y que inventan, donde zombiara la gente en que Googles y Facebook y cosas asi que traiga la IA

D

Para un primer acercamiento es muy recomendable el playground de Tensorflow, que permite ir comprobando de manera práctica los conceptos fundamentales de las redes neuronales.

F

#34 En una red neuronal no hay ni un solo if. Son todo operaciones matemáticas en bloque.

S

#34 Pues hombre, teniendo en cuenta que una red neuronal se puede ver como una composición de funciones, no se dónde hay ifs. Lo que vas es modificando el valor de entrada a cada paso hasta la salida.

soundnessia

... por qué cada vez quedan menos. Están en peligro de extinción. roll

b

Para un artículo mucho mejor y más breve, buscar en Google "La inteligencia artificial explicada sin tecnicismos".

D

Lo gracioso del asunto es que al final no dejan de ser programas normales con un montón de ifs. Lo mágico del asunto es que esos ifs se generan a base de entrenamiento en vez de tener que programarlos a mano.

S

#32 Se te ve puesto en el tema.

D

#33 Un poquito nada más, pero vamos, te reto a que desmientas lo que he dicho

aritzg

A ver a ver... muchos listillos por aquí... cuales son vuestros niveles en Kaggle.... que sois todos unos bocachanclas

F

#35 Para mí, Kaggle ha establecido un precedente que es una puta lacra para la profesión. Para cada vez más empresas, ahora resulta que si no trabajas gratis en casa haciendo kaggle no eres Data Scientist. Vamos, que después de pasarte 8 horas en el curro desarrollando modelos en Tensorflow tienes que seguir en casa para tener estrellitas en Kaggle. Si no, eres un loser.

Por la parte de accesibilidad a datos y problemas para aprender, y como comunidad, es una puta maravilla.

S

#40 Bueno, es una forma más de demostrar que sin experiencia profesional eres válido. Si tienes mil papers en arxiv o has trabajado en X empresa como Data [Inserte aquí appelido] no creo que le den mucho valor a Kaggle, o no deberían al menos.

F

#41 Afortunadamente hay muchas empresas que todavía no lo tienen en cuenta. Pero sí que he visto que los recruiters empiezan a tratar a los kagglers como candidatos "VIP". Mal precedente.

S

#43 Si valoras Kaggle por encima del resto de méritos, entonces si... mal vamos a ir.