Hace 5 años | Por ccguy a hipertextual.com
Publicado hace 5 años por ccguy a hipertextual.com

La última muestra la posibilidad de detectar hasta 50 enfermedades y problemas oculares y realizar un diagnóstico con una fiabilidad de acierto tan alta como cualquier profesional del campo. Así lo han demostrado en unas pruebas preliminares realizadas en el londinense Moorfields Eye Hospital, donde se ha podido comprobar que la inteligencia artificial desarrollada es capaz de identificar los problemas oculares de los pacientes en las inspecciones rutinarias, pudiendo derivarles también al tratamiento concreto que necesitarían.

Comentarios

D

#11 En mi opinión hablar de Inteligencia Artificial a día de hoy tiene mucho más de artificial que de inteligente. De todas formas creo que los avances que se han conseguido últimamente no son por ello menos sorprendentes (y útiles). También estoy de acuerdo con #12 que dice que cada vez subimos el listón respecto a lo que consideramos inteligencia pero también matizaría que eso suele ocurrir porque al resolver totalmente un problema nos damos cuenta de que no era tan "complicado", como en el caso del ajedrez, pero no incluiría en los problemas superados el de un coche autónomo, en circunstancias muy limitadas quizás sí, pero en general no.

Lo que está claro que esas IA no tienen nada que ver con lo que se ve en el cine, que aprenden de todo y a veces terminan asesinando a sus creadores.

aironman

"Aseguran también que los profesionales serán siempre necesarios en el uso de esta herramienta, teniendo ellos la última palabra sobre el tratamiento a implementar para un paciente concreto."

Mola.

D

#2 al final es una herramienta más como un bisturí o una radiografía. Usar cosas modernas no te hace menos médico igual usar un simulador en vez de hacer cuentas a mano no te hace menos ingeniero

Conde_Lito

Lo sorprendente hubiera sido que pudiera predecir que problemas va a padecer en el futuro un ojo, de acuerdo al estado en el que se encuentra este actualmente.

A día de hoy en oftalmología ya está "casi todo inventado", es uno de los campos de la medicina que más avanzado está y no es dificil, exceptuando en algunas ocasiones, diagnosticar que es lo que le ocurre a tu ojo ya que se ve sin problemas con los aparatos actuales, no hay demasiadas variables ya que si tienes un desprendimiento de retina el médico lo puede ver sin mucho problema, lo mismo con un glaucoma, con una uevitis, vista cansada, cataratas, una conjuntivitis o una queratitis, por ejemplo.
El problema que hay en oftalmología es que tienes que pasar un montón de máquinas para saber en que estado tienes el ojo y si tienes algún problema en él. Si esta máquina es capaz de hacerte un reconocimiento total del ojo sin pasar por 30 máquinas diferentes, bien por ella, sería un gran avance y además como colofón final te dice lo que ha salido mal en las diferentes pruebas.

Tengo miopía bastánte alta y estoy operado de glaucoma, me hago revisiones cada 6-8 meses, lo primero que me hacen es ponerme en una máquina que me mide la miopía y el astigmatismo con sus grados y tal, después dan la vuelta a esa máquina y me ponen la cabeza en otra para mirarme la tensión, la máquina lanza un soplido de aire y me mide la presión primero de un ojo y luego del otro.
Dentro de la consulta el oftalmólogo también me suele mirar manualmente la tensión y el fondo del ojo.
En ocasiones también me hacen una campimetría para ver como tengo la visión periférica ya que con el glaucoma es lo primero que empiezas a perder, me meten la cabeza en una semiesfera y mirando fijamente a un punto central se empiezan a encender dentro de esta unas luces aleatorias más o menos intensas (destellos), cada vez que vea encenderse una luz tengo que apretar un pulsador sin dejar de mirar al centro.
En muy rara ocasión incluso me han hecho un TAC (Tomografía) de los ojos en otra máquina.


Muchas veces incluso no le ocurre nada a tu ojo y es el cerebro el que no ve o interpreta mal la información que le llega del ojo, otras veces el encargado de que veas mal es el sistema nervioso que puede hacer que tu iris se abra o cierre mucho o que el control de los músculos encargados de enfocar no es el adecuado por los motivos que sea y no puedas enfocar correctamente más allá de que tengas o no miopía o hipermetropía.

vaiano

Como dice en la noticia ahora falta aplicarlo en un entorno real, ojalá se mantenga ese rendimiento de éxito elevado y ayuda a mejorar la calidad de vida de la gente y ya si lo meten en la sanidad pública y ahorra dinero en futuros tratamientos sería pedir demasiado ?

tranki

#8 O sea que de "Inteligencia Artificial" sólo tiene el nombre...

Ordenar datos, aplicar algoritmos, evaluar estadísticas
Eso no es "inteligencia"

Quizás en un futuro...

x

#11 Uf! Es que definir “inteligencia” ya trae cola... pero si, estos algoritmos (llamados clasificadores, porque dividen los datos en sí/no, tipo a/b/c) no dejan de aplicar lo mismo que hace un médico, que es estudiar casos pasados, síntomas y, de acuerdo a pruebas clínicas, pues eso es a o b.

A la máquina le puedes enchufar una miríada de datos de los que puede determinar cuáles son estadisticamente significativos o, al menos, que tienen cierta correlación estadísticamente significativa aunque no expliquen porqué o cómo contribuyen a una enfermedad.

f

#11 Jo, qué ganas de ir por la calle atizando gente en la cara con el "Artificial Intelligence: A modern approach" de Peter Norvig y Stuart J. Russell, edición tapa dura, de 1087 páginas, solamente para ver si se dan cuenta de que la inteligencia artificial no tiene por qué ser la "genérica que toma conciencia de si misma" de las películas y novelas de ciencia ficción.

bicha

#11¿Y qué crees que hace tu cerebro? usa otros algoritmos y tiene mejor hardware, pero lo mismo.

D

#8 Precisamente estoy ahora estudiando eso , y lo has resumido magistralmente

Jokessoℝ

Os imaginais un futuro donde no haya funcionarios, y todo lo resuelva un gigantesco centro de datos del Estado?

Pues en ese futuro, aún habrá Notarios y Registradores de la Propiedad sacando textos por la impresora y firmando con bolígrafo.

D

#6 Hombre.... Siempre está bien tener un documento físico que demuestra que tu casa es tuya.

rigordon

Con los móviles y los pc vamos genial con los ojos todos.

i

El futuro y espero que pronto presente de la medicina.
La IA puede ser una gran herramienta para el diagnóstico de enfermedades, sobre todo en los sitios donde haya escasez de médicos.
No todo va a ser apoderarse del mundo y destruirlo

D

#3 No todo va a ser apoderarse del mundo y destruirlo
Igual sí, pero ya podríamos verlo venir

D

Podria ser posible incluso una campaña con una app para hacer un burdo cribado de la gente con sus moviles. No va a detectar mucho , pero lo poco que detecte podria ahorrar mucho sufrimiento (y dinero)

P.D. : Este articulo ha suscitado comentarios de mucho mas nivel del habitual en los ultimos tiempos de meneame. Ojala sigamos asi.

s

#22 Sí es inteligencia artificial, por la sencilla razón de que aprende, antiguamente la IA no era capaz de aprender, por ejemplo una máquina con la que jugabas al ajedrez no aprendia en cada partida, tan sólo era más rápida que tú, ahora aprenden experimentando, algo así como nosotros pero más rápido y con la ventaja de que no se cansan.

daseingeist

#23 eso me lo explica un poco más. Entiendo entonces que lo que hace que esta tecnología sea denominada IA (y por lo tanto el asombro sea mayor) no es que cada vez haya podido introducírsele un algoritmo más potente y preciso sino más bien que ella sola se está construyendo un algoritmo cada vez más potente y preciso.

f

#28 Antes de nada una corrección a tu frase "una función que te da un output para un input y que se compara automáticamente con unos valores ofrecidos de antemano para que los outputs se parezcan cada vez más a los ofrecidos de antemano". No es para que se parezcan a los ofrecidos de antemano, sino a la generalización de los valores ofrecidos de antemano. Esto es muy muy importante, porque en inteligencia artificial hay un término llamado "overfitting". El overfitting sucede cuando lo que aprende la IA no es la generalización, sino que está aproximándose demasiado a los valores que se le han enseñado de antemano, con lo cual no funciona bien con valores nuevos. Esto es muy muy importante porque los valores que se enseñan de antemano no necesariamente tienen que ser correctos. Por poner un ejemplo, si estamos enseñando casos clínicos, no siempre el médico tuvo que haber llegado a la conclusión correcta, pero habrá casos clínicos similares en los que los médicos sí llegaron a las conclusiones correctas. Si la red neuronal para el caso clínico de ese médico que se equivocó devuelve la conclusión de ese médico en lugar de la correcta, es un caso de overfitting the libro.

1.1. La respuesta la obendrás en el capítulo 26 de "Artificial Intelligence: A modern approach", en concreto en el párrafo 26.1.2 habla exactamente del argumento de Lucas según el cual aunque un sistema formal F no sea capaz de construir G(F), y la máquina aprenda nuevos axiomas para construir F', entonces no sería capaz de construir G(F') y así hasta el infinito. Esto se aplica a máquinas de Turing pero no a computadoras reales, porque las máquinas de Turing son infinitas, pero las computadoras son finitas, así que pueden ser descritas com un sistema en lógica proposicional, con lo cual no están sujetas al teorema de incompletitud. Además, porque una inteligencia artificial tenga limitaciones a lo que puede establecer como cierto mientras otras sí, no hay ningún problema. De hecho, incluso si las computadoras tienen limitaciones en lo que pueden probar, no está demostrado que los humanos no las tengan.

1.2. Los inputs al final son vectores de datos. Si tú de input tienes un vector en el que aceptas 1000 números reales entre 0 y 1 (usualmente los datos se normalizan), no hay problema en qué se esté representando con dicho input. Recuerda que las IA son agnósticas, no saben con qué datos están tratando. Ahora bien, cuando defines una topología, lo haces no siendo tan agnóstico: si uso una CNN (Convolutional Neural Network) es porque estoy utilizando un tipo de operación matemática concreta que es el producto de matrices de 2 dimensiones, y eso a imágenes le viene bien, pero si es sonido... dependerá de lo que estés proporcionando. Por otro lado, hay muchísimos tipos de redes neuronales que aplican a según qué problema, una foto es un instante puntual en el tiempo pero un sonido no, necesitas una "memoria" para saber lo que ha sucedido justo antes para interpretar lo que vas a devolver. Ejemplo: si quisieras hacer una IA para traducir de sonido a texto, necesitarías memoria para interpretar de qué sonidos viene para que al final aprenda los fonemas, las pausas, etc. y ahí no te vale una CNN sino una LSTM RNN (Long Short Term Memory Recurrent Neural Network). Cada herramienta para cada problema. Al final es matemáticas, y saber qué funciones aplican mejor al problema.

2. Pues precisamente a mí son las que menos me interesan la verdad, porque están más cercanos a minería de datos que a inteligencia artificial, y aunque sea un problema NP duro, la técnica que hay detrás es muy sencilla y no me llama. Sí, tenderá a hacerlo de la misma manera para la misma dimensión de inputs y la misma cantidad de grupos, sencillamente porque el problema es encontrar los centroides y dibujar el mapa de voronoi, así que no hay azar en ello. Si buscas la misma cantidad de grupos y quieres encontrar cosas diferentes, cambia la dimensión de los inputs... Hablando en plata, si tienes una tabla de datos, elimina una de las columnas y prueba. Sobre lo de decidir el número de cluster, si k-means es el algoritmo que agrupa en k grupos, elbow es el algoritmo que ejecutando k-means decide el k óptimo. Como te decía, toda IA se basa en una función de coste o de loss, que normalmente es el sumatorio de los errores al cuadrado (SSE). El método de Elbow básicamente ejecuta k-means con diferentes valores de k buscando aquel cuyo SSE es minimizado.

daseingeist

¿Es una IA por reconocer patrones? Porque una tira reactiva de orina te dice si hay o no leucocitos en orina, si hay nitritos, etc, y nunca he oido que la llamen inteligencia artificial. Pregunto vaya.

f

#16 Teniendo una mente tan preclara como la tuya podrás ayudarme... aquí tienes una base de datos de 5GB de tomografías de coherencia óptica retinales: https://www.kaggle.com/paultimothymooney/kermany2018.
Hay un juego de datos para entrenar clasificado en 4 clases: DME, CNV, Drunsen y Normal. Y hay otro juego de datos para clasificar. No te pido que me las clasifiques en las 4 clases, tan solo con saber si es Normal o no lo es para saber si la retina tiene alguna anomalía. Como es solamente reconocer patrones, me lo harás en un plis.

Ten en cuenta que este ejercicio es varias órdenes de magnitud más sencillo que lo que se ha logrado según la noticia.

¡Gracias figura!

daseingeist

#18 entiendo perfectamente que quieras ser irónico habiendo percibido como innecesariamente altivo mi comentario. Pero no voy a "bajarme del burro". Mi pregunta sigue en pie: ¿Es una IA por reconocer patrones?
Yo, sin la tira de orina reactiva, tampoco voy a saber reconocer patologías en la orina más que muy groseramente. Podré ver turbidez, o espuma, y estimar que pueda haber proteinuria, infección, sangre... Pero eso, muy grosero. Para eso se infentaron artefactos (arte-facto, hecho por el arte, por la tecne) que dadas unas circunstancias puedan reaccionar a variaciones más precisas y por lo tanto arrojar resultados más precisos. Cualquier aparato para realizar mediciones y que arroje resultados en función de un algoritmo programado, como los que se usa, qué se yo, en un ELISA, en una citometría de flujo, o cosas así, serían por lo que se da a entender en la noticia una Inteligencia Artificial. No voy a negar el asombroso y maravilloso logro que es que cada vez que consigan tecnologías más potentes y con más capacidad de detección y procesamiento de información, porque, entre otras cosas y como tú bien dices, el ojo clínico tiene limitaciones obvias, y ahí es donde puede apoyarse de una tecnología que supere sobradamente esas limitaciones. Pero esto no quita, a mi parecer, que resulte a la vez sospechoso y sensacionalista que en esta década se le llame a las cosas tan ligeramente "Inteligencia Artificial", cosas que en última instancia son, a nivel formal/estructural lo mismo que una tira reactiva de orina, solo que mucho más potente, capaz y precisa. ¿Ahí es donde aparece la Inteligencia? ¿Trazo un umbral y digo: a partir de que diferencie tantas patologías con tanta precisión es Inteligencia, menos no?
Y digo todo esto no porque no haya que celebrar todos esos logros en medicina y tecnología, que evidentemente hay que celebrarlo y nos van a ayudar a todos, sino porque me resulta peligroso que nos quieran vender algo aprovechando que desde hace tiempo (y de nuevo a mi parecer) hay una total carencia de reflexión acerca de lo que sea el término Inteligencia. Vamos, que esta noticia llega a tener como titular "Nueva tecnología aumenta en X la precisión diagnóstica oftalmológica" y tendría muchísimos menos clicks que empezando por "IA de Deepmind".

f

#22 Dices que es sensacionalista que en esta década a según que cosas se las denomine inteligencia artificial. En realidad es lo contrario: la definicion de inteligencia artificial en ciencias computacionales es la que es, y aquellos que no han estudiado informática tienen un concepto novelístico y no académico de inteligencia artificial.
Que tú no creas que algo como por ejemplo un sistema experto (base de datos, base de reglas y motor de inferencia) sea inteligencia artificial es precisamente porque tú has puesto la cota mucho más alta que la académica cuando la definió creo que en 1958, y tienes la cota más alta que los propios expertos en inteligencia artificial.
Por otro lado, el machine learning es un subconjunto de técnicas de la inteligencia artificial, y el deep learning es un subconjunto del machine learning que se engloba en lo más parecido al aprendizaje no intuitivo de las máquinas, lo más parecido a la percepción humana. Y lo qir presenta la noticia es deep learning: al sistema le das las imágenes y la clasificación, no le das cómo reconocee loa patrones para cada clasificación. No solamente reconoce patrones sino que los identifica.
Por otra parte hablas de la mejora en algoritmos. Puede que esto te cueste mucho entenderlo pero, ¿sabes cuántas líneas de código hay en libros buenos de inteligencia artificial? Exactamente 0. No pienses en algoritmos sino en técnicas. Es todo matemáticas. Tú no mejoras una red neuronal haciendo código, la mejoras cambiando la topología de red, los hiperparámetros, o mejorando la calidad de los datos de entrada.

En resumen, que a ti algo no te parezca inteligencia artificial, al mundo académico le da exáctamente igual. Y el problema de base es las falsas expectativas creadas por el nombre del término, la literatura de ciencia ficción, las fake news y la falta de buena divulgación científica.

daseingeist

#25 es cierto que me faltan conocimientos específicos en el tema en cantidad ingente como para en última instancia poder decir algo para lo que no tengas cotraargumento y con razón, pero ya que estás puesto voy a aprovechar para hacer preguntas, no sin puntualizar primero que la cota alta no la pongo yo, sino que más bien reconozco o coincido con quienes la han puesto, que considero que no pertenecen al mundo de la ciencia ficción.
Las preguntas son las siguientes:
-Al ofrecerles la clasificación, ¿estas consisten en una red/jerarquía/conjunto de atributos/propiedades/características que harían que cada imagen de OCT, en función de cómo las presenten, pueda ser clasificada?
-¿Sería capaz la IA de descubrir/crear nuevos conjuntos o categorías de clasificación?
-Puesto que desconozco qué es en éste ámbito la topología de red, te pregunto por ella: ¿implica una estructura que determina qué información puede manejarse y cómo se maneja? Es decir, ¿es en lo fundamental un "criterio" o "función"? Naturalmente me puedes decir si he preguntado un disparate.

f

#26 " no sin puntualizar primero que la cota alta no la pongo yo, sino que más bien reconozco o coincido con quienes la han puesto, que considero que no pertenecen al mundo de la ciencia ficción" - ¿Hablas de Yann LeCun? ¿Peter Norvig? ¿Hinton tal vez? ¿Schmidhuber? ¿Andrew Ng? ¿Sutton? No te sonarán ni los nombres. De nuevo, lo que tú o tus amigos penséis que es la inteligencia artificial, a los expertos de IA (algunos los acabo de mencionar) se la trae al pairo.

Sobre tus preguntas:
1. El problema es que aunque te lo explicase en profundidad sería complicado que lo entiendas. Digamos que hace 3 siglos un tal Taylor demostró que si una función f(x) es derivable n veces en un punto, entonces esa función se puede expresar de manera polinómica. Eso en aquel entonces fue la polla con cebolla y de ahí surgió el teorema de Peano del resto, por poner un ejemplo. ¿Y qué tiene que ver esto con deep learning? Al final ese teorema es la base del perceptrón. Supón que tienes una función lineal f(x) -> y. Al ser lineal entonces f(x) = a.x + b = y. ¿Hasta ahí bien? Ahora supón que tienes varios pares x e y, y a partir de ahí tienes que adivinar a y b. Ok, trabajo fácil, de hecho con 2 ya está todo hecho. Ahora supón que estás en un espacio n-dimensional, así que x no es un único valor real, sino un vector de valores... tendrías algo como f(x) = a1*x1 + a2*x2 + a3*x3.... an*xn + b. Esta fórmula que ves aquí, es una línea en un espacio vectorial. Si renombras "a" a "w" (de weight) ya tienes la fórmula genérica del perceptrón, la unidad básica para entender redes neuronales. Recapitulemos: tenemos el input [x1, x2, x3,...] y queremos obtener una función aproximada que sepa y para cada posible input; tenemos además los pesos (weights, las "a" que ahora llamamos "w", que desconocemos, y tenemos esa b ahí suelta. Esa b la llamaremos bias. ¿Para que vale la b? Pues porque si no nuestra función siempre pasa por y = 0 cuando x = 0, hay que poder desplazar la función en vertical para poder representar cualquier función. Resulta que ahora calcular esas w1, w2, w3... y la b ya no es un problema tan sencillo como antes... ¡qué putada! Y eso que todavía estamos en una función lineal. Y por tocar los cojones, la función ya no es tan lineal, sino cualquiera... pero resulta que por Taylor sabemos que si la función que queremos representar es derivable n veces en un punto, entonces puede representarte de manera polinómica, que al final no es más que una expresión reducible a cálculo lineal, lo que quiere decir que si operamos perceptrones con perceptrones, podemos representar cualquier polinómica. Pero claro, cada vez se hace más jodido calcular los pesos y los bias de cada perceptrón...
Por cierto, en este punto, si tienes un input x y quieres calcular el y en esta red de perceptrones, a ese cálculo se le llama forward propagation: coges el input y lo vas multiplicando por sus pesos en cada perceptrón, haces el sumatorio y sumas bias en cada uno, y la salida son inputs de otros perceptrones, y así sucesivamente.
Y aquí entra Newton. Newton era un tío inquieto, y una de las cosas con las que jugó, fue con el descenso de gradientes: ¿en un gradiente n-dimensional cómo podemos calcular los mínimos? Pues bien, este descenso de un gradiente es el corazón que si lo entiendes, entiendes redes neuronales. Resulta que tú tienes una cantidad de datos x y sus correspondientes y que ya conoces, y tienes el mecanismo de forward propagation que te devuelve un valor y' (y prima). Resulta que puedes calcular el error que hay para cada x, ¿no? Sabes el valor real, y sabes el valor predecido por tu red. Si quieres calcular en cuánto te has equivocado, simplemente restas el predecido del real y aplicas valor absoluto. ¿Y si quieres calcular el error total? Pues como tienes n inputs con sus n outputs reales y predecidos, puedes aplicar mínimos cuadrados. Así que oye, ¿y si te creas una función que dada una cantidad de outputs reales y outputs predecidos te diga cual es ese error, para saber cuán bien funciona tu red neuronal?
Pues resulta que si consigues diseñar esa función (a la que llamaremos función de coste o de loss), si consigues un método para modificando los pesos y los bias calcular cómo descender en el gradiente de esa función... Por ponerlo en palabras llanas: toqueteando pesos y bias, conseguir que la función de coste valga cada vez menos. Si consigues eso, resulta que puedes calcular pesos buenos y bias buenos para representar cualquier función!!!!
Bien, pues resulta que esto que dicho en palabras parece fácil, a nivel matemático es una putada bien gorda, porque es muy complejo, porque los gradientes n-dimensionales tiene muchos "agujeros" y no sabes si el "agujero" en el que estás es el más gordo. Y por ello hay algoritmos llamados "optimizadores", como por ejemplo SGD, Adagrad, Adadelta, Adam.... Y aquí viene lo del learning rate. Lo escucharás mucho. Y creerás: "joder, learning rate, si es gordo entonces aprende más rápido, voy a poner 100 millardos". Resulta que el learning rate es el tamaño del "paso" que das mientras desciendes el gradiente, así que si el paso es muy grande.... te saltas los agujeros y no encuentras el mínimo, y si es muy pequeño vas recorriendo distancias muy pequeñas mientras desciendes el gradiente y tardas más.

Ahora que tienes la base de lo que es un perceptrón, podríamos ir a por deep learning: resulta que puedes poner capas en el medio, para aprender características más complejas. ¿Recuerdas que el perceptrón era lineal? Bueno, supón que tienes de input (x,y) que representan un punto en el plano, y quieres una red que sepa cuáles están abajo a la derecha o arriba a la izquierda. Pues el problema es que con un perceptrón no puedes... porque es una línea y necesitas dos. Por eso la función AND y OR se pueden aprender con un perceptrón, pero XOR no. Y llegó un tal Kohonen, y las capas ocultas, y muchas más cosas que se aprenden estudiando 4 años de carrera, más varios de doctorado... Y así nació el deep learning que no es más que tener una capa de input, una de output, y capas ocultas por el medio para aprender características derivadas unas de otras para poder aprender cosas más complejas.

Y entonces estaban las imágenes. Las imágenes son un input bien gordo, si tienes una imagen 800x600, estamos hablando de 480.000 puntos, cada uno con tres colores, con lo cual 1.440.000 inputs por imagen. Pues bueno, supón que tienes un millón de imágenes clasificadas a 50 clases. Pues se usa una técnica llamada CNN (Convolutional Neural Network). Una convolución no es más que una multiplicación de matrices, se ha usado de siempre en procesamiento de imágenes. El problema es que si haces deep learning con una matriz de 1.440.000 puntos de entrada, calculando pesos en las convoluciones en muchas capas consecutivas, espero que tengas paciencia porque no hay dios que mueva eso. Y por eso se usa una técnica llamada pooling: básicamente el pooling es reducir paulatinamente las dimensiones con las que trabajas, para así reducir el tiempo de computación. Entonces tienes una capa en la que tienes varios núcleos de convolución, y en cada uno reduces las dimensiones por ejemplo a la mitad... eso significa que para el input que hablábamos de 800x600 píxeles que eran 480.000 en el primer pooling pasan a ser 120.000 puntos. Y ahora la salida del pooling es la entrada de una siguiente capa de convolución que hace otro pooling y pasan a ser 30.000 puntos. Y otra convolución y otro pooling y pasan a ser 7.500... y claro, cada vez eso es más pequeño así que puedes aplicar muchísimas más operaciones matemáticas rápidamente. Y teníamos 1 millón de imágenes ya clasificadas a 50 clases, así que backpropagation a esa red, y va aprendiendo, y cada vez va minimizando la función de coste (o loss), hasta que tienes unos pesos y bias que... ¡hostia puta! ¡Ha aprendido!

2- ¿Sería capaz la IA de descubrir/crear nuevos conjuntos o categorías de clasificación?
Bueno, lo que te he contado va guay para dos tipos de problemas: Regresión y clasificación. La diferencia entre ambos es que uno trabaja en contínua y el otro en discreta (a grosso modo). Pero hay un tercer tipo de problema: el clustering. Los dos primeros problemas se llaman análisis supervisado: necesitas dar el input y el output, así que hay un humano o sistema para dar el output bueno de los inputs que metes. Pero el clustering es un tipo de análisis no supervisado: solamente le das los inputs y que se apañe en clusterizarlos com a él le venga (eso sí, le dices la cantidad de clusters que quieres que cree). Para esto es mejor que te leas lo que son las celdas de Voronoi, k-means, saber lo que es un centroide....

3- "Puesto que desconozco qué es en éste ámbito la topología de red, te pregunto por ella"...

Una topología básicamente le dice cómo son las capas de input, las de output, y las intermedias. Cuáles son sus tamaños, tipos (Convolution2d, maxpooling, softmax,...), funciones de activación (sigmoide, tanh, ReLu,....), y cómo están conectadas entre ellas.

Y bueno, para que practiques las bases:
https://medium.com/@jseijas/introduction-to-artificial-intelligence-with-dinosaurs-fbda58aae727

daseingeist

#27 pienso, por como estas escribiendo en la contestación, que igual en algún momento has sentido que mi intención era menospreciar o minusvalorar el trabajo de las personas que se dedican a todo esto y/o el estudio que requiere, y no es así, o como mínimo consciente y deliberadamente. Efectivamente esos científicos que nombras no me suenan pues no son de mi campo, aunque como trato de considerar en general cualquier ámbito de investigación, trataré de leer algo sobre ellos (todo cuanto entienda, naturalmente). Por otra parte, mi perspectiva no se trata de algo que hayan pensado mis amigos, sino investigadores de otros campos diferentes a los de las matemáticas o la informática que sospecho que de nuevo colocarás en un espacio sin concesión alguna sobre el debate acerca de qué sea la inteligencia.
En cualquier caso, agradezco tus respuestas a las preguntas, y voy a tratar de comprobar si las he entendido y a comentarlas.
1.Creo haber entendido que, en última instancia, el proceso de la IA se puede reducir a, por un lado, la red de perceptrones dispuesta de tal forma que puedas calcular a base de funciones lineales cualquier función n-dimensional (naturalmente más largo y dificultoso será el cálculo y el diseño cuantas más dimensiones tenga la función con la que se está trabajando); y por otro, la función de coste (para la que necesito de antemano unos outputs que llamamos "reales) que es la que permite algo así como el "aprendizaje" mediante la reducción de gradiente de la función. Dentro de este último entiendo que hay learnings rates que son grandes (que entiendo que tienen como ventaja ser más rápidos pero aprender "peor" o con más probabilidad de "fallo", como si fuese un aprendizaje más grosero) y otros que son pequeños (que aunque sean más lentos darían un aprendizaje más "preciso", menos presto a "fallo", como si fuese un aprendizaje especializado). Si quisiese resumir en una sola frase en qué consiste la IA, aun a sabiendas de que con ello estoy simplificando injustamente el asunto, por lo que he entendido diría que la IA es una función que te da un output para un input y que se compara automáticamente con unos valores ofrecidos de antemano para que los outputs se parezcan cada vez más a los ofrecidos de antemano. Por compararlo, diré que, por ejemplo, un neurocirujano necesita también muchos años de formación (un mínimo de 11), y que también requiere de un habérselas, de una pericia y una complejidad propia de trabajar en un ámbito durante un tiempo específico (como intuyo que me comentas sobre la informática aplicada a la IA), y sin embargo se puede decir generalmente que su labor consiste en seccionar pedazos de sistema nervioso y unir correctamente lo que queda en el cuerpo del mismo. Dentro de este punto en global, me surgen un par de preguntas:
1.1. ¿Por tratarse de funciones matemáticas, afecta al lenguaje utilizado en la IA el teorema de la incompletitud? Vaya por delante que mi nivel en esto es de lector de divulgación y que puedo tener muchas nociones equivocadas, pero con esta pregunta quiero en última instancia saber si a) puede entenderse la función de la IA como un conjunto de axiomas que conforman un todo consistente y b) en ese caso, es verdad que siempre habría un axioma que deja de poder explicar como, por ejemplo, el que haría que la IA se explicase a sí misma (insisto en que mi nivel de esto es de preescolar, puede mandárseme a tomar por saco con esta pregunta).
1.2. Entiendo que los inputs que ofreces a la función de la IA pertenecen a un tipo determinado (como el de las imágenes). ¿Podrías, de golpe, ofrecerle a una IA diseñada para imágenes, ofrecerle imputs de otro tipo? Como de sonido, o térmicos.

2. De los tipos que me cuentas, el que me parece más interesante es el de clusterización. Dada una IA diseñada, ¿si le pides n veces que clusterice unos imputs en 5 categorías, tendería a hacerlo siempre de la misma manera? Que después le puedas pasar algo así como un estadístico kappa ponderado y te diga que hay mucha concordancia. Por otra parte, ¿se contempla la posibilidad de un tipo de análisis no supervisado en el que no haya ninguna instrucción previa, ni siquiera el número de clusters, sino una respuesta "100% autónoma" de la IA?

Gracias por tu tiempo.