Hace 6 años | Por Rorschach_ a hipertextual.com
Publicado hace 6 años por Rorschach_ a hipertextual.com

Intel ha presentado una nueva familia de chips diseñados especialmente para la inteligencia artificial (IA). Se trata de los procesadores Intel Nervana Neural Network Processor (NNP, por sus siglas en inglés), los cuales surgen como una respuesta a las necesidades del aprendizaje automático. | Vía y relacionadas en #1

Comentarios

capitan__nemo

#6 Me da la sensación de que esto es una cosa que se ejecuta en las nubes de computación, claro que las nubes de computación están compuestas por servidores con procesadores, pero es la sensación como que habria computación en la nube de sobra para ejecutar las aplicaciones con algoritmos de deeplearning de sobra. Entonces esto es un producto de nicho para datacenters de proveedores de computación en la nube que hara qué ¿Puedan sustituir cuantos servidores de sus datacenters que ya ejecutan algoritmos de deep learning e ia, por cuantos servidores con los nuevos chips? (realmente no los sustituirán, los iran añadiendo, pero ver cuantos servidores de los nuevos sustituirian a cuantos de los antiguos te daria una medida de la posible ventaja que les supone, a lo que aun así habria que tener en cuenta que la novedad hará que tengan mayor precio los chips y los servidores)

Es como que los chips especializados para una función son especificos, y al ser especificos y mas caros se pierde la ventaja de estandarización y multiples proveedores que hace que tengan menor precio.

He visto que nvidia ya lleva bastante tiempo con el asunto, pero intel se mueve a otro nivel y se ocupan muy mucho de sacar software que lo requiere y convencer a los proveedores de software y a todo el mundo de que les van a necesitar y que se animen a usar ese software de la forma en que a intel le conviene para vender nuevos chips.

capitan__nemo

#8 Sobre las empresas en la nube, muchas ya procesan sus propios procesos clave de negocio como los crm en la nube. Por ejemplo un proveedor es salesforce. Y otros

Bueno, hay empresas y empresas.

Sobre el hype habia estado viendo esto
http://www.google.es/search?q=deep+learning+hype

http://www.google.es/search?q=intel+deep+learning+hype&oq=intel+deep+learning+hype

En esta encontre esta
Intel will add deep-learning instructions to its processors
https://lemire.me/blog/2016/10/14/intel-will-add-deep-learning-instructions-to-its-processors/

Esta parte me recuerda a la epoca en la que les añadian instrucciones para graficos.

El "diseñados para la inteligencia artificial" es ya los que me ha hecho pitar mi instinto aracnido de titular marketiniano para vender la moto. Tendrá su utilidad para quien la tenga, esa moto.

Será como en la epoca que añadieron los coprocesadores matematicos para cad cuando no tanta gente usaba cad.

k

#8 aún te diría más. Los dispositivos tendrán en el futuro gpu y llámalo x al chip de redes neuronales.

D

#7

pero es la sensación como que habria computación en la nube de sobra para ejecutar las aplicaciones con algoritmos de deeplearning de sobra.

Puede, pero es que se dedican a otras cosas. Si como dicen #4 necesitas paralelizar varios miles de threads para obtener una respuesta que uses 5000 threads puede utilizar dos cosas:
- Un chip "normalito" (por ejemplo, de esos de 14 cores/28 threads) y darle tiempo (así a ojo, 175 veces más) Al respecto puedes ver esto:
https://newsroom.intel.com/news-releases/intel-ai-day-news-release/?_ga=2.158301754.1096615851.1508322905-302338717.1508322905
Intel aims to deliver up to 100x reduction in the time to train a deep learning model over the next three years compared to GPU solutions.
- Usar 175 chips (o lo que es lo mismo 88 servidores con dos sockets) obviando el problema de coordinar tanto sistema. El coste se multiplica en ese mismo factor.

Al final, cada cosa tiene su arquitectura. Las CPUs para una cosa, las GPU para otra, esto para otra. Un ejemplo muy claro ¿puedes minar bitcoins con la CPU de tu ordenador? sí, seguro pero en la práctica, o te pillas una granja con tarjetas gráficas para ello o no vas a conseguir nada.

Saludos

Rorschach_

Vía:



Rel.: El hallazgo de hace 30 años en el que se basa toda la inteligencia artificial actual
Hace 6 años | Por --546793-- a technologyreview.es

El chip neuromórfico Loihi de Intel nos hará avanzar en el desarrollo de la IA
Hace 6 años | Por Izaga a hardzone.es

Intel crea un chip cuántico superconductor de 17 cúbits
Hace 6 años | Por oereat a nmas1.org

La inteligencia artificial es capaz de detectar Alzheimer diez años antes de los primeros síntomas
Hace 6 años | Por --546793-- a es.engadget.com

Una Inteligencia Artificial Low Cost para incluir en chips muy económicos
Hace 6 años | Por ldelvalleh a technologyreview.es

La I.A. de Google es el doble de inteligente que Siri (pero ninguno supera la mente de un niño de 6 años)
Hace 6 años | Por atombombbaby a es.gizmodo.com

Cinco extrañas y sorprendentes nuevas habilidades de la Inteligencia Artificial
Hace 6 años | Por Happy_tick a gonzoo.com

Inteligencia Artificial ayuda a construir un mapa cerebral del comportamiento de las moscas (ING)
Hace 6 años | Por jm22381 a hhmi.org

Como aprendió a caminar la inteligencia artificial de Google, sin guía previa
Hace 6 años | Por anxosan a youtube.com

Los siete grandes errores de quienes predicen el futuro de la inteligencia artificial
Hace 6 años | Por rauval a technologyreview.es

capitan__nemo

Suena a camelo, marketing, humo aprovechando el concepto. ¿Los procesadores de proposito general y con no se cuantos nucleos no son de sobra capaces de procesar los algoritmos de aprendizaje automático?

capitan__nemo

#4 La mayoria de las empresas intentan vender hype, es el marketing, no lo consideran perder prestigio, todas lo hacen. Las empresas están en un lado y los usuarios y clientes en otro.
Con facebook simplemente podrian haber llegado a un acuerdo de publicidad o dinero (aparte de que tendrán accionistas comunes) o que les suministrarán estos chips a precio de descuento a cambio de que ayuden a vender el hype.

D

#5 Joder capitán: Nos acaban de dar una clase magistral en tres párrafos de computación para la IA y tu erre con erre.

capitan__nemo

#21 ¿Y lo sabes porque usas la computación para la ia que ya esta disponible todos los dias?

s

#22 Yo la uso, trabajo en ello, y #4 lo ha explicado bastante bien. Sólo aclarar el por qué las GPU van mejor que las CPU. Efectivamente, hay muchos más núcleos en una GPU que en una CPU. Pero son mucho más limitados. Sólo pueden ejecutar una operación simultáneamente. Por ejemplo, si quieres sumar dos elementos, cada núcleo de la GPU hará una suma, no puedes coger la mitad para hacer sumas y la otra mitad para multiplicaciones. En una CPU no, ya que cada núcleo puede funcionar independientemente, si se quiere.

Pero resulta que las redes de neuronas se basan en multiplicaciones y sumas de matrices, en su práctica totalidad, y eso lo hace una GPU muchísimo más rápido que una CPU, dado que tiene más núcleos. Es cierto que las GPU se han mejorado para gamers, pero las últimas (Titan, Kepler, etc.) son hechas por y para cálculo intensivo.

Y lo de que han estado trabajando con Facebook, es por un motivo concreto: Yann LeCun, que es el padre de las redes neuronales modernas, y es el jefe de investigación de Facebook. Por eso trabajan codo con codo con ellos, porque quieren a una de las eminencias en el campo (otra eminencia podría ser Yoshua Bengio).

Acido

#24 Muy bueno tu comentario.

capitan__nemo

#24 ¿Y en lo del uso de la computación en la nube para la tarea, o grid computing?
Se trataria de usar clusters de la nube bajo demanda.

s

#27 Lamentablemente no sirve. Justo hoy hay una noticia sobre el 'backpropagation', creo que incluso llegó a portada. Para resumir: entrenar una red, en la actualidad, requiere de un algoritmo incremental. Se coge una parte del conjunto de entrenamiento, se ejecuta, se actualiza la red, y vuelta a empezar. Y la parte del conjunto de entrenamiento que se puede/debe coger es pequeña (entre 50 o 1000 instancias). Esto hace que puedas paralelizar el código sólo un poco (mandar una instancia a cada ordenador, pero no más). Por tanto, tener muchos ordenadores no ayuda muchísimo. Cuantos más mejor, no nos engañemos. Pero, ahora mismo, una Titan X vale más que un grid de 50 ordenadores, por poner un ejemplo.

En la nube ya hay casos. Amazon y Google tienen redes para que puedas entrenar tus sistemas. Pero no deja de ser anecdótico ahora mismo. Además, creo que por su política, pueden guardar las redes que mandes a entrenar. Con lo que se podrían quedar con tu investigación. Esto último me lo han comentado, no lo sé seguro.

capitan__nemo

#24 Despues está el problema de la compra del experto o científico por parte de las corporaciones.

Piensa en los cientificos/biologos expertos en dietética mas prestigiosos del mundo trabajando en coca cola para crear una nueva bebida que no te va a engordar como la clásica. Y los de carrefour hacen una colaboración con coca cola, con esos expertos cientificos porque son los que están allí.

Esos cientificos y todos los pagados por esas empresas serian los menos imparciales para recomendar opciones. Aparte si intel les ha ayudado en su trabajo, recomendaran las soluciones de intel frente a otras formas o modelos de hacer deep learning y de usarlo. Por ejemplo lo que he dicho de usar la computación en la nube, el grid computing y la computación bajo demanda para hacer la mayoria de procesos de deep learning que se puedan utilizar en los softwares que pueda necesitar una mayoria. Los investigadores siempre necesitarán estaciones de trabajo avanzadas y acceso a los clusters mas potentes que se puedan permitir y para ese nicho seguramente estará bien junto con otras muchas que ya tendran.

s

#28 Bueno, pero es que ellos no colaboran para recomendar. Ellos habrán pedido unos requisitos para lo que necesitan en sus sistemas. Y va a ser de lo mejor para ellos, te lo aseguro. Otra cosa es que luego Intel se lo venda a todo el mundo, y diga que Facebook lo está usando, cosa que será cierto. Pero no es un acuerdo por imagen de marca, es para acelerar los cálculos que ellos necesitan hacer.

capitan__nemo

#33 Lo habia estado pensando. Pero es como el proyecto Mahatan, los mayores expertos en un tema trabajando juntos en lo ultimo de lo ultimo de su especialidad cientifica, lo mas "cutting edge", lo mas "state of the art". Solo que no lo podian divulgar, tenia que quedar en secreto, no le podian poner pegas publicas al objetivo ultimo del proyecto que era como su empresa. Desde ese punto de vista tambien se compraba que cerraran la boca en muchos asuntos que a su "empresa" no les interesaba. Si es cierto que al final en secreto consiguieron firmar una carta o manifiesto, mas tarde.

Sí la empresa en la que trabajas hace un acuerdo con otra empresa proveedora para suministrarte algo que necesitas (y otros acuerdos de otras areas marketing, sinergias) pero ves que te sirve, pero no es del todo bueno, o que tiene otras pegas, o que has mirado otras alternativas y parece que tienen un coste parecido o menor y te servirian igual. Tu empresa no te permitiria ponerle pegas, por ese acuerdo con el proveedor en el que habeis quedado para hacer un marketing conjunto.

Todo esto no viene de este caso en particular que no lo conozco en detalle, pero simplemente de la desconfianza a los intereses particulares de las corporaciones, industrias y sectores, frente al de los clientes, usuarios y sociedad.
Tipo asuntos como estos
Amazon podría convertirse en proveedor de internet en Europa/c18#c-18
Ocho millones para los veinteañeros españoles que quieren crear el nuevo PayPal/c55#c-55
No es solo el azúcar, cientos de industrias tratan de engañarnos: tenemos un problema y es hora de buscar soluciones
No es solo el azúcar, cientos de industrias tratan de engañarnos: tenemos un problema y es hora de buscar soluciones

Hace 7 años | Por Unregistered a xataka.com

s

#36 Ya, pero yo creo que, en este caso, es Facebook quién llamó a Intel con unos requerimientos, e Intel quién le dijo que sí, y que si además se lo dejan vender al resto del mundo, se los dará hasta gratis si hace falta.

s

#25 El hardware es para hacer que las cosas funcionen en tiempo real. Ahora mismo tenemos muchos sistemas ya funcionando (como bien dice #23), pero para otras tareas se necesitan redes muy complejas.

Imagina que somos capaces de crear una red capaz de predecir terremotos usando datos hasta 30 minutos antes de que se produzca la catástrofe). Pero la red tarda 40 minutos en sacar la salida. Tenemos un sistema cojonudo, pero no se puede usar. Ahora bien, si reducimos ese tiempo a 5 minutos, entonces ya tenemos un sistema real.

Aplica lo mismo a coches autónomos para la detección de imprevistos. Querrás que la respuesta sea lo antes posible, y para eso también se necesita hardware mejor, y adaptado.

#24 Lo de Google Translate es increíble. No sé si os habéis fijado, pero Youtube hace tiempo que tiene un sistema automático de subtítulos, que evalúa el vídeo 'on the fly'. Y en inglés funciona muy pero que muy bien.

u_1cualquiera

#4 " ¿Cuantos núcleos tienen? ¿ 8 quizá ? (octacore) Si tiene 8 significa que solamente puede ejecutar 8 instrucciones a la vez."
Por favor!!! estás muy errado
Primero, los cores i7 ejecutan más de 1 instrucción en paralelo
Segundo, cuentan con unidades vectoriales que son capaces de ejecutar operaciones sobre múltiples datos, igual que las GPU (sí, menos eficientemente en consumo), pero con vectoresd de 512b pueden hacer 64 operaciones a la vez sobre 8bits, de hecho Intel anunció hace poco el KNM donde introduce nuevas instrucciones de 8bits

Acuantavese

#4 Espero que no te molestes, que pena me da ver gente ilusionada con estas cosas que son puro humo. Pero nada, como Facebook lo usa tiene que ser genial, ya que su deep leaning me permite hacer nuevos amigos cada día y la brutal cantidad de datos de entrada no es el valor real de Facebook, no, son sus algoritmos...

Acido

#13

"Espero que no te molestes, que pena me da ver gente ilusionada con estas cosas que son puro humo. "


No me molesto, incluso te agradezco que te preocupes por mi, pero pienso que estás equivocado.
El Deep Learning no es humo... Por ejemplo, está teniendo muchísimo éxito en reconocimiento de imágenes.
Las máquinas con Deep Learning aciertan más en reconocer imágenes que personas expertas en algunas tareas como reconocimiento de cáncer de piel (melanomas) a partir de fotos de la piel o detección de Alzheimer a partir de imágenes del cerebro.
Y estos éxitos no son nuevos, empezó a despuntar a mediados de los 90 y se ha convertido en toda una revolución a partir de 2012.
Quizá todavía no te has dado cuenta, pero eso que llamas "humo" está salvando vidas y se usa en muchos ámbitos.

Y si no nos limitamos a Deep Learning y consideramos Inteligencia Artificial en general, la cantidad de usos actualmente es apabullante. Algunos ejemplos: el filtro antiSPAM de Gmail funciona con redes bayesianas que relacionan sucesiones de palabras o de letras con la probabilidad de que algo sea SPAM o no... y acierta muchísimo; Google translate también se basa en Inteligencia Artificial (sí, ya se que este falla bastante); Amazon y otras empresas dan recomendaciones de compras usando IA; detección de fraudes; inversión en bolsa; coches autónomos; y un largo etcétera.

Dicho todo eso, no descarto que haya cosas como engaños o una generación de expectativas demasiado alta, mezclado con lenguaje algo confuso... por ejemplo, el propio término "Inteligencia Artificial" puede llevar a confusión como que da a entender que la máquina tiene tanta inteligencia como un humano... Pero, en fin, en algunas tareas sí que han superado a los humanos, incluso a campeones y expertos.

"Pero nada, como Facebook lo usa tiene que ser genial, ya que su deep leaning me permite hacer nuevos amigos cada día y la brutal cantidad de datos de entrada no es el valor real de Facebook, no, son sus algoritmos..."


Yo no dije eso...
Creo que el valor principal de Facebook es el tiempo que pasa la gente usándolo, por encima del tiempo que la gente pasa en Google. Y, claro, una calle muy transitada como la calle Gran Vía de Madrid o la Quinta Avenida de Nueva York tiene un gran valor para publicitar... Los datos también son muy importantes, por supuesto... pero los datos por sí solos no sirven si no se utilizan para algo y la utilización de los datos es lo que aportan los algoritmos.

Lo que vine a decir no es que si lo usa Facebook entonces es bueno ni que sea "genial", sino más bien que sería extraño que una empresa tan poderosa como Facebook dedique mucha atención y dinero a algo que sea un puro timo... Este planteamiento no es ninguna demostración, no te asegura que no sea un timo, pero a mi me resultaría raro que ocurriese eso.

Acuantavese

#23 Muy bien expuesto. Ahora dime si para mejorar cuantitativamente algoritmos como los que dices, por ejemplo el reconocimiento de imágenes, tenemos que trabajar en los algoritmos en sí o en el hardware, que es a lo que me refiero con humo

Acido

#25
"cuantitativamente "

Desde luego que cuantitativamente sí.
Algunos parámetros cuantitativos son:

* el tiempo de respuesta / retardo: cuánto tarda en responder, en dar una salida desde que le das una entrada...
Le das una imagen, por ejemplo de la piel de una persona, y cuánto tarda en darte el resultado, por ejemplo la estimación de si tiene cáncer de piel o no. Esto puede tardar unos minutos si lo hace un médico humano, puede tardar 1 segundo si lo hace un ordenador normal sin GPU, puede tardar 0.01 segundos (una centésima) si lo hace una tarjeta gráfica de GPUs y quizá tarde 0.0001 segundos si lo hace el chip de Intel... Puedes pensar: "bah, qué más da 0.0001 segundos que 1 segundo... en ese tiempo no se salva la vida" pero ahora cambiemos la aplicación y en lugar de eso piensa que es un coche autónomo que va a 100 Km/h y que está procesando imágenes para saber si se cruza un peatón por delante. En 1 segundo a 100 Km/h se avanzan 28 metros. En ese tiempo sí se puede salvar una vida.

* la velocidad operativa: cuántas respuestas puede darte por unidad de tiempo
Quizá puedas pensar que es lo mismo que lo anterior, pero no.
En algunos sistemas puedes meter una entrada nueva antes de que haya devuelto la salida de la anterior...
En otras palabras, tu tiempo de respuesta puede ser 1 segundo pero a lo mejor podrías procesar 10 unidades cada segundo ¿cómo es posible? El tiempo de respuesta es desde que presentas la entrada hasta que obtienes la salida, lo cual puede pasar por diferentes capas... Y cada capa puede tardar 0.1 segundos... de forma que puedes meter una entrada cada 0.1 sg y obtener salidas cada 0.1 sg y de esta forma puedes procesar 10 unidades cada segundo, aunque el retardo sea 1 segundo.

En un procesador convencional no hay capas, aunque puede haber cierto "pipelining" de instrucciones... pero para hacer operaciones matemáticas (aritméticas, como multiplicaciones y sumas) me temo que hay poco de eso.
Sin embargo, en una arquitectura diferente como la de estos chips neuromórficos, o la estructura del cerebro humano, sí hay capas, lo que implica una posible mayor velocidad.

* la velocidad de entrenamiento / aprendizaje: cuanto tarda en dar la salida deseada a partir de ejemplos...
Esto suele ser la tarea más costosa.
Algo ya entrenado suele tardar poco, pero entrenarlo puede llevar mucho tiempo.

En un procesador convencional el entrenamiento viene a ser operaciones aritméticas, que se hacen de forma secuencial, una detrás de otra... pero en un chip específico se pueden calcular todos los pesos de una capa de golpe, en paralelo...

Un entrenamiento que en un procesador sin GPU puede tardar 1 semana, en un ordenador con GPUs puede tardar quizá 2 ó 4 horas... y en un chip específico podría tardar la centésima o milésima parte de esto último, como 1 minuto o 7 segundos.


* tamaño de datos que puedes procesar.
Este es otro valor cuantitativo que está relacionado con los anteriores.
Por ejemplo, si puedes procesar 100 imágenes por segundo entonces en 1 minuto podrás procesar 6000 pero si la velocidad es solamente 1 imagen por segundo entonces en 1 minuto podrás procesar 60. Ese tamaño de 60 ó 6000 es una diferencia cuantitativa.

Si en lugar de "cuantitativamente" te referías a "cualitativamente" pues aquí creo que entrarían valores como la tasa de acierto... Y aquí creo que interviene la velocidad de aprendizaje / entrenamiento. Si solamente tienes 1 minuto para aprender dependerá lo rápido que aprendas para la calidad de acierto que puedas dar con ese aprendizaje... Algo que aprende con cierta calidad en 7 segundos tiene tiempo de sobra en 1 minuto para aprender bien, pero algo que normalmente tarda 1 semana o 4 horas el aprendizaje que haga en 1 minuto será bastante pobre.



Te voy a poner un ejemplo. Hay que hacer un recuento de votos depositados en 100 000 urnas repartidas a lo largo de diversas localidades de un país.

Una forma de hacerlo es empezar por una urna, contar los de esa urna, luego contar los de otra urna y así hasta completar las 100 000. Si contar una urna se tarda de media 10 minutos con este método tardarías 1 millón de minutos = 16666 horas... unos 2 años. Esta forma secuencial es básicamente como funcionan los microprocesadores tradicionales...

Otra forma de hacerlo es usar 100 000 personas y que cada una cuente una urna en paralelo con las otras, es decir, simultáneamente. Aquí el tiempo a considerar no es la media (10 minutos), sino el tiempo máximo que se tarde... que quizá en una urna grande y con ciertos problemas tarde 1 hora. Fíjate que este método tarda 1 hora, comparado con los 2 años que tarda el otro método. Pues bien, las redes neuronales con hardware específico son arquitecturas masivamente paralelas, es decir, hacen montones de cálculos simultáneamente, lo que permite hacer ciertas cosas mucho más rápido.

Un ejemplo con una imagen. Supongamos que la imagen es de 1024*768 pixels, eso son 786432 píxeles. El microprocesador convencional iría uno por uno haciendo operaciones, como cuando cuentas los votos uno por uno. Sin embargo, el chip haría operaciones en paralelo... mientras hace cálculos con el pixel 1 puede hacer cálculos con el pixel 700 000 y con todos los anteriores, todo a la vez, de una tacada. La diferencia creo que es evidente. ¿Dónde está el "humo" entonces? Quizá el humo está en lo que se calienta el chip convencional jejeje

Acuantavese

#30 A este paso te vas a hacer el trabajo de fin de curso en meneame jeje
Resumiendo y simplificando, que el truco está en paralelizar y estos chips te permiten hacerlo mejor que los chips convencionales
La ventaja que les veo es que se podrá hacer en mucho menos espacio, ya que en realidad hay sistemas clusters con miles de nucleos que son mucho más potentes que estos chips de la noticia
El humo está en hablar de IA cuando es simplemente paralelizar roll

Marinmenyo

#2 Claro que son capaces pero tardan infinitamente mas que por ejemplo las GPU's

D

#2 Aún recuerdo el día (allá por 1999) que enchufé una 3Dfx Voodoo de 4 MB a mi Pentium. Sólo servía para gráficos 3D ese procesador, de hecho hacía falta tener otra tarjeta gráfica para el 2D y Windows.
Nunca olvidaré se día, fue un antes y un después.
Ojalá sea lo mismo con esta clase de cosas.

slowRider

#2 "si unes un montón de estos chips, pueden actuar juntos como un gran chip virtual", o sea que si unes muchos de ellos es cuando realmente la cosa funciona, también se podría hacer con procesadores normales como en un superordenador pero estos parece que están específicamente diseñados para ello aunque el contenido del artículo es bastante vago.

u_1cualquiera

no nos flipemos... buscad el artículo de la TPU de google, que está muy bien, por ejemplo aquí
https://www.extremetech.com/computing/247199-googles-dedicated-tensorflow-processor-tpu-makes-hash-intel-nvidia-inference-workloads

sin desmerecer a los chips de IA, no dejan de ser ASIC (es decir, no son de propósito general y se quitan de encima la sobrecarga de decodificar instrucciones, de ejecutar instrucciones fuera de orden etc), que constan de un ancho de banda decente, espacio para almacenar datos y una gran unidad de Multiply & Add , lo cual va muy bien para NN

ojo, no quito mérito desde el punto de vista de la eficiencia en área y consumo, pero no es uno de los grandes descubrimientos dentro del mundo de los procesadores
Eso sí, hará que todo ese software tan potente vaya más rápido

D

leyendo los comentarios viene bien recordar ...



a ver si adivinais por quien lo digo

Arganor

#18 ¡Cuñadismo top!

Yo he visto a un compañero de la Universidad decir que la Inteligencia Artificial ya existía cuando un programita hecho en Pascal de los terminales X le respondía a palabras de forma aleatoria hallando entre los enunciados algunas respuestas.

De hecho, algunos considerarían "Inteligente" a un programa que salió hace años en ordenadores de 8 bits, "Animal, vegetal y mineral" que no era otra cosa que una base de conocimiento muy primaria.

Vídeo nostalgia...

D

Sólo es silicio para hacer sumas, restas, multiplicaciones y divisiones con tensores...

D

Es el primer procesador con forma de campo de fútbol.

Wayfarer

Skynet Seal Of Approval

👍

Spartan67

Skynet is coming.

Arganor

Estamos rozando la locura con lo de la IA. Esto de puro marketing y nada más, la IA de momento "no existe" como tal, mientras no tengamos un modelo matemático que la soporte, es todo más bien "Informática Avanzada" como se sugería hace 20 años...

k

#19 jajaja. Tú no has vivido la época anterior. IA no es sólo que podamos hacer un terminator, es entender el lenguaje humano con una precisión que me acojona, por ejemplo.

Arganor

#39 ¿Te refieres a época anterior a los años 50 y 60?
Pienso que estamos hablando de lo mismo con diferentes palabras ¿Es así?
Al menos es lo que yo suelo indicar cuando me hablan de IA y se les llena la boca de "inteligente" o "consciencia"... y luego que mezclen ciencia robótica o los paradigmas de IA ...

k

#40 los 90. No me negarás que no ha habido un salto cualitativo gigantesco. Obviamente basado en ideas de los 80 pero que el hardware no ha empezado a ser viable hasta ahora.

Yo recuerdo cuando entraba a a un algoritmo para reconocer mi voz y partirme la caja de lo inútil que era. Hoy le dices algo a Google de mala manera y te lo pilla perfectamente.

Arganor

#41 Como me decías "no has vivido la época anterior", entendí más atrás en el tiempo. Desde los años 90 claro que hay un avance. En 1998 ya existían algoritmos de reconocimiento de voz en programas y no sé cuál usaste pero al menos en la Universidad había algunos bastante interesantes. La mitad de las cosas que hoy nos venden en empresa ya se estaba trabajando en ello a nivel académico. Ya se mostraban estudios de máquinas de aprendizaje, o incluso uno que me llamó la atención porque en su momento estaba trabajando sobre ello: reconocimiento del lenguaje natural para luego aplicarlo a un modelo basado en una red neuronal, era de una tesis doctoral.

En fin, es largo de explicar, pero mientras la población consume lo que hay ahora, llámalo X, las empresas trabajan con X+1 y en la Universidad se trabaja con X+2; siendo X+i la fórmula que implica en la variable "i" el valor en el avance del tiempo.

Arganor

#41 Esto es lo que aparecerá en el futuro en este ámbito
http://journal.iberamia.org/index.php/intartif/index

Es decir, esto es el límite del conocimiento humano en esta materia, lo que se publica ahí, que esa semilla nazca, y crezca fuerte porque en el ámbito público o privado se invierta, hará que nos llegue a la población como consumidores.

javierchiclana

No os preocupéis que para que no se os atragante irán sacando los avances en pasos de +8 %/año... los monopolios/oligopolios tecnológicos es lo que tienen, intentan no sorprendernos para no causarnos stress.