EDICIóN GENERAL
178 meneos
2170 clics
Intel presenta nueva familia de chips diseñados para la inteligencia artificial

Intel presenta nueva familia de chips diseñados para la inteligencia artificial

Intel ha presentado una nueva familia de chips diseñados especialmente para la inteligencia artificial (IA). Se trata de los procesadores Intel Nervana Neural Network Processor (NNP, por sus siglas en inglés), los cuales surgen como una respuesta a las necesidades del aprendizaje automático. | Vía y relacionadas en #1

| etiquetas: inteligencia artificial , ia , chip , procesador , intel , nervana , neural
Suena a camelo, marketing, humo aprovechando el concepto. ¿Los procesadores de proposito general y con no se cuantos nucleos no son de sobra capaces de procesar los algoritmos de aprendizaje automático?
#2 Chico, si no te valen las especificaciones/modificaciones que facilitan...
#2

"¿Los procesadores de proposito general y con no se cuantos nucleos no son de sobra capaces de procesar los algoritmos de aprendizaje automático?"

Respuesta breve: NO.

Respuesta larga:

Cuando dices de propósito general te referirás a microprocesadores, como el Intel Core i7 y cosas así... ¿Cuantos núcleos tienen? ¿ 8 quizá ? (octacore) Si tiene 8 significa que solamente puede ejecutar 8 instrucciones a la vez.
Una red neuronal es un modelo basado…   » ver todo el comentario
#4 La mayoria de las empresas intentan vender hype, es el marketing, no lo consideran perder prestigio, todas lo hacen. Las empresas están en un lado y los usuarios y clientes en otro.
Con facebook simplemente podrian haber llegado a un acuerdo de publicidad o dinero (aparte de que tendrán accionistas comunes) o que les suministrarán estos chips a precio de descuento a cambio de que ayuden a vender el hype.
#5

"o que les suministrarán estos chips a precio de descuento"

Esto no tiene sentido: "un chip que es humo, que es hype, te lo vendo más barato si me ayudas a hacer publicidad"... ¿no te das cuenta que no tiene sentido?
Es como si te digo que voy a hacer el timo de la "estampita", haciendo pasar papelotes por billetes de 50 euros o por billetes de lotería, y te ofrezco que me ayudes pagándote en estampitas falsas jajajaja :palm: pero con descuento ¿eh? En lugar de cobrarte a 20 euros te cobro los papelotes a 10 euros. :palm:
#6 Me da la sensación de que esto es una cosa que se ejecuta en las nubes de computación, claro que las nubes de computación están compuestas por servidores con procesadores, pero es la sensación como que habria computación en la nube de sobra para ejecutar las aplicaciones con algoritmos de deeplearning de sobra. Entonces esto es un producto de nicho para datacenters de proveedores de computación en la nube que hara qué ¿Puedan sustituir cuantos servidores de sus datacenters que ya ejecutan…   » ver todo el comentario
#7

"Me da la sensación de que esto es una cosa que se ejecuta en las nubes de computación, "


No únicamente.
Te voy a poner un ejemplo, que creo que puede ser bastante común: una gran empresa que use Deep Learning para optimizar su negocio... por ejemplo, predecir de una forma rápida y precisa (acertar mucho en sus predicciones) el comportamiento de los consumidores... ¿Tu crees que esa gran empresa va a subir sus datos, que son clave para su negocio, a servidores de la…   » ver todo el comentario
#8 Sobre las empresas en la nube, muchas ya procesan sus propios procesos clave de negocio como los crm en la nube. Por ejemplo un proveedor es salesforce. Y otros

Bueno, hay empresas y empresas.

Sobre el hype habia estado viendo esto
www.google.es/search?q=deep+learning+hype

www.google.es/search?q=intel+deep+learning+hype&oq=intel+deep+lear

En esta encontre esta
Intel will add deep-learning instructions to its processors…   » ver todo el comentario
#8 aún te diría más. Los dispositivos tendrán en el futuro gpu y llámalo x al chip de redes neuronales.
#7

pero es la sensación como que habria computación en la nube de sobra para ejecutar las aplicaciones con algoritmos de deeplearning de sobra.

Puede, pero es que se dedican a otras cosas. Si como dicen #4 necesitas paralelizar varios miles de threads para obtener una respuesta que uses 5000 threads puede utilizar dos cosas:
- Un chip "normalito" (por ejemplo, de esos de 14 cores/28 threads) y darle tiempo (así a ojo, 175 veces más) Al respecto puedes ver esto:…   » ver todo el comentario
#5 Joder capitán: Nos acaban de dar una clase magistral en tres párrafos de computación para la IA y tu erre con erre.
#21 ¿Y lo sabes porque usas la computación para la ia que ya esta disponible todos los dias?
#22 Yo la uso, trabajo en ello, y #4 lo ha explicado bastante bien. Sólo aclarar el por qué las GPU van mejor que las CPU. Efectivamente, hay muchos más núcleos en una GPU que en una CPU. Pero son mucho más limitados. Sólo pueden ejecutar una operación simultáneamente. Por ejemplo, si quieres sumar dos elementos, cada núcleo de la GPU hará una suma, no puedes coger la mitad para hacer sumas y la otra mitad para multiplicaciones. En una CPU no, ya que cada núcleo puede funcionar in…   » ver todo el comentario
#24 Muy bueno tu comentario.
#24 ¿Y en lo del uso de la computación en la nube para la tarea, o grid computing?
Se trataria de usar clusters de la nube bajo demanda.
#27 Lamentablemente no sirve. Justo hoy hay una noticia sobre el 'backpropagation', creo que incluso llegó a portada. Para resumir: entrenar una red, en la actualidad, requiere de un algoritmo incremental. Se coge una parte del conjunto de entrenamiento, se ejecuta, se actualiza la red, y vuelta a empezar. Y la parte del conjunto de entrenamiento que se puede/debe coger es pequeña (entre 50 o 1000 instancias). Esto hace que puedas paralelizar el código sólo un poco (mandar una instancia a cada…   » ver todo el comentario
#24 Despues está el problema de la compra del experto o científico por parte de las corporaciones.

Piensa en los cientificos/biologos expertos en dietética mas prestigiosos del mundo trabajando en coca cola para crear una nueva bebida que no te va a engordar como la clásica. Y los de carrefour hacen una colaboración con coca cola, con esos expertos cientificos porque son los que están allí.

Esos cientificos y todos los pagados por esas empresas serian los menos imparciales para recomendar…   » ver todo el comentario
#28 Bueno, pero es que ellos no colaboran para recomendar. Ellos habrán pedido unos requisitos para lo que necesitan en sus sistemas. Y va a ser de lo mejor para ellos, te lo aseguro. Otra cosa es que luego Intel se lo venda a todo el mundo, y diga que Facebook lo está usando, cosa que será cierto. Pero no es un acuerdo por imagen de marca, es para acelerar los cálculos que ellos necesitan hacer.
#33 Lo habia estado pensando. Pero es como el proyecto Mahatan, los mayores expertos en un tema trabajando juntos en lo ultimo de lo ultimo de su especialidad cientifica, lo mas "cutting edge", lo mas "state of the art". Solo que no lo podian divulgar, tenia que quedar en secreto, no le podian poner pegas publicas al objetivo ultimo del proyecto que era como su empresa. Desde ese punto de vista tambien se compraba que cerraran la boca en muchos asuntos que a su…   » ver todo el comentario
#36 Ya, pero yo creo que, en este caso, es Facebook quién llamó a Intel con unos requerimientos, e Intel quién le dijo que sí, y que si además se lo dejan vender al resto del mundo, se los dará hasta gratis si hace falta.
#25 El hardware es para hacer que las cosas funcionen en tiempo real. Ahora mismo tenemos muchos sistemas ya funcionando (como bien dice #23), pero para otras tareas se necesitan redes muy complejas.

Imagina que somos capaces de crear una red capaz de predecir terremotos usando datos hasta 30 minutos antes de que se produzca la catástrofe). Pero la red tarda 40 minutos en sacar la salida. Tenemos un sistema cojonudo, pero no se puede usar. Ahora bien, si reducimos ese tiempo a 5 minutos,…   » ver todo el comentario
#4 " ¿Cuantos núcleos tienen? ¿ 8 quizá ? (octacore) Si tiene 8 significa que solamente puede ejecutar 8 instrucciones a la vez."
Por favor!!! estás muy errado
Primero, los cores i7 ejecutan más de 1 instrucción en paralelo
Segundo, cuentan con unidades vectoriales que son capaces de ejecutar operaciones sobre múltiples datos, igual que las GPU (sí, menos eficientemente en consumo), pero con vectoresd de 512b pueden hacer 64 operaciones a la vez sobre 8bits, de hecho Intel anunció hace poco el KNM donde introduce nuevas instrucciones de 8bits
#4 Espero que no te molestes, que pena me da ver gente ilusionada con estas cosas que son puro humo. Pero nada, como Facebook lo usa tiene que ser genial, ya que su deep leaning me permite hacer nuevos amigos cada día y la brutal cantidad de datos de entrada no es el valor real de Facebook, no, son sus algoritmos...
#13

"Espero que no te molestes, que pena me da ver gente ilusionada con estas cosas que son puro humo. "


No me molesto, incluso te agradezco que te preocupes por mi, pero pienso que estás equivocado.
El Deep Learning no es humo... Por ejemplo, está teniendo muchísimo éxito en reconocimiento de imágenes.
Las máquinas con Deep Learning aciertan más en reconocer imágenes que personas expertas en algunas tareas como reconocimiento de cáncer de piel (melanomas) a partir de…   » ver todo el comentario
#23 Muy bien expuesto. Ahora dime si para mejorar cuantitativamente algoritmos como los que dices, por ejemplo el reconocimiento de imágenes, tenemos que trabajar en los algoritmos en sí o en el hardware, que es a lo que me refiero con humo
#25
"cuantitativamente "

Desde luego que cuantitativamente sí.
Algunos parámetros cuantitativos son:

* el tiempo de respuesta / retardo: cuánto tarda en responder, en dar una salida desde que le das una entrada...
Le das una imagen, por ejemplo de la piel de una persona, y cuánto tarda en darte el resultado, por ejemplo la estimación de si tiene cáncer de piel o no. Esto puede tardar unos minutos si lo hace un médico humano, puede tardar 1 segundo si lo…   » ver todo el comentario
#30 A este paso te vas a hacer el trabajo de fin de curso en meneame jeje
Resumiendo y simplificando, que el truco está en paralelizar y estos chips te permiten hacerlo mejor que los chips convencionales
La ventaja que les veo es que se podrá hacer en mucho menos espacio, ya que en realidad hay sistemas clusters con miles de nucleos que son mucho más potentes que estos chips de la noticia
El humo está en hablar de IA cuando es simplemente paralelizar :roll:
#2 No. Tal vez no eres consciente que incluso de propósito general hay varias arquitecturas, basadas en RISC o CISC. Tampoco recordarás cuando con el procesador venía un coprocesador para operaciones matemáticas. Los procesadores genéricos procesan instrucciones genéricas, de un juego de instrucciones enorme. En Deep Learning casi todas las operaciones que hay son de matrices, operaciones de números reales, funciones estadísticas... Cuando fabricas un procesador decides su juego de…   » ver todo el comentario
#2 Claro que son capaces pero tardan infinitamente mas que por ejemplo las GPU's
#2 Aún recuerdo el día (allá por 1999) que enchufé una 3Dfx Voodoo de 4 MB a mi Pentium. Sólo servía para gráficos 3D ese procesador, de hecho hacía falta tener otra tarjeta gráfica para el 2D y Windows.
Nunca olvidaré se día, fue un antes y un después.
Ojalá sea lo mismo con esta clase de cosas.
#2 "si unes un montón de estos chips, pueden actuar juntos como un gran chip virtual", o sea que si unes muchos de ellos es cuando realmente la cosa funciona, también se podría hacer con procesadores normales como en un superordenador pero estos parece que están específicamente diseñados para ello aunque el contenido del artículo es bastante vago.
no nos flipemos... buscad el artículo de la TPU de google, que está muy bien, por ejemplo aquí
www.extremetech.com/computing/247199-googles-dedicated-tensorflow-proc

sin desmerecer a los chips de IA, no dejan de ser ASIC (es decir, no son de propósito general y se quitan de encima la sobrecarga de decodificar instrucciones, de ejecutar instrucciones fuera de orden etc), que constan de un ancho de banda decente, espacio para almacenar…   » ver todo el comentario
Skynet Seal Of Approval

{0x1f44d}  media
leyendo los comentarios viene bien recordar ...

twitter.com/Javisburgos/status/909080702477570050/photo/1

a ver si adivinais por quien lo digo
#18 ¡Cuñadismo top! :-D :-D

Yo he visto a un compañero de la Universidad decir que la Inteligencia Artificial ya existía cuando un programita hecho en Pascal de los terminales X le respondía a palabras de forma aleatoria hallando entre los enunciados algunas respuestas.

De hecho, algunos considerarían "Inteligente" a un programa que salió hace años en ordenadores de 8 bits, "Animal, vegetal y mineral" que no era otra cosa que una base de conocimiento muy primaria.

Vídeo nostalgia...
youtu.be/m0SWW0sR0rI
Estamos rozando la locura con lo de la IA. Esto de puro marketing y nada más, la IA de momento "no existe" como tal, mientras no tengamos un modelo matemático que la soporte, es todo más bien "Informática Avanzada" como se sugería hace 20 años...
#19 jajaja. Tú no has vivido la época anterior. IA no es sólo que podamos hacer un terminator, es entender el lenguaje humano con una precisión que me acojona, por ejemplo.
#39 ¿Te refieres a época anterior a los años 50 y 60?
Pienso que estamos hablando de lo mismo con diferentes palabras ¿Es así? :-)
Al menos es lo que yo suelo indicar cuando me hablan de IA y se les llena la boca de "inteligente" o "consciencia"... y luego que mezclen ciencia robótica o los paradigmas de IA ...
#40 los 90. No me negarás que no ha habido un salto cualitativo gigantesco. Obviamente basado en ideas de los 80 pero que el hardware no ha empezado a ser viable hasta ahora.

Yo recuerdo cuando entraba a a un algoritmo para reconocer mi voz y partirme la caja de lo inútil que era. Hoy le dices algo a Google de mala manera y te lo pilla perfectamente.
#41 Como me decías "no has vivido la época anterior", entendí más atrás en el tiempo. Desde los años 90 claro que hay un avance. En 1998 ya existían algoritmos de reconocimiento de voz en programas y no sé cuál usaste pero al menos en la Universidad había algunos bastante interesantes. La mitad de las cosas que hoy nos venden en empresa ya se estaba trabajando en ello a nivel académico. Ya se mostraban estudios de máquinas de aprendizaje, o incluso uno que me llamó la atención porque…   » ver todo el comentario
#41 Esto es lo que aparecerá en el futuro en este ámbito
journal.iberamia.org/index.php/intartif/index

Es decir, esto es el límite del conocimiento humano en esta materia, lo que se publica ahí, que esa semilla nazca, y crezca fuerte porque en el ámbito público o privado se invierta, hará que nos llegue a la población como consumidores.

:-)
Sólo es silicio para hacer sumas, restas, multiplicaciones y divisiones con tensores...
Skynet is coming.
Es el primer procesador con forma de campo de fútbol.
No os preocupéis que para que no se os atragante irán sacando los avances en pasos de +8 %/año... los monopolios/oligopolios tecnológicos es lo que tienen, intentan no sorprendernos para no causarnos stress.
comentarios cerrados

menéame