Publicado hace 8 meses por salteado3 a elchapuzasinformatico.com

¿Qué es exactamente? Pues Intel ha creado una CPU óptica creada a base de fotónica con tejido Mesh to Mesh. Intel lleva trabajando con DARPA desde los albores de la tempestad que fue la creación de Internet para su servicio de defensa militar allá por el siglo pasado.

Comentarios

HeilHynkel

#4

Uff, entonces va para largo.

HeilHynkel

#5

Sería interesante saber qué aplicación tiene en el espacio algo tan potente. No sé qué CPU tienen ahora, pero lo que lanzan al espacio es bastante menos potente que cualquier CPU actual de las pochas.

https://en.wikipedia.org/wiki/RAD5500

Veelicus

#7 tener un procesador tan potente en el espacio seria un adelanto importante, imaginate que ahora los datos se mandan practicamente en bruto porque los procesadores no son muy potentes, tener procesadores muy potentes permitiria procesar parte de la informacion en origen y por tanto usar menos ancho de datos a la hora de mandar la informacion, porque ahora mismo ese es el cuello de botella, la red profunda de la nasa es muy lenta

HeilHynkel

#8

Para comprimir datos no necesitas algo con 66 threads por core.

Veelicus

#9 no digo comprimir, digo procesar datos, imagenes, analisis....

Veelicus

#12 claro que se hace en tierra, pero si puedes procesar esos datos en orbita entonces a tierra mandas muchos menos datos, y para eso podria servir un procesador como este

I

#16 Pero eso es un poco como hacer un documental sobre leones en Kenia, pero después de rodar todo, grabas las locuciones, creas la música y montas el vídeo allí mismo con los gatitos mirando.

S

#45 Y que no les guste la edición y te coman, no sé yo...

S

#16 No tiene sentido, los datos originales siempre te harán falta precisamente porque es investigación. Esos datos se archivan, y se pueden usar en investigaciones nuevas, se pueden revisar por pares, etc. Si fuera para datos que necesiten tratamiento en tiempo real tendría sentido, pero si necesitas fiarte de esos datos, entonces es porque su tratamiento es algo asentado, no tanto investigación, y supongo que en ese caso lo que tendrías sería un satélite, que igualmente a menos que sea algo básico, lo que hará será mandar datos al a tierra en tiempo real.

En fin, hablando desde el desconocimiento y en base a suposiciones, claro.

p

#12 se hace en tierra ya que no se puede hacer más en en el espacio, es un punto donde se encuentra la potencia máxima en nave y las comunicaciones, una nueva tecnología solo desplaza algo a potencia en nave(al final también aumentara la demanda de comunicación).
Luego están los minutos de terror de amartizar, autónomo y a ver esto para el año que viene: https://www.nasa.gov/press-release/nasa-selects-intuitive-machines-for-new-lunar-science-delivery

#33 Como bien habéis explicado, los datos se necesitan en bruto en la Tierra, por lo que lo que se está es intentando mejorar la tecnología en cuanto a comunicaciones y probando cosas como la transmisión por láser. De hecho, en octubre en la misión Psyche volará un demostrador tecnológico para transmitir con láser los datos de la misión desde una gran distancia y comprobar si efectivamente podemos aumentar el ancho de banda de las misiones, lo que nos permitirá hacer mucha más ciencia.

Es fundamental que los datos estén en bruto para su archivado y reprocesado posterior. Uno sabe que técnicas tiene hoy pero no con las que contará mañana, por lo que en la medida de lo posible imágenes y cualquier otro tipo de datos las necesitamos en bruto.

¿Quiere decir eso que no se beneficiaría la tecnología espacial de procesadores más rápidos? Claro que si. Hemos visto por ejemplo al Ingenuity volar con un procesador comercial más rápido, lo que permite una navegación mejor porque puede trabajar a tiempo real con imágenes más grandes y buscar un sitio de aterrizaje, cosa que con procesadores más lentos sería muy difícil.
Así que quien sabe si veremos en el futuro misiones remotas que no podemos pilotar a tiempo real (básicamente cualquier cosa más allá de la Luna) que sean capaces de tomar decisiones en base a modelos y que se beneficien de una mejor capacidad de procesado para tomar decisiones rápidas y con más datos, ya sea para la navegación, para la elección de objetivos de estudio más interesantes o para otras cuestiones.

MAD.Max

#33 Imagino que para misiones espaciales a mucha distancia es mejor que se procesen y se envíen la menor cantidad de datos posibles.
Los datos en bruto ocupan mucho y tardan más en transmitirse. A mucha distancia las posibilidades de error en la comunicación aumentan, por lo que o se meten muchos códigos de corrección (lo cual aumenta más el tamaño de los datos enviados) o se reduce la cantidad de información a enviar, para que disminuyan esas posibilidades de error/interferencias, etc.

p

#8 Si no se envían procesadores mas potentes al espacio es porque no se quiere hacer.

Al espacio todo lo que va esta ampliamente probado ya que en la practica no hay posibilidad de reparación. Así que para que lancen estos chips al espacio todavía faltan 10 años.

cc

p

#21 por eso se está probando desde hace una década sistemas de procesamiento potentes a la ISS, lo mismo que almacenamiento en SSD, menos peso y demás, para ensayar lo que se va a usar en el futuro.

c

#8 Porque la potencia no es lo único a tener en cuenta, el consumo y la fiabilidad/durabilidad pueden ser más importantes. (Y esto lo digo desde la ignorancia más absoluta)

p

#41 hay misiones especiales con FPGAs de 7 nm. Tampoco hay más opciones para tener redundancia sin que se dispare el peso y el consumo.

d

#7 para manejar cañones fotónicos, obviamente.

Imag0

#13 Pero tenemos cristales de Dilitio para alimentar el reactor principal?

HeilHynkel

#10

Veo que no he sido el único que lo ha pensado.

t

#3 Ese tipo de aplicaciones para los que está diseñado tiene baja localidad de datos y por tanto la cache no ayuda tanto. De ahí el uso de scratchpads, buscar mucho paralelismo a nivel de hilo y mucho ancho de banda para alimentar los núcleos. Sí és cierto que no cuadra la poca capacidad de memoria.

alehopio

#19 los chinos están a un paso de tener un procesador fotónico

zu-chongzhi-posibilidad-computacion-cuantica-universal-traves/c03#c-3

Hace 2 años | Por alehopio a globaltimes.cn


#20 Si la velocidad de procesamiento es muy rápida y la capacidad de procesamiento enorme, entonces no necesitas memoria para retener ni los datos que entran ni los datos que salen, sobre todo si es para IA, siempre que puedas enviar y recibir muchos datos a la vez.

Vamos, imagina que la memoria es un sitio de almacenamiento de datos mientras entran y salen del procesador que los convierte. Si el procesador es tan bestia que puede tener la mayoría de los datos en su interior mientras se procesan pues entonces no necesitas tanta memoria: solo la necesaria para ir sacando los que necesites e ir metiendo los nuevos...

G

#22 Los chinos siempre están a un paso de todo, leyendo las noticias, el problema es que nunca dan ese paso y ahí se quedó la noticia.

frg

#28 "Nunca dan ese paso". Con el 5G ya lo dieron, y mira lo que ha ocurrido. Se cuidarán muy mucho antes de volver a hacer algo así públicamente

alehopio

#28 Tal vez el enlace que proporcioné para indicar el procesador fotónico cuántico que están desarrollando los chinos no hablaba de que ya lo están usando, aquí tienes otro que sí lo comenta

ia-crea-primer-procesador-sin-intervencion-humana-qimeng-no-1/c024#c-24



Por otro lado, los chinos están más avanzados en la mayoría de campos importantes de la ciencia hoy en día:

Australian Strategic Policy Institute lleva un seguimiento de los avances en nuevas tecnologías (China está por delante en 37 de 44 campos más punteros en tecnología)

(bajar en la web para ver la tabla completa)
https://www.aspi.org.au/report/critical-technology-tracker

s

#22 Dice que es cuántico no fotónico clásico que por cierto de estos tienen desde hace unos años para GPUs creo

totope

#25 es decir, análisis de datos a gran escala, otra manera de analizar big data?

l

#49 técnicamente, a nivel de definición académica, big data es el análisis de datos a escala de petabytes. Académicamente estás es lo correcto, aunque como norma general en el mundo de los datos de solía asociar el big data al mundo de los data lakes y no se usa ya la expresión, suena viejuna

l

#3 No no. No es así, además de que tu último párrafo da en el quid de la cuestión.
- La caché, como te digo arriba, es solo la prueba, puesto que no utiliza conectores normales, usa haces de luz para conexión.
- ¿Quién nosotros? En lo que ves es solo de I/O, osease de entrada/salida, no de socket en RAM como tal. ¿Dónde manejas Teras de RAM?
- Es que creo que sigues flipando con lo que hay ahora.
No, es de pruebas para un nuevo tipo de ordenador.

g

#27 ¿ teras de ram? Busca SAP Hana:-)

l

#74 He dicho tu. Que donde las manejas tu.

rcorp

#3 si, a mi también me ha parecido que ese planteamiento tan multihilo está pensado para la ejecución de redes neuronales.

Supongo que el destino será un cazabombardero capaz de pilotarse a sí mismo, analizar el escenario de batalla, destruir al enemigo esté en el aire o en tierra, esquivar las contraofensivas, etc.

Con un arma así.... quién le toserá a los USA? Los chinos podrán estar a la altura? No tienen esa excelencia en la tecnología de chips....

mtdla

#43 Vamos, el nuevo cerebro de Skynet

rcorp

#50 TAL CUAL

alehopio

#43 Es uno de los pocos campos de la tecnología en la que están por detrás.

Sin embargo, con los nuevos desarrollos que publican advierten de que quieren liderar también ese campo

ia-crea-primer-procesador-sin-intervencion-humana-qimeng-no-1/c0108#c-108

rcorp

#59 joder, eso si que es una buena aplicación de que vale más maña que fuerza....

jorgito

#3 En la noticia pone claro clarinete que esto no es una CPU tradicional, que es par otra cosa.
En concreto para análisis de grafos (en la noticia lo traducen malamente como análisis de gráficos). Básicamente lo que a veces se conoce como big data.
Esto, y teniendo en cuenta que son aplicaciones militares... pues jeje, te puedes hacer una idea de que la idea es inteligencia militar. (=no hemos escatimado en gastos)
Aquí un pequeño paper que básicamente cuenta que la problemática del procesamiento de análisis de grafos, que implica falta de capacidad de procesamiento (e intenta dividirlo en subgrafos, pero se pierde un poco el todo).
https://humming80.github.io/papers/Yan-Vol7-DBS-056.pdf

Vamvan

#3 A mi lo que me flipa son los 66 hilos por núcleo

P

#66 Y que 64 de ellos estén ocupados con svchost.exe

MorrosDeNutria

#3 A mi me llama la atención que es RISC V

superjavisoft

#14 Lo sigo viendo a menudo, no se...

m

#24: En los nuevos no creo, pero en los ordenadores antiguos seguro que sí.

Y no me extrañaría que haya pegatinas no oficiales con el primer logo (en el que la "e" está un poco más baja y representa una patilla en una PCB) y el siguiente, que es el que digo, y que a mí es el que más me gusta, aunque también valoro el primero porque representa bien la electrónica, las soldaduras con estaño y todo ese rollo.

#31: Exacto, el logo nuevo además es muy estático, no representa para nada la velocidad de proceso como el anterior.

m

#88: Aunque yo soy fan del de 2006, ese también me gustaba mucho, como digo en #73, representa bien el look & feel de la electrónica antigua.

Kleshk

#14 Es ver éste logo y venirme a la cabeza el jingle

mecha

#14 te voté positivo, pero a mí el que me mola es el de Intel Inside, parecido a ese y con la e baja.

sofazen

#1 Y que lleve algo de grafeno

P

#1 seguro que le falla la junta de la trocola.

Potopo

#17 o que no se puede reparar la abrazadera del manguito del bendi

Dovlado

#1 Y wue esté hecho de grafeno.

c0re

#1 edta obsoleto desde 1985. Ahora se lleva el mister fusión.

t

#1 La siguiente generación será la cpu positrónica.

j

#72 Eso tiene mas años pero muchos mas que Aliexpress

j

Parece un título de ciencia ficción de los 60, lo que no se es si atómica vendría antes y neutrónica después o como

Ej. la venganza de la CPU neutrónica roll

dalton1

#2 Te lo explico: se ha conseguido que un microprocesador funcione con energía FOTO-ATÓMICA, la energía foto-atómica del reactor de Japonium y ya no es necesaria la aleación Z que conforma los circuitos, dado que se hace todo ópticamente, basándose en los estudios de Gō Nagai.


j

#39 queda claro

Dramaba

#56 No pidas tus Mazingers en Aliexpress... lol

TipejoGuti

#39 #56 #72
Si queréis profundizar en el tema, os dejo una breve conferencia de Ichiro Mizuki que, como seguro sabéis, tiene mucho que decir sobre la aplicación práctica de la ciencia descrita...

Dramaba

#78 Ains, la lagrimilla

mre13185

#72 Bueno, ese es más bien de Corea de los 70, tendrías que ver los peinados y los trajes de los actores de la peli.

j

Sólo fotónica? está por debajo de las gafas radiónicas de sandro rey

sauron34_1

Todo lo que sea nueva tecnología bienvenido sea.

johel

tejido mesh to mesh... como mis zapatillas de "running"

l

Bah, NADA que los chinos no hagan mejor...

M

Tanta búsqueda de rendimiento y luego nos damos cuenta que prácticamente todo lo que tiene el más común de los humanos mortales rinde de forma similar en todo momento, sólo que para mantener un poquito mejor de apariencia y, en algún caso, más funcionalidades. A cambio, evidentemente, del hiperinflado del software. Hace poco lo conversé con un compañero: no me rinde mejor el i5 de la empresa que equipos de hace 20 o 25 años si mantengo el sistema por defecto que viene incluido en él. Si lo cambio, vuela.

Tras esta aparición es probable que se terminen por ver equis problemas de vulnerabilidades cuyos remedios supondrán en la reducción de un elevado porcentaje de rendimiento. Y así seguiremos hasta que no tengamos comunmente operativa una arquitectura basada en hardware y software libre.

MoñecoTeDrapo

Esto de la fotónica me da pereza. Me espero a la positrónica.

e

esto no es una CPU fotónica.

es una CPU electrónica con enlaces entre dies por fibra optica

sillycon

Si pero corre Linux?

t

Entiendo que lo fotónico aquí es la red dentro del chip (la Network on Chip o NoC). Estamos muy lejos de tener núcleos fotónicos aún.

mtdla

#19 Ni eso, lo único óptico es la entrada de datos al chip. Eso sí, 16 entradas de fibra por chip.
"cada SLED tendrá 16 sockets con 16 TB/s de ancho de banda óptico"

Pero todo el funcionamiento interno es eléctrico... esto no es lo que yo llamo una "CPU fotónica".

ruinanamas

Valiente entradilla de noticia...

AntiPalancas21

Y que lleve aire acondicionado integrado para evitar calentamientos.

s

Hicieron una prueba llevando este cacharro a la ISS en 2017 https://www.lavanguardia.com/tecnologia/20170814/43559226274/nasa-hp-superordenador-iss-mision-marte-spacex.html para saber como estaba la situación para llevar ordenadores decentes en un viaje a Marte. El ordenador en general se portó muy bien excepto el disco duro que dió problemas. Parece que como en giróscopos y demás que giran muy rápido y tienen material conductor los rayos cósmicos inducen corrientes eléctricas en ellos. En giróscopos de posición calentando el aceite con lo que tienen que llevar de reserva y que gire un sustituto y dejar descansar si no hay daños... Y en ese disco duro pues que se fastidiaban datos. Pero hay otros medios para almacenar incluso fotomagnéticos etc...

C

#37 son muy diferentes. Los fotones se mueven todo el rato a la velocidad de la luz en el medio que estén. En comparación los electrones están muy quietecitos. Suelen estar dando vueltas alrededor de una zona bastante bien delimitada como cerca de protones o nucleos atómicos. Si se comportaran igual no existiría la materia como la conocemos y al tener masa tendrían energía infinita moviéndose a la velocidad de la luz.

i

#58 Cuestion de materiales casi seguro. Venga ese ingeniero que nos explique bien el tema !!!!

i

Algun ingeniero que sepa porque hemos tenido que esperar tanto para empezar a ver dispositivos fotonicos en competición con los electronicos? Intuitivamente parece mas sencillo y barato crear circuiteria fotonica que electronica. Quiza fue porque se los electronicos se desarrollaron primero y funcionaban tan bien y eran tan utiles que se "conformaron" con eso de momento?

C

#29 los fotones no se quedan quietos asi que tener memoria es complicado. Y cuando digo memoria es cualquier cosa desde una caché a un registro.
Ahora que venga alguien que sepa de verdad

i

#35 Koño, ni los electrones. Tengo que leer como seran los "transistores" fotonicos.

l

#35 Los lasers funcionan cargando un atomo con un salto de electron. Si esta cargado, al mandarle un foton en lugar de subir, suelta otro foto. Seria una forma de almacenar bits.
De forma mas mecanica, hay DMD, con espejos microscopicos. En una posicion pueden reflejar la luz y en otra no. Seria otra forma.

Los condensadores almacenar carga estatica, igual que un globo flotado. El primer condensador era una botella.


#37 Hay LDR, que son transistores que controla la electricidad por luz en lugar de por otra corriente/voltaje. Tal vez te refieeres a controlar otro flujo de luz.
Las pantallas LCD, bloquena o desbloquean los pixeles. Es otra opcion.

i

#85 porque hemos esperado tanto para que empiece a hablarse de fotónica?

Que ventajas tiene? Que inconvenientes?

Gracias de antemano. No te positivizo porque estoy por debajo de 6

l

#86 #90 Estoy elucubrando bastante no soy ingeniero pero tal vez os interese investigar como funcionan los laseres.
https://es.wikipedia.org/wiki/Dispositivo_digital_de_microespejos
https://es.wikipedia.org/wiki/Fotorresistor

Hay otras formas de haceer computadoras como con burbujas.


Hay un video narrado por Quevedo, pero no lo encuentro.

C

#85 mola! Todas esas tecnicas cuanto se pueden miniaturizar? Comparado con lo que pueden ocupar los registros de una CPU normal, sabes si estamos muy lejos?

Bringero

Se podrá embeber un Doom?

a

Lo importante, ¿correrá el Doom y el Crysis?
Edito no había visto a #46