Jensen Huang, de Nvidia, ha afirmado que la cuántica tardará dos décadas en generalizarse. Gelsinger cree que dos años. Quienquiera que tenga razón, «nos dirigimos hacia una o dos décadas emocionantes para los tecnólogos». No cree que la burbuja de la IA explote hasta dentro de un par de años, pero piensa que un avance cuántico podría pincharla anticipadamente. Está convencido de que los chips actualmente dominantes (las unidades de procesamiento gráfico) comenzarán a ser reemplazados a finales de la década.
|
etiquetas: computación cuántica , pat gelsinger , intel , nvidia , burbuja
De las cosas más fáciles que hay en computación cuántica sería romper cifrados y falsificar firmas digitales, y aún no ha sucedido nunca, ni en laboratorio.
La burbuja de inversión en IA va a estallar mucho antes.
Yo también considero que hay una burbuja en torno a la IA que acabará desinflando y la IA seguirá evolucionando pero con más cabeza, pero la computación cuántica no está para nada madura. Y no creo que lo esté esta década. Como mucho, estará para cuando la conducción autónoma de Tesla (o un poco antes)
Yo considero que es una inversión de muchísimo riesgo, pero mientras las cosas vayan bien, se ganará mucho dinero. Al final esto es el juego de la silla: todos van ganando hasta que uno pierde. Suerte.
Lo único que tienen de especial las GPU es una gran potencia de cálculo.
El gran avance en computación cuántica que todo el mundo espera es que un ordenador cuántico sea capaz de calcular algo de utilidad práctica.