Jensen Huang, de Nvidia, ha afirmado que la cuántica tardará dos décadas en generalizarse. Gelsinger cree que dos años. Quienquiera que tenga razón, «nos dirigimos hacia una o dos décadas emocionantes para los tecnólogos». No cree que la burbuja de la IA explote hasta dentro de un par de años, pero piensa que un avance cuántico podría pincharla anticipadamente. Está convencido de que los chips actualmente dominantes (las unidades de procesamiento gráfico) comenzarán a ser reemplazados a finales de la década.
|
etiquetas: computación cuántica , pat gelsinger , intel , nvidia , burbuja
Yo también considero que hay una burbuja en torno a la IA que acabará desinflando y la IA seguirá evolucionando pero con más cabeza, pero la computación cuántica no está para nada madura. Y no creo que lo esté esta década. Como mucho, estará para cuando la conducción autónoma de Tesla (o un poco antes)
Lo único que tienen de especial las GPU es una gran potencia de cálculo.
El gran avance en computación cuántica que todo el mundo espera es que un ordenador cuántico sea capaz de calcular algo de utilidad práctica.