¿Y si nos enfrentáramos a un panorama en el que ya no se fabricaran nuevos procesadores al superar los límites físicos actuales en combinación con una degradación continua pero constante de los chips más avanzados y un estancamiento en el almacenamiento en la nube? ¿sería el mundo capaz de seguir funcionado? Esta es la pregunta que se hizo hace unos días la investigadora e ingeniero de Google Laurie Wired. Según John Carmack, responsable de Doom, en un principio no había ningún problema para funcionar con el mismo hardware que hace 30 años.
|
etiquetas: john , carmack , doom , hardware , obsoleto
Voy a usar el mismo ejemplo que tú has usado, decodificar un vídeo Full HD.
Se podría descodificar en un servidor y no necesites hacerlo en tu casa...
¿Realmente que perderías?
¿Pasarte horas haciendo scrool en el menú de Netflix?
Podrías pedir una película o serie, decidir el momento en que quieres verla y que te llegue a tu TV en ese momento...
El tener decenas de millones de chips para decodificar un vídeo en FulHD gastando energía para pasarte más tiempo decidiendo que ves que viendo el contenido no es algo "necesario".
El hardware ha ido evolucionando en su conjunto.
¿Necesitamos un ordenador capaz de decodificar full hd? Tal vez lo que necesitamos es un televisor capaz de decodificarlo pero no un ordenador de sobremesa que lo haga.
Sobre todo porque un equipo dedicado a decodificar compresiones de video no necesita ser de uso general como un ordenador, y por lo tanto puede dedicar sus recursos solo a eso.
Pero bueno, como programador e informático desde… » ver todo el comentario
¿Realmente que perderías?
¿Pasarte horas haciendo scrool en el menú de Netflix?
Si esto es lo que te crees que te perdrias, tienes una vision muy pequenha de para lo que se usan los procesadores y la computacion.
Por supuesto hay muchas mejoras reales, pero por cada avance medico o científico nos perdemos en mil chorradas inútiles que tampoco serían una tragedia si no fuera por el mar de recursos (finitos) que requieren.
#3
Y la pregunta es: son necesarias estas "chorradas" para que se produzcan los que no lo son?
Conozco gente que produce "chorradas" que le permiten vivir de esto, que en un momento dado dejan de producir "chorradas". Otros que han sido mal estudiantes pero que han sido muy buenos despues, que han podido entrar en el campo gracias a empezar trabajando en cosas marginales. Otros que quizas son muy malos como investigadores, pero buenos liderando un equipo, etc. No tengo nada claro que las "chorradas" no sean un ruido necesario que al final permite que las coses se muevan. Pero solo es mi opinion. No tengo ninguna prueba que lo que digo sea asi.
Entornos de empresa. Mejoras de hardware sobre todo relacionado con la seguridad y la IA, pero al final, una empresa grande, te hablo de corporaciones como VISA o un BBVA, con 360 de I.B.M. seguiría facturando igual y sin caídas y dando el mismo servicio.
Entorno de Investigación. Superordenadores, hay creo que el avance en avance en mas importante, medicina y medio ambiente, previsión de catástrofes, astrofisica.
Entorno de hogar. Videojuegos, videojuegos, videojuegos, para mi mas bonitos pero peores en muchos casos.
Por otro lado, que existan muchas capas capas, tambien permite hacer cosas mas complejas y de forma mas facil.
Ese es un sólo ejemplo de lo que va la noticia, nadie dice que tiene que ser en todos los lugares, pero si en más lugares de lo que hay hoy en día. Muchas cosas con programas y arquitecturas de hace tres décadas, siguen funcionando muy bien.
El problema es que nos han vendido que lo bueno siempre es lo mejor y no es así en absoluto en tecnología.
Les importa un cuerno que las cosas funcionen mejor. Lo importante es vender. Si para vender tienen que encargarse de que un dispositivo perfectamente funcional vaya mal, pues que así sea.
Con las necesidades multimedia (por poner un ejemplo) de hoy en día, no nos llegaría ni con un súper computador de su época.
Se refiere más a, por ejemplo, procesadores quadcore de 64bit de hace 20 años en adelante. Ya que los sistemas y software actuales pecan de mínima optimización, valiéndose de potencia bruta física sobreutilizada.
Edit:
www.muycomputerpro.com/2021/08/19/superordenador-hpe-spaceborne-comput
ciudad-futura.net/2015/10/21/nauka/
Una pincelada muy gorda, que se que no os lo vais a leer:
"Tanto el FGB Zarya como el Nauka son módulos cuyo diseño básico es heredero de las naves de transporte y servicio TKS, proyectadas a mediados de los años 60 por el Buró de diseño espacial OKB-52 de la URSS para el programa de estaciones orbitales Salyut-Almaz (1971-1986)"
El Zarya es el modulo ruso, es decir el modulo central de la iss y aunque obviamente la habran actualizado parte del core tiene tecnologia de la epoca de su lanzamiento.
Incluso para intentar poner contexto a lo que estamos hablando.
Lo que haces ahora con las GPU explícame como lo hubieras hecho hace, no ya 30 años, 15. Que se podría vivir a pesar de no contar con esa tecnología, por supuesto, incluso sin coches se podría vivir o sin neveras.
Si el contra argumento es que el uso que le damos a las GPU es superfluo y banal, pues… » ver todo el comentario
Pero al final, es lo que dice #28, el comentario al que respondes. Comentario sensato como pocos que se leen por aqui. El concepto "podriamos funcionar" es un concepto totalmente abstracto y subjetivo. Solo puedes usarlo si primero defines que es "funcionar". Por ejemplo, hay muchas disciplinas cientificas donde el poder computacional es clave. Y para mi esto entra dentro de "funcionar".
www.agenciasinc.es/Noticias/La-IA-predice-la-estructura-de-casi-todas-
O para medicamentos, o para nuevos materiales o para estabilizar un reactor? Cual es el mal ejemplo?? Vaya tela...
Claro si te vas a ir a los usos menos inadecuados y ya co eso justificar que sea algo inútil pues vale. Un cuchillo lo puedes usar de martillo también claro y podrías vivir sin cuchillos también, por supuesto.
La diferencia entre "necesidad" y "deseo" es absolutamente subjetiva. No creo que tu tengas el poder de decidir. Otros te podrian decir que muchas cosas que tu quzas consideras necesarias en realidad no lo son.
Vamos, que tiene una gráfica de hace años también, aunque no tantos, y le va perfecto el de Harry Potter por ejemplo.
Lo mismo con los móviles, si Android y los fabricantes no dejaran de dar soporte cada 3 años, cualquier móvil de 5 años estaría tan actualizado como el que acabas de comprar, pero ahora tienes un móvil que funciona perfectamente inseguro y sin actulizaciones, cuando como mucho con un cambio de batería le alargas la vida 3 años más.
en.wikipedia.org/wiki/MHW-RTG
Yo tengo un i3 de hace 20 años , va de p.m.
No te digo ya si montas Linux ...
Lo que si se nota es en el disco, que ese sí es un ssd.
No hay razón para no utilizar hardware moderno.
Como comentario ahora todo risas de los chip rusos que están 15 anyos obsoletos, recuerdo que antes de que internet fuera popular corría el rumor de que los rusos había portado el doom al spectrum(En realidad era una empresa mitad ruda mitad ucraniano). Y era cierto
Cualquiera que sepa algo de 3D sabe que para calcular tu punto de vista hay que multiplicar por senos y… » ver todo el comentario
Cuando el hardware no mejora los desarrolladores se centran en optimizar para éste.
youtu.be/HpR2CYXC3MY?si=vFriYPJDEUwL8ncR
Pero normalmente es más rentable no hacerlo porque el capitalismo premia la inmediatez y barre los problemas (dumping) debajo de la alfombra.
Cada vez salen videojuegos mas inflados por chorradas tipo raytracing que no sirven mas que para una tontá y, pesimamente optimizados, como por ejemplo el Stalker 2, que su primer parche pesaba mas de 100 gigas, o el Rainbow Six Siege, que si querías texturas HD (época pre basura del raytracing), tenías que descargarte otros 100 gigas.
Hoy en día los videojuegos en sus primeros 6-12 meses son basura mal hecha/mal optimizada y, que usa a los idiotas… » ver todo el comentario
En los dispositivos móviles, podemos echar en mano aplicaciones muy simples que ocupan un montón mas de un 1GB y es por la cantidad de elementos visuales para distintas resoluciones que no hemos sido capaz de aprovechar bien los formatos de imagen o incluso se ha dado soporte a partir de una versión sin retroactividad.
Es mas, una de las mierdas que… » ver todo el comentario
Uso Linux y software ligero, pero el Internet moderno se le empieza a atragantar a ambos y se come los 8GB else RAM de ambos a poco Que te descuides. No es terrible, pero la experiencia de usuario empieza a sufrir sobre todo por las latencias a la hora de cargar y mostrar sitios web pesados.
Si te restringes a sitios web ligeros, herramientas ligeras y tienes disciplina para adaptar tu uso, se pueden hacer muchas cosas con hardware antiguo, pero no es algo que se pueda esperar del usuario medio / casual.
De todas formas, el nivel actual con cosas de hace 30 años..., no se. Creo que la NASA llevaría décadas haciendo aterrizar los cohetes que manda al… » ver todo el comentario
¿De verdad hace falta TANTO para cargar cuatro anuncios, el texto, algunas fotos y algunos iconos?
Hasta hace no mucho si se iba la luz seguía funcionando el teléfono fijo, ahora se va la luz y no es que no vaya el fijo que ahora va con luz, si no que además no van ni los móviles
No os traumeis, el mundo no se acabó. Lo que ocurrió con el COVID fue bastante más grave y aquí seguimos.
Eso sí, no quita de que cada vez tengamos sistemas más y más pedigüeños y a la vez, más vulnerables. Le dices a una persona de los años 1950s que el teléfono la duraría unos 5 años y te dice que vaya tomadura de pelo.
Puedo entender que un complejo modelo de AI ocupe gigas y gigas... pero una calculadora que casi te la puedes implementar en casa con circuitos electrónicos y placas de prototipos... NO.
La optimización de software por supuesto que es una prioridad, lo que ya no es es una necesidad como antes. Que mucha gente pueda desarrollar software sin preocuparse de la optimización es algo bueno, e imprescindible para llegar al punto al que hemos llegado.
Ejemplos:
Tenemos Teams que hace prácticamente lo mismo que Messenger y no va fluido en un i7 y consume una barbaridad de RAM.
Tenemos webs que para mostrar productos ocupan RAM a mansalva y bajan 17 librerías externas.
Tenemos JavaScript,… » ver todo el comentario
De hecho, con publicaciones así me encanta saber que puedo hacer funcionar mi portátil del año 96 con un Linux actual (compilado a propósito)
Incluso modelos de gráficas avanzadas mas tardíos como la gráfica 3dfx voodoo 3 solo renderizaban con una profuncidad de color máxima de 16bits.
Tampoco se realizaba ningún suavizado sobre los bordes de las fuentes.
Usar hardware antiguo tiene su punto. Y a algunas personas sin recursos no les queda otro remedio que seguir usándolo. Pero a la larga no se justifica la mayor factura de electricidad, o morirte de calor (en verano) junto a equipos que generan tanto calor como una tostadora.
En la época del "penkium" 100 MHz la tarjeta gráfica iba con un disipador y ya. Ahora abres dos pestañas en el Chrome y se revolucionan los ventiladores como si fuera a despegar el bicho.
*Exageración al absurdo, si.
Con la reciente addición, a finales del 95, al html version 2 del "Form-based File Upload" www.rfc-editor.org/rfc/rfc1867
En esa época la mayoría de programas de gestión funcionaban sobre terminal de texto. Cosas como dbase III estaban en producción.
Sobre el uso de terminales de texto, en ocasiones son más ágiles que estar limpiando la pelusa de la mesa con la bola del ratón
La gente de a pié no compra ordenadores de bajo consumo, se van a lo más hortera con luces led hasta en las gomas de las patas y un mínimo de cinco ventiladores porque así les funciona bien el Fortnite.
www.blauer-engel.de/en/productworld/software
que tienen Okular (lector de PDFs y ptros documentos de KDE) y Nextcloud Server.
collapseos.org/ y más cositas que hay por ahí.
Antiguamente tenías que hacer software enfocado en arquitecturas/hardware concreto para exprimirlo al máximo. Carmack y Romero fueron putos genios (sobretodo el primero) que cambiaron el mundo empezando en el mundo del videojuego. Si… » ver todo el comentario
El año en que Autodesk decidió pasar el AutoCAD a .net, engordó bastante y se volvió lento con ganas.
En los últimos años no hay un salto tan grande como esos. Mejor hardware, pero no con un saldo tan drástico que cualquiera no entusiasta lo pueda notar.
Suelo moverme con la terminal y escribir con vim así que realmente con un ordenador de los 90 podría hacer casi lo mismo aunque más despacio.
Pero en los últimos 10-15 años, el cambio es mínimo. CC #29 #41
Carmack es un genio, pero no estaba solo y evolucionaron el motor del Wolfenstein 3D, que no pintaba techos. En "Maestros del Doom" está todo excelentemente explicado.
Si podríamos vivir con la tecnología de hace 30 años , pero sin avanzar en muchos campos.
Eso es lo que está diciendo, que todo el poder de cómputo actual se pierde por no desarrollar óptimamente
danluu.com/input-lag/
Otra cosa es que las generaciones nativas digitales sepan usar ese hardware obsoleto. Necesitarían ayuda de los "jubilados ésos que chupan de las pensiones y que ojalá que se murieran pronto para no tener gastar tanto dinero en ellos"
A veces me gustaría que hubiera un Internet versión "Vintage" para navegar usando software y hardware de hace 20 o 30 años.
Y su evolución Gemini también, aunque esta si que necesita navegador dedicado.
Edito: lo que realmente ha matado el internet vintage (html) es la manía de meter https para todo, incluso para webs que no lo necesitan para nada y que el navegador casi las trata de delincuentes aunque solo hagan uso de html y css