Hace 1 año | Por anje a xataka.com
Publicado hace 1 año por anje a xataka.com

Los ingenieros de YouTube tenían un problema: la gente no paraba de subir vídeos al servicio y convertirlos (transcodificarlos) a los formatos adecuados no se hacía lo suficientemente rápido. Al ritmo que iba a todo, el colapso era factible. Ahí es cuando Partha Ranganathan, máximo responsable de ingeniería en Google, tuvo claro que algo tenía que cambiar. Tenían que dejar de depender de hardware de otros y crear sus propios chips. Qué ha pasado. Aquel esfuerzo que comenzó hace siete años cristalizó con los llamados Argos Video Coding Units...

Comentarios

sorrillo

Cuando los bitcoins aparecieron en escena cualquiera podía minar esta criptodivisa con su ordenador, pero pronto la tarea se volvió tan compleja y exigente que se crearon chips específicos para realizar solo esta tarea.

Más bien es al revés, se requirió más potencia de cálculo para minar bitcoins porque aparecieron esos chips específicos. Si no hubieran aparecido nadie los hubiera necesitado, no es que Bitcoin se hubiera vuelto inviable por falta de capacidad de cómputo sino que había los incentivos para ser mejor que el resto de mineros y eso llevó al desarrollo de mejores chips y al existir se convirtieron en necesarios para el resto.

En Bitcoin primero fueron los chips y luego la necesidad.

En el caso de YouTube la necesidad venía dada del aumento de usuarios que querían subir vídeos, por la popularidad del sitio y porque los teléfonos móviles graban a mayor calidad y tienen más acceso a Internet. A su vez YouTube quería poder ofrecer mayor calidad de vídeo con 4K, 3D, etc. y quizá no lo hubieran podido hacer sin esos chips. La necesidad surge de frentes muy distintos.

Digamos que YouTube sin esos chips habría podido llega a un punto en el que su calidad se vería reducida por la falta de capacidad de procesar todo lo que le pedían los usuarios, en Bitcoin la ausencia de esos chips no se habría notado en nada de cara al usuario, los bloques habrían seguido apareciendo de media cada 10 minutos. La afectación de esos chips es solo para el reparto entre los mineros, a quién le toca la recompensa si a unos u a otros, pero no cambia nada más.

D

Un artículo muy interesante. El último párrafo no tiene demasiado sentido (compararlo con los a1 de Apple). Pero el resto del artículo está muy bien

Aokromes

me pregunto como se comparara con los ultimos de intel en av1 que dicen que les da una paliza tanto a amd como a nvidia.

Suigetsu

#2 Un chip hecho para hacer una sola tarea siempre será más rápido que un chip multiproposito.

Si pones un Intel de última generación a generar gráficos tendrá peor rendimiento que una tarjeta gráfica de hace 15 años.

Aokromes

#3 pues, ya te digo, el quicksync av1 de intel le da una paliza a tanto nvidia como amd en esta misma tarea.
https://www.tomshardware.com/news/intel-arc-av1-encoder-dominates-nvenc