Hace 10 años | Por chisqueiro a economia.elpais.com
Publicado hace 10 años por chisqueiro a economia.elpais.com

Una nueva era de los ordenadores está llamando a la puerta y España está durmiendo la siesta. Los ordenadores están transformando el trabajo humano. Las tareas rutinarias manuales ya han sido automatizadas por robots. Por ejemplo, las fábricas han prescindido de miles de aburridos, pero bien pagados, trabajos manuales. También muchas tareas rutinarias intelectuales están desapareciendo: los enormes edificios de oficinas llenos de empleados rellenando formularios son cada vez más un recuerdo del pasado.

Comentarios

D

#2 Tiene pinta de ser traduccion chapucera del ingles.

L

#1 #2 #3 Pues les he preguntado al respecto y parece que nos hemos columpiado en meneame, algo saben al respecto:
"Hola Carlos, no, no es una errata. Son los procesadores que hay en las CGUs (usados para manipulación gráfica) que tienene efectivamente más de 2000 cores, no en las CPUs. En concreto se refería al System76 Leopard Extreme con una GPU 3 GB GTX 780 que contiene 2,304 CUDA cores mas 6 Intel cores (en total 2310 cores o, en su traduccion al Español mas adecuada para el gran publico, 2310 procesadores). Jesús ha escrito sobre como usar estos procesadores para hacer cáculos aquí http://economics.sas.upenn.edu/~jesusfv/GPU_Computing.pdf"

Pensé en si habían confundido core con procesador, los expertos sabréis más, pero leyendo aquí la diferencia no es mucha:
http://www.ecured.cu/index.php/Microprocesador_Multin%C3%BAcleo
"Microprocesador multinúcleo. Es aquel que combina dos o más procesadores independientes en un solo paquete, a menudo un solo circuito integrado. Un dispositivo de doble núcleo contiene solamente dos microprocesadores independientes."

Además no se porque he dudado tanto de ellos, al menos se que JFV sabe programar en unos cuantos lenguajes, así que de informática controla.

llamamepanete

#8 Efectivamente parece un error de traducción.

No obstante, aunque fuese una traducción correcta y se hablase de núcleos, hay diferencias sustanciales entre un núcleo de CPU y uno de GPU, aunque conceptualmente para una persona profana en la materia pueda parecer lo mismo.

La principal diferencia radica en que una CPU ( procesador tradicional ) está dedicada a la computación multipropósito y cuenta con un conjunto de instrucciones y capacidades diseñadas para ello. Mientras, una GPU ( procesado gráfio ) está diseñada inicialmente para la computación gráfica y cuenta con un conjunto de instrucciones reducido y enfocado a ese propósito.

Lo fundamental de la GPU es el paralelismo. Una GPU tiene miles de pequeños cores muy específicos y poco potentes por sí mismos, mientras que una CPU tiene unos pocos cores (como mucho una docena, siendo lo más común entre 2 y 6) muy poco específicos y muy potentes.

Abusando de un simil puedes ver las GPU como una "colmena de abejas", mientras que puedes ver una CPU como una pequeña familia de mamíferos. Está claro que a la hora de recolectar miel... la colmena gana, pero cuando hay que hacer más cosas a parte de recolectar miel... y además hay que hacerlas en un orden concreto...

Bien, esa es la idea. Sin embargo, con la llegada de CUDA y de OpenCL ( 2 librerías para procesamiento genérico en GPU ) algunas funciones de CPU pueden ser llevadas a GPU lo que se ha conocido como GPGPU (General Purpose GPU), pero ni mucho menos todas. Es decir, lo que aporta CUDA/OpenCL es que la capacidad de proceso de la GPU pueda ser usada para algo más que para "pintar". Sin embargo, con limitaciones.

A GPU es sensato llevar calculos masivamente paralelizables, sin embargo, cualquier cálculo o rutina secuencial rinde mucho mejor en CPU. Por otra parte, también hay que tener en cuenta el consumo de la GPU y el coste de la misma, que en están en ambos caso por encima de las CPU.

Aquí dejo un artículo bastante interesante sobre "el mito del rendimiento de la GPU en computación general": http://www.hwsw.hu/kepek/hirek/2010/06/p451-lee.pdf

Flkn

#1 Quizás se refiera a Cores (no procesadores físicos) de gráficas, donde algunas ya van por los 2880: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-780-ti/specifications

En términos de potencia pueden conseguir cosas que hace no tanto tiempo únicamente estaban al alcance de los superordenadores.

L

#1 El resto del artículo es bueno, pero eso es una cagada muy buena.

ﻞαʋιҽɾαẞ

Que raro que todavía no haya venidomucha_pajamucha_paja a dar su opinión.

D

Segun articulo:

Jesús Fernández-Villaverde es catedrático de Economía de la Universidad de Pensilvania. Luis Garicano es catedrático de Economía y Estrategia de la London School of Economics.

Lo que deduzco:

Ninguno de los dos tiene ni idea de detalles tecnicos y parece que se creen que la singularidad esta cerca.

La ley de moore solo habla de la cantidad de transistores en un area, no de la capacidad en un sentido abstracto y no es una ley, es una suposicion que de momento aguanta mas o menos y con apaños el paso del tiempo.

http://es.wikipedia.org/wiki/Ley_de_Moore
http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica

L

Lo que da miedo es éste párrafo:
"Estas diferencias pueden tener dos consecuencias importantes. La primera es una fuerte polarización del ingreso. Una minoría de la población, que por educación y capacidades innatas interactúe bien con las nuevas tecnologías, verá incrementar sus ingresos de manera espectacular. Una mayoría de la población, ante la mejor demanda por sus servicios, verá que sus salarios caen. La velocidad del cambio será tal que estos trabajadores tendrán poca capacidad de reaccionar a tiempo. Muchos de ellos simplemente abandonarán la población activa (algo que ya se observa en Estados Unidos)."