MiTH

#13 Yo si fuera profesor universitario y el alumno me tradujera correctamente un artículo decente de la Wikipedia en inglés al castellano ya me daba con un canto en los dientes.

D

#32 Ya pero no lo eres y los que lo son quieren que se use menos Wikipedia y más otras fuente de Internet o libros y apuntes físicos. La universidad podría ser motor pero no lo es en esta cuestión.

Feindesland

#32 Suscribo.

p

#4 totalmente de acuerdo con esa iniciativa. El problema es que en este pais, somos excesivamente perfeccionistas.

Me acuerdo de cuando comenzo la pandemia, que algunos pueblos comenzaron a fabricar mascarillas de tela, y entonces escuche un comentario de Spiriman, no se si en la television o en uno de sus videos :"como trabajo de manualidad esta bien, pero..."

Y quien le ha dicho que esos fabricantes no se puedan ir especializando? Mejorando los materiales, las tecnicas de produccion... No, sale mas barato desmoralizar y criticar al gobierno actual diciendo que no sabe comprar mascarillas. No es que este en contra de Spiriman, ni del gobierno. Es el espiritu ese que tenemos de echar para abajo cualquier comienzo. Porque las cosas comienzan con poquito. O dicho de otra manera, que Zamora no se gano en una hora...

Pues aplicando eso al caso de los chavales de instituto, que crees que pasaria? Yo sinceramente me imagino a algun lector, que en vez de mejorarlo el articulo, diria: "que puta mierda, ves? Este es el nivel de enseñanza de este pais..."

Vease un ejemplo claro, el comentario de #32.

Feindesland

#66 Creo que viene a cuento un chiste Serbio. Te va a gustar. Me lo contó un soldado durante la guerra de 1992.

"Y entonces Jesús, que estaba con sus discípulos en el lago Tiberíades, saltó de la barca y comenzó a caminar sobre las aguas.
Y dijo alguien desde la orilla: Mira qué inútil. Dice que es hijo de Dios y ni siquiera sabe nadar"


lol lol lol


Pues eso...

p

#70 ajjajaj, es bueno si.

Feindesland

#72 Lo voy a colgar en fragmentos...

lol lol

Fernando_x

#32 Y luego que encuentras con la realidad, que para qué esforzarse traduciendo cuando existe google translate?

MiTH

#170 Por eso decía "bien traducido".

waterbear

#170 Wikipedia tiene una herramienta para crear traducciones de artículos que integra entre otros Google translate: https://mediawiki.org/wiki/Content_translation/es

Con ella es sencillo crear artículos revisando la traducción inicial.

Fernando_x

#228 No la conocía, debe ser algo bastante nuevo. Es un avance al menos... pero no es demasiado conocido.

MiTH

#95 Una pena que los aliados decidieran entrar por Sicilia y no por Gibraltar

MiTH

#69 Pues tienes razón. Las demandas eran principalmente por la "copia" de Windows del estilo de interface de MacOS entre otras y además les sacó tener IE como navegador por defecto en MacOS, aunque no la única opción. De cualquier manera esa compra de acciones salvó a Apple de la bancarota.

m

#85: La interfaz gráfica de usuario la inventó Xerox.

MiTH

#21 Es como cuando Microsoft salvó a Apple de la quiebra. Les interesa que haya alguien con una baja cuota de mercado para no tener problemas.

r

#33 no, Microsoft financió Apple como compensación por haber robado código de una aplicación (o algo así). Fue un acuerdo para evitar ir a los tribunales.

MiTH

#69 Pues tienes razón. Las demandas eran principalmente por la "copia" de Windows del estilo de interface de MacOS entre otras y además les sacó tener IE como navegador por defecto en MacOS, aunque no la única opción. De cualquier manera esa compra de acciones salvó a Apple de la bancarota.

m

#85: La interfaz gráfica de usuario la inventó Xerox.

MiTH

#112 ¿Lisboa y Oporto están en el interior? Vale, no se concentra en la costa per se pero las dos grandes metrópolis son costeras y toda la zona de la frontera está peor económicamente que la zona litoral.

MiTH

#81 Venia a comentar exactamente lo mismo. Que las regiones portuguesas abarquen hasta la zona de costa que es dónde se concentra la economía portuguesas invalida totalmente la comparación. Si solo se comparara zonas al lado de "la raya" el resultado sería muy similar.

D

#97 La economia portuguesa no se concrentra en la costa, que es pobre en su mayoría. Se concentra en una metrópoli; Lisboa

MiTH

#112 ¿Lisboa y Oporto están en el interior? Vale, no se concentra en la costa per se pero las dos grandes metrópolis son costeras y toda la zona de la frontera está peor económicamente que la zona litoral.

Noeschachi

#112 Porto-Braga y alrededores no están nada mal en términos de actividad

MiTH

#73 La clave de nuestra decisión la estás dando en el segundo parrafo. Su principal problema es el consumo. Muchos dispositivos IoT no necesitan grandes capacidades de procesamiento pero lo que si necesitan es un consumo muy bajo. Nuestro ingeniero electrónico en cuando vio la potencia de consumo de lo que ofrecía Intel ya no tuvo que mirar nada más. Y estoy hablando de dispositivos embebidos para IoT, no tablets o micro computadores que es para lo que nos ofrecían soluciones y que probablemente tengan más margen de maniobra.

Creo que Galileo o Edison eran productos para "makers" pero nunca se ofrecieron como soluciones finales para la industria que necesita mucha más seguridad y soporte en el producto. Aunque yo no estoy muy puesto en temas de hardware.

meneandro

#74 El problema es que se han gastado un pastón enorme en desarrollarlos y fabricarlos, y tienen que darle una salida. Y luego las ventas pobres, y luego los ejecutivos cortoplacistas cerrando el grifo (cuando poniendo pasta y siendo perseverantes en esa meta podrían desarrollar técnicas y tecnologías y formas de fabricación que les podrían permitir ser competivivos y que además podrían beneficiar a todos sus productos en general). Y luego otros ejecutivos viendo el pastel jugoso que se están ventilando todos los de la competencia deciden que tienen que volver si o si a pelear y así...

meneandro

#74 Por no nombrar que Intel tuvo/tiene una licencia ARM, podrían estar fabricando chips ARM y forrándose, ni siquiera se harían pupa a si mismos porque estarían peleando en mercados distintos...

MiTH

#15 Pues no se dónde lo habrán metido porque lo que ofrecen para IoT es basura comparado con ARM. Hace un año nos estuvieron enseñando sus soluciones para un proyecto que empezabamos y su MPU fue la primera en descartarse porque parece que te venden un micro PC y no una solución para pequeños proyectos embebidos.

EmuAGR

#68 Pues estaba Galileo y Edison pero los descatalogaron.

meneandro

#1 #68 Intel ha tenido principalmente tres problemas:

- Ha invertido un montón, pero o en cosas incorrectas, o en momentos incorrectos (llegando tarde) o ha dejado de lado sus productos cuando con un gasto superlativo ya los tenía encaminados. Recordemos que Intel tenía procesadores de bajo consumo y buen rendimiento y que pudo haber sido quien "motorizara" los iPhone originales. Intel invirtió un montón den chips para móviles, abandonó y luego intentó retomar cuando ya era demasiado tarde y la competencia era brutal. Recordemos también que Intel en su día compró Real3D para sus gráficas discretas. Abandonaron su familia i74X que no tuvo mala recepción en el mercado, y la reconvirtieron en sus integradas. Posteriormente intentaron sin éxito recuperar la idea de tarjetas gráficas con experimentos como Larrabee (que no eran gráficas de verdad, eran muchas CPUs de cómputo general juntitas, algo parecido a lo que son ahora mismo las gráficas, pero desde un acercamiento diferente), que luego intentaron derivar a un producto de cómputo más generalista y que tampoco tuvo mucho éxito. Ahora vuelven a atacar la parte de las gráficas después de una inversión gordísima cuando habiendo seguido apoyando proyectos que ya tenían en marcha igual las cosas hubieran ido de otro modo (quitándole ingenieros del más alto nivel a la competencia, empezando un producto desde cero y no se sabe si llegando tarde de nuevo al pastel; en unas semanas lo presentan... y en un mes nvidia saca su nueva generación y en dos lo hace amd y algo me dice que suerte va a tener intel si llega a ser competitiva con la generación actual).

- Pasó de tener la tecnología de fabricación más avanzada a quedarse estancados (una de las razones por las que AMD les ha sobrepasado, AMD fabrica con los mismos fabricantes y en los mismos nodos que los ARM actualmente); y siguen llegando tarde porque se esperan nuevos retrasos (su apuesta nunca llegó a ser todo lo fiable que era necesaria y los costes de ponerla en marcha han sido brutales; la competencia por su parte, dio en la diana y ha avanzado muchísimo en poco tiempo, gracias a todos los encargos que tienen del sector de los móviles, que está dando pingües beneficios a los fabricantes de chips. En su momento, se decía que los procesadores x86 (los Intel, los de AMD ni se les esperaban, rindiendo mucho menos, fabricándose con tecnologías más antiguas y consumiendo mucho más) eran más potentes que los arm pero sólo porque se fabricaban a mayor densidad y con procesos más avanzados, que si se fabricaban los arm a esas densidades no solo en rendimiento por watio sino en rendimiento puro ya podían ser competitivos. Ha pasado mucho tiempo desde entonces, los arm se fabrican a mayores densidades que los x86 y aún (apple mediante) no son igualmente competitivos (se siguen diseñando con el consumo en mente antes que con el rendimiento), pero si se han ido cerrando brechas (tanto los x86, cada día consumiendo menos, como los arm, cada día rindiendo más). Quizá el centrarse en el consumo ha hecho que hayan perdido de vista el rendimiento (y ahora para poder estar a la altura de AMD están teniendo que forzar frecuencias y están perdiendo la batalla del rendimiento/consumo con AMD al menos en sus gamas media y alta, además de la del rendimiento/precio).

- La microarquitectura de Intel, por cuales sea razones, es más vulnerable (las malas lenguas dicen que por haber diseñado adrede mal para conseguir ventajas en rendimiento) y les ha dado muchísimos quebraderos de cabeza, teniendo que desviar una cantidad de fondos muy importante para taparlos (y/o "mitigarlos"). Esto, que con todas las ventajas de ser las CPUs más potentes, que podían haberlo cuidado, detectado y corregido en su día, se ha convertido en una carrera por tapar todas las vías de agua, en sacar los desarrollos que tenían guardados retocándolos un poco para intentar tapar los huecos más gordos y quién sabe si empezar a desarrollar una microarquitectura nueva (que no veremos hasta dentro de unos años) y en intentar sacar nuevas instrucciones chulas pero innecesarias para intentar mostrar algo de innovación y liderazgo de cara al mercado y venderlo como lo más sólo por las puntuaciones de las comparaciones de rendimiento (https://www.linuxadictos.com/linus-torvalds-desea-muerte-dolorosa-avx-512-intel.html).

MiTH

#73 La clave de nuestra decisión la estás dando en el segundo parrafo. Su principal problema es el consumo. Muchos dispositivos IoT no necesitan grandes capacidades de procesamiento pero lo que si necesitan es un consumo muy bajo. Nuestro ingeniero electrónico en cuando vio la potencia de consumo de lo que ofrecía Intel ya no tuvo que mirar nada más. Y estoy hablando de dispositivos embebidos para IoT, no tablets o micro computadores que es para lo que nos ofrecían soluciones y que probablemente tengan más margen de maniobra.

Creo que Galileo o Edison eran productos para "makers" pero nunca se ofrecieron como soluciones finales para la industria que necesita mucha más seguridad y soporte en el producto. Aunque yo no estoy muy puesto en temas de hardware.

meneandro

#74 El problema es que se han gastado un pastón enorme en desarrollarlos y fabricarlos, y tienen que darle una salida. Y luego las ventas pobres, y luego los ejecutivos cortoplacistas cerrando el grifo (cuando poniendo pasta y siendo perseverantes en esa meta podrían desarrollar técnicas y tecnologías y formas de fabricación que les podrían permitir ser competivivos y que además podrían beneficiar a todos sus productos en general). Y luego otros ejecutivos viendo el pastel jugoso que se están ventilando todos los de la competencia deciden que tienen que volver si o si a pelear y así...

meneandro

#74 Por no nombrar que Intel tuvo/tiene una licencia ARM, podrían estar fabricando chips ARM y forrándose, ni siquiera se harían pupa a si mismos porque estarían peleando en mercados distintos...

MiTH

#88 Seguiré consultando mis dudas de programación en Stackoverflow y Menéame seguirá siendo el cajón de sastre donde se contesta sobre cualquier tema.

MiTH

#53 cierto que un lector lego no tiene por qué saber cómo se define una sobrecarga de uso. Cualquiera familiarizado con el tema sabe que las sobrecargas de uso son uniformes sobre la superficie o se habrían definido como sobrecargas puntuales, lineales, etc. Entiendo que estando muy acostubrado a esto uno pueda no darse cuenta de que el resto del mundo no tiene por qué saber como son ese tipo de cargas.