#173 ¿Falso por qué? Y ¿cuál de ellos? Además en caravana en las carreteras de hielo del invierno noruego no tiene que ser fácil de conducir si no es una autocaravana.
#96 el peligro no es lo que esté pasando ahora en escandinavia. El peligro es lo que puede pasar si generalizas y automatizas el conocer los ingresos de todo el mundo. Eso, para las personas sin ingresos o que cobren el SMI, no es ninguna ventaja, es un estigma.
El mundo favorece a los que ganan más. Tu buen traje, tu visa oro, te abre puertas. De siempre. En el momento en el que los algoritmos puedan seleccionar a la gente en base a lo que cobran, ya sabes quienes van a tener las peores mesas en los restaurantes (si es que tienen alguna), los peores asientos en el avión, el turno del dentista, lo que sea.
Todo va a ser siempre para los mejores clientes y la cenicienta muerta de hambre que cobra el SMI (o ni cobra), no lo es.
Es un riesgo enorme que va en contra precisamente de la igualdad y de intentar arreglar el ascensor social que ya funciona muy mal pero funcionaría todavía peor. Es marcar al pobre como pobre, y ponerle encima otra piedra más para que no deje de ser pobre.
Increíble que esto se venda como una idea progresista, cuando es todo lo contrario, es abrir la posibilidad a ver más claramente aún quienes son los ciudadanos que deben ir en primera clase y quienes deben de ir junto a la sala de máquinas.
#89 en un mundo donde cualquiera sabe lo que ganan los demás, quienes saldrán más perjudicados son los que ganan menos. Es totalmente distópico, instantáneamente tendrás una calificación por ingresos en todos los servicios que contrates, y no sé como puedes creer que eso va a beneficiar a los más desfavorecidos. Es una discriminación institucionalizada.
Para inspeccionar a los ricos están los inspectores fiscales, que esos ya tienen toda la información. ¿Qué hacen falta más? Por supuesto. Que se contraten más.
#79 perfecto, tu sabrás lo que cobra realmente el megarico (es decir, lo que el megarico declara que cobra), y a cambio Amazon sabrá exactamente lo que cobras tu. Con la información que tu tienes respecto al megarico no podrás hacer nada (¿que más te da saber si son 1000 millones o 1023 milones) pero Amazon te dará una experiencia mucho más personalizada
#154 Ahora mismo, en vacaciones y a comienzos del invierno, pero no todo el invierno como hace la gente en Mallorca o en Malaga porque no hay otra opción con el precio de los alquileres.
#48 claro, la gente normal no tiene que preocuparse de que se sepa lo que ganan. Ni de lo que gastan. Ni por donde caminan. Ni de los chats que escriben. Ni de que se sepa que piensan sobre la política. Solo los delincuentes han de temer
#68 no acabo de entenderlo. Los datos que vas a conocer son los que la gente declara, los datos oficiales. Lo que viene siendo la declaración de la renta. Nadie va a poner en ningún sitio lo que cobra en B.
#130 Se está bien pero una semana no todo el invierno. En verano puedes estar todo el verano porque sales puedes tener un lago cerca pero en invierno no.
Sacar el depósito de aguas grises a -20 es dolor y más si está congelado y tienes que cagar fuera.
#28 “Enanismo” puede evocar los mismos estereotipos negativos asociados a “enano”.
Durante siglos, la palabra se ha utilizado para ridiculizar, minimizar o infantilizar a las personas de baja estatura, especialmente en el entretenimiento, la literatura y el lenguaje coloquial. Llamar a alguien “enano” pone el foco exclusivamente en su estatura, ignorando su identidad completa como persona, lo que contribuye a la despersonalización.
El término suele ir ligado a imágenes caricaturescas (fundamentalmente personajes de circo), lo que refuerza prejuicios y expectativas irreales sobre las personas con acondroplasia u otras formas de baja estatura.
Muchas personas con acondroplasi y organizaciones de derechos humanos han expresado que el término les resulta ofensivo y prefieren expresiones más respetuosas y precisas.
El lenguaje cambia con la conciencia social. Hoy se priorizan términos que no carguen con una historia de discriminación.
#97, fíjate que yo casi nunca hablo de la AGI. Es un tema que me aburre y no me interesa. Primero porque veo que ni siquiera existe un concenso bien definido sobre qué es y que debería ser capaz de hacer. Si en el año 2000 alguien nos enseña cualquier LLM de frontera actual, creo que todos hubiesemos dicho que es AGI, hoy en cambio nadie con dos dedos de frente dice que lo sea. Así que el tema me preocupa relativamente poco. Lo que sí me preocupa es lo que veo que pueden hacer hoy estos modelos.
Hace 4 añitos solamente salieron las primeras versiones de Copilot integradas en VS code. No se si te acuerdas pero eran como un autocompletar muy vitaminado. En realidad no tenían nada que ver con cómo es un autocompletar por dentro pero su forma de integrarse en el flujo de trabajo de un desarrollador era parecida. Era espectacular porque eran capaces de completar el código que escribías pero necesitaban que tú escribieses el código línea a línea. Iba muy guiado y solo te ahorraba tiempo de tecleo, pero eras tú el que lo tenía que pensar casi todo. Luego aparecieron herramientas, Cursor, Windsurf, pluguins de VSCode que ya empezaban a funcionar distinto. Te escribían scripts completos con simples descripciones, pero a veces se quedaban encalladas alrededor de un problema muy tonto y no había forma de sacarlas de aquí por muchonque iteraras. Te tocaba a tí ponerte a trastear con el código sí o sí. Ya en esa época leía muchos comentarios diciendo que eso pasaba por una limitación fundamental en lo que eran los LLM, que ya se había tocado techo, que no podrían mejorar más. Este año ha sido devastador, agentes como Codex no solo escriben código sino que gestionan por completo tu sistema de ficheros, pero la guinda ha sido el último trimestre y con dos nombres muy concretos. Gemini 3 y Calude Opus 4.5. No solo son capaces de mantener la coherencia en códigos mucho más largos y comolejos. Es que cuando se equivocan se autocorrigen a si mismo con una eficacia que asusta.… » ver todo el comentario
#95, perdón por el tono, pero es lo que sinceramente creo, la progresión de los LLM desde que apareció chatGPT ha sido sostenida y repito, volver a afirmar que con lo que son capaces de hacer hoy el impacto en la productividad es tan insignificante como para que no afecte el mercado laboral es o hablar desde el desconocimiento o ser verdaderamente incapaz de aprovechar lo que ofrecen estas herramientas.
Curiosamente yo me dedico al campo de la IA desde hace más de 15 años, tengo un doctorado, más de 30 papers publicados alguno de ellos en ESWA ya que hablas de Sistemas Expertos y los últimos 6 años trabajando para la industria desarrollando modelos de IA, tanto proyectos con LLM's como modelos de visión para cámaras inteligentes. En el pasado he implementado algoritmos genéticos, árboles de decisión, SVM, sistemas expertos, redes bayesianas o modelos de regresión. Tengo un background sólido en IA clásica y simbólica, pero la idea de las redes neuronales me fascinó desde la primera vez que leí sobre ellas y la sensación que tuve cuando rompieron todas las puntuaciones en un problema muy específico de teoría de grafos al que me dedicaba durante mi etapa de investigador es difícil de olvidar.
Es precisamente por de dónde vengo, por estar discutiendo ya en 2015 sobre lo que podrían hacer las redes neuronales con compañeros, algunos de los cuales escépticos, que cuando todo se aceleró con la IA generativa (recuerdo un artículo de Gary Marcus sobre GPT-2 con argumentos muy parecidos al tuyo actualmente [él tampoco ha cambiado de opinión a pesar de que hoy lees su artículo y te ríes]: thegradient.pub/gpt2-and-the-nature-of-intelligence/) y después todo lo que vino además de los transformers, GANS, modelos de difusión... Que me chocó mucho el enorme escepticismo que percibí en la mayoría de la gente. Es como un "veis, os lo dije, podemos hablar con una puta máquina" y la respuesta "pues no hay para tanto". Esto me llegó a pasar con mi propia… » ver todo el comentario
#93, creo que te formaste una idea de lo que son los LLM al probar por primera vez chatGPT y de ahí no te has movido ni un milímetro, porque dices cosas en las que sencillamente estás completamente equivocado:
Aparte tienes muchos otros problemas sin solución cercana, como el tamaño de la ventana de contexto.
El tamaño de la ventana de contexto del primer chatGPT era de 4 096 tokens, el del modelo 5.2 presentado hace dos semanas de 400 000 tokens.
También podría graficarte benchmarks de ingeniería del software para ver que el ritmo al que mejoran estos modelos es constante y sigue una tendencia exponencial y hablarte de mi experiencia personal con Opus 4.5 o Gemini 3. Antes es cierto que se quedaban muy a menudo atascados dando vueltas estúpidas a un mismo problema, ahora casi no pasa.
En serio, creo que tienes ideas muy desactualizadas sobre el estado del arte de estos modelos. Y no te culpo, no paran de mejorar mes a mes a pesar de que hay gente que lleva 3 años diciendo que han tocado techo.
#86, creo que el problema de muchos técnicos es que les cuesta entender el impacto global a partir de su experiencia individual. Que una herramienta no pueda sustituir todo lo que hace un trabajador no significa que no destruya puestos de trabajo. Los aumentos de productividad se deben compensar con un aumento en la producción o una reducción de horas trabajadas, sino terminan destruyendo trabajo. Y las métricas son claras, las visitas a stackoverflow estan en mínimos, el código generado por IA en máximos, la gente está utilizando estas herramienta porque les resulta útil. Y aunque el escribir código no sea todo el trabajo, negar que ha sido una parte importante tanto del proceso formativo como del ejercicio de esta profesión es engañarse a uno mismo.
Estoy seguro de que en los próximos años el discurso va a virar a lo poco éticss que don las IAs y a que los organismos públicos deben actuar para mitigar el impacto de la IA en el mundo laboral. El negacionismo, que existe aunque tu no lo seas, tiene los días contados.
#83, gracias por la evidencia anecdótica, pero esta explicación la he leído 500 mil veces y directamente no es verdad que sea una pequeña mejora a la hora de escribir código, es un cambio descomunal que por supuesto va a impactar en el mercado laboral.
Toda la cúpula franquista era anticomunista y por lo tanto proyankee, también Carrero.
ETA tenía capacidad en ese momento, y por supuesto después. Por eso aguantaron durante décadas. ETA tenía oficina en Argel y enviaba a militantes a campos de entrenamiento. Viajaron a Uruguay a aprender de los tupamaros la construcción de "zulos". De hecho, el plan original era secuestrar al Ogro y canjearlo por presos políticos, de todas las organizaciones, que tuvieron condenas largas. Aquello sí que habría sido de película.
Todos los testimonios atribuidos a los militantes, como "el hombre de la gabardina" no son fuentes primarias, sino que provienen de literatura conspirativa. El atentado fue reivindicado el mismo día. Los vascos que hacían la mili en Madrid fueron acuartelados y el régimen mató en Madrid a un vasco que no tenía nada que ver.
Cable enviado por la CIA a Washington DC: “La muerte ayer del primer ministro Carrero Blanco complica los planes cuidadosamente trazados para la sucesión del general Franco y agrava las incertidumbres de la era post-Franco”. Ningún cable desclasificado alude a nada que pudiera proporcionar material a los conspiracionistas. Por eso no los citan nunca.
La visita de Kissinger era para disuadir a España de su posición proárabe en la guerra del Yom Kippur.
La teoría de la conspiración tiene dos orígenes que confluyen:
-un nacionalismo español que quiso ver en Carrero Blanco un patriota, soberanista conservador, que quería construir la bomba. Nada de eso hay, pero claro, de alguna manera hay que digerir que el franquismo fuese un lacayo de los anglosajones protestantes que nos robaron Cuba y Filipinas.
-por otro, un Partido Comunista que había disuelto su propia guerrilla y adoptado otra estrategia (con mucho éxito), y no toleraba que otro grupo asumiera el rol de resistencia armada. Carrillo dijo que el atentado debía de haber sido perpetrado "por ciertos servicios especializados, más que por una organización cuyos medios y posibilidades son limitados". En ese momento le convendría decir esas gilipolleces, aunque no tuviera ningún sentido.
Eva Forest, autora de Operación Ogro y colaboradora del Comando Txikia. contaba que desde el principio había gente en los ambientes izquierdosos de Madrid, que le contaba "saber de muy buena tinta" quién había matado a Carrero. Ella lo sabía perfectamente, pero se lo callaba.
#62 Tras muchos años en la empresa han empezado a dar licencias de algunas cosas, como SecureCRT o ChatGPT a quien las pide (Office y eso desde siempre, y ahora cosas en nombre como jira y otros) pero de intellij nos han dicho específicamente que la herramienta oficial del departamento es la versión community.
#56 Claro que tiene que haber un modelo de negocio, o al menos una motivación económica. De lo contrario el software libre depende de limosnas y voluntariados.
Hay proyectos que son una motivación en sí mismo, que uno puede ver lo bonito de formar parte de ese legado. Pero hay otros muchos que son trabajo, feo y gris, pero igual de necesario. Estos últimos si no tienen un modelo de negocio detrás, no se hacen.
#48 Claro. Pero parece insuficiente. Al menos para competir o tener una buena posición frente a las multinacionales con software propietario.
#57 Yo estoy "obligado" por la empresa a hacer ese mismo cambio, pero a la versión community y le faltan cosas importantes, por ser esa versión, y así no hay quien trabaje, así que no estoy haciendo el cambio. No es que no se pueda, claro, podría trabajar con el notepad, pero es frustrante ir tan despacio sabiendo que con otra herramienta irías más deprisa.
#45 No lo conozco pero aunque uso el IDE de Eclipse me parece que muy bien hecho no está. Me parece un ejemplo de "quien mucho abarca poco aprieta" y me da mala espina esa marca. Jeje. Pero bueno, lo tendré en cuenta porque Amazon es Satanás y eso tampoco mola. Gracias.
#82 Red Hat es Technology partner de MariaDB
MariaDB y MySQL no pueden instalarse en paralelo en Red Hat Enterprise Linux, deben instalarse separados en Contenedores.