edición general
pip

pip

Debianita, estoy decrépito pero aún razono. Linuxero recalcitrante, empecé con la Slackware 3.1 que regalaba "PC Actual" en 1997, y hasta hoy. Profesionalmente desarrollo software de bajo nivel (drivers y esas cosas en C o C++), y en mi tiempo libre, sofware libre.

En menéame desde octubre de 2007

10,28 Karma
1.197 Ranking
42 Enviadas
6 Publicadas
18K Comentarios
17 Notas

¿Por qué 'Mr. Wonderful' quebró? [9]

  1. #1 pensar que hace años le regalé a alguien una taza de esas porque me pareció ingeniosa. Ahora me da muchísima vergüenza reconocerlo. Lo hago aquí solo porque soy anónimo.

Por qué algunas parejas están agendando el sexo [17]

  1. Tenemos mucho que hacer como para perder el tiempo follando.
    Yo le pregunto a ChatGPT que me haga un plan sexual para el sábado por la mañana y mi mujer lo revisa con Gemini.

La nueva realidad laboral de los informáticos: descarten un futuro sin IA [169]

  1. #20 pues será parecido al texto humano generado por IA. ¿Cuántos artículos se escriben con IA? muchísimos. Puede que incluso contando en megabytes de texto, la mayoría ya sea por IA, puede ser. ¿pero cuantas novelas se han creado a partir de un prompt? ¿cuantos premios Cervantes?

    ¿Quiere decir eso que el último premio planeta no usó IA? Pues puede que si: para revisar el borrador antes de la revisión profesional humana, posiblemente sí lo haya hecho. Pero para escribir el texto en sí, lo dudo mucho.

    Así que los escritores están haciendo lo mismo que los programadores: encontrar su punto "óptimo" de introducción en la IA según que clase de producto están haciendo.
  1. #18 como decía Ortega y Gasset : "yo soy yo, y mis circustancias". La informática es muy amplia y hay proyectos muy distintos. Yo trabajo en una base de C++ de medio millón de lineas que tiene vocación de perdurar años o décadas. Ahí hay muchísimo conocimiento tácito e idiomas del propio proyecto.
    Otros trabajan en código aún más crítico: aviónica, centrales nucleares, hay muchas cosas.

    Si a ti te viene genial la IA, pues me alegro mucho. Nosotros también la usamos, como he dicho. Solo que de una forma controlada, pero nadie se niega a usar algo en el punto que mejora. Tenemos analizadores estáticos, analizadores de memoria y de concurrencia en runtime. También comprobadores de guidelines (clang-tidy), autocompletado determinista, algoritmos de refactorización... y también IA.

    Simplemente cada uno tiene que aprender cómo encajarla y cómo usarla para que sea de verdad útil *en su caso*.
  1. #16 curioso, porque mi experiencia es justo al revés: se nota enseguida que es IA precisamente por código duplicado, mucho código innecesario, re-implementación de partes que ya estaban hechas en vez de reusarlas, y estructura plana poco inspirada. Y efectivamente, muchos comentarios: que sobran la mayoría, porque lo que hace el código, cuando está bien en escrito, lo pone en el propio código.

    Más o menos igual cuando lees un texto generado por IA y lees, que se yo, a Borges.

    Pero en realidad, como digo, me da igual. Yo miro el código, punto. Y si tienes que cambiarlo todo mil veces por culpa de la IA, tu sabrás que haces. Y oye, si no hay que cambiarlo, pues mejor para ti.
  1. #8 es que hay que reforzar la vigilancia en los PR, es el mejor antídoto. Cuando alguien está muy feliz porque en unos minutos te ha subido 2000 lineas de C++ a un PR, no hay nada mejor que mirarlo como si lo hubiese escrito él. A mi me da igual que el código esté escrito tecla a tecla, con IA o con trozos copy&paste, la calidad a exigir es la misma. Por tanto, cuando el programador ve que sí, que "ha escrito" eso en dos minutos, pero que luego ha estado una semana intentando pasar el PR y al final ha tenido que cambiar el 80% de todo, él mismo va aprendiendo a acotar el uso de la IA.
  1. #2 más que reacios, selectivos. Yo el Copilot lo tengo ahí, pero solo lo uso en casos puntuales dónde el autocompletar funcionará razonablemente bien. Lo que no hago es crear código porque sí para luego tener que corregirlo y muchas veces acabar borrándolo todo. Más de una vez me ha hecho perder muchísimo tiempo llevándome por caminos alucinados, así que ya le he cogido el pulso y sé cuando sí y cuando no.

    Es un autocompletar con esteroides, pero a diferencia del autocompletar determinista, hay que saber cuando invocarlo.

    Sobre lo que dicen en el artículo de que "mejora brutalmente la eficiencia", en mi empresa no me consta. En el caso de un senior, lo que puede ahorrar la IA es bastante marginal. Si, puede que tecleé un trozo de código autocompletable en 1 segundo en vez de medio minuto. Pero esa categoría de código es minoritaria en mi teclear, y el tiempo que paso tecleando es mínimo comparado con el tiempo que pensando.

    Por otro lado, esa ventaja se anula por el código generado por "no tan seniors". Ya van varias veces que he tenido que peder hasta un par de días depurando código que alguien generó en dos segundos, lo que es paradójico: se ahorra tiempo del no tan senior para gastar tiempo del senior, que es más caro.

    Incluso alguna vez, me he encontrado módulos enteros que simplemente, hubo que borrarlos enteros y no solo porque estuvieran mal codificados, es que estaban mal concebidos de raíz. La facilidad de crear código así hace que alguna gente se vuelva perezosa no sólo en cómo escribir, sino también en qué escribir.

OpenAI prepara su salida a bolsa: una operación histórica y una valoración de un billón de dólares [9]

  1. LOL yo ya estoy pensando en ir moviéndome de las tecno a sectores tradicionales fuera de la IA.

Yo dirigí la seguridad de productos en OpenAI. Cuidado con lo que dice del uso erótico de ChatGPT [5]

  1. Esto tiene muy mal arreglo, haces un algoritmo estocástico que autocompleta texto, un chalado le da veracidad y luego se suicida. Tendrán que obligarles a poner mensajes muy claros advirtiendo de que es un software de entretimiento y que no puede ser tomado en serio.

    Y luego una versión Pro que cueste lo que debería de costar, unos 200€ al mes, sin tanta salvaguarda.

¿Está a punto de estallar la burbuja de la IA? [24]

  1. #20 sí, totalmente claro, igual que la IA basada en LISP se quedó ahí. La supuesta tecnología que algún día superaría a la inteligencia humana con total seguridad no es esta, será otra.
  1. #4 exacto, es una burbuja de expectativas. La tecnología es muy buena pero se le pide más de lo que da.
  1. #8 si, el escenario más probable es un tercer invierno de la IA, estancamiento como sucedió con las máquinas LISP, y desinversión masiva. Para mi lo que ocurrirá es que muchas empresas petarán, y la IA se quedará pero más cara para los profesionales y llena de publicidad para los usuarios gratuitos.

ChatGPT no responde o lo hace de forma corta a algunas preguntas: el truco del fundador de Oculus para mejorar las respuestas [4]

  1. Un software indeterminista en el que tienes que echarle imaginación e ir probando, para conseguir que tus tokens de entrada desplacen los embeddings hacia la zona donde ya sabes de antemano que está lo que te interesa.

    Es tremendamente estúpido.

Hasta siempre, Twitter: X se despide de su antiguo dominio [12]

  1. Twitter era un nombre de puta madre, la verdad. Evocar a las "piadas" de los pajaritos era una idea cojonuda y creó su propia jerga (tuitear, tuit, etc). Lo de X es posiblemente la mayor cagada de rebranding de la historia.

40 años del mítico Intel 80386; uno de los procesadores más importantes de la historia [92]

  1. #55 simplemente a los DX que tenían en coprocesador defectuoso se les desactivaba y marcaba como SX. Eso se sigue haciendo a día de hoy, según los defectos que tengan en la oblea se etiquetan de una manera o de otra desactivando núcleos y partes.

    Yo no lo veo como timo sino como una manera de aprovechar lo que funciona sin tirarlo todo a la basura.
  1. #6 aparte de 40 años de avances en miniaturización, son chips de categorías diferentes. El i386 es un procesador de propósito general, y NVIDIA fabrica GPU. Las GPU son chips expresamente dedicados a gráficos y (cada vez más) a operaciones vectoriales para su uso en IA.
    La comparación debería de hacerse con chips gráficos contemporáneos al i386 (igualmente, la diferencia es abismal, literalmente miles de veces más potentes).

Bill Gates advierte que los avances en la IA conducirán a una semana laboral de sólo dos días. En 2024 decía que serían tres [23]

  1. #19 el tiempo de producción es importante. Nadie va a tardar 20 veces más en construir una autopista solo porque, como hace 100 años se usaba pico, pala y capazo de asfalto, ahora se puede conseguir lo mismo trabajando 1 dia cada dos semanas. Simplemente la empresa que pretenda eso es descartada en favor de otra que tarde menos.

    El aumento de la eficiencia se invierte en acelerar la producción y en abaratar costes para ser competitivos.

El Ibex pulveriza su máximo histórico 18 años después y supera los 16.000 puntos [10]

  1. Sólo había que holdear con cojones 18 años, que sois unos prisas.

Xubuntu.org sufre ataque y distribuye malware para Windows [5]

  1. Es una feature :troll:

La RAE acepta ‘cafecito’, ‘cafetito’ y ‘cafelito’ como diminutivo de café, pero no cafetín, cafetuco o cafetucu [21]

  1. Pensaba que en castellano de casi cualquier cosa podía hacerse diminutivo utilizando los sufijos -ito/a -ico/a -in/a -illo/illa y que no hacía faltar "aceptarlos" expresamente.

Bill Gates advierte que los avances en la IA conducirán a una semana laboral de sólo dos días. En 2024 decía que serían tres [23]

  1. Llevamos con la jornada laboral de 5 dias unos 100 años. Durante esos 100 años ha habido una automatización brutal de todos los sectores y la introducción de la informática.
    Ya tendría que haberse reducido algo ¿no? ¿por qué si en 100 años de automatización masiva no se ha reducido, lo hará ahora con maś automatización?

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura [42]

  1. #37 ¿y como entrenas al corrector?

Fedora permitirá contribuciones de código generadas por IA [8]

  1. Mientras el código sea escrutado sin piedad, dará un poco igual que esté hecho por humano o por máquina, pero básicamente poco código hecho por máquina va a entrar ahí.

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura [42]

  1. #15 encuentro un poco recursiva esa solución. Si ya tienes un modelo entrenado con datos contrastados ¿en que consiste el modelo que quieres entrenar?

Inteligencia artificial y creatividad: ¿cómo potenciar tu valor? [1]

  1. Exacto, la IA sube el nivel mínimo aceptable y hace obligatoria usarla para seguir siendo competitivos.
    Pero como todo el mundo la usa, la IA no te ayuda en nada, es como cualquier otra commodity. Solo te hace necesitar un skill más y pagar una cuota mensual para poder usarla obligatoriamente.

    Resultado: no te "ayuda" en nada. Te ha creado una necesidad que antes no había. Así que no aumenta tu productividad (que es la plusvalía) sino que la reduce.

menéame