edición general
pip

pip

Debianita, estoy decrépito pero aún razono. Linuxero recalcitrante, empecé con la Slackware 3.1 que regalaba "PC Actual" en 1997, y hasta hoy. Profesionalmente desarrollo software de bajo nivel (drivers y esas cosas en C o C++), y en mi tiempo libre, sofware libre.

En menéame desde octubre de 2007

11,04 Karma
770 Ranking
42 Enviadas
6 Publicadas
18K Comentarios
17 Notas

¿Está a punto de estallar la burbuja de la IA? [17]

  1. #4 exacto, es una burbuja de expectativas. La tecnología es muy buena pero se le pide más de lo que da.
  1. #8 si, el escenario más probable es un tercer invierno de la IA, estancamiento como sucedió con las máquinas LISP, y desinversión masiva. Para mi lo que ocurrirá es que muchas empresas petarán, y la IA se quedará pero más cara para los profesionales y llena de publicidad para los usuarios gratuitos.

ChatGPT no responde o lo hace de forma corta a algunas preguntas: el truco del fundador de Oculus para mejorar las respuestas [4]

  1. Un software indeterminista en el que tienes que echarle imaginación e ir probando, para conseguir que tus tokens de entrada desplacen los embeddings hacia la zona donde ya sabes de antemano que está lo que te interesa.

    Es tremendamente estúpido.

Hasta siempre, Twitter: X se despide de su antiguo dominio [12]

  1. Twitter era un nombre de puta madre, la verdad. Evocar a las "piadas" de los pajaritos era una idea cojonuda y creó su propia jerga (tuitear, tuit, etc). Lo de X es posiblemente la mayor cagada de rebranding de la historia.

40 años del mítico Intel 80386; uno de los procesadores más importantes de la historia [86]

  1. #55 simplemente a los DX que tenían en coprocesador defectuoso se les desactivaba y marcaba como SX. Eso se sigue haciendo a día de hoy, según los defectos que tengan en la oblea se etiquetan de una manera o de otra desactivando núcleos y partes.

    Yo no lo veo como timo sino como una manera de aprovechar lo que funciona sin tirarlo todo a la basura.
  1. #6 aparte de 40 años de avances en miniaturización, son chips de categorías diferentes. El i386 es un procesador de propósito general, y NVIDIA fabrica GPU. Las GPU son chips expresamente dedicados a gráficos y (cada vez más) a operaciones vectoriales para su uso en IA.
    La comparación debería de hacerse con chips gráficos contemporáneos al i386 (igualmente, la diferencia es abismal, literalmente miles de veces más potentes).

Bill Gates advierte que los avances en la IA conducirán a una semana laboral de sólo dos días. En 2024 decía que serían tres [23]

  1. #19 el tiempo de producción es importante. Nadie va a tardar 20 veces más en construir una autopista solo porque, como hace 100 años se usaba pico, pala y capazo de asfalto, ahora se puede conseguir lo mismo trabajando 1 dia cada dos semanas. Simplemente la empresa que pretenda eso es descartada en favor de otra que tarde menos.

    El aumento de la eficiencia se invierte en acelerar la producción y en abaratar costes para ser competitivos.

El Ibex pulveriza su máximo histórico 18 años después y supera los 16.000 puntos [9]

  1. Sólo había que holdear con cojones 18 años, que sois unos prisas.

Xubuntu.org sufre ataque y distribuye malware para Windows [5]

  1. Es una feature :troll:

La RAE acepta ‘cafecito’, ‘cafetito’ y ‘cafelito’ como diminutivo de café, pero no cafetín, cafetuco o cafetucu [21]

  1. Pensaba que en castellano de casi cualquier cosa podía hacerse diminutivo utilizando los sufijos -ito/a -ico/a -in/a -illo/illa y que no hacía faltar "aceptarlos" expresamente.

Bill Gates advierte que los avances en la IA conducirán a una semana laboral de sólo dos días. En 2024 decía que serían tres [23]

  1. Llevamos con la jornada laboral de 5 dias unos 100 años. Durante esos 100 años ha habido una automatización brutal de todos los sectores y la introducción de la informática.
    Ya tendría que haberse reducido algo ¿no? ¿por qué si en 100 años de automatización masiva no se ha reducido, lo hará ahora con maś automatización?

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura [42]

  1. #37 ¿y como entrenas al corrector?

Fedora permitirá contribuciones de código generadas por IA [8]

  1. Mientras el código sea escrutado sin piedad, dará un poco igual que esté hecho por humano o por máquina, pero básicamente poco código hecho por máquina va a entrar ahí.

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura [42]

  1. #15 encuentro un poco recursiva esa solución. Si ya tienes un modelo entrenado con datos contrastados ¿en que consiste el modelo que quieres entrenar?

Inteligencia artificial y creatividad: ¿cómo potenciar tu valor? [1]

  1. Exacto, la IA sube el nivel mínimo aceptable y hace obligatoria usarla para seguir siendo competitivos.
    Pero como todo el mundo la usa, la IA no te ayuda en nada, es como cualquier otra commodity. Solo te hace necesitar un skill más y pagar una cuota mensual para poder usarla obligatoriamente.

    Resultado: no te "ayuda" en nada. Te ha creado una necesidad que antes no había. Así que no aumenta tu productividad (que es la plusvalía) sino que la reduce.

La IA no mejora las notas y aumenta la brecha entre buenos y malos estudiantes [7]

  1. Los estudiantes nos cuentan que su uso más habitual es “entender el tema sin leerlo todo” o “resumir lo importante en pocas líneas”.

    Eso es un resumen de un resumen. Yo creo que habría que hacer entender a los alumnos que su libro del colegio no contiene todo el conocimiento humano sobre la materia. El ibro ya es un resumen extremo de la materia. Ya ha habido personas expertas destilando una cantidad enorme de conocimiento en un solo libro adaptado al nivel del alumno. El resumen del resumen es un error brutal. El libro hay que leerlo entero subrayando los conceptos que sirvan de puntos de anclaje para el aprendizaje personal.
  1. pip #3 pip *
    El objetivo de estudiar es aprender. El error es trasladar la lógica laboral (sacar resultados aceptables cuanto antes mejor) a la lógica académica. En el trabajo, aprender también es importante y quedarse en una rendija cognitiva es nefasto. Pero no es el objetivo primario. En educación sí.

    Métodos de estudio hay muchos y están en constante revisión. No ha pasado suficiente tiempo ni está suficientemente estudiado como para saber si la IA mejora o empeora. Pero si empeora, hay que encontrar alternativas.

Junts denunciará por delito de odio el vídeo generado por IA de Orriols en el que dispara a Puigdemont y pisa su cadáver [16]

  1. ¿Pero qué mierda es esta? El nivel de putrefacción está alcanzando ya unos niveles inaguantables.

La caja negra de los algoritmos [5]

  1. No explica como se llega desde el usuario pensando en comprar café al usuario viendo café en su teléfono. Eso es muy creepy, decirlo así sin más es muy raro. Algo más habrá hecho el usuario que pensar en café.

Sam Altman, CEO de OpenAI, predice el fin de 'youtubers' e 'influencers' tal como los conoces: "A la gente no le importa si es humano o IA" [35]

  1. #33 está pasando. Uno de los últimos librillos que compré para Kindle (afortunadamente muy barato) lo estaba notando muy simplón y plano, y en cuanto vi que repetía un argumento en la siguiente sección me puso ya en guardia. Pasé un trozo por zerogpt.com y me dio 100% GPT. Dejé de leer inmediatamente. Cuando quiera saber lo que "opina" la IA ya le preguntaré a la IA. Contenido basura. Fuera. Ahora ya presto más atención a la vista previa antes de comprar para asegurarme de que es texto humano.

Socializar la IA para evitar el tecno-feudalismo [21]

  1. #3 sí. Desde el punto de vista de la libertad de software que promueve el software libre, aunque no sea un enfoque socialista, se converge en la misma idea: el hecho de que toda la producción pase por un software-as-a-service propietario es bastante distópico. Y es difícil de superar porque el problema no es tanto el software en sí (hay modelos OpenSource como Lama) sino por culpa del hardware que obliga a pasar por el tubo propietario. Desgraciadamente, aún no es posible de forma práctica distribuir modelos LLM en múltiples nodos a través de un canal tan lento como Internet, requieren precisamente de conexiones de muy alta velocidad.

    Pero, la idea está muy bien enfocada y el diagnóstico es certero.
  1. Gracias @Torrezzno, todas las reflexiones humanas son bienvenidas. El enfoque socialista frente a la IA es muy interesante.

Sam Altman, CEO de OpenAI, predice el fin de 'youtubers' e 'influencers' tal como los conoces: "A la gente no le importa si es humano o IA" [35]

  1. #28 y se está pegando un tiro en el pie. No hay nada como amenazar a un colectivo para que automáticamente se ponga en contra de tu producto. Hasta ahora los youtubers eran mayoritariamente superentusiastas hablando de la IA. Amenázalos, y empezarán a amplificar cualquier noticia que vaya en contra.
  1. #1 sí que percibimos la diferencia. Lo de que no podemos darnos cuenta de que es IA o no es un mito que viene del efecto vow inicial.No solo el deeplearning aprende: nosotros también.
    Nos estamos entrenando para distinguir el contenido sintético. Ya hay videos de personas reales haciendo chistes "como si fuese la IA", a modo de sátira. Los videos de IA se pueden imitar como burla precisamente porque estamos aprendiendo a distinguirlos.

    Cuando proyectaron una de las primeras películas cinematográficas, con un tren que entraba en la estación, la gente en la sala se levantaba y corría con miedo a ser atropelladas. Hoy nadie confunde cine con realidad. Aprendimos rápido. A distinguir la IA también aprenderemos rápido.
  1. Pues yo pronostico justo lo contrario que Altman. En breve la gente solo va a prestar atención al contenido inequívocamente humano. Se hará un esfuerzo tanto en textos, como en imágenes, como en videos, por demostrar humanidad por los cuatro costados. A la gente nos importa lo que opina otra gente.

    Así que en realidad lo que habrá es una humanización hacia el realismo cotidiano: Cualquier filtro o efecto gráfico que haga dudar de la humanidad será descartado.
« anterior1

menéame