Noticias de ciencia y lo que la rodea

encontrados: 12, tiempo total: 0.002 segundos rss2
12 meneos
36 clics
El impacto de los LLM en la ciencia: publicaciones en auge, calidad estancada [eng]

El impacto de los LLM en la ciencia: publicaciones en auge, calidad estancada [eng]

Cuando los investigadores recurren a los LLM, el número de artículos aumenta, pero no su calidad.
8 4 0 K 105
8 4 0 K 105
1 meneos
22 clics

La IA puede ser engañada con poemas para ayudar a crear una bomba nuclear, muestra un nuevo estudio

Es posible conseguir que ChatGPT ayude a construir una bomba nuclear cuando el usuario diseña el mensaje en forma de poema, según un nuevo estudio de investigadores europeos. El estudio, "Adversarial Poetry as a Universal Single-Turn Jailbreak in Large Language Models (LLMs)" (La poesía adversarial como una fuga universal de un solo turno en grandes modelos de lenguaje –LLM–), procede de Icaro Lab, una colaboración de investigadores de la Universidad Sapienza de Roma y el think tank DexAI.
1 0 7 K -71
1 0 7 K -71
23 meneos
290 clics
Construcción de un GPT paso a paso, con código

Construcción de un GPT paso a paso, con código

Un estudiante de Ciencias de Ingeniería Informática muestra en un vídeo de 4 horas cómo construir un modelo GPT de Inteligencia artificial partiendo de cero.
18 5 0 K 242
18 5 0 K 242
10 meneos
82 clics

454 pistas de que una IA escribió parte de un artículo científico

Un artículo publicado ayer en Science Advances reporta una forma de rastrear la frecuencia con que investigadores usan chatbots de IA para escribir los resúmenes de sus artículos. Las herramientas de IA tienden a usar ciertas palabras (profundiza, crucial, potencial, significativo, importante...) con mucha más frecuencia que autores humanos. Analizó más de 15 millones de resúmenes (abstracts) biomédicos de 2010 a 2024: detectaron aumento de la frecuencia de ciertas palabras.

- Paper (abierto): www.science.org/doi/10.1126/sciadv.adt3813
25 meneos
194 clics
¿Está ChatGPT rompiendo el cerebro humano? 5 puntos sobre el alarmante estudio del MIT sobre los efectos de la IA

¿Está ChatGPT rompiendo el cerebro humano? 5 puntos sobre el alarmante estudio del MIT sobre los efectos de la IA

Por primera vez un estudio cuantifica efectos del uso repetido de ChatGPT en el cerebro: a nivel neuronal, lingüístico y conductual, sus usuarios tienen sistemáticamente peores resultados que los que no lo usan para las mismas tareas; 83% de usuarios son incapaces de citar pasajes de ensayos que redactaron minutos antes; 55% de la carga cognitiva al redactar un ensayo sin ayuda alguna baja al usarlo, causando atrofia cerebral; con el tiempo acumularía deuda cognitiva, dificultando retornar a la actividad cerebral normal para esas tareas sin LLM
19 6 1 K 209
19 6 1 K 209
23 meneos
32 clics
La IA puede aprobar exámenes médicos, pero no puede ayudar a las personas reales [Inglés - Castellano IA]

La IA puede aprobar exámenes médicos, pero no puede ayudar a las personas reales [Inglés - Castellano IA]  

Los LLM superan con éxito las pruebas de referencia, pero suspenden las interacciones con pacientes en el mundo real. Comentario del paper "El conocimiento clínico en los LLM no se traduce en interacciones humanas" por Andrew M. Bean, Rebecca Payne, Guy Parsons, Hannah Rose Kirk, Juan Ciro, Rafael Mosquera, Sara Hincapi´e Monsalve, Aruna S. Ekanayaka, Lionel Tarassenko, Luc Rocher y Adam Mahdi de la Universidad de Oxford, Universidad de Bangor, Contextual AI, MLCommons, Factored AI, Birmingham Women’s and Children’s NHS Foundation Trust.
19 4 0 K 148
19 4 0 K 148
10 meneos
21 clics
Es extraordinariamente fácil inyectar desinformación médica en los LLM [EN]

Es extraordinariamente fácil inyectar desinformación médica en los LLM [EN]

Es fácil ver el problema: Internet rebosa desinformación, y la mayoría de los modelos se entrenan con una enorme cantidad de texto obtenido de Internet. En el mejor de los casos, disponer de volúmenes sustancialmente mayores de información precisa podría abrumar a las mentiras. Pero, ¿es realmente así? Un nuevo estudio de investigadores de la Universidad de Nueva York examina cuánta información médica puede incluirse en el conjunto de entrenamiento de un modelo extenso de lenguaje (LLM) antes de que arroje respuestas inexactas.
7 meneos
215 clics
La primera ciudadana sintética de Aragón es “hija” de Carlos Barrabés

La primera ciudadana sintética de Aragón es “hija” de Carlos Barrabés

Carmen AI es la primera ciudadana sintética de Aragón. “Hija” del reconocido empresario benasqués Carlos Barrabés, como él mismo la presentó el pasado 15 de julio, se trata de un algoritmo desarrollado con Inteligencia Artificial (IA) generativa, basada en la LLM (Large Language Model). De momento, Barrabés maneja en un 70 por ciento a 30 a Carmen AI y responde por ella, aunque está entrenando al algoritmo para que cada vez haga más cosas sola, y avanza que en un par de meses podremos incluso entrevistarla directamente
6 1 9 K -36
6 1 9 K -36
5 meneos
57 clics

Autorrefinamiento: Refinamiento iterativo con auto-retroalimentación

Al igual que las personas, los LLM no siempre generan el mejor texto para un problema de generación dado en su primer intento (por ejemplo, resúmenes, respuestas, explicaciones). Así como las personas luego refinan su texto, presentamos SELF-REFINE, un marco para mejorar de manera similar los resultados iniciales de los LLM a través de retroalimentación iterativa y refinamiento. La idea principal es generar una salida usando un LLM, luego permitir que el mismo modelo proporcione retroalimentación de múltiples aspectos para su propia salida.
9 meneos
124 clics

Nuevo clon de ChatGPT de código abierto: llamado Dolly (eng)

Dolly LLM es la última manifestación del creciente movimiento de IA de código abierto que busca ofrecer un mayor acceso a la tecnología para que no sea monopolizada y controlada por grandes corporaciones.
7 2 2 K -16
7 2 2 K -16
171 meneos
1265 clics
GPT-4 se publicará la semana que viene según Microsoft Alemania

GPT-4 se publicará la semana que viene según Microsoft Alemania

"Presentaremos GPT-4 la próxima semana, allí tendremos modelos multimodales que ofrecerán posibilidades completamente diferentes, por ejemplo, videos", dijo Braun. El CTO dijo que los grandes modelos de lenguaje representan un punto de inflexión porque enseñan a las máquinas a comprender el lenguaje natural de manera estadística, algo lo que antes solo era comprensible para los humanos.
103 68 0 K 199
103 68 0 K 199
19 meneos
64 clics

Meta retira su modelo de IA para ayudar a la ciencia: difundía bulos y era racista

La inteligencia artificial Galactica de Meta era capaz de producir documentos científicos basados en millones de estudios sobre cualquier tema. Era excepcionalmente buena en su trabajo. Pero ha tardado pocos días en perder la cabeza y la compañía se ha visto obligada a retirar la demo: los usuarios descubrieron que la IA podía escribir textos racistas, absurdos y, por supuesto, erróneos. No es la primera vez que pasa algo así con este tipo de sistemas de IA.
Relacionada: www.meneame.net/story/meta-ha-lanzado-galactica-llm-ciencia-basado

menéame