Tecnología, Internet y juegos

encontrados: 625, tiempo total: 0.008 segundos rss2
10 meneos
116 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

China está entrenado a un ejército de robots y drones para una futura invasión de Taiwán

China ha realizado unos ejercicios de guerra que simulan una invasión de Taiwán usando un ejército con perros robóticos y enjambres de drones. La idea es que reemplacen a los soldados humanos
8 2 16 K -12
8 2 16 K -12
6 meneos
126 clics
La industria se obsesionó con entrenar modelos de IA, mientras Google preparaba su jugada maestra: chips para inferencia

La industria se obsesionó con entrenar modelos de IA, mientras Google preparaba su jugada maestra: chips para inferencia

Durante los últimos años lo verdaderamente relevante era entrenar modelos de IA para hacerlos mejores. Ahora que han madurado y el entrenamiento ya no escala de forma tan notable, lo que más importa es la inferencia: que cuando usemos chatbots de IA estos funcionen rápida y eficientemente. Google se dio cuenta de ese cambio de foco, y tiene chips precisamente preparados para ello.
186 meneos
309 clics
Meta niega haber descargado pornografía por torrent para entrenar IA, dice que las descargas fueron para "uso personal" [eng]

Meta niega haber descargado pornografía por torrent para entrenar IA, dice que las descargas fueron para "uso personal" [eng]

Esta semana, Meta solicitó a un tribunal de distrito de EE. UU. que desestimara una demanda que alega que el gigante tecnológico descargó ilegalmente pornografía mediante torrents para entrenar su IA. La medida se produce después de que Strike 3 Holdings descubriera descargas ilegales de algunas de sus películas para adultos en direcciones IP corporativas de Meta, así como otras descargas que Meta supuestamente ocultó utilizando una "red sigilosa" de 2.500 "direcciones IP ocultas". Acusando a Meta de robar pornografía para entrenar en secreto
73 113 0 K 275
73 113 0 K 275
14 meneos
34 clics
Los empleados de Electronic Arts critican las presiones para utilizar la inteligencia artificial 'en todo'

Los empleados de Electronic Arts critican las presiones para utilizar la inteligencia artificial 'en todo'

El problema (o uno de ellos) está en que las herramientas como ReefGPT, el bot interno de EA, producen código con errores o alucinaciones que después debe ser corregido por los programadores; al final, no hay esa reducción de trabajo y se pueden introducir errores difíciles de localizar. También se mencionan las preocupaciones de los equipos creativos, a los que se recomienda entrenar la IA con su propio arte o diseño de niveles, con el riesgo que eso supone para sus puestos de trabajo.
11 3 0 K 51
11 3 0 K 51
8 meneos
118 clics
Una "actriz" generada por IA fuerza a Hollywood a debatir sobre ética y vanguardia

Una "actriz" generada por IA fuerza a Hollywood a debatir sobre ética y vanguardia

El sindicato de actores SAG-AFTRA emitió un duro comunicado asegurando que "la creatividad debe permanecer centrada en el ser humano" y oponiéndose a la "sustitución de intérpretes humanos por sintéticos". "Tilly Norwood no es una actriz, es un personaje generado por un programa informático que se entrenó con el trabajo de innumerables intérpretes profesionales, sin permiso ni compensación", anota el gremio en un comunicado en el que destaca que esta nueva tecnología usa "actuaciones robadas para dejar a los actores sin trabajo".
276 meneos
1045 clics
Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura

Un estudio demuestra que los LLMs entrenados con meses de tuits virales sufren una caída del 23% en razonamiento y del 30% en memoria contextual. Incluso tras reentrenarlos con datos limpios, la degradación cognitiva persistió parcialmente. Los autores llaman al fenómeno “podredumbre representacional”: una deriva irreversible causada por datos ruidosos, análoga al doomscrolling humano. Las pruebas de personalidad mostraron picos de narcisismo y psicopatía. x.com/alex_prompter/status/1980224548550369376
113 163 0 K 308
113 163 0 K 308
3 meneos
63 clics

El banco les pide entrenar a una IA, 45 trabajadores acaban despedidos y la empresa acaba alegando un error: “Solo un número”

Los trabajadores no sabían que serían reemplazados por una IA que ellos mismos habían creado.
2 1 7 K -24
2 1 7 K -24
288 meneos
825 clics
Un banco despide a 45 empleados tras obligarles a entrenar a la IA que los sustituiría

Un banco despide a 45 empleados tras obligarles a entrenar a la IA que los sustituiría

El Commonwealth Bank de Australia, que no advirtió a sus trabajadores de que el nuevo ‘chatbot’ asumiría sus funciones, ha rectificado la decisión tras le aumento de las quejas de los clientes
106 182 0 K 359
106 182 0 K 359
9 meneos
69 clics
Anthropic enciende las alarmas: «basta con 250 documentos» para envenenar un modelo de IA, independientemente de su tamaño

Anthropic enciende las alarmas: «basta con 250 documentos» para envenenar un modelo de IA, independientemente de su tamaño

La seguridad de los modelos de lenguaje vuelve a estar bajo escrutinio. Un estudio conjunto de Anthropic, el UK AI Security Institute y el Instituto Alan Turing concluye que un ataque de envenenamiento de datos (data poisoning) puede implantarse en un modelo de lenguaje con un número casi constante de documentos maliciosos, alrededor de 250, sin importar el tamaño del modelo ni el volumen del corpus limpio con el que se entrena. El hallazgo desafía una asunción muy extendida en la comunidad: que el atacante debe controlar un % relevante...
2 meneos
20 clics

Elon Musk ofrece hasta $100 dólares la hora por un “tutor de videojuegos” que entrene a su IA Grok en diseño, narrativa y jugabilidad

La empresa xAI de Elon Musk abrió una vacante insólita: busca un “tutor de videojuegos” para entrenar a su IA, Grok, en mecánicas, narrativas y diseño de videojuegos, un puesto paga entre 45 y 100 dólares por hora y exige formación en áreas como diseño o informática, además de experiencia en desarrollo independiente.
5 meneos
20 clics
Si te roban en casa y tienes la grabación, esta empresa de cámaras de seguridad te paga por ella

Si te roban en casa y tienes la grabación, esta empresa de cámaras de seguridad te paga por ella

La compañía china Anker, propietaria de la marca de cámaras de seguridad Eufy, lanzó a finales de 2024 una iniciativa para recopilar vídeos de robos de paquetes y coches con los que entrenar sus sistemas de inteligencia artificial. La propuesta era simple: 2 dólares por cada vídeo útil.
7 meneos
38 clics
Jensen Huang (NVIDIA): «Elon Musk es la GPU definitiva» — el elogio que pone foco en Colossus II, el clúster gigavatio de xAI

Jensen Huang (NVIDIA): «Elon Musk es la GPU definitiva» — el elogio que pone foco en Colossus II, el clúster gigavatio de xAI

El CEO de NVIDIA comparó la mente de Elon Musk con una “GPU definitiva” en el podcast BG2 y apuntó a su capacidad para orquestar proyectos extremos de supercomputación. El comentario llega mientras xAI levanta en Memphis (Tennessee) un clúster de entrenamiento de IA de escala gigavatio y, según datos difundidos en las últimas semanas, con al menos 200.000 GPU instaladas y cientos de millones de dólares ya comprometidos.
9 meneos
62 clics
LinkedIn activará por defecto el uso de tus datos para IA: claves de riesgo, cumplimiento y defensa para equipos de seguridad

LinkedIn activará por defecto el uso de tus datos para IA: claves de riesgo, cumplimiento y defensa para equipos de seguridad

LinkedIn, propiedad de Microsoft, ha comunicado una actualización de privacidad y términos de uso que entrará en vigor el 3 de noviembre de 2025. La novedad: la plataforma compartirá más datos de usuarios y actividad con Microsoft y sus filiales para entrenar modelos de IA y optimizar publicidad, con un esquema opt-out (activado por defecto salvo que cada persona lo desactive manualmente). Para un público de ciberseguridad y cumplimiento, el anuncio no es un simple cambio de preferencias; es un movimiento con impacto directo en gobernanza de da
8 meneos
121 clics
LinkedIn utilizará tus datos y perfil para alimentar a la IA de Microsoft: así puedes evitarlo

LinkedIn utilizará tus datos y perfil para alimentar a la IA de Microsoft: así puedes evitarlo

LinkedIn, propiedad de Microsoft, ha anunciado una actualización en su política de privacidad y términos de uso que entrará en vigor el 3 de noviembre de 2025. La plataforma compartirá más datos de usuarios con Microsoft y sus filiales para entrenar modelos de inteligencia artificial generativa y ofrecer anuncios personalizados. Lo que hasta hace unos años parecía un intercambio implícito —tú usas gratis una plataforma y la empresa obtiene información estadística— se ha convertido en una cesión de datos mucho más directa.
7 meneos
9 clics

Reddit en conversaciones con Google para una asociación más profunda de contenido de IA

Reddit Inc. está en conversaciones iniciales con Alphabet Inc., para establecer un nuevo acuerdo de intercambio de contenido que profundizaría la integración con los productos de IA de Google. La plataforma de redes sociales busca maximizar el valor de futuros acuerdos, ya que sus datos juegan un papel cada vez más importante en los resultados de búsqueda y en el entrenamiento de IA generativa, según un informe de Bloomberg News, citando a ejecutivos familiarizados con las conversaciones.
9 meneos
57 clics

Hecho en Wisconsin: El centro de datos de IA más potente del mundo [eng]

Diseñada para entrenar la próxima década de inteligencia artificial, la instalación de Mount Pleasant albergará cientos de miles de las GPU NVIDIA más potentes del mundo, operando en clústeres sin interrupciones conectados por suficiente fibra para envolver el planeta cuatro veces. Estos procesadores se encargarán del entrenamiento de modelos de IA de vanguardia, ofreciendo diez veces el rendimiento de las supercomputadoras más rápidas de la actualidad.
14 meneos
33 clics
OpenAI admite que los modelos están programados para inventar cosas en lugar de admitir ignorancia [eng]

OpenAI admite que los modelos están programados para inventar cosas en lugar de admitir ignorancia [eng]

Los modelos de IA a menudo producen resultados falsos, o "alucinaciones". Ahora OpenAI ha admitido que pueden ser el resultado de errores fundamentales que comete al entrenar sus modelos. El problema fundamental es que los modelos de IA están entrenados para recompensar las conjeturas, en lugar de la respuesta correcta. Adivinar podría producir una respuesta superficialmente adecuada. Decir a los usuarios que su IA no puede encontrar una respuesta es menos satisfactorio.
23 meneos
123 clics
China dice haber creado una IA que actúa como el cerebro humano, lo que le permite ser hasta 100 veces más rápido que ChatGPT

China dice haber creado una IA que actúa como el cerebro humano, lo que le permite ser hasta 100 veces más rápido que ChatGPT

SpikingBrain 1.0 supondría un hito hacia una nueva generación de IA más “cerebrales”. Lo que da lugar a consumos energéticos reducidos, menores costes de entrenamiento y un mayor potencial de despliegue en hardware menos especializado. Esto podría abrir la puerta a una democratización de la IA, acercando su uso avanzado a empresas más pequeñas que no cuentan con los recursos casi infinitos de gigantes como OpenAI, Google o Meta.
10 meneos
96 clics
Puedes ganar dinero con tu GPU cuando no la usas. Basta con que se la prestes a quienes entrenan modelos de IA

Puedes ganar dinero con tu GPU cuando no la usas. Basta con que se la prestes a quienes entrenan modelos de IA

El modelo consiste en actuar como anfitrión en un marketplace donde clientes buscan instancias GPU para sus proyectos de IA. Tú fijas el precio por hora, la plataforma gestiona los pagos y el cliente ejecuta su trabajo en un contenedor aislado en tu máquina. Se podría decir que es como un Airbnb, pero enfocado al hardware de computación.
3 meneos
13 clics
Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

La inteligencia artificial ha cambiado nuestra forma de trabajar, comunicarnos y hasta de aprender. Pero detrás de cada avance tecnológico late un debate cada vez más candente: ¿qué ocurre con los datos de los usuarios?. Ahora es Anthropic, la empresa creadora de Claude AI, quien se encuentra en el centro de la polémica tras anunciar un cambio en sus políticas de privacidad y términos de servicio. A partir del 28 de septiembre de 2025, todas las conversaciones con Claude podrán ser utilizadas para entrenar sus modelos de IA.
10 meneos
31 clics
OpenAI anuncia cambios en ChatGPT tras una demanda por el suicidio de un adolescente

OpenAI anuncia cambios en ChatGPT tras una demanda por el suicidio de un adolescente

OpenAI está realizando cambios en su popular chatbot a raíz de una demanda en la que se alega que un adolescente que murió por suicidio esta primavera confiaba en ChatGPT como entrenador. Se actualizará ChatGPT para reconocer mejor y responder a las diferentes formas en que las personas pueden expresar angustia mental y reforzaría las salvaguardas en torno a las conversaciones sobre el suicidio, que, según dijo, podrían romperse tras conversaciones prolongadas.
12 meneos
28 clics
Google exigirá la verificación de los desarrolladores para las aplicaciones Android fuera de Play Store [ENG]

Google exigirá la verificación de los desarrolladores para las aplicaciones Android fuera de Play Store [ENG]

Google está reforzando las medidas de seguridad en torno a la distribución de aplicaciones para Android, según anunció la empresa el lunes. A partir del próximo año, Google comenzará a verificar la identidad de los desarrolladores que distribuyen sus aplicaciones en dispositivos Android, y no solo de aquellos que las distribuyen a través de Play Store. Los cambios afectarán a todos los dispositivos Android certificados una vez que entren en vigor, aunque la implementación global será más gradual.
10 2 0 K 49
10 2 0 K 49
23 meneos
68 clics
xAI libera Grok 2.5 como modelo de código abierto y Musk confirma que pasará lo mismo con Grok 3

xAI libera Grok 2.5 como modelo de código abierto y Musk confirma que pasará lo mismo con Grok 3

La compañía de inteligencia artificial xAI, liderada por Elon Musk, ha puesto a disposición del público su modelo Grok 2.5 bajo licencia de código abierto. Esto permite que cualquier usuario pueda descargarlo, ejecutarlo e incluso modificarlo, aunque con ciertas restricciones. De hecho, son límites relevantes, porque no se podrá emplear para entrenar, crear o mejorar otros modelos de IA. Hugging Face se ha convertido en el GitHub de los modelos de IA local. Así que xAI ha decidido publicar Grok 2.5 en esa plataforma.
18 5 0 K 366
18 5 0 K 366
6 meneos
9 clics
Reddit, harto de que usen su contenido para entrenar la IA, ha tomado una triste decisión: no aparecer en el "archivo de Internet"

Reddit, harto de que usen su contenido para entrenar la IA, ha tomado una triste decisión: no aparecer en el "archivo de Internet"

Reddit ha anunciado que comenzará a bloquear Wayback Machine para que no indexe la mayor parte de su contenido. En el futuro, Wayback Machine solo podrá indexar la página principal de Reddit.com, lo que significa que los subreddits y publicaciones individuales estarán fuera de su alcance. Tim Rathschmidt, portavoz de Reddit, afirmó que el bloqueo se impone porque "hemos tenido conocimiento de casos en los que empresas de IA violan las políticas de la plataforma, incluidas las nuestras, y extraen datos de Wayback Machine".
6 0 0 K 104
6 0 0 K 104
9 meneos
22 clics
Anthropic gana fallo sobre entrenamiento de IA en demanda de derechos de autor

Anthropic gana fallo sobre entrenamiento de IA en demanda de derechos de autor

Un juez federal dictaminó que la empresa de IA Anthropic no violó la ley al entrenar a su chatbot Claude con millones de libros protegidos por derechos de autor. Sin embargo, la empresa aún debe ir a juicio sobre cómo adquirió esos libros al descargarlos de “bibliotecas fantasmas” en línea de copias piratas. El juez federal de San Francisco, William Alsup, dijo en un fallo que la destilación de miles de obras escritas por parte de la IA para poder producir sus propios textos calificaba como “uso justo” según la ley de derecho estadounidense.
« anterior1234525

menéame