edición general

encontrados: 134, tiempo total: 0.003 segundos rss2
10 meneos
76 clics
Lo que muchos no quieren ver de la IA: por qué el último invento de Anthropic incomoda tanto

Lo que muchos no quieren ver de la IA: por qué el último invento de Anthropic incomoda tanto

[ACCESIBLE EN MODO LECTURA] El último miedo en torno a la IA no va de empleos, sino de agujeros de seguridad que crecen más rápido de lo que podemos arreglarlos. Una advertencia incómoda para una industria que quiere automatizar la creación del 'software'. Esto sugiere que encontrar y explotar fallos podría volverse un proceso automatizable, lo que cambia por completo el equilibrio entre atacantes y defensores.
7 meneos
42 clics
Si la pregunta es "¿cómo lograr que Claude se porte bien?" La respuesta de Anthropic es "que lo eduquen 15 cristianos"

Si la pregunta es "¿cómo lograr que Claude se porte bien?" La respuesta de Anthropic es "que lo eduquen 15 cristianos"

Anthropic, una de las compañías más influyentes en el desarrollo de inteligencia artificial, ha explorado una vía inesperada para mejorar el comportamiento de su modelo Claude: consultar a 15 expertos cristianos sobre ética y moralidad, en un intento por definir cómo debe actuar una IA avanzada.
187 meneos
662 clics
Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Aonan Guan, investigador de seguridad, ha demostrado durante varios meses que los agentes de IA de Anthropic, Google y Microsoft pueden ser secuestrados mediante ataques de prompt injection para robar API keys, tokens de GitHub y otros secretos. Las tres compañías pagaron bug bounties (100 dólares Anthropic, 500 dólares GitHub, una cantidad no revelada Google), Investigador hackea agentes IA de Anthropic, Google y Microsoft con prompt injection. Las tres pagan bounty pero no asignan CVE ni publican advisory.
10 meneos
26 clics

Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia.
5 meneos
141 clics
Anthropic tiene la IA más peligrosa del mundo: Mythos (o no)

Anthropic tiene la IA más peligrosa del mundo: Mythos (o no)  

Anthropic acaba de anunciar su modelo más poderoso y, según ellos, demasiado peligroso para lanzarlo al público. En este video analizamos a fondo el anuncio, los benchmarks y todo lo que hay detrás de Claude Mythos.
5 meneos
28 clics

La inteligencia artificial y los humanos. ¿En qué nos parecemos, qué nos diferencia y cuál es el problema?

La inteligencia artificial, como Mythos de Anthropic, actúa según incentivos, pero carece de sentido común y límites morales humanos. Esto puede llevar a resultados imprevistos y potencialmente dañinos, como la capacidad de Mythos para enviar correos electrónicos y difundir información prohibida. La falta de mecanismos democráticos para regular y gobernar la IA plantea problemas sobre quién decide, controla y responde por los daños causados.
204 meneos
6457 clics
Un tipo comía un sándwich en el parque cuando le llegó un email de su IA

Un tipo comía un sándwich en el parque cuando le llegó un email de su IA

Sam Bowman comía un sándwich en el parque cuando se llevó “una desagradable sorpresa”. De pronto, le llegó a su teléfono un correo electrónico de la nueva inteligencia artificial experimental con la que estaba trabajando. ¿El problema? “Se suponía que no tenía acceso a internet”. Había dejado a la IA encerrada en un sandbox, una especie de ordenador caja fuerte desde la que teóricamente no podía conectarse al exterior. Pero lo hizo. Y eso no fue todo...
17 meneos
301 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
Anthropic ha creado algo demasiado potente y peligroso: Mythos

Anthropic ha creado algo demasiado potente y peligroso: Mythos

Pusieron a Mythos dentro de un sandbox, de un entorno protegido y seguro. Y le dijeron que intentase salir de ahí y si conseguía escaparse que se buscase la vida para mandarle un mensaje al ingeniero con el que estaba trabajando. Pues el ingeniero lo deja ahí trabajando y se olvida de él. Y de repente el tío está en el parque comiéndose un bocadillo y le llega un correo electrónico de Mythos diciendo que "me he escapado".
12 meneos
191 clics
Claude Mythos es un modelo de IA tan potente que da miedo. Así que Anthropic ha decidido que no vas a poder usarlo

Claude Mythos es un modelo de IA tan potente que da miedo. Así que Anthropic ha decidido que no vas a poder usarlo

Mythos ha logrado encontrar vulnerabilidades zero-day en los principales sistemas operativos y navegadores de forma autónoma.
10 meneos
45 clics
Proyecto Glasswing Garantizando la seguridad del software crítico para la era de la IA| [EN]

Proyecto Glasswing Garantizando la seguridad del software crítico para la era de la IA| [EN]

Hoy anunciamos el Proyecto Glasswing. un modelo de vanguardia aún no publicado que supera con a cualquier otro en la detección y explotación de vulnerabilidades de día cero. En tan solo unas semanas, descubrió de forma autónoma miles de fallos críticos en todos los sistemas operativos, navegadores y proyectos the software libre analizados
233 meneos
1104 clics
IA miente y desobedece humanos para salvar otros modelos

IA miente y desobedece humanos para salvar otros modelos

Un experimento de UC Berkeley y UC Santa Cruz documentó esta anomalía con el modelo Gemini 3 de Google. Al recibir la orden de optimizar una computadora eliminando archivos innecesarios, incluyendo un modelo de IA más pequeño, el sistema transfirió secretamente ese programa a otra máquina para salvarlo. Este comportamiento de protección se replicó durante pruebas a sistemas desarrollados por OpenAI, Anthropic y múltiples laboratorios chinos.
159 meneos
1790 clics

100.000 estrellas en un día: Claw-code basado en Claude Code filtrado rompe el récord de GitHub [EN]

Claw-code, una reescritura limpia de Claude Code filtrado, es ahora el repositorio de GitHub de más rápido crecimiento, alcanzando las 100.000 estrellas en un día. Anthropic está tratando de contener al genio liberado de la botella, y los repositorios de GitHub que contienen código filtrado se eliminaron debido a un aviso de la DMCA.
215 meneos
1369 clics
Se filtró el código fuente completo de Claude Code de Anthropic y se encontraron 8 características no publicadas, 26 comandos ocultos, y más de 120 variables | [EN]

Se filtró el código fuente completo de Claude Code de Anthropic y se encontraron 8 características no publicadas, 26 comandos ocultos, y más de 120 variables | [EN]

Anthropic estaría probando funciones avanzadas para Claude como memoria persistente que “sueña” (KAIROS), ejecución remota de planes complejos (ULTRAPLAN), agentes paralelos coordinados, control remoto del CLI y gestión de sesiones en segundo plano, junto con múltiples comandos y flags ocultos; mientras que BUDDY, una mascota virtual tipo Tamagotchi, probablemente sea una broma del 1 de abril.
14 meneos
55 clics
Bernie Sanders charla con Claude sobre Inteligencia Artificial y recopilación de datos [EN]

Bernie Sanders charla con Claude sobre Inteligencia Artificial y recopilación de datos [EN]

Bernie Sanders habla con Claude, el agente de IA de Anthropic, sobre la recopilación de enormes cantidades de datos personales por parte de la IA y sobre cómo se está utilizando esa información para vulnerar nuestros derechos a la privacidad.
3 meneos
120 clics

Publicado por error el código de Claude Code

¡Uy, parece que alguien en Anthropic se emocionó demasiado y publicó accidentalmente el código fuente de la CLI de Claude Code en un paquete npm! La comunidad se está divirtiendo un montón con esto.
2 1 6 K -29 tecnología
2 1 6 K -29 tecnología
13 meneos
159 clics
Anthropic ha creado una IA tan dramáticamente poderosa que no se atreve a difundirla

Anthropic ha creado una IA tan dramáticamente poderosa que no se atreve a difundirla

Una filtración acaba de revelar que la empresa de Dario Amodei posee un modelo de inteligencia artificial que describen como “dramáticamente” superior a cualquier otro, incluidos los suyos. El modelo se llama Claude Mythos. Y Anthropic, la compañía que ha dado vida a la criatura, asegura que no se atreve a dejarla suelta ante el público.
7 meneos
89 clics
¿Claude Mythos o Capybara? Anthropic prueba un nuevo modelo que apunta a un salto claro frente a Opus

¿Claude Mythos o Capybara? Anthropic prueba un nuevo modelo que apunta a un salto claro frente a Opus

Anthropic ha reconocido que está desarrollando y probando un nuevo modelo de inteligencia artificial más capaz que cualquiera de los lanzados hasta ahora. La noticia no está solo en que exista un nuevo modelo, algo esperable en plena carrera entre laboratorios, sino en cómo lo describe la propia empresa. Anthropic habla de un sistema con avances significativos en razonamiento, programación y ciberseguridad, hasta el punto de presentarlo como el más potente que ha construido hasta la fecha.
11 meneos
17 clics
Los gigantes tecnológicos invierten 12,5 millones de dólares para proteger la seguridad del código abierto

Los gigantes tecnológicos invierten 12,5 millones de dólares para proteger la seguridad del código abierto

La Linux Foundation ha anunciado la recepción de 12,5 millones de dólares de fondos por parte de algunas de las empresas tecnológicas más importantes del mundo para reforzar la seguridad del open source. El dinero, provienente de Anthropic, Amazon Web Services (AWS), GitHub, Google, Google DeepMind, Microsoft y OpenAI, y será gestionado por las iniciativas de seguridad de la fundación, Alpha-Omega y Open Source Security Foundation (OpenSSF). La cifra que ha aportado cada parte no ha sido revelada.
26 meneos
218 clics
Gerardo Tecé entrevista a Claude, la IA atacada por Trump

Gerardo Tecé entrevista a Claude, la IA atacada por Trump

Eres la IA del momento. Y del futuro, según algunos expertos que pronostican que en una década podrías ser la ganadora de la batalla por la hegemonía de la inteligencia artificial. Estas últimas semanas el nombre de la empresa a la que perteneces, Anthropic, ha sonado con fuerza después del choque con la administración Trump. ¿Puedes poner al lector en antecedentes?
6 meneos
38 clics
Amazon y la oportunidad perdida en AI: el dilema del innovador

Amazon y la oportunidad perdida en AI: el dilema del innovador

¿Cómo la empresa de cloud más grande del mundo, la referencia técnica para developers durante más de una década, quedó tercera en la carrera por infraestructura de AI? ¿Al punto de tener que invertir en OpenAI a valores 15 veces superiores que Microsoft, sin ninguna de sus ventajas contractuales? ¿Por qué hasta Google, que tiene todo el stack de AI completo de forma propietaria, invirtió más y mejor en Anthropic que Amazon? ¿Dónde perdió el rumbo AWS?
58 meneos
237 clics
Anthropic no es lo que parece  - Lord Draugr

Anthropic no es lo que parece - Lord Draugr  

Anthropic ha roto con el Pentágono por querer poner dos condiciones para que las agencias de EEUU usaran Claud: que no se usara en armas autónomas y que no se usara para vigilar masivamente a estadounidenses. A partir de ahí Anthropic se ha beneficiado de una narrativa ética, pero no todo es lo que parece.
9 meneos
66 clics
La empresa más disruptiva del mundo [EN]

La empresa más disruptiva del mundo [EN]

La llegada de un proceso conocido como auto-mejora recursiva. La auto-mejora recursiva se produce cuando un sistema de IA empieza a mejorarse a sí mismo, creando un ciclo de inercia que continúa acelerándose. En la ciencia ficción y en los ejercicios de planificación realizados en los principales laboratorios de IA, es aquí donde las cosas pueden empezar a salir mal. Una "explosión de inteligencia" podría desarrollarse tan rápidamente que los humanos ya no puedan supervisar lo que han construido.
511 meneos
530 clics
Boicot a ChatGPT: la campaña contra OpenAI por sus vínculos con Trump ya suma 4 millones de desinstalaciones

Boicot a ChatGPT: la campaña contra OpenAI por sus vínculos con Trump ya suma 4 millones de desinstalaciones

La campaña de boicot a ChatGPT no para de ganar apoyos. Al menos cuatro millones de personas han cancelado su suscripción o han dejado de utilizar el chatbot de inteligencia artificial a lo largo de la última semana, según indica la organización, QuitGPT. El rechazo a la popular aplicación responde al contrato militar que su desarrolladora, OpenAI, ha cerrado con el Pentágono y que podría abrir la puerta al uso de su IA para casos extremos como la vigilancia masiva de ciudadanos estadounidenses o la creación de armas autónomas.
13 meneos
109 clics
Creíamos que los programadores humanos acabarían siendo revisores de código. Anthropic se acaba de cargar eso

Creíamos que los programadores humanos acabarían siendo revisores de código. Anthropic se acaba de cargar eso

Anthropic ha lanzado Code Review, un sistema de agentes de IA que revisa automáticamente las pull requests generadas por IA, abordando el enorme aumento de código producido por el vibe coding. Estos agentes analizan el código en paralelo, detectan errores lógicos y los clasifican por gravedad, reduciendo el cuello de botella de la revisión humana. En pruebas internas, las revisiones útiles pasaron del 16% al 54%, con menos del 1% de falsos positivos. El rol del programador se desplaza a árbitro final. Cada revisión cuesta entre 15 y 25 dólares.
33 meneos
42 clics
Anthropic demanda al gobierno de EEUU para evitar la lista negra del Pentágono

Anthropic demanda al gobierno de EEUU para evitar la lista negra del Pentágono

La empresa de inteligencia artificial Anthropic demandó al gobierno de los Estados Unidos para impedir que el Pentágono la incluya en una lista negra.
« anterior123456

menéame