<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>Menéame: comentarios [4150575]</title>
	<link>http://www.meneame.net</link>
	<image><title>www.meneame.net</title><link>http://www.meneame.net</link><url>http://cdn.mnmstatic.net/m/eMnm/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Thu, 26 Feb 2026 01:21:14 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:comment_id>44424180</meneame:comment_id>
		<meneame:link_id>4150575</meneame:link_id>
		<meneame:order>3</meneame:order>
		<meneame:user>alehopio</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>16</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing</meneame:url>
		<title>#3 Anthropic ignora su compromiso de seguridad insignia [ING]</title>
		<link>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing/c03#c-3</link>
		<pubDate>Thu, 26 Feb 2026 01:21:14 +0000</pubDate>
		<dc:creator>alehopio</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing/c03#c-3</guid>
		<description><![CDATA[<p>Ante la amenaza de perder la posibilidad de contratos <br />
<br />
<b>El Pentagono amenaza a Anthropic porque se opone al uso de su IA para el desarrollo de armas </b><br />
<a href="https://www.meneame.net/story/pentagono-amenaza-anthropic-porque-opone-uso-ia-desarrollo-armas/c04#c-4" title="www.meneame.net/story/pentagono-amenaza-anthropic-porque-opone-uso-ia-desarrollo-armas/c04#c-4" rel="nofollow">www.meneame.net/story/pentagono-amenaza-anthropic-porque-opone-uso-ia-</a></p><p>&#187;&nbsp;autor: <strong>alehopio</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44419071</meneame:comment_id>
		<meneame:link_id>4150575</meneame:link_id>
		<meneame:order>2</meneame:order>
		<meneame:user>carakola</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>20</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing</meneame:url>
		<title>#2 Anthropic ignora su compromiso de seguridad insignia [ING]</title>
		<link>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing/c02#c-2</link>
		<pubDate>Wed, 25 Feb 2026 07:39:52 +0000</pubDate>
		<dc:creator>carakola</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing/c02#c-2</guid>
		<description><![CDATA[<p>Relacionada: <a href="https://www.meneame.net/story/wsj-ee-uu-utilizo-ia-agresion-militar-contra-venezuela" title="www.meneame.net/story/wsj-ee-uu-utilizo-ia-agresion-militar-contra-venezuela" rel="nofollow">www.meneame.net/story/wsj-ee-uu-utilizo-ia-agresion-militar-contra-ven</a></p><p>&#187;&nbsp;autor: <strong>carakola</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44418945</meneame:comment_id>
		<meneame:link_id>4150575</meneame:link_id>
		<meneame:order>1</meneame:order>
		<meneame:user>gelatti</meneame:user>
		<meneame:votes>1</meneame:votes>
		<meneame:karma>30</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing</meneame:url>
		<title>#1 Anthropic ignora su compromiso de seguridad insignia [ING]</title>
		<link>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing/c01#c-1</link>
		<pubDate>Wed, 25 Feb 2026 07:15:48 +0000</pubDate>
		<dc:creator>gelatti</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/anthropic-ignora-compromiso-seguridad-insignia-ing/c01#c-1</guid>
		<description><![CDATA[<p>En 2023, Anthropic se comprometió a no entrenar nunca un sistema de IA a menos que pudiera garantizar de antemano que las medidas de seguridad de la empresa eran adecuadas. Durante años, sus líderes promocionaron esa promesa —pilar central de su Política de Escalado Responsable (RSP)— como prueba de que eran una empresa responsable que resistiría los incentivos del mercado para apresurarse a desarrollar una tecnología potencialmente peligrosa.<br />
<br />
Pero en los últimos meses, la empresa decidió reformar radicalmente la RSP. Esta decisión incluyó la eliminación de la promesa de no publicar modelos de IA si Anthropic no podía garantizar con antelación la mitigación de riesgos adecuada.<br />
<br />
&#34;Pensamos que, en realidad, no beneficiaría a nadie que dejáramos de entrenar modelos de IA&#34;, declaró Jared Kaplan, director científico de Anthropic, a TIME en una entrevista exclusiva. &#34;Con el rápido avance de la IA, no nos parecía lógico asumir compromisos unilaterales... si la competencia iba a la cabeza&#34;.<br />
<br />
 La nueva versión de la política, revisada por TIME, incluye compromisos para ser más transparentes sobre los riesgos de seguridad de la IA, incluyendo la divulgación de información adicional sobre el rendimiento de los modelos de Anthropic en las pruebas de seguridad. Se compromete a igualar o superar los esfuerzos de seguridad de la competencia. Y promete retrasar el desarrollo de la IA de Anthropic si los líderes consideran a Anthropic líder en la carrera de la IA y consideran que los riesgos de catástrofe son significativos.<br />
<br />
En general, el cambio en el RSP deja a Anthropic mucho menos limitada por sus propias políticas de seguridad, que anteriormente le prohibían categóricamente entrenar modelos por encima de cierto nivel si no se contaban con las medidas de seguridad adecuadas.<br />
<br />
El cambio se produce en un momento en que Anthropic, anteriormente considerada por detrás de OpenAI en la carrera de la IA, disfruta de una serie de éxitos tecnológicos y comerciales. Sus modelos Claude, especialmente la herramienta de desarrollo de software Claude Code, han ganado legiones de seguidores fieles.  En febrero, Anthropic recaudó 30&#194;000 millones de dólares en nuevas inversiones, valorándola en unos 380&#194;000 millones de dólares, e informó que sus ingresos anualizados crecían a un ritmo de 10 veces al año. Muchos inversores consideran que el modelo de negocio principal de la compañía, consistente en vender directamente a empresas, es más creíble que la estrategia principal de OpenAI, que consiste en monetizar una amplia base de usuarios.<br />
<br />
Kaplan, ejecutivo y cofundador de Anthropic, negó que la decisión de la compañía de cambiar de rumbo fuera una capitulación ante los incentivos del mercado a medida que se acelera la carrera por la superinteligencia. En cambio, la presentó como una respuesta pragmática a las nuevas realidades políticas y científicas. «No creo que estemos dando ningún giro de  180 grados», afirma Kaplan.<br />
<br />
Cuando Anthropic introdujo el RSP en 2023, afirma Kaplan, la compañía esperaba que animara a sus rivales a adoptar medidas similares. (Ningún rival prometió tan abiertamente pausar el desarrollo de la IA, pero muchos publicaron extensos informes detallando sus planes para mitigar el riesgo, lo que, según Kaplan, demuestra la influencia positiva de Anthropic en la industria). Los ejecutivos también esperaban que el enfoque sirviera como modelo para regulaciones nacionales vinculantes o incluso tratados internacionales, afirma Kaplan.<br />
<br />
Pero esas regulaciones nunca se materializaron. En cambio, la Administración Trump ha adoptado una actitud descontrolada respecto al desarrollo de la IA, llegando incluso a intentar anular regulaciones estatales. No se vislumbra ninguna ley federal de IA. Y si bien un marco de gobernanza global parecía posible en 2023, tres años después ha quedado claro que la puerta se ha cerrado. Mientras tanto, la competencia por la supremacía de la IA, tanto entre empresas como entre países, no ha hecho más que intensificarse.  Para empeorar las cosas, la ciencia de las evaluaciones de IA ha resultado ser más compleja de lo que Anthropic previó cuando diseñó el RSP. La llegada de nuevos y potentes modelos significó que, en 2025, Anthropic anunció que no podía descartar la posibilidad de que estos modelos facilitaran un ataque bioterrorista. Sin embargo, si bien no podían descartarlo, también carecían de evidencia científica sólida que demostrara que los modelos representaban ese tipo de peligro, lo que dificultó convencer a gobiernos y rivales de lo que consideraban la necesidad de actuar con cautela. Lo que la compañía había imaginado previamente que podría parecer una línea roja brillante, en cambio, se estaba convirtiendo en un gradiente difuso.<br />
<br />
Durante casi un año, los ejecutivos de Anthropic debatieron maneras de reformular su política de seguridad insignia para adaptarla a este nuevo entorno, afirma Kaplan. Un punto al que recurrían constantemente era su premisa fundacional: la idea de que, para realizar una investigación adecuada sobre seguridad de la IA, debían construir modelos en la frontera de la capacidad, aunque hacerlo pudiera acelerar la llegada de los peligros que temían.  En febrero, según Kaplan, Amodei decidió que impedir que la empresa entrenara nuevos modelos mientras la competencia se adelantaba no beneficiaría a nadie. «Si un desarrollador de IA pausara el desarrollo para implementar medidas de seguridad mientras otros avanzaban con el entrenamiento y la implementación de sistemas de IA sin medidas de mitigación sólidas, esto podría resultar en un mundo menos seguro», afirma en su introducción la nueva versión del RSP, aprobada por unanimidad por la junta directiva de Amodei y Anthropic. «Los desarrolladores con las protecciones más débiles marcarían el ritmo, y los desarrolladores responsables perderían su capacidad para investigar la seguridad».</p><p>&#187;&nbsp;autor: <strong>gelatti</strong></p>]]></description>
	</item>

</channel>
</rss>
