<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>Menéame: comentarios [4154958]</title>
	<link>http://www.meneame.net</link>
	<image><title>www.meneame.net</title><link>http://www.meneame.net</link><url>http://cdn.mnmstatic.net/m/eMnm/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Mon, 09 Mar 2026 10:54:42 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:comment_id>44487987</meneame:comment_id>
		<meneame:link_id>4154958</meneame:link_id>
		<meneame:order>5</meneame:order>
		<meneame:user>MateriaNegra</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>6</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos</meneame:url>
		<title>#5 Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto</title>
		<link>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c05#c-5</link>
		<pubDate>Mon, 09 Mar 2026 10:54:42 +0000</pubDate>
		<dc:creator>MateriaNegra</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c05#c-5</guid>
		<description><![CDATA[<p><a class="tooltip c:4154958-3" href="https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c03#c-3" rel="nofollow">#3</a> Un ejemplo bastante ilustrativo de lo que pasa cuando entrenas algoritmos con datos históricos sin mirar qué hay dentro. Si durante años contrataste sobre todo a hombres, el sistema aprende que “parecerse a los hombres que ya están” es un buen predictor. No hay ideología en el código, pero sí en los datos. Y los modelos estadísticos son muy obedientes con su pasado. A veces la IA no crea el sesgo: simplemente lo automatiza. ( Con grok no tengo claro que de alguna forma elijan con que entrenar ... Pero no lo sé)</p><p>&#187;&nbsp;autor: <strong>MateriaNegra</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44487944</meneame:comment_id>
		<meneame:link_id>4154958</meneame:link_id>
		<meneame:order>4</meneame:order>
		<meneame:user>josiahallen</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>7</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos</meneame:url>
		<title>#4 Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto</title>
		<link>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c04#c-4</link>
		<pubDate>Mon, 09 Mar 2026 10:47:12 +0000</pubDate>
		<dc:creator>josiahallen</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c04#c-4</guid>
		<description><![CDATA[<p><i> alentando el uso de cuotas de género para atender las desigualdades</i><br />
<br />
La cuotas de género no atienden a las desigualdades y la prueba es que solamente existen para beneficiar a mujeres, nunca a hombres por muy desigualados que estén.<br />
<br />
Todo el artículo es tan o más sesgado que esto.</p><p>&#187;&nbsp;autor: <strong>josiahallen</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44487917</meneame:comment_id>
		<meneame:link_id>4154958</meneame:link_id>
		<meneame:order>3</meneame:order>
		<meneame:user>josiahallen</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>7</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos</meneame:url>
		<title>#3 Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto</title>
		<link>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c03#c-3</link>
		<pubDate>Mon, 09 Mar 2026 10:42:53 +0000</pubDate>
		<dc:creator>josiahallen</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c03#c-3</guid>
		<description><![CDATA[<p><a class="tooltip c:4154958-1" href="https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c01#c-1" rel="nofollow">#1</a> <i>El caso Amazon (descartaba CV de mujeres porque había entrenado con décadas de contrataciones masculinas)</i><br />
<br />
Recuerdo el caso y eran los datos de las evaluaciones de rendimiento.</p><p>&#187;&nbsp;autor: <strong>josiahallen</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44487905</meneame:comment_id>
		<meneame:link_id>4154958</meneame:link_id>
		<meneame:order>2</meneame:order>
		<meneame:user>josiahallen</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>7</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos</meneame:url>
		<title>#2 Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto</title>
		<link>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c02#c-2</link>
		<pubDate>Mon, 09 Mar 2026 10:40:38 +0000</pubDate>
		<dc:creator>josiahallen</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c02#c-2</guid>
		<description><![CDATA[<p>Una y otra vez sale la misma tontería de los sesgos de las máquinas.<br />
<br />
Las máquinas no tienen sesgos. Los humanos tienen sesgos.<br />
<br />
Es cierto que máquinas y humanos toman decisiones distintas. Precisamente porque las máquinas no aplican los sesgos que los humanos sí.<br />
<br />
Los humanos, por instinto, se dedican a proteger a las mujeres. Este es un instinto muy fuerte, y tanto hombres como mujeres lo usan a base de bien.<br />
<br />
Como que una máquina no hace eso, le encontramos que se comporta raro. Pero no es culpa de la máquina sino de quién la mira.</p><p>&#187;&nbsp;autor: <strong>josiahallen</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44487455</meneame:comment_id>
		<meneame:link_id>4154958</meneame:link_id>
		<meneame:order>1</meneame:order>
		<meneame:user>MateriaNegra</meneame:user>
		<meneame:votes>1</meneame:votes>
		<meneame:karma>15</meneame:karma>
		<meneame:url>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos</meneame:url>
		<title>#1 Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto</title>
		<link>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c01#c-1</link>
		<pubDate>Mon, 09 Mar 2026 09:12:30 +0000</pubDate>
		<dc:creator>MateriaNegra</dc:creator>
		<guid>https://www.meneame.net/m/eMnm/como-inteligencia-artificial-refuerza-sesgos-genero-podemos/c01#c-1</guid>
		<description><![CDATA[<p>Lo positivo: el diagnóstico es sólido y verificable. La IA no discrimina por maldad sino por imitación — aprende de datos históricos que ya reflejan desigualdad y la escala exponencialmente. El caso Amazon (descartaba CV de mujeres porque había entrenado con décadas de contrataciones masculinas) es el ejemplo canónico, pero hay cientos más en medicina, crédito y reconocimiento facial.<br />
Lo preocupante: el artículo se queda en &#34;hay que incluir más mujeres en los equipos&#34;, que está bien pero es insuficiente. Sin regulación vinculante y auditorías obligatorias el problema avanzará mucho más rápido que las soluciones. La UE tiene el AI Act con requisitos de auditoría de sesgos. Los grandes modelos americanos, autorregulación voluntaria. Ahí está la clave que el artículo no menciona</p><p>&#187;&nbsp;autor: <strong>MateriaNegra</strong></p>]]></description>
	</item>

</channel>
</rss>
