<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>Menéame: comentarios [3989566]</title>
	<link>http://www.meneame.net</link>
	<image><title>www.meneame.net</title><link>http://www.meneame.net</link><url>http://cdn.mnmstatic.net/m/tecnología/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Tue, 15 Oct 2024 19:41:51 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:comment_id>41653218</meneame:comment_id>
		<meneame:link_id>3989566</meneame:link_id>
		<meneame:order>2</meneame:order>
		<meneame:user>ed25519</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>9</meneame:karma>
		<meneame:url>https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas</meneame:url>
		<title>#2 OpenAI presenta MLE-bench: un nuevo estándar para evaluar agentes de Inteligencia Artificial en tareas de ingeniería de Machine Learning</title>
		<link>https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas/c02#c-2</link>
		<pubDate>Tue, 15 Oct 2024 19:41:51 +0000</pubDate>
		<dc:creator>ed25519</dc:creator>
		<guid>https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas/c02#c-2</guid>
		<description><![CDATA[<p><a class="tooltip c:3989566-1" href="https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas/c01#c-1" rel="nofollow">#1</a> claro de eso va todo esto <img data-src="https://cdn.mnmstatic.net/v_149/img/menemojis/36/smiley.png" alt=":-)" title=":-)" width="18" height="18" src="https://cdn.mnmstatic.net/v_149/img/g.gif" class="emoji lazy" /></p><p>&#187;&nbsp;autor: <strong>ed25519</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>41646824</meneame:comment_id>
		<meneame:link_id>3989566</meneame:link_id>
		<meneame:order>1</meneame:order>
		<meneame:user>tdgwho</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>10</meneame:karma>
		<meneame:url>https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas</meneame:url>
		<title>#1 OpenAI presenta MLE-bench: un nuevo estándar para evaluar agentes de Inteligencia Artificial en tareas de ingeniería de Machine Learning</title>
		<link>https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas/c01#c-1</link>
		<pubDate>Mon, 14 Oct 2024 21:24:50 +0000</pubDate>
		<dc:creator>tdgwho</dc:creator>
		<guid>https://www.meneame.net/m/tecnología/openai-presenta-mle-bench-nuevo-estandar-evaluar-agentes-tareas/c01#c-1</guid>
		<description><![CDATA[<p>Y curiosamente las IA que mejor puntuación tendrán serán las de ClosedAI</p><p>&#187;&nbsp;autor: <strong>tdgwho</strong></p>]]></description>
	</item>

</channel>
</rss>
