<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:georss="http://www.georss.org/georss"
	xmlns:media="http://search.yahoo.com/mrss/"
	xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>DataScience: en cola</title>
	<atom:link href="http://www.meneame.net/m/DataScience/rss?status=queued" rel="self" type="application/rss+xml" />
	<link>http://www.meneame.net/queue</link>
	<image><title>DataScience: en cola</title><link>http://www.meneame.net/queue</link><url>http://cdn.mnmstatic.net/m/DataScience/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Fri, 30 Sep 2022 11:32:36 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:link_id>2855174</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>7</meneame:clicks>
		<meneame:votes>1</meneame:votes>
		<meneame:negatives>0</meneame:negatives>
		<meneame:karma>12</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/proyecto-inteligencia-artificial-ayuda-ya-esclarecer-autoria?utm_source=meneame_rss</meneame:url>
		<title>Un proyecto de inteligencia artificial ayuda ya a esclarecer la autoría de incendios</title>
		<link>https://www.meneame.net/m/DataScience/proyecto-inteligencia-artificial-ayuda-ya-esclarecer-autoria</link>
		<comments>https://www.meneame.net/m/DataScience/proyecto-inteligencia-artificial-ayuda-ya-esclarecer-autoria</comments>
		<pubDate>Sat, 04 Nov 2017 13:47:31 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[incendios forestales]]></category>
		<category><![CDATA[redes bayesianas]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[uab]]></category>
		<guid>https://www.meneame.net/m/DataScience/proyecto-inteligencia-artificial-ayuda-ya-esclarecer-autoria</guid>
		<description><![CDATA[<p>Un innovador prototipo basado en la inteligencia artificial, llamado PerfilNet.Pyros, ayuda ya a esclarecer la autoría de incendios forestales, en un proyecto de la Universitat Autònoma de Barcelona (UAB).<br />
<br />
Según explican los investigadores Rosario Delgado y Xavier-Andoni Tibau, del grupo de Métodos Cuantitativos en Criminología de la UAB, los agentes que indagan en la reciente ola de incendios de Galicia --en la que fallecieron cuatro personas y hubo 49.000 hectáreas quemadas-- &quot;ya pueden consultar y usar&quot; este prototipo.<br />
<br />
PerfilNet.Pyros es un sistema experto basado en redes bayesanas, lo que significa &quot;un sistema informático de inteligencia artificial con capacidad para aprender, razonar, comunicar y ayudar a obtener conclusiones lógicas a partir de los datos existentes&quot;, en este caso en relación con el perfil de incendiarios.</p><p><strong>etiquetas</strong>: incendios forestales, redes bayesianas, inteligencia artificial, uab</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2855174" rel="nofollow">noticia original</a> (www.europapress.es)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2855174</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2840916</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--92492--</meneame:user>
		<meneame:clicks>897</meneame:clicks>
		<meneame:votes>24</meneame:votes>
		<meneame:negatives>0</meneame:negatives>
		<meneame:karma>8</meneame:karma>
		<meneame:comments>4</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/diy-haz-tu-propio-machine-learning-predice-cancer-maligno-pecho?utm_source=meneame_rss</meneame:url>
		<title>DIY: Haz tu propio machine learning que predice el cáncer maligno de pecho</title>
		<link>https://www.meneame.net/m/DataScience/diy-haz-tu-propio-machine-learning-predice-cancer-maligno-pecho</link>
		<comments>https://www.meneame.net/m/DataScience/diy-haz-tu-propio-machine-learning-predice-cancer-maligno-pecho</comments>
		<pubDate>Mon, 09 Oct 2017 21:40:49 +0000</pubDate>
		<dc:creator>--92492--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[artículo]]></category>
		<guid>https://www.meneame.net/m/DataScience/diy-haz-tu-propio-machine-learning-predice-cancer-maligno-pecho</guid>
		<description><![CDATA[<p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=0&amp;ts=0&amp;image.jpeg"></p><p></p><p>Hola amigos, y bienvenidos a una entrega m&aacute;s de Dataman&iacute;a. Aunque sea la primera entrega. </p><p>Lo primero que necesitaremos para nuestro Machine Learning, ser&aacute;n los datos. Y adem&aacute;s en este caso vamos a hacer un clasificador. &iquest;Qu&eacute; diferencia hay entre un clasificador y una regresi&oacute;n? Pues que en un clasificador tenemos clases discretas, por ejemplo los colores por su nombre (rojo, verde, azul, blanco,...) mientras que en una regresi&oacute;n el resultado es un n&uacute;mero real, por ejemplo 0.785</p><p>&iquest;Y de d&oacute;nde sacamos los datos? Pues un buen csv (como un excel pero en texto separado por comas) con buen sustrato, ya clasificado. En concreto usaremos los datos del "Breast Cancer Wisconsin (Diagnostic) Dataset". Aqu&iacute; teneis el link: <a href="https://www.kaggle.com/uciml/breast-cancer-wisconsin-data/downloads/breast-cancer-wisconsin-data.zip">datos</a>.</p><p>Lo descomprimimos y nos encontramos un fichero data.csv que contiene algo as&iacute;:</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=1&amp;ts=0&amp;image.jpeg"></p><p>Nos fijamos en la columna B, que pone diagnosis. Est&aacute; ser&aacute; nuestra clase a predecir. Vemos que puede tomar 2 valores: M (Maligno) o B (Benigno). Vemos que la columna A e un identificador, y tenemos otras 30 columnas con diversos datos num&eacute;ricos que son medidas acerca del c&aacute;ncer detectado en el pecho. Como no somos expertos en el tema, no sabemos lo que significan (aunque podr&iacute;amos tener un diccionario de datos para explicarlos), pero aun as&iacute; tiraremos para adelante, porque vamos a ver qu&eacute; pasa sin filtrar datos ni nada.</p><p>Lo segundo que necesitaremos si queremos un trabajo profesional y bueno, es conocer bien R o Python. Pero como no es el objetivo aqu&iacute; en Dataman&iacute;a tener un trabajo fino fino, sino algo asequible, vamos a usar Azure Machine Learning Studio, que es gratuito, y nos permitir&aacute; hacer esto con cajitas. Lo encontraremos en esta url: <a href="https://studio.azureml.net/"><a href="https://studio.azureml.net/" title="studio.azureml.net/" rel="nofollow">studio.azureml.net/</a></a></p><p>Una vez dentro vamos a datasets y pinchamos en "new"</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=2&amp;ts=0&amp;image.png"></p><p>Y subimos el fichero y le ponemos un nombre descriptivo:</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=3&amp;ts=0&amp;image.png"></p><p>Y ahora vamos a Experiments y creamos uno nuevo, seleccionamos "Blank Experiment". Veremos algo como esto:</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=4&amp;ts=0&amp;image.png"></p><p>La parte de la izquierda son las cosas que podemos arrastrar hacia la derecha, que ser&aacute; nuestro experimento. Lo primero que hacemos es arrastrar nuestro dataset (buscadlo por nombre). Y adem&aacute;s arrastramos un componente llamado "Select columns in dataset", que nos permitir&aacute; elegir las columnas que queremos de nuestros datos, en concreto eliminar las columnas "id" y "Column 32" que no nos aportan nada.</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=5&amp;ts=0&amp;image.png"></p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=6&amp;ts=0&amp;image.png"></p><p>Y ahora le damos abajo a "Run" para que el componente Select Columns se ejecute y coja los datos. Por cierto, en cualquier momento a cualquier componentes pod&eacute;is darle a la bolita que tienen debajo y visualizar el contenido.</p><p>Lo siguiente que haremos ser&aacute; partir nuestros datos. &iquest;Qu&eacute; es esto? En Machine Learning tienes que entrenar tus datos usando un conjunto de datos para entrenar (train), pero tambi&eacute;n tienes que probar lo bien que funciona tu modelo con un conjunto de datos para test (test). Para eso arrastrad un componente llamado "Split data". En las propiedades seleccionar 0.7, esto significa que el 70% de los datos se usar&aacute;n para train y el 30% para test. Y seleccionad adem&aacute;s "stratified split" y la columna "diagnosis". &iquest;Qu&eacute; hace esto? Como no hay la misma cantidad de c&aacute;nceres Malignos que Benignos en nuestros datos, esto lo que hace es repartir de manera uniforme entre los datos que usamos para entrenar y los que usamos para testear.</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=7&amp;ts=0&amp;image.png"></p><p></p><p>Y le damos a "Run". Ahora la salida 1 de split data ser&aacute;n los datos de train y la 2 los de test.</p><p>Ahora arrastraremos 2 componentes: Train Model, y conectaremos la salida 1 de Split data a la entrada 2 de train model; y Two Class Support Vector Machine. &iquest;Para qu&eacute; sirven? El segundo es el algoritmo de machine learning. Es un classifier, y todos los que comienzan por Two Class son &oacute;ptimos para cuando tenemos dos clases, que es nuestro caso. Por el otro lado Train Model es la pieza fundamental, la que a partir de los datos y del algoritmo, entrena nuestro modelo de machine learning. &iquest;Qu&eacute; falta? Decirle a nuestro Train Model qu&eacute; campo debe predecir (label column), lo hacemos pinchando el selector de columnas y ecogemos "diagnosis". Y le damos a "Run".</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=9&amp;ts=0&amp;image.png"></p><p>&iexcl;Ya tenemos el modelo entrenado! En realidad el trabajo est&aacute; hecho, pero ahora tenemos que comprobar lo bien que lo ha hecho. Para eso arrastraremos un componente llamado "Score Model". La salida de "Train Model" va a la entrada 1 del "Score Model" y la salida 2 de "Split Data" va a la entrada 2 de Score Model. Esto lo que har&aacute; ser&aacute; coger los datos que guardamos para testear y predecir para cada uno el campo "diagnosis" y compararlo con el verdadero diagn&oacute;stico para ver si lo ha hecho bien.</p><p>Y por &uacute;ltimo un componente "Evaluate Model", que enganchamos tras el "Score Model" y que nos mostrar&aacute; los resultados estad&iacute;sticos de lo bien que lo hace. Y le damos a "Run" de nuevo. </p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=10&amp;ts=0&amp;image.png"></p><p>Si nos vamos a la salida de "Evaluate Model" y le damos a visualize, veremos lo bien que lo hace nuestro modelo, algo as&iacute;:</p><p><img src="https://www.meneame.net/backend/media?type=link&amp;id=2840916&amp;version=12&amp;ts=0&amp;image.png"></p><p>Lo m&aacute;s importante que podemos ver en nuestro diagrama ROC es el valor del AUC (Area Under the Curve). La diagonal gris ser&iacute;a el azar. Lo azul la performance de nuestro modelo. Ocupar todo el &aacute;rea, es decir un 1, es el valor perfecto. En nuestro caso tenemos un 0.996, que es un buen valor, sobre todo teniendo en cuenta que no hemos refinado nada, est&aacute; todo por defecto.</p><p>Los True Positive (59) se corresponden con auqellos tumores benignos que efectivamente nuestro modelo identifica como benignos. Los True Negative (105) son aquellos malignos que efectivamente nuestro modelo identifica como malignos. El total de datos es 171, as&iacute; que sin cambiar nada nuestro modelo acertar&iacute;a el (59+105)*100/171 = 95.90% de las veces (valor de Accuracy).</p><p>Si adem&aacute;s quer&eacute;is convertirlo en un servicio web, pod&eacute;is pinchar en "Setup Web Services", que lo que hace es crear un servicio al que pod&eacute;is enviar los datos de una observaci&oacute;n o de varias, y te dice para cada caso si el tumor que ve es benigno o maligno.</p><p>&iexcl;Y esto ha sido todo por hoy!</p><p></p><p></p><p></p><p></p></p><p><strong>etiquetas</strong>: artículo</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2840916" rel="nofollow">noticia original</a> ()</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2840916</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2827380</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--92492--</meneame:user>
		<meneame:clicks>160</meneame:clicks>
		<meneame:votes>6</meneame:votes>
		<meneame:negatives>0</meneame:negatives>
		<meneame:karma>0</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/competicion-computer-vision-mas-grande-imagenet?utm_source=meneame_rss</meneame:url>
		<title>Competición de Computer Vision: más grande que ImageNet</title>
		<link>https://www.meneame.net/m/DataScience/competicion-computer-vision-mas-grande-imagenet</link>
		<comments>https://www.meneame.net/m/DataScience/competicion-computer-vision-mas-grande-imagenet</comments>
		<pubDate>Thu, 14 Sep 2017 20:59:12 +0000</pubDate>
		<dc:creator>--92492--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[artículo]]></category>
		<guid>https://www.meneame.net/m/DataScience/competicion-computer-vision-mas-grande-imagenet</guid>
		<description><![CDATA[<p><p>La empresa CDiscount, un supermercado online franc&eacute;s del grupo Casino, acaba de lanzar en Kaggle (la plataforma online de competiciones sobre Data Science) un reto que consiste en que a partir de fotos de sus art&iacute;culos y sus clasificaciones, se consiga clasificar otras im&aacute;genes en sus categor&iacute;as. Se repartir&aacute;n 35.000$ en premios repartidos de la manera 20.000 para el ganador, 10.000 para el segundo y 5.000 para el tercero, y se disponen de 3 meses hasta la finalizaci&oacute;n de la competici&oacute;n.</p><p>El reto en n&uacute;meros: 15 millones de im&aacute;genes en resoluci&oacute;n 180x180, a clasificar en 5271 categor&iacute;as. En total te dan 7,069,896 productos, cada uno con al menos una foto, ya clasificados para entrenar. Por otro lado para comprobar lo bien que lo hace tu sistema, te dan un juego de test consistente en 1,768,182 productos.</p><p>Recordemos que ImageNet, el reto de Computer Vision m&aacute;s famoso del mundo, con fotos gen&eacute;ricas de todo tipo, da 14 millones de im&aacute;genes a clasificar en 1000 categor&iacute;as.</p><p>Esto supone una gran dificultad en el reto, dado que hay menos im&aacute;genes por categor&iacute;a para entrenar, as&iacute; que hay que poner gran incapi&eacute; en el data augmentation, adem&aacute;s de realizar una buena topolog&iacute;a de red. Segurament veamos muchos equipos participando con evoluciones de ResNet.</p><p>Pero aun existe una dificultad mayor: parte de los art&iacute;culos contienen im&aacute;genes, por ejemplo car&aacute;tulas de CDs, libros o carcasas de m&oacute;viles, que podr&iacute;an dar problemas al entrenar y al ser clasificadas.</p><p>&iquest;Alguno de vosotros participar&aacute;? ;)</p><p>El reto: <a href="https://www.kaggle.com/c/cdiscount-image-classification-challenge" title="www.kaggle.com/c/cdiscount-image-classification-challenge" rel="nofollow">www.kaggle.com/c/cdiscount-image-classification-challenge</a></p></p><p><strong>etiquetas</strong>: artículo</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2827380" rel="nofollow">noticia original</a> ()</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2827380</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2820644</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>32</meneame:clicks>
		<meneame:votes>1</meneame:votes>
		<meneame:negatives>0</meneame:negatives>
		<meneame:karma>11</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/guia-intuitiva-arquitecturas-redes-neuronales-profundas-eng?utm_source=meneame_rss</meneame:url>
		<title>Una guía intuitiva de arquitecturas de redes neuronales profundas [eng]</title>
		<link>https://www.meneame.net/m/DataScience/guia-intuitiva-arquitecturas-redes-neuronales-profundas-eng</link>
		<comments>https://www.meneame.net/m/DataScience/guia-intuitiva-arquitecturas-redes-neuronales-profundas-eng</comments>
		<pubDate>Thu, 31 Aug 2017 13:06:38 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[redes neuronales]]></category>
		<category><![CDATA[visión artificial]]></category>
		<category><![CDATA[computer vision]]></category>
		<guid>https://www.meneame.net/m/DataScience/guia-intuitiva-arquitecturas-redes-neuronales-profundas-eng</guid>
		<description><![CDATA[<p>La mayor parte del progreso llevado a cabo en los últimos años en el <i>deep learning</i> aplicado a la visión artificial se debe a únicamente a un pequeño grupo de arquitecturas de redes neuronales: VGG16, VGG19, ResNet50, Inception v3, Xception y MobileNet.<br />
<br />
Dejando a parte las matemáticas, el código y los detalles de implementación, el artículo explora una cuestión simple: ¿Cómo y por qué funcionan esos modelos?<br />
<br />
Las redes VGG siguen la estructura básica de las redes de convolución y MobileNet es esencialmente una versión de Xception para aplicaciones móviles. Las tres restantes, sin embargo, redefinen nuestra visión de las redes neuronales. El post se centra en el planteamiento subyacente a las arquitecturas ResNet, Inception y Xception y en por qué se han convertido en los elementos básicos de tantos proyectos de visión artificial.</p><p><strong>etiquetas</strong>: deep learning, redes neuronales, visión artificial, computer vision</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2820644" rel="nofollow">noticia original</a> (medium.com)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2820644</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2812657</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>13</meneame:clicks>
		<meneame:votes>1</meneame:votes>
		<meneame:negatives>2</meneame:negatives>
		<meneame:karma>-4</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/entrena-tus-redes-neuronales-profundas-mejor-mas-rapido-dos?utm_source=meneame_rss</meneame:url>
		<title>Entrena tus redes neuronales profundas mejor y más rápido. Dos técnicas novedosas: Snapshot ensembles y FreezeOut</title>
		<link>https://www.meneame.net/m/DataScience/entrena-tus-redes-neuronales-profundas-mejor-mas-rapido-dos</link>
		<comments>https://www.meneame.net/m/DataScience/entrena-tus-redes-neuronales-profundas-mejor-mas-rapido-dos</comments>
		<pubDate>Sat, 12 Aug 2017 18:29:46 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[snapshot]]></category>
		<category><![CDATA[freezout]]></category>
		<category><![CDATA[redes neuronales]]></category>
		<guid>https://www.meneame.net/m/DataScience/entrena-tus-redes-neuronales-profundas-mejor-mas-rapido-dos</guid>
		<description><![CDATA[<p>Las redes neuronales profundas cuentan con muchos parámetros entrenables que se emplean para realizar inferencias. A menudo esto plantea dos problemas: por una parte el modelo realiza predicciones en ocasiones no demasiado acertadas y por otra es necesario mucho tiempo para entrenarlo. En este post se tratan dos ténicas novedosas para incrementar la precisión (Snapshot ensembles) y reducir el tiempo de entrenamiento (FreezeOut).<br />
<br />
Papers originales:<br />
- <a href="https://arxiv.org/abs/1704.00109" title="arxiv.org/abs/1704.00109" rel="nofollow">Snapshot Ensembles: Train 1, get M for free</a><br />
- <a href="https://arxiv.org/abs/1706.04983" title="arxiv.org/abs/1706.04983" rel="nofollow">FreezeOut: Accelerate Training by Progressively Freezing Layers</a></p><p><strong>etiquetas</strong>: deep learning, snapshot, freezout, redes neuronales</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2812657" rel="nofollow">noticia original</a> (hackernoon.com)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2812657</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2729727</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>15</meneame:clicks>
		<meneame:votes>1</meneame:votes>
		<meneame:negatives>0</meneame:negatives>
		<meneame:karma>10</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/red-social-star-wars?utm_source=meneame_rss</meneame:url>
		<title>La red social de Star Wars</title>
		<link>https://www.meneame.net/m/DataScience/red-social-star-wars</link>
		<comments>https://www.meneame.net/m/DataScience/red-social-star-wars</comments>
		<pubDate>Wed, 01 Feb 2017 17:23:04 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[star wars]]></category>
		<category><![CDATA[la guerra de las galaxias]]></category>
		<category><![CDATA[redes sociales]]></category>
		<category><![CDATA[visualización]]></category>
		<guid>https://www.meneame.net/m/DataScience/red-social-star-wars</guid>
		<description><![CDATA[<p>Las estructuras de las redes sociales extraídas de las siete películas, tanto las formadas en cada película como en toda la saga, revelan algunas diferencias sorprendentes entre la trilogía original, las precuelas y la secuela.<br />
<br />
Código fuente y redes sociales en JSON: <a href="http://github.com/evelinag/StarWars-social-network" title="github.com/evelinag/StarWars-social-network" rel="nofollow">github.com/evelinag/StarWars-social-network</a></p><p><strong>etiquetas</strong>: star wars, la guerra de las galaxias, redes sociales, visualización</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2729727" rel="nofollow">noticia original</a> (evelinag.com)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2729727</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2719097</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>25</meneame:clicks>
		<meneame:votes>2</meneame:votes>
		<meneame:negatives>2</meneame:negatives>
		<meneame:karma>-8</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/principales-avances-deep-learning-2016?utm_source=meneame_rss</meneame:url>
		<title>Los principales avances en Deep Learning en 2016</title>
		<link>https://www.meneame.net/m/DataScience/principales-avances-deep-learning-2016</link>
		<comments>https://www.meneame.net/m/DataScience/principales-avances-deep-learning-2016</comments>
		<pubDate>Mon, 09 Jan 2017 16:37:54 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[2016]]></category>
		<category><![CDATA[gans]]></category>
		<category><![CDATA[nlp]]></category>
		<guid>https://www.meneame.net/m/DataScience/principales-avances-deep-learning-2016</guid>
		<description><![CDATA[<p>El Deep Learning ha sido el tema central de la comunidad del Machine Learning durante los últimos años y 2016 fue la excepción. En este artículo se revisan los avances que más han contribuido al avance del campo y los usos que ha hecho de ellos la comunidad.<br />
<br />
Uno de los mayores retos a los que se han enfrentado históricamente los investigadores ha sido el aprendizaje no supervisado y 2016 ha sido un gran año en este campo principalmente debido a la ingente cantidad de trabajos sobre Modelos Generativos.<br />
<br />
Así mismo, la capacidad para comunicarse naturalmente con máquinas ha sido siempre uno de los objetivos soñados y en 2016 se ha avanzado enormemente en la resolución de varios problemas de Procesamiento de Lenguaje Natural (NLP) cruciales para alcanzar este objetivo.</p><p><strong>etiquetas</strong>: deep learning, machine learning, 2016, gans, nlp</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2719097" rel="nofollow">noticia original</a> (tryolabs.com)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2719097</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2683019</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>84</meneame:clicks>
		<meneame:votes>5</meneame:votes>
		<meneame:negatives>2</meneame:negatives>
		<meneame:karma>-4</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/chuleta-casi-todas-arquitecturas-redes-neuronales?utm_source=meneame_rss</meneame:url>
		<title>Una &#34;chuleta&#34; con (casi) todas las arquitecturas de redes neuronales</title>
		<link>https://www.meneame.net/m/DataScience/chuleta-casi-todas-arquitecturas-redes-neuronales</link>
		<comments>https://www.meneame.net/m/DataScience/chuleta-casi-todas-arquitecturas-redes-neuronales</comments>
		<pubDate>Mon, 10 Oct 2016 20:16:49 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[redes neuronales]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[cheat sheet]]></category>
		<guid>https://www.meneame.net/m/DataScience/chuleta-casi-todas-arquitecturas-redes-neuronales</guid>
		<description><![CDATA[<p>Es difícil realizar un seguimiento de todas las nuevas arquitecturas de redes neuronales que están surgiendo. Conocer sus abreviaturas (DCIGN, BiLSTM, DCGAN, anyone?) puede ser un poco agobiante al principio. Así que Fjodor Van Veen decicidió crear esta es &quot;chuleta&quot; que contiene muchas de estas arquitecturas y una breve descripción de las mismas.</p><p><strong>etiquetas</strong>: redes neuronales, deep learning, cheat sheet</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2683019" rel="nofollow">noticia original</a> (www.asimovinstitute.org)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2683019</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2672784</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>38</meneame:clicks>
		<meneame:votes>2</meneame:votes>
		<meneame:negatives>1</meneame:negatives>
		<meneame:karma>13</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/arboles-decision-sobrevivirias-catastrofe?utm_source=meneame_rss</meneame:url>
		<title>Árboles de decisión: ¿Sobrevivirías a una catástrofe? [eng]</title>
		<link>https://www.meneame.net/m/DataScience/arboles-decision-sobrevivirias-catastrofe</link>
		<comments>https://www.meneame.net/m/DataScience/arboles-decision-sobrevivirias-catastrofe</comments>
		<pubDate>Fri, 16 Sep 2016 12:58:38 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[árboles de decisión]]></category>
		<category><![CDATA[decision trees]]></category>
		<category><![CDATA[random forest]]></category>
		<category><![CDATA[titanic]]></category>
		<guid>https://www.meneame.net/m/DataScience/arboles-decision-sobrevivirias-catastrofe</guid>
		<description><![CDATA[<p>Un árbol de decisión te encamina hacia una predicción a través de una serie de preguntas sobre si un elemento pertenece o no a un determinado grupo. Dese la primera pregunta, llamada &quot;nodo naíz&quot;, te mueves por las ramas en función de los grupos a los que pertenezca el elemento hasta que alcanzas la predicción, un &quot;nodo hoja&quot;.<br />
<br />
Pero empezar con la pregunta binaria que mejor divida los datos puede no llevarte a las predicciones más acertadas. A veces, divisiones menos efectivas pueden llevarte a mejores predicciones.</p><p><strong>etiquetas</strong>: árboles de decisión, decision trees, random forest, titanic</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2672784" rel="nofollow">noticia original</a> (algobeans.com)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2672784</wfw:commentRss>	</item>

	<item>
		<meneame:link_id>2670249</meneame:link_id>
		<meneame:sub>DataScience</meneame:sub>
		<meneame:status>queued</meneame:status>
		<meneame:user>--23457--</meneame:user>
		<meneame:clicks>38</meneame:clicks>
		<meneame:votes>2</meneame:votes>
		<meneame:negatives>1</meneame:negatives>
		<meneame:karma>12</meneame:karma>
		<meneame:comments>0</meneame:comments>
		<meneame:url>https://www.meneame.net/m/DataScience/breve-historia-ciencia-datos-eng?utm_source=meneame_rss</meneame:url>
		<title>Breve historia de la ciencia de datos [eng]</title>
		<link>https://www.meneame.net/m/DataScience/breve-historia-ciencia-datos-eng</link>
		<comments>https://www.meneame.net/m/DataScience/breve-historia-ciencia-datos-eng</comments>
		<pubDate>Sun, 11 Sep 2016 05:05:15 +0000</pubDate>
		<dc:creator>--23457--</dc:creator>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[data science]]></category>
		<category><![CDATA[historia]]></category>
		<category><![CDATA[big data]]></category>
		<guid>https://www.meneame.net/m/DataScience/breve-historia-ciencia-datos-eng</guid>
		<description><![CDATA[<p>El término “Data Science” ha surgido recientemente para designar específicamente una nueva profesión que se espera que interprete los enormes repositorios de big data. Pero la interpretación de datos tiene una larga historia y ha sido tratada por científicos, estadísticos, bibliotecarios, informáticos y otros durante años. La siguiente línea temporal traza la evolución del término “Data Science” y su uso, intentos de definirlo y términos relacionados.</p><p><strong>etiquetas</strong>: data science, historia, big data</p><p>&#187;&nbsp;<a href="http://www.meneame.net/m/DataScience/go?id=2670249" rel="nofollow">noticia original</a> (whatsthebigdata.com)</p>]]></description>
		<wfw:commentRss>http://www.meneame.net/m/DataScience/comments_rss?id=2670249</wfw:commentRss>	</item>

</channel>
</rss>
