Hace 8 años | Por --298049-- a technologyreview.com
Publicado hace 8 años por --298049-- a technologyreview.com

La empresa Google, en colaboración con la Universidad de Aachen, ha presentado una nueva herramienta basada en una red neuronal autodidacta. La nueva herramienta llamada PlaNet es capaz de "mirar" una imagen y descubrir en qué parte del mundo ha sido tomada. El robot tiene en cuenta las mismas cosas que los humanos cuando tratamos de adivinar el lugar donde se tomó una imagen y se fija en los carteles, tipo de conectores eléctricos, sentido de circulación de los vehículos, monumentos, tipo de comida, vestimenta o arquitectura entre otras.

Comentarios

Gol_en_Contra

Cotillas.

pablicius

El robot tiene en cuenta las mismas cosas que los humanos cuando tratamos de adivinar el lugar donde se tomó una imagen y se fija en los carteles, tipo de conectores eléctricos, sentido de circulación de los vehículos, monumentos, tipo de comida, vestimenta o arquitectura entre otras.

Vamos, que basta una imagen invertida horizontalmente, tipo espejo, para que el robot se vuelva gilipollas intentando cuadrar información contradictoria.

ccguy

#4 Me pregunto si no se habrá dado cuenta en Google.

D

PDF con la presentación - http://arxiv.org/pdf/1602.05314v1.pdf

D

Me voy a hacer una foto de la chorra y a ver si averigua donde me la he hecho.

D

Universidad de Aquisgrán

D

Un paso más para la dominación mundial de Google. tinfoil