Publicado hace 9 años por Spain_is_different a experiensense.com

Nuestros ojos viven sometidos a las ilusiones ópticas. Pueden percibir una misma realidad de diversas maneras en diferentes ocasiones, ver cuadrados donde hay triángulos e incluso sombras donde no existen. Y es que la luz, su intensidad, el brillo, el color o el movimiento tienen gran poder sobre el sentido de la vista y sobre nuestro cerebro. Pero, ¿qué pasa con los ordenadores? Los ordenadores no tienen un cerebro como el humano. El suyo lo definimos y entendemos como (casi) perfecto, aunque aún le queda mucho para llegar a ser tan complejo..

Comentarios

forms

#3 si, como el OCR

Si se programa para reconocer una M por un humano, cómo va a saber un ordenador si es una M o una M generada por ilusión óptica si el mismo humano que ha programado la lógica no lo puede saber

D

#3 sabia que algún tonto iba a decir lo del algoritmo, encima lo juzga sin saber como es como si tu fueras un experto en hacer algoritmos de ese tipo. No me extraña que tengamos la fama de enteraos los informáticos por gente como tu.

D

#14 claro que es cierto pero es una perogrullada. Los que sabemos del tema no necesitamos la aclaración y los que no están muy versados les da igual que sea el algoritmo, ven el ordenador como algo único e indivisible y diciéndoles que es el ordenador el que se equivoca lo entienden mejor que si les dices noseque de un algoritmo que ni sabrán lo que es.

Por eso digo que la única finalidad de la aclaración de #3 es hacerse el guay y demostrar lo repelente que es.

maturano

#14 Esto a mi me sonó a que pronto tendremos en el canal discovery programas tipo "ordenadores en su estado salvaje"

D

#1 Por favor, a ver si lo encuentras si.

D

Este será el año de las ilusiones en el escritorio [Linux]

D

El ordenador hará lo que tenga que hacer según esté programado, estos artículos de "los ordenadores son listos/tontos" ponen de relevancia la ignorancia de la gente y nos quitan valor a los que nos dedicamos al desarrollo.

j

Jo, qué artículo más flojo, con lo que mola el paper original

La idea del paper es la siguiente:
Tenemos un algoritmo que reconoce imágenes. Un algoritmo reconocedor de imágenes básicamente tiene una base de datos con las imágenes que conoce y tiene unos datos calculados de cada una de ellas las "caracterizan". Llamémoslos la "huella" de cada imagen. Cuando le metes una imagen nueva, calcula la huella, y mira a ver si es parecida a una que tenga en la base de datos. Qué datos calculamos y cómo definimos "parecido" es lo que cambia de unos algoritmos a otros, al final.

Ahora, la pregunta es: ¿es posible tener una imagen que genere la misma huella que otra (y por tanto el reconocedor crea que son iguales) que sea lo bastante diferente como para que a una persona no le parezcan iguales en absoluto?

La respuesta definitivamente es que sí. Lo cual era de esperar, realmente...

Lo interesante es cómo lo han demostrado. Lo que han hecho ha sido coger imágenes que reconoce la implementación del algoritmo que tienen, e ir deformándolas poco a poco de forma que el algoritmo las siga reconociendo. Como el único criterio es que las siga reconociendo el ordenador, tras un rato lo que se consigue son eso: imágenes transformadas que el ordenador reconoce pero que para una persona no tienen nada de reconocibles... véase en el paper arriba a la derecha: http://arxiv.org/pdf/1412.1897v2.pdf.

Básicamente el paper de lo que habla es de eso, de cómo han ido transformando las imágens y tal (han usado Algoritmos Genéticos, pero la gracia está en cómo han codificados las imágenes y las mutaciones y cruzamientos).

D

#19 muchas gracias por esa informacion que aclara absolutamente el sentido de un estudio que en este articulo parecia una coña marinera de la pelicula Top Secret.

sotanez

A un algoritmo estadístico con margen de error conocido le pasas dos fotos muy parecidas y las confunde... vivir para ver, sin duda.

D

En una de las pruebas el equipo puso a prueba a los ordenadores haciendo que “observaran” ciertas imágenes que podrían confundir al ser humano. Descubrieron que cuando las máquinas intentaban reproducirlas, creaban imágenes extrañas, abstractas, que nada tenían que ver con la original. A pesar de ello, esos ordenadores creían estar acertando en sus dibujos al 99.99 %. Sin embargo, reconocían perfectamente (y como era de esperar) imágenes normales.

Pues sí que se enteró bien de lo que leyó... Pajas mentales del autor aparte, la conclusión del estudio es que es posible crear imágenes irreconocibles para humanos y que redes neuronales entrenadas para detectar clases de objetos las asignen a una de estas clases con un alto nivel de confianza.

Lo esperable en un fecundo todólogo: http://www.experiensense.com/author/whistle/page/2/

l

El artículo está escrito con el culo, en mi opinión, buscando el titular facilón. Es que en el artículo de arxiv ni siquiera habla de ilusiones ópticas... En el de New Scientist que cita lo único que se dice es que la red neural de reconocimiento, cuando se usa para generar imágenes, produce mierdas, pero el algoritmo cree que lo ha clavado.

espinor

#12 Tienes razón. Es una pena que el autor del artículo se haya liado con las "ilusiones ópticas" y no haya puesto las imágenes que de verdad usaron en el estudio. Me da que esas no eran tan espectaculares:

http://www.wired.co.uk/news/archive/2015-01/06/simple-pictures-ai

l

#16 Las imágenes con formas más normales tenían restricciones a la hora de generarse. Esas imágenes, en vez de irse de madre como esas que a primera vista no son más que ruido, muestran patrones que se repiten.

D

una investigación impulsada por Jeff Clune en la Universidad de Wyoming (Estados Unidos) ha descubierto que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos

Pues no es por nada, pero yo ya me imaginaba que las máquinas no ven los objetos como los vemos nosotros, o a esta frase le falta algo, o no es que descubrieran mucho en dicha afirmación.

joffer

A mi todo el artículo me ha sonado a gente que busca trabajo en google.

D

un ordenador no tiene nada que ver con un cerebro.

Boyan_Ivanov_Bonev

¿"los ordenadores"? Hablan de Deep Convolutional Neural Networks, un modelo concreto (de tantos) entrenado sobre un conjunto de datos concreto (de tantos). Si bien el artículo original es interesante porque arroja algo más de luz sobre cómo funcionan las DCNN, el artículo enlazado por Menéame sólo puede crear confusión en los lectores que no sepan de visión artificial.