Publicado hace 5 años por zoezoe a vonneumannmachine.wordpress.com

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem. Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote.

Comentarios

Puski

#5 En realidad lo que demuestran todas las situaciones que plantea el artículo es que no existe una única inteligencia artificial perfecta, sino que todo depende de cuáles sean tus prioridades. Si la prioridad es crear un ser autorreplicante que asegure la supervivencia de su estirpe, la inteligencia de tipo estadístico, basada en prototipos, social y emocionalmente mediada, etc. que usa el ser humano medio es cojonuda (si no hacemos que pete el planeta), pero puede interesar diseñar una inteligencia artificial que por ejemplo se rija por una estricta lógica formal, o que sea exquisita con los detalles, o todo lo contrario, de trazo muy grueso e incluso suicida, si con ello alcanza un objetivo concreto. Hasta ahora la forma de superar al ser humano para tareas específicas (como el ajedrez o el Go) ha sido la fuerza bruta, o sea, una gran memoria y rapidez de cálculo con lógica formal, pero la forma de pensar del ser humano solo usa esa lógica desde hace pocos cientos de años y para resolver problemas muy concretos de ingeniería, física, economía, etc. Crear inteligencias que se parezcan en versatilidad a la humana es un reto, pero el futuro no es crear replicantes que se parezcan al ser humano y compitan con él sino desarrollar inteligencias que resuelvan problemas específicos.

g

#27 Sí, leerlo lo he leído todo (aunque reconozco que para el final estaba ya un poco desganado). Lo que pasa es que ese párrafo no me demuestra que el tipo sepa nada de los avances en la IA de los últimos 30 años; eso bien podría referirse a cualquier algoritmo de búsqueda (tipo A* o branch & bound, ambos viejunos ya).

El artículo está muy desfasado porque no dice nada relacionado con los problemas en los que actualmente trabaja la IA. Me ha parecido un poco como cuando veo a gente criticar la teoría de la evolución atacando a Darwin, que yo que sé, puede decir algo interesante, pero en general aporta poco.

...

Acabo de leer en los comentarios del blog que el tipo si parece haber leído algo reciente (y él mismo reconoce que sus citas son viejas) pero me da la impresión de que no ha entendido lo que ha leído. El frame problem es un problema si intentas abordar la realidad de forma analítica, que te explota en la cara. Pero es que eso no se hace desde hace un porrón de años. El autor parece conocer la existencia de redes neuronales, pero no entiendo que piense que les afecta igual. Si fuera así, reconocer un rostro sería inabordable (ya que hay que comprobar todas las posibilidades). O para problemas más parecidos a los de su ejemplo del robot, tienes redes neuronales con memoria a corto plazo (LSTM, de 1997) que pueden actualizar su conocimiento del mundo mientras interactúan con él sin tener que estar haciendo comprobaciones de todo.

Que la AGI no va a pasar mañana, obviamente, pero el frame problem precisamente no creo que sea el mayor problema actual. O lo mismo no le he entendido bien, yo que sé.

g

Un artículo exceptico con la IA cuya referencia más reciente es de 1984. Ajá, muy útil, sí.

Prácticamente en cualquier artículo de DeepMind (por ejemplo) tienes esos problemas que menciona resueltos o abordados de alguna forma. El problema ahora no es diferenciar el grano de la paja, el problema es aprender a hacerlo sin necesitar millones de ejemplos, o aprender cosas nuevas sin olvidar las anteriores.

GroumenHour

#19 ... a ti... no te exterminaré...
(musicota de terminator)

D

#19 Puedes crear una IA que conduzca mejor que un humano, pero no una que después toque la guitarra, haga la cena y arrope a tus hijos.

g

#23 ...a menos que tengas una base de datos con millones de ejemplos de conducir, luego tocar guitarra y luego hacer la cena y arropar niños. Entonces si, tendrías un robot padre mejor que la mayoría de humanos.

D

#24 Pero no todo ello al mismo tiempo.
El tiempo usado, la experiencia,es lo que juega a favor de la capacidad humana por encima de la capacidad de almacenamiento, aprendizaje de IA y computación que tenemos hoy. En el futuro ya veremos.

GroumenHour

#23 Si las puedes crear por separado... entonces entonces estamos hablando de logística, no de imposibilidad.

D

#30 No, hoy es imposible crear una IA que resuelva como un humano todo.

GroumenHour

#31 Te digo... si eres capaz de resolver todos los problemas por separado... “juntar” las soluciones es una cuestión de logística.

De hecho es como he resuelto un problema que se creía imposible... juntando diversas soluciones en una sola... y gracias a Dios que en matemáticas existen las funciones definidas por partes.


La solución es un poco orka... pero existe... y quienes vengan detrás seguro que la simplificarán y la harán más elegante... pero “posible” seguirá siendo.


No creo que hoy en dia exista una IA para todos los problemas que es capaz de resolver un humano...

zoezoe

#19 No sé si has llegado a leer hasta:

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza.

deverdad

#19 Un video que explica bien como intentan afrontar estos problemas en el año 2018 es este:
"From Deep Learning of Disentangled Representations to Higher-level Cognition", un charla de Yoshua Bengio en Microsoft Research.

D

#19 No lo veo excéptico. Es un artículo muy apegado a hechos y ciencia, nada de vendehúmos.
Se trata razonamiento en la IA clásica. Como el problema no está resuelto, dice que no está resuelto.
Que la última referencia sea de tan atrás no cambia nada.
El coche autónomo, que se cita tanto en los comentarios, sigue otra estrategia, las redes neuronales.
#26 con una forma de resolverlos que se pudiera poner en funcionamiento, bastaría.

M

#38 entonces no será IA, sino I Silicon Valley, I Berlin, o alguna cosa parecida...

sofazen

Cuando HAL decidió que eran los humanos los que fastidiaban los objetivos... ¿Fue inteligente que los humanos lo desconectaran?

¿No será que buscamos una inteligencia humana con sus limitaciones epistemológicas y sus conflictos morales?

f

El artículo me parece bastante sensacionalista.

En cualquier problema de búsqueda tienes un árbol infinito de posibilidades. Por ejemplo, al evaluar las jugadas posibles en una partida de ajedrez. Pero ya hace mucho que se diseñaron algoritmos que dan un peso mayor a ciertos caminos que tienen más probabilidad de llevarte rápidamente a la solución (A*), o que descartan caminos que ya sabes que no van a llevarte a una solución mejor (pode alfa-beta), o algoritmos que te resuelven el camino óptimo en un tiempo razonable (dijkstra)... No estamos parados esperando a resolver un problema por fuerza bruta evaluando todas las posibilidades al tun tun.

s

Es que Inteligencia Artificial no me parece lo más correcto. Yo lo llamaría algo así como Aprendizaje Artificial.

C

Pongámonos al nivel del robot: en una habitación, está una actriz hermosa y famosa que está dispuesta a hacer lo que quieras, pero en la misma habitación está tu novia (diferente de la actriz) que es celosa, aparte las paredes están llenas de cámaras que transmiten por streaming a Internet lo que sucede en esa habitación. La pregunta es ¿Te follas a la actriz?

capitan__nemo

#2 La pregunta no es esa, o deriva en otras muchas. Las preguntas son ¿Puedes hacer algo para follartela y que a tu novia no le importe o que siga siendo tu novia?
Sí, puedes hacer muchas cosas, pero ¿Tienes tiempo suficiente para hacerlas?
Desde el punto de la persuasión, debes convencer a tu novia de que follarte a la actriz es una buena idea beneficiosa para ella, para ti, y para la pareja. Incluso si se une podría ser mas positivo.

Desde el punto de cegar las camaras, o hacerles interferencias de forma que no puedan seguir la trama. Drogar a tu novia para que se duerma y no pueda ver nada, y despues ejecutar la acción.

D

#9 Algo no me cuadra..mmm.no sé.

ewok

#9 Te he votado positivo por error, pero bueno, imaginación no te falta, no te lo compenso.

M

siempre exponen teorías como si hubiera una sola manera de resolver los problemas: cada persona los resuelve a su manera, y ya vamos por los 7 mil millones...

GroumenHour

#26 PUM! Millon de puntos!

Jokessoℝ

Va a dejar miles de habitaciones perdidas antes que aprenda.

GroumenHour

Sinceramente... si alguno ya me ha leido, ya piensa que soy gilipollas.

Pero... a los humanos nos pasa lo mismo que al robot... incluso en situaciones muy claras.

Yo “me bloqueo”, y tengo anécdotas muy patéticas al respecto.

Quizás nuestra “autoimagen” como especie es la que ha hecho un gran trabajo, no la evolución.

Le estamos pidiendo a la IA que sea “mejor” que las personas.

T

"Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida."
Bueno eso es ser muy generoso con una mayoría de humanos, solo hay que darse un paseo por Wallapop y ver como hay gente que pone a la venta cosas sin detalles sumamente relevantes, "vendo televisor" (sin dar modelo ni pulgadas ni siquiera la marca bien escrita) "Vendo camiseta" (sin aportar la talla) etc etc... Muchos humanos tienen el conocimiento básico para sobrevivir al día a día sin inmolarse por accidente. R1 los supera.

Ferran

#8 Waymo, de “Google” (en realidad su matriz Alphabet) ya lleva recorridos suficientes kilometros para demostrar que supera la media de la conducción humana en número de accidentes.

Yo ya he visto sus coches por las calles de San Francisco:

D

#15 San Francisco y quizás alguna ciudad de Europa.

Pero jamás podrás sacar esos coches por los países de América Latina, Asia, India, jamás un coche de esos tendrá una oportunidad en esos países donde la conducción es una puta locura.

Ferran

#18 Bueno, como todo, en algunos países tardarán más en llegar.

Nathaniel.Maris

#18 ¿Países donde la conducción es una locura? Estás hablando de Portugal, ¿verdad?

capitan__nemo

Es un problema que no tiene resuelta la supuesta inteligencia no artificial humana.
El petrolero iraní que chocó contra un carguero en China se hunde tras una fuerte explosión/c11#c-11

D

Es algo que tengo clarísimo desde que se puso de moda el coche autónomo.

Jamás podrá funcionar mientras haya una mayoría de coches manejados por humanos. La IA puede ver pero no entiende una mierda de lo que pasa.

D

#7 Permíteme dudarlo.

sauron34_1

Este tipo de articulos y argumentaciones siempre me llevan hacia la misma pregunta: es el cerebro una simple maquina? Un automata jodidamente complejo? Pensadlo. Si concoieramos como funciona el cerebro al 100%, dado uno, podriamos saber ante cierta entrada cual iba a ser la respuesta? Predecir el comportamiento de un humano? Es el libre albedrio una ilusión? Vivimos enjaulados en nuestros cerebros?

r

Los escepticos del ML estan crecidos ultimamente.

D

#33 No he dicho eso. De hecho tardamos unos 6 millones de años.

D

Al autor del artículo le hace falta leer Filosofía de la Cultura, de Mosterin.
Un ser humano no es una máquina capaz de resolver por su capacidad problemas de manera más eficiente que una máquina, sino que almacenamos en dos niveles, genético y cultural, todas las secuencias de ensayo-error-ensayo-acierto de nuestros ancestros desde, como mínimo, 40.000 años ( si tomamos en cuenta la última publicación del equipo de Atapuerca de 2017). Para que una máquina llegase al nivel de improvisación y resolución de un humano bastaría con dejar que aprendiese durante 40.000 años ante todas las situaciones que vive un humano desde el útero hasta su muerte y en toda clase de condiciones y épocas, del paleolítico a la era de la red.
Fácil

GroumenHour

#22 Los humanos no tardamos 40 000 años en socializarnos...algo falla ahi.

NapalMe

Vaya por dios, al final no sale R2D2 como ejemplo de ciencia ficción...

Sueñolúcido

Nuestras facultades cognitivas se desarrollaron en un contexto social y para la supervivencia. De ahí su versatilidad basada en el lenguaje que permite con pocos elementos infinitas posibilidades. Como dicen otros meneantes mås que una única IA para todo tipo de problemas una variedad de ellas para problemas particulares, como por otra parte ya se está intentando.

D

La intuición, desde mi experiencia personal, es un proceso cognitivo que usa un camino que elude la rémora del razonamiento.
Sospecho que lo que denominamos inteligencia, como proceso de toma de decisiones, está lastrado por la necesidad de demostración, y no se me escapa que con ésto que digo me estoy cargando de un plumazo todo lo que la ciencia representa.
Quiero decir que la inteligencia está determinada por la lógica y sus modos, producto humano, cuando quizás la inteligencia como fenómeno universal, no esté restringida al modo antropocentrico en que la consideramos.

D

#1Bueno como especie sí, algunos miembros particulares no tanto jeje.