Hace 8 años | Por zoezoe a terceracultura.net
Publicado hace 8 años por zoezoe a terceracultura.net

(...)Podrán hacer cada vez más cosas cada vez más interesantes, pero la idea de que tengamos que preocuparnos por ellas, o regularlas, o garantizarles derechos civiles, es sencillamente absurda. Las excesivas promesas de los "sistemas expertos" en los 80 acabaron con la financiación formal del tipo de IA que intenta construir humanos virtuales. Muy pocas personas están trabajando hoy en este campo. Pero, según los medios, debemos estar muy asustados. Todos hemos visto demasiadas películas.

Comentarios

guillermoese

Algunos hombres no pueden pensar que las máquinas puedan pensar diferente de y que los hombres.

zoezoe

#2 Del post Hay dos opciones cuando trabajas en la IA. Una es «copiemos el método de los humanos». La otra es: «hagamos un método de computación muy rápido basado en estadísticas». Como ejemplo, los primeros programas de ajedrez intentaban superar con computación a aquellos contra los que jugaban. Pero los jugadores humanos tienen estrategias, y anticiparse al razonamiento del oponente también es parte del juego del ajedrez. Cuando la estrategia de la computación competitiva no funcionó, la gente de la IA empezó a ver qué hacían los jugadores expertos y empezaron a imitarlos. La estrategia de la computación competitiva está ahora más de moda.

s

#3 me parece que simplemente copiar la idea de razonamientos y de intuición y ambas son humanas pero falibles y se usan de forma coordinada no contrapuesta

s

perdón por la brasa de introducción a la idea pero tal vez no se me entienda sin ella:



Me parece que más bien se refiere a las emociones o a las motivaciones que hagan que la máquina decida hacer un tipo de cosas no al pensamiento o os razonamientos o procesos para hacer tales cosas sino a aquello que esté integrada en ella para que se dedique (con esas capacidades de razonamiento, cálculo etc) a hacer tales actividades de una determinada forma y dedique esas capacidades por ejemplo a servir en una casa o a analizar compuestos químicos y no a sindicarse o dominar el mundo. Es decir a aquello que motiva y orienta esas capacidades. Esas cosas en nosotros son sensaciones sentidas (hambre, frio etc) pero también emociones y sentimientos (afectos, cariño, odio, curiosidad, etc)


Y pienso que no es que no pensarán en relación a representar un razonamiento como el nuestro (ya lo hacen -buscad por la red y probad fuzzy predicated logic -) de forma simbólica, usar redes semánticas, redes neuronales y obtener la información para razonar de lo aprendido por las redes neuronales que den tablas de verdad con certeza difusa y cosas así al sistema de razonamiento, incluso que seguro que acaban teniendo un equivalente a nuestra intuición pero usando bien computación cuántica con lo que la capacidad será tan superior en las máquinas como ahora lo es en capacidad de cálculo y razonamiento simbólico respecto nosotros. Sino que tendrán otras motivaciones para tomar unas u otras decisiones más allá de los sistemas de chats bots como motivación sino tendencias como afectos y emociones sintéticas o artificiales y otras necesidades además diferentes a los humanos

Dichas emociones serán acorde a la tarea que tengan que hacer las máquinas además no tendrán las mismas necesidades y o dependerán de los humanos o tendrán tendencias. Por ejemplo los nuevos automóviles tesla se van a a negar a estar más lejos de una distancia determinada del punto de carga más cercano según el nivel de la batería y así no quedarse sin batería. Es algo diferente pero un análogo a la sed humana o al hambre que se presenta antes de acabar la reserva.

El problema son las tareas a determinar porque si bien le concedo la razón al articulista que los robots domésticos no se van a sindicar ni revelar porque no van a tener necesidades ni emociones humanas determinadas por las necesidades biológicas sino las que insertemos para su actividad específica y por tanto la harán perfectamente

Entre dichas tareas pueden ser que se hagan artefactos militares con emociones guerreras y destructivas para realizar dichas labores y por tanto todas las potencialidades y capacidades de las I.A. razonamiento simbólico, cálculo, redes neuronales y computación cuántica etc que tengan esté al servicio de esos impulsos programados que en esas máquinas puedan ser peligrosos para nosotros. U otras tareas como manejar la bolsa (de hecho ya se hacen cosas para la bolsa programadas por ex-ingenieros de la NASA y han hecho estragos pero grandes ganancias a sus poseedores)


VAmos a ser nosotros y no es tanto que no piensen como que será diferente el sistema de pensamiento y emociones según a que se destinen o para que se construyan. El problema que veo es sí que es factible contruirlas adrede parea que sean peligrosas y quien tome la decisión de hacer algo así puede tener muy pocas luces pero el principal problema es que unos deciden y otros crean y no siempre las capacidades intelectuales están correctamente repartidas sino que alguien poco capaz intelectualmente decidir que hacen o no personas muy capaces para ser conscientes que no se debería de hacer

zoezoe

Enlace interesante extraido del comentario al post.

http://robertocolom.blogspot.com.es/2011/06/un-test-de-ci-para-watson.html

Caresth

Hemos hecho tantas cosas imposibles en los últimos siglos, que no entiendo como la gente puede dudar. Se ve que nos gusta tenernos por especiales, como si nuestra inteligencia fuese mágica, imposible de copiar. Lo conseguiremos antes o después, igual que crear vida, etc. Los resultados serán maravillosos y terribles, como siempre.

D

Muchos seres humanos tampoco y los queremos igual.

D

Nuestros ojos lo verán

T

Sobreestimas lo que crees que es el "pensamiento humano". No es tan mágico como parece.

cream

Puede que lo hagan en algún momento no tan lejano...