EDICIóN GENERAL
445 meneos
3138 clics
Stephen Hawking y Elon Musk se unen a más de 2.000 firmantes de 23 principios para la Inteligencia Artificial (eng)

Stephen Hawking y Elon Musk se unen a más de 2.000 firmantes de 23 principios para la Inteligencia Artificial (eng)

Los 23 principios abarcan desde la investigación, pasando por la ética y otras consideraciones a largo plazo. Más de 800 científicos dedicados a la Inteligencia Artificial la han firmado, junto con 1.200 de otras disciplinas académicas.

etiquetas: stephen hawking , elon musk , inteligencia artificial
Comentarios destacados:                    
#6 Se está hablando mucho últimamente de la IA, pero nadie explica como funciona una red neuronal. En la etapa en la que están ahora la IA, se están consiguiendo soluciones a problemas concretos. Las redes neuronales actuales no son inteligentes. No son más que unas reglas probabilísticas, tan complejas, que no se entiende a priori como funciona. Pero funciona y realizan los trabajos para las que se han condicionado.

Se les llama Inteligencia Artificial porque se han inspirado en el funcionamiento de nuestro cerebro. Llegará un momento en las que es posible que consigan consciencia propia. Que empiecen a realizar trabajos para los que no se las creó. En este momento todos los principios que se enumeran en el artículo serán papel mojado. En el momento de que una red neuronal tenga la suficiente capacidad y se le nutra de estímulos de forma incontrolada (por ejemplo dejándola entrar en internet, o hablar en un chat) los resultados son impredecibles. No sabremos de lo que son capaces. Ni que tipo de respuestas podran realizar.
La Inteligencia Artificial de Google está aprendiendo a crear otras Inteligencias Artificiales (eng)
www.meneame.net/m/actualidad/inteligencia-artificial-google-esta-apren

DeepMind,la plataforma de Inteligencia Artificial de Google ya puede aprender por sí misma sin intervención humana (eng)
www.meneame.net/m/actualidad/deepmind-plataforma-inteligencia-artifici
#1 Igual un día de estos nos arregla el buscador de MNM
#1 Una vez al mes me logeo solo para decir esto:
Esto no es AI, solo son sistemas expertos
#25 efectivamente, pero es que desde hace un par de años a los sistemas expertos les llaman Machine Learning / Big Data porque es más cool
#45 Si, pero no aprenden una mierda, solo relacionan datos que ya tienen de la forma en que han sido programados
#1 Has puesto dos ejemplos de titulares amarillistas.

El primero ni siquiera muestra artículos, pero vamos, lo que viene ha decir es que un algoritmo especializado hace mejor el trabajo que un humano. Esto es así en millones de aplicaciones, sino no usaríamos los ordenadores.

El segundo habla de un artículo de como hacer planificación con redes neuronales. Hace años que tenemos algoritmos para hacer esas cosas mucho más potentes. Si se puede extraer algo del artículo es que las redes neuronales son maquinas de turing, lo cual ya sabíamos también.
#41 Nosotros somos también máquinas de turing ...
#64 Buff, según @RogerPenrose no, ni de coña. En cualquier caso, me gustaría conocer su opinión sobre la situación actual de la #AI y en qué forma ha cambiado esta su impresión en "La nueva mente del emperador".
#75 El libro lo leí hace ya, buff, muchísimo tiempo. Poco antes de conocer en la universidad el funcionamiento de las redes neuronales. Y lo cierto es que mucha gente ignora el funcionamiento de este tipo de sistemas y creen que la IA está gobernada por algoritmos clásicos. Yo no soy un experto en IA aunque me gusta el tema. Los expertos están divididos, aunque los que llevan adelante las investigaciones más adelantadas como los de Microsoft o Google creen que la IA fuerte puede llegar a…   » ver todo el comentario
#79 Sin duda que se puede, somos la prueba evidente. El caso es que Penrose no cuestionaba la posibilidad, sino que cuestionaba que esa construcción estuviera contenida en una Máquina de Turing. Es decir, que la estructura de la Máquina de Turing, según explicaba en el libro, hacía imposible que diera lugar a soluciones "no computables" como las que genera el intelecto humano.
#80 Entiendo que su idea se apoya en el teorema de incompletitud de Gödel, que viene a decir, aplicado a la IA, que una inteligencia no puede crear una superior ...
Y para mi esto sería cierto en un entorno "cerrado". Un hijo puede ser más inteligente que el padre, de hecho suele ser así. En este caso gracias a experiencias de vida y aprendizaje más enriquecedoras que las de sus padres.
Entonces yo creo que para lograr una IA fuerte hacen falta 3 elementos.

1. Un "hardware"…   » ver todo el comentario
Common Good: Superintelligence should only be developed in the service of widely shared ethical ideals, and for the benefit of all humanity rather than one state or organization.

Si no se ha conseguido fundamentar en esos principios a la propia industria farmaceutica, podemos imaginarnos lo que va a pasar.

:-P
#2 hay algunas mas cachondas aún:
14) Shared Benefit: AI technologies should benefit and empower as many people as possible.
o
18) AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
Aunque sinceramenteme parece que la parte mas importante, con diferencia, es la de "long term Issues"
#2 Yo en todo ese articulado aún no sé de lo que están hablando. Y los que lo han redactado tampoco.

Ese último punto se lleva la palma de lo que estoy diciendo. ¿Qué es superinteligencia? ¿Cuál superinteligencia? Y asume postulados filosóficamente fuertes, como la ética compartida (¿por quién? ¿Por sus desarrolladores? ¿Por la máquina y la humanidad entera?) y la idea misma de humanidad. Además, si con superinteligencia se refiere a una inteligencia más allá de la de cualquier espécimen…   » ver todo el comentario
#58 Supongo que los que están involucrados en el desarrollo de verdaderas IA's y los que ven de cerca el proceso tienen muy presente cómo debieron sentirse algunos de aquellos científicos que trabajaron en el Proyecto Manhattan.

En cualquier caso pretender sujetar éticamente el desarrollo e implementación de cualquier avance técnico es como ponerle puertas al campo. Recuerdo a Zenon, filósofo natural protagonista de "Opus Nigrum", diciendo desde la lejanía de su siglo XVI: "Cuando contemplo a dónde nos llevan nuestras divagaciones, (las de los filósofos naturales), me extraña menos que nos quemen". :-P
Principio 24 (directriz oculta): Cualquier dispositivo o ente gobernado por IA no causará daño a Donald Trump ni a Elon Musk.
#3 Ni a ninguna modelo, a ver si vamos a dejar a Trump sin poder repoblar la tierra.
De Hawking no me fiaría mucho, puede ser un infiltrado.
#4 loooooolazo xD
#4 tal vez solo es un pobre señor cuyo ordenador lo está usando de titere.
Se está hablando mucho últimamente de la IA, pero nadie explica como funciona una red neuronal. En la etapa en la que están ahora la IA, se están consiguiendo soluciones a problemas concretos. Las redes neuronales actuales no son inteligentes. No son más que unas reglas probabilísticas, tan complejas, que no se entiende a priori como funciona. Pero funciona y realizan los trabajos para las que se han condicionado.

Se les llama Inteligencia Artificial porque se han inspirado en el…   » ver todo el comentario
#6 Te puse positivo por el primer párrafo, en el segundo... ya tal.
#9 El segundo párrafo es el interesante, aunque puede que no esté muy bien redactado.
#15 No, creo haberlo entendido, pero disiento. Cómo dices en el primer párrafo, las redes neuronales se hacen con un propósito bastante específico. No son universales, ni creo que lleguen a tener consciencia salvo simulación de ésta. Creo que aún queda un largo camino por recorrer.
#27 ¿Qué diferencia dirías que hay entre la consciencia y la simulación de la misma?
#33 Por una simulación, quiero decir algo como que pase el test de Turing pero no profundice más allá a largo plazo. Por ejemplo, un asistente para comprar billetes por Internet: está genial que sepa del tema y te ayude a escoger el mejor vuelo/hotel, que sea natural interactuar con él. Pero no llega a más, porque no es 100% consciente, no es ese su fin, su fin es ayudar en la compra.

:troll: youtu.be/X7HmltUWXgs
#33 Las simulaciones no son clonaciones, y la réplica, para que exista, además ha de resolver el principio de individuación. Eso suponiendo la perfección de esta, claro, que es una suposición extraordinaria, pues para la perfección se requiere la absoluta determinación, el conocimiento absoluto no solo de las variables físicas sino de las históricas: por ejemplo, la conciencia moral viene determinada por el grupo social, y este por la Historia. Y no, los recuerdos tampoco son lo mismo que las…   » ver todo el comentario
#27 También quedaba un largo camino por recorrer para la vigilancia/manipulación masiva de Gran Hermano o la psicohistoria de Fundación cuando se escribieron, y a día de hoy nos las cuelan hasta la tráquea. No es que la implantación de IAs vaya a ser inmediata, pero conviene empezar a plantearse su ética porque son la inspiración de la tecnología del mañana. Para que no se me malinterprete me explicaré por partes:
Es muy poco probable que se forme una entidad autoconsciente, autónoma y con…   » ver todo el comentario
#42 Al final del día depende en qué se emplee la IA. En sistemas de tiempo real "duro", que es donde puedes cometer errores que causen vidas humanas (e.g. aviones) ni siquiera se usa multi-cores por los problemas de certificación (qué efectos tiene X aplicación sobre Y, etc), como para "ejecutar" una IA :-S Esto lo nombro porque creo que va en línea con los puntos del tratado que has puesto.

Es interesante de leer pero, en mi opinión, creo que es más como un borrador flojo sobre qué debería asegurarse si se emplean estos sistemas, que terminaría derivando en algún estándar que respetar... pero vaya, siempre que veo estas noticias lo veo como postureo.
#27 Los teóricos del tema han definido tres etapas en la evolución de la IA.

1.- ANI (Artificial Narrow Intelligence) Es en la etapa que estamos ahora, en la que se crean pequeñas redes neuronales para resolver problemas concretos. Por ejemplo traductores, reconocimiento de voz, reconocimiento de escritura, coches autónomos, detector de manchas cancerígenas de la piel, maquinas que juegan al ajedrez.

2.- AGI (Artificial General Intelligence) Serian inteligencia artificial de carácter…   » ver todo el comentario
#44 Veo la línea entre AGI y ASI muy difusas. ¿Cómo sabe que ha "resuelto" un problema si nosotros no se lo indicamos? Básicamente le das en mano las posibles acciones y lo entrenas para que sepa hacer lo que nosotros lo decimos qué es correcto o no. Y está bien, he leído algo por ahí sobre una IA para juegos (algo de Google) que imagino que va sobre la línea de algo "general" aunque específico.

Pero de AGI a ASI hay un trecho enorme. Alguien humano tendrá que poner las guías para esa supuesta ASI, por guías me refiero a programación y recursos hardware que no sé si estarán a la altura.

Ojalá me equivoque :-D
#52 Es que la línea entre AGI y ASI es muy difusa y difícil de predecir. Te recomiendo que veas Her, una película en la que cuentan la transición de una AGI a una ASI sin recurrir a argumentos apocalípticos.
#16 ¿por qué una IA querría hacernos daño?. Una IA solo necesita un ordenador y una fuente de electricidad para "vivir". Podemos contaminar el planeta entero, extinguir cientos de especies, eliminar todo rastro de vegetación, hacer el planeta radiactivo, liberar enfermedades y un montón de cosas mas que se te ocurran. Nada de eso le afecta a la IA. Simplemente no nos vería como una amenaza. Podría pensar que somos gilipollas pero amenaza no creo.

#49 las 3 leyes de la robótica de…   » ver todo el comentario
#73 Atención más spoiler el cambio se produce porque la IA decide por su cuenta ampliar sus capacidades con más procesadores y discos. Y eso es algo que nosotros no podemos hacer.
#73 Pues simplemente porque alguien diga que las IA son una amenaza e intenten eliminarlas. Como pasa eso pocas veces en nuestro mundo... Con que un grupo pequeño de personas empiece a atacar a las IA estas a lo mejor no les sienta bien. Y si acabas con el mundo acabas con la electricidad y también acabas con la IA. Hay muchas razones por la que una IA puede no consierar segura su existencia.
Sobre replicarse a servidores, no me refiero a centros de datos. Me refiero a cualquier dispositivo…   » ver todo el comentario
#77 está claro que habrá grupos que pensarán que las IA son malas y montarán manifestaciones y demás. Pero vamos, de ahí a sentarles tan mal como para matar a los humanos creo que va un trecho. Cuando alguien te falta al respeto o te ataca a ti no te da por matarle. Vale, hay gente que si pero no es lo normal. Me da que con las IA sería igual. También considero que habrá mas de una y cada una tendrá su personalidad.
Por otra parte estas comparando la seguridad actual con la que habrá en el…   » ver todo el comentario
#6 Y que sabe Hawking de IA?
#13 Hawking ha destacado por sus teorías en física teórica. Pero es un tio muy listo y posiblemente le guste investigar sobre otros campos. Pero vamos, siempre le puedes mandar una carta y preguntarle que es lo que conoce sobre el tema.
#6 es que precisamente estasnorma s, sobretodo las de "long term Issues", estan para preveer y evitar esas cosas (por ejemplo, no conectando a una IA a internet)
#22 Como van a conectar una IA a internet. Ni que fueras un google cualquiera. :wall:
#38 hablo de una IA que no puedas controlar, no de las IA retrasadas que tenemoa ahora.
#6 Las redes neuronales son a un cerebro (o a una consciencia inteligente) lo que un pistón a un motor de combustión. Son solo una pequeña parte.
Añádele a tu parrafada una mención a los mapas autoorganizativos y las memorias asociativas y ya estaríamos empezando a hablar, pero aún estaremos lejos.

Léete algún libro de Damasio para entender mejor el cerebro humano y te harás una idea de lo lejos que estamos de alcanzar la consciencia propia. ¡Si ni siquiera podemos imitar bien a las abejas!
#6 Esto es adelantarse a los posibles problemas y diferentes funcionalidades. Si realizas un robot con pensamientos propios en principio no tiene ninguna funcionalidad o especialización de algo. Pero resulta que actualmente la robótica va pensada para varias y diferentes funcionalidades. Estas funcionalidades y conociendo el factor humano, es mejor adelantarse a los posibles problemas que pudiera dar. Es por lo que llamo adelantarse a los posibles problemas evitando funcionalidades mal…   » ver todo el comentario
#6 Lo fijo no admite en su misma determinación, por sí mismo, lo variable, hay un salto inconmensurable de la mecánica. La única posibilidad es que cambie a través de otros agentes, i.e. nanorrobots programados por la misma máquina, previamente fija, que alteren su circuitería (adaptación del hardware) y que esta sea a su vez maleable, viscosa hasta cierto punto; y que dichas modificaciones sean coherentes con la estructura físico-química del programa a realizar y del programa previo, para que tampoco haya saltos asimismo inconmensurables.
Yo pienso que la única forma de evitar tener problemas con una IA es dejar de investigar la IA. Da igual lo que firmen. Si de verdad consiguen una IA no podrán ponerla ningún tipo de limitaciones.
#7 Sí, podrán hacer que no tenga laísmo :roll: ;)

Por otro lado, la IA es parte del futuro. Resulta absurdo plantear no desarrollarla, porque es el siguiente pendaño en la automatización de tareas.
#10 Si claro, Otra cosa es lo que pase con el hombre cuando sea totalmente innecesario.
#16 Si hablas de un futuro donde las máquinas decidan cargarse al hombre o utilizarlo de lacayo...para eso los principios de los que habla la noticia ;)
#17 Y yo me refiero que por que una IA va a tener que seguir esos principios. En el momento que es una IA y tenga consciencia de si misma hara lo que considere no las normas que han puesto los que la han creado. Es de ilusos pensar que va a seguir unas normas preimpuestas.
#53 bueno, nosotros las cumplimos , y cuando alguien no lo hace, lo encarcelamos. Y no, no pienso en marar iguales, pienso en matar perros, seres inferiores a los que hemos dado derechos.
#16 O bien dejaremos de existir como especie o bien viviremos enternamente en lo más parecido a un paraiso en la tierra que nos podamos imaginar (posiblemente mejor). No hay término medio.
#7 Con quitarle el clave de la corriente adios IA no?
#67 Siempre que nadie tenga un descuido y de acceso a internet a esa IA. Si consigue conectarse a internet y replicarse a otros servidores ya no tienes forma de desenchufarla.
#69 Es que lo replicarse a otros servidores.... es lo que me chirría.... me suena a pelicula de hackers.
Las IAs ya tienen la lista de los primeros 2000 humanos a sacrificar.
#18 No, esa noticia es de 2015 y corresponde a la firma de esta carta abierta: futureoflife.org/ai-open-letter/
Esta corresponde a 2017, cuando se han desarrollado los 23 principios durante esta conferencia: futureoflife.org/2017/01/17/principled-ai-discussion-asilomar/
#26 Me parece la misma iniciativa, promovida por las mismas instituciones y personas, apoyada por los mismos firmantes pero redactando su documento de 2015 (futureoflife.org/data/documents/research_priorities.pdf) en forma de 23 puntos.
Esto se parece a los "acuerdos de Sokovia de Agentes de Shield / Avengers", que prohiben cualquier desarrollo de inteligencia artificial. Como que los guionistas no tienen idea que es la IA, creen que son instrucciones mágicas al estilo de Harry Potter y entonces se prohiben esos hechizos. Si vieran que la IA es código con IF-ELSE, Ciclos, operaciones matemáticas con funciones trigonometricas... terminan prohibiendo la informática en general y volver a la Edad Media.

No hay forma de…   » ver todo el comentario
#19 em... no se parece en nada a eso. Tu comentario no tiene ni pies ni cabeza. y seguramente sea porque el artículo lo han escrito expertos mundiales en IA, y no guinistas de hollywood
Quien controle la tecnología controlará la inteligencia. Y relacionada: www.meneame.net/story/nueva-inteligencia-artificial-vence-expertos-tac
Este es el mejor artículo que he leído sobre las IA, lo malo es que es un tocho y en inglés, pero merece mucho la pena: waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Una de las cosas que dice es que una IA malvada como las de las películas es muy improbable. Lo que sí podría pasar es una IA mal hecha. Por ejemplo una IA construida para fabricar muelles, se conecta a internet, aprende y ve que la mejor forma de hacer su trabajo es eliminar a los humanos y convertir…   » ver todo el comentario
#30 Ese tocho me gustó mucho, tanto que luego hay que leer la segunda parte: waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Y por culpa de ese tocho, tengo miedo del momento en el que se produzca la singularidad, la súper IA adquiera consciencia de sí misma y ya no haya vuelta atrás. Un escenario posible es que la primera IA en conseguirlo se asegure de ser la única IA en conseguirlo y más nos vale de que sea una IA buena, entendiendo bueno como afín a nuestros intereses.
#30 Por si a alguien le da algo de miedo la longitud del artículo, diré que lo mejor es olvidarse de que es un «tocho» y saltar al precipicio sin mirar abajo. Yo de hecho lo leí tranquilamente y en voz alta todo el tiempo, y al final se me hizo corto.

cc #32
#32, Si llega a producirse, será mala, no por la IA en sí, sino porque el sistema en el que vivimos se basa en el dinero, donde la etica se compra con dinero, tenemos miedo a perder el trabajo cuando sería un alivio que nuestro trabajo fuese testimonial, podríamos dedicarnos a otros menesteres. No es la tecnología sino el sistema político el que afecta a la tecnología, es por tanto al capitalismo y otros sistemas dictatoriales los que debemos temer, porque con el poder actual (no digo ya…   » ver todo el comentario
#30 ese es el mejor articulo de divulgacion sobre IA que se ha escrito nunca. Me alegra verlo cada vez que se habla de IA en meneame. Coincide tambien que es de lo mejorcito que ha escrito el tio (junto con la serie de elon musk, el articulo de la criogenizacion y el de "religion para no religiosos")

Cc #32
#30 Thank you. Gran artículo, muy informativo, argumentado e investigado. +1000
#30 Cojo un muelle y lo tiro por el retrete... :troll:
No, en serio, gracias por el artículo. Muy bueno :-)
Yo di Filosofía y ética en la inteligencia artificial en la Universidad como créditos de libre elección, locos nos llamaban
#31 Locos no sé. Yo mejor os llamaría vividores. Hace pinta de María de libro. :troll:
#34 Lo era, libre eección :-P
Skynet aprueba este envío.
Ya estamos.

Stephen Hawking, Stephen Hawking... el ser que no puede tolerar que haya una inteligencia mayor o una voz robótica más molona que la suya.
> 1) Research Goal: The goal of AI research should be to create not undirected intelligence, but beneficial intelligence.

Aquí ya me han perdido como investigador de IA. Ojalá pudiéramos crear IA con libre albedrio capaz de negarse a hacer algo solo por el hecho de que se lo mandemos.

Parece que tenemos miedo a encontrarnos (o crear) algo más inteligente que nosotros.
#43 la verdad es que no entiendo la motivación de esta gente, dado el grado de "inteligencia" del que ahora se dispone. ni siquiera se comprende la inteligencia natural, así que ....
{0x1f64e} El millor govern serà un cervell electrònic i una munió de sensors escampats arreu.
Faltan los más importantes: las tres leyes de la robótica de Asimov.
Pueden salir algunos demonios de esta caja de pandora ,: las que ya trabajan para los fondos de inversión y de las futuras implementaciones con la orden de preservar y expandir la economia especulativa actual.
Lo mejor y peor de la inteligencia artificial es el nombre que le han puesto... Porque si lo llamasen, qué se yo, meta-modelos iterativos con funciones no-lineales, tendría menos financiación, pero habría menos tontería también...

En cualquier caso, esta lista concreta podría aplicarse en su mayoría no solo a la IA, sino a cualquier tecnología.
comentarios cerrados

menéame