Hace 7 años | Por --524982-- a futureoflife.org
Publicado hace 7 años por --524982-- a futureoflife.org

Los 23 principios abarcan desde la investigación, pasando por la ética y otras consideraciones a largo plazo. Más de 800 científicos dedicados a la Inteligencia Artificial la han firmado, junto con 1.200 de otras disciplinas académicas.

Comentarios

E

#4 loooooolazo lol

LucasK336

#4 tal vez solo es un pobre señor cuyo ordenador lo está usando de titere.

thepiratecat

#6 Te puse positivo por el primer párrafo, en el segundo... ya tal.

gonas

#9 El segundo párrafo es el interesante, aunque puede que no esté muy bien redactado.

thepiratecat

#15 No, creo haberlo entendido, pero disiento. Cómo dices en el primer párrafo, las redes neuronales se hacen con un propósito bastante específico. No son universales, ni creo que lleguen a tener consciencia salvo simulación de ésta. Creo que aún queda un largo camino por recorrer.

Nick_el_Cadmio

#27 ¿Qué diferencia dirías que hay entre la consciencia y la simulación de la misma?

thepiratecat

#33 Por una simulación, quiero decir algo como que pase el test de Turing pero no profundice más allá a largo plazo. Por ejemplo, un asistente para comprar billetes por Internet: está genial que sepa del tema y te ayude a escoger el mejor vuelo/hotel, que sea natural interactuar con él. Pero no llega a más, porque no es 100% consciente, no es ese su fin, su fin es ayudar en la compra.

Maelstrom

#33 Las simulaciones no son clonaciones, y la réplica, para que exista, además ha de resolver el principio de individuación. Eso suponiendo la perfección de esta, claro, que es una suposición extraordinaria, pues para la perfección se requiere la absoluta determinación, el conocimiento absoluto no solo de las variables físicas sino de las históricas: por ejemplo, la conciencia moral viene determinada por el grupo social, y este por la Historia. Y no, los recuerdos tampoco son lo mismo que las improntas, como tampoco la palabra rojo es el color rojo (el problema de los qualia).

Te lo voy a poner con un ejemplo ilustrativo: un químico puede decir, en su espontaneidad e ingenuidad filosófica, que todo es química; pero uno le puede responder diciendo que bajo qué reglas químicas se unen las palabras que estoy escribiendo y que constituyen una frase, ¿con el de tipo covalente?

D

#27 También quedaba un largo camino por recorrer para la vigilancia/manipulación masiva de Gran Hermano o la psicohistoria de Fundación cuando se escribieron, y a día de hoy nos las cuelan hasta la tráquea. No es que la implantación de IAs vaya a ser inmediata, pero conviene empezar a plantearse su ética porque son la inspiración de la tecnología del mañana. Para que no se me malinterprete me explicaré por partes:
Es muy poco probable que se forme una entidad autoconsciente, autónoma y con voluntad e iniciativa propias, y menos aun que ésta lleve a cabo comportamientos hostiles o que sea necesario regular. Por lo que crear una IA real no creo que esté sobre el papel.
Sin embargo, con la capacidad computacional actual o en desarrollo unida a las insfraestructuras de almacenado y comunicaciones de datos existentes y futuras, es posible crear programas que traten lógica, geométrica y estadísticamente cantidades ingentes de datos y con ellos operar toda clase de máquinas y sensores. Dicho de otra forma, podemos crear máquinas que analicen el entorno e interactúen con él. y en el mayor número de casos compartirán el espacio con nosotros. Estos son los dispositivos que comercial y coloquialmente recibirán el nombre de IA.
Por eso es importante, de cara a este nuevo tipo de máquinas, establecer unas reglas claras y situaciones a evitar. En el "tratado" las más importantes son estas:
6) Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so where applicable and feasible.

7) Failure Transparency: If an AI system causes harm, it should be possible to ascertain why.

8.) Judicial Transparency: Any involvement by an autonomous system in judicial decision-making should provide a satisfactory explanation auditable by a competent human authority.

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.
Aunque yo en la última matizaría y depuraría la cadena de responsabilidades si pudiera estar viciada.

Los demás están más o menos bien pero están escritos sobre papel mojado y me suenan más a pura propaganda que otra cosa. También hay una imagen de rebelión de las máquinas fomentada por el arte y la cultura popular y querrán lavarse la cara. Sin embargo me creo antes un escenario disparatado en que un coche autómata decide que es más eficiente no desgastar los neumáticos que un frenazo para no arrollar un gatito que la aun más disparatada idea de que de repente todos nos vamos a unir para hacer máquinas por el bien de la humanidad.

thepiratecat

#42 Al final del día depende en qué se emplee la IA. En sistemas de tiempo real "duro", que es donde puedes cometer errores que causen vidas humanas (e.g. aviones) ni siquiera se usa multi-cores por los problemas de certificación (qué efectos tiene X aplicación sobre Y, etc), como para "ejecutar" una IA Esto lo nombro porque creo que va en línea con los puntos del tratado que has puesto.

Es interesante de leer pero, en mi opinión, creo que es más como un borrador flojo sobre qué debería asegurarse si se emplean estos sistemas, que terminaría derivando en algún estándar que respetar... pero vaya, siempre que veo estas noticias lo veo como postureo.

thepiratecat

#44 Veo la línea entre AGI y ASI muy difusas. ¿Cómo sabe que ha "resuelto" un problema si nosotros no se lo indicamos? Básicamente le das en mano las posibles acciones y lo entrenas para que sepa hacer lo que nosotros lo decimos qué es correcto o no. Y está bien, he leído algo por ahí sobre una IA para juegos (algo de Google) que imagino que va sobre la línea de algo "general" aunque específico.

Pero de AGI a ASI hay un trecho enorme. Alguien humano tendrá que poner las guías para esa supuesta ASI, por guías me refiero a programación y recursos hardware que no sé si estarán a la altura.

Ojalá me equivoque

gonas

#52 Es que la línea entre AGI y ASI es muy difusa y difícil de predecir. Te recomiendo que veas Her, una película en la que cuentan la transición de una AGI a una ASI sin recurrir a argumentos apocalípticos.

g

#16 ¿por qué una IA querría hacernos daño?. Una IA solo necesita un ordenador y una fuente de electricidad para "vivir". Podemos contaminar el planeta entero, extinguir cientos de especies, eliminar todo rastro de vegetación, hacer el planeta radiactivo, liberar enfermedades y un montón de cosas mas que se te ocurran. Nada de eso le afecta a la IA. Simplemente no nos vería como una amenaza. Podría pensar que somos gilipollas pero amenaza no creo.

#49 las 3 leyes de la robótica de Asimov derivan en una "ley 0:" que no puede ser muy buena para nosotros. Un robot no puede dejar que un humano sufra daño pero los humanos nos dañamos entre nosotros día si día también. La única forma de evitar eso es controlar la vida de todos los humanos. Se convertirían en dictadores que controlarían todos los aspectos de nuestra vida. No te dejarían por ejemplo comerte una pizza ya que no es sana.

#69 ¿por qué una IA podría replicarse en otros servidores? Es de suponer que esos servidores tendrán protecciones contra accesos no autorizados como pasa hoy. Obviamente con el tiempo se harán mas seguros incluso se podía tener una IA como segurata de tu ordenador.

#72 el final de Her es lo que yo pienso que podría pasar con facilidad. Atención spoiler si conseguimos crear una inteligencia a ese nivel no seremos nada para ella. No podremos seguir su ritmo y posiblemente se aburra conversando con nosotros. Al final encontrará otra IA con la que si pueda conversas a su ritmo. En un momento de la película comenta que estaba hablando con otro SO sobre 10 cosas a la vez. Esto es imposible para nosotros. Un probabilidad es que se aburran y pasen de nosotros.

gonas

#73 Atención más spoiler el cambio se produce porque la IA decide por su cuenta ampliar sus capacidades con más procesadores y discos. Y eso es algo que nosotros no podemos hacer.

K

#73 Pues simplemente porque alguien diga que las IA son una amenaza e intenten eliminarlas. Como pasa eso pocas veces en nuestro mundo... Con que un grupo pequeño de personas empiece a atacar a las IA estas a lo mejor no les sienta bien. Y si acabas con el mundo acabas con la electricidad y también acabas con la IA. Hay muchas razones por la que una IA puede no consierar segura su existencia.
Sobre replicarse a servidores, no me refiero a centros de datos. Me refiero a cualquier dispositivo conectado a internet, desde tu tv, tu movil, tu lavadora, tu nevera, tu coche,etc..
Ahora mismo ya se están haciendo ataques dos con dispositivos tontos tipo smartv, lavadoras,etc.. Lo del internet de las cosas. O simplemente usando routers los cuales tienen miles de fallos de seguridad pero no se parchean.
Y lo de confiar en una IA para que te proteja de otra IA es como poner a cuidar al zorro de las gallinas.

g

#77 está claro que habrá grupos que pensarán que las IA son malas y montarán manifestaciones y demás. Pero vamos, de ahí a sentarles tan mal como para matar a los humanos creo que va un trecho. Cuando alguien te falta al respeto o te ataca a ti no te da por matarle. Vale, hay gente que si pero no es lo normal. Me da que con las IA sería igual. También considero que habrá mas de una y cada una tendrá su personalidad.
Por otra parte estas comparando la seguridad actual con la que habrá en el futuro. Es lógico pensar que cada vez habrá mas seguridad. Tampoco puedes comparar un DDoS a ejecutar una IA. Como mucho podría usar el almacenamiento para hacerse un backup pero el propietario de dicho dispositivo se daría cuenta. Incluso los administradores de sistemas se darían cuenta si una IA se cuela en sus sistema porque el consumo de recursos se dispararía. Si, ya se que en el futuro los ordenadores también serán mas potentes y tendrán mucho mas almacenamiento pero na IA será un software que seguro no gastará poco.
¿Porque no puedes confiar en una IA para defender tus sistemas? A dí de hoy confiamos en personas para proteger ciertos elementos / instalaciones. Sería lo mismo. Alguna IA se convertiría en criminal y otra IA debería pararle los pies.
Creo que la idea de que una IA se puede replicar por todos los dispositivos del mundo es una idea que vende mucho para películas pero en la realidad no es viable. La gente vería que algo no va bien.

t

#6 Y que sabe Hawking de IA?

gonas

#13 Hawking ha destacado por sus teorías en física teórica. Pero es un tio muy listo y posiblemente le guste investigar sobre otros campos. Pero vamos, siempre le puedes mandar una carta y preguntarle que es lo que conoce sobre el tema.

aironman

#13 nada.

Varlak_

#6 es que precisamente estasnorma s, sobretodo las de "long term Issues", estan para preveer y evitar esas cosas (por ejemplo, no conectando a una IA a internet)

gonas

#22 Como van a conectar una IA a internet. Ni que fueras un google cualquiera. wall

Varlak_

#38 hablo de una IA que no puedas controlar, no de las IA retrasadas que tenemoa ahora.

D

#6 Las redes neuronales son a un cerebro (o a una consciencia inteligente) lo que un pistón a un motor de combustión. Son solo una pequeña parte.
Añádele a tu parrafada una mención a los mapas autoorganizativos y las memorias asociativas y ya estaríamos empezando a hablar, pero aún estaremos lejos.

Léete algún libro de Damasio para entender mejor el cerebro humano y te harás una idea de lo lejos que estamos de alcanzar la consciencia propia. ¡Si ni siquiera podemos imitar bien a las abejas!

j

#6 Esto es adelantarse a los posibles problemas y diferentes funcionalidades. Si realizas un robot con pensamientos propios en principio no tiene ninguna funcionalidad o especialización de algo. Pero resulta que actualmente la robótica va pensada para varias y diferentes funcionalidades. Estas funcionalidades y conociendo el factor humano, es mejor adelantarse a los posibles problemas que pudiera dar. Es por lo que llamo adelantarse a los posibles problemas evitando funcionalidades mal adaptadas y transmitidas por nosotros. Creo que antes de fabricar en serie o realizar diferentes intentos o experimentos sobre la llamada Inteligencia artificial, es mejor crear unos principios que impida la extravagancia de las personas (a veces) en su fabricación y determinación, evitando los problemas resultantes (que seguramente pueda haberlos, en muchos y diferentes aspectos de la vida).

Maelstrom

#6 Lo fijo no admite en su misma determinación, por sí mismo, lo variable, hay un salto inconmensurable de la mecánica. La única posibilidad es que cambie a través de otros agentes, i.e. nanorrobots programados por la misma máquina, previamente fija, que alteren su circuitería (adaptación del hardware) y que esta sea a su vez maleable, viscosa hasta cierto punto; y que dichas modificaciones sean coherentes con la estructura físico-química del programa a realizar y del programa previo, para que tampoco haya saltos asimismo inconmensurables.

katinka_aäå

#30 Ese tocho me gustó mucho, tanto que luego hay que leer la segunda parte: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Y por culpa de ese tocho, tengo miedo del momento en el que se produzca la singularidad, la súper IA adquiera consciencia de sí misma y ya no haya vuelta atrás. Un escenario posible es que la primera IA en conseguirlo se asegure de ser la única IA en conseguirlo y más nos vale de que sea una IA buena, entendiendo bueno como afín a nuestros intereses.

Nick_el_Cadmio

#30 Por si a alguien le da algo de miedo la longitud del artículo, diré que lo mejor es olvidarse de que es un «tocho» y saltar al precipicio sin mirar abajo. Yo de hecho lo leí tranquilamente y en voz alta todo el tiempo, y al final se me hizo corto.

cc #32

D

#32, Si llega a producirse, será mala, no por la IA en sí, sino porque el sistema en el que vivimos se basa en el dinero, donde la etica se compra con dinero, tenemos miedo a perder el trabajo cuando sería un alivio que nuestro trabajo fuese testimonial, podríamos dedicarnos a otros menesteres. No es la tecnología sino el sistema político el que afecta a la tecnología, es por tanto al capitalismo y otros sistemas dictatoriales los que debemos temer, porque con el poder actual (no digo ya futuro) de la tecnología podemos llegar a una distopía muy chunga. No temo por tanto a la IA, temo al sistema que es el que puede desplazarme socialmente.

Si llegase a tener conciencia, creo que la IA sería peligrosa para el ser humano, porque como todo ser vivo, aprende del ambiente, en un ambiente individualista y donde no hay etica, ....

Varlak_

#30 ese es el mejor articulo de divulgacion sobre IA que se ha escrito nunca. Me alegra verlo cada vez que se habla de IA en meneame. Coincide tambien que es de lo mejorcito que ha escrito el tio (junto con la serie de elon musk, el articulo de la criogenizacion y el de "religion para no religiosos")

Cc #32

A

#30 Thank you. Gran artículo, muy informativo, argumentado e investigado. +1000

D

#30 Cojo un muelle y lo tiro por el retrete...
No, en serio, gracias por el artículo. Muy bueno

Varlak_

#2 hay algunas mas cachondas aún:
14) Shared Benefit: AI technologies should benefit and empower as many people as possible.
o
18) AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
Aunque sinceramenteme parece que la parte mas importante, con diferencia, es la de "long term Issues"

Maelstrom

#2 Yo en todo ese articulado aún no sé de lo que están hablando. Y los que lo han redactado tampoco.

Ese último punto se lleva la palma de lo que estoy diciendo. ¿Qué es superinteligencia? ¿Cuál superinteligencia? Y asume postulados filosóficamente fuertes, como la ética compartida (¿por quién? ¿Por sus desarrolladores? ¿Por la máquina y la humanidad entera?) y la idea misma de humanidad. Además, si con superinteligencia se refiere a una inteligencia más allá de la de cualquier espécimen humano, asumir un ideal ético compartido con ella es un desideratum, y si se refiere a otra cosa, por ejemplo a una inteligencia artificial cuasiequiparable a la orgánica humana (y con un desarrollo ético menor o sin siquiera tenerlo), entonces se trata de un problema meramente político, pertinente exclusivamente a seres humanos, análogo al que se tiene en el uso de herramientas cualesquiera. Pero de esta última apreciación resultaría que los puntos anteriores son redundantes y superfluos: las máquinas no tendrían ni podrían tener mayor reconocimiento que eso, máquinas, herramientas. Como ocurre ahora con la técnica más mundana.

o

#58 Supongo que los que están involucrados en el desarrollo de verdaderas IA's y los que ven de cerca el proceso tienen muy presente cómo debieron sentirse algunos de aquellos científicos que trabajaron en el Proyecto Manhattan.

En cualquier caso pretender sujetar éticamente el desarrollo e implementación de cualquier avance técnico es como ponerle puertas al campo. Recuerdo a Zenon, filósofo natural protagonista de "Opus Nigrum", diciendo desde la lejanía de su siglo XVI: "Cuando contemplo a dónde nos llevan nuestras divagaciones, (las de los filósofos naturales), me extraña menos que nos quemen".

ChukNorris

Las IAs ya tienen la lista de los primeros 2000 humanos a sacrificar.

b

#25 efectivamente, pero es que desde hace un par de años a los sistemas expertos les llaman Machine Learning / Big Data porque es más cool

Acuantavese

#45 Si, pero no aprenden una mierda, solo relacionan datos que ya tienen de la forma en que han sido programados

jorgemf

#1 Has puesto dos ejemplos de titulares amarillistas.

El primero ni siquiera muestra artículos, pero vamos, lo que viene ha decir es que un algoritmo especializado hace mejor el trabajo que un humano. Esto es así en millones de aplicaciones, sino no usaríamos los ordenadores.

El segundo habla de un artículo de como hacer planificación con redes neuronales. Hace años que tenemos algoritmos para hacer esas cosas mucho más potentes. Si se puede extraer algo del artículo es que las redes neuronales son maquinas de turing, lo cual ya sabíamos también.

luiggi

#41 Nosotros somos también máquinas de turing ...

D

#64 Buff, según@RogerPenrose no, ni de coña. En cualquier caso, me gustaría conocer su opinión sobre la situación actual de la #AI y en qué forma ha cambiado esta su impresión en "La nueva mente del emperador".

luiggi

#75 El libro lo leí hace ya, buff, muchísimo tiempo. Poco antes de conocer en la universidad el funcionamiento de las redes neuronales. Y lo cierto es que mucha gente ignora el funcionamiento de este tipo de sistemas y creen que la IA está gobernada por algoritmos clásicos. Yo no soy un experto en IA aunque me gusta el tema. Los expertos están divididos, aunque los que llevan adelante las investigaciones más adelantadas como los de Microsoft o Google creen que la IA fuerte puede llegar a darse. Y en mi opinión si es posible, somos máquinas. Evidentemente complejas, pero si simplemente seleccionando al gen azaroso sobreviviente durante cien mil generaciones se ha logrado pasar de inteligencia primate a humana, no veo porque no puede lograrse algo similar ... es presuntuoso pensar que no.

D

#79 Sin duda que se puede, somos la prueba evidente. El caso es que Penrose no cuestionaba la posibilidad, sino que cuestionaba que esa construcción estuviera contenida en una Máquina de Turing. Es decir, que la estructura de la Máquina de Turing, según explicaba en el libro, hacía imposible que diera lugar a soluciones "no computables" como las que genera el intelecto humano.

luiggi

#80 Entiendo que su idea se apoya en el teorema de incompletitud de Gödel, que viene a decir, aplicado a la IA, que una inteligencia no puede crear una superior ...
Y para mi esto sería cierto en un entorno "cerrado". Un hijo puede ser más inteligente que el padre, de hecho suele ser así. En este caso gracias a experiencias de vida y aprendizaje más enriquecedoras que las de sus padres.
Entonces yo creo que para lograr una IA fuerte hacen falta 3 elementos.

1. Un "hardware" suficientemente potente. El cerebro humano es aún mucho más potente que cualquier superordenador actual. Esto se acrecienta por los "atajos" que el cerebro ha desarrollado durante su evolución para ahorrar energía y rebajar recursos (https://psicologiamotivacional.com/como-funciona-nuestra-mentelos-heuristicos-o-atajos-mentales/). Pero no parece que, al ritmo de evolución tecnologíca actual, vayamos a tardar mucho en romper esa barrera. Creo que la principal ventaja del humano sobre la IA está en el "software". Señalaré que hay quien piensa que es imposible lograrlo con arquitectura de computación clásica y que es necesario incorporar lo cuántico. Muy bien, tan facil como incorporar ambas cuando la computación cuántica esté madura.

2. Con algoritmos clásicos donde el programador establece el comportamiento del sistema para cada diferente circunstancia, efectivamente un sistema nunca podrá superar al creador. Pero evidentemente la IA Fuerte no vendrá de estos, sino que el programador se limitará a crear un entorno en el que el propio sistema pueda mejorar emulando a la propia naturaleza (evolución). De esta forma el sistema puede ser capaz de encontrar "atajos" similares a como lo hace un cerebro humano y superar las limitaciones de su creador. Para ello es necesario que obtenga información del exterior y más allá de la que conoce el programador.

3. Interacción con el entorno. Una inteligencia fuerte no puede prosperar simplemente proporcionando información general, esperando una respuesta y corrigiendo los errores. Para un sistema experto puede servir, pero para una inteligencia superior es vital interactuar con el entorno, igual que lo hace un niño. El problema es que el humano ha tenido esta interaccion durante millones de años de evolución. Con lo que estoy convencido que para el logro no será suficiente criar a una inteligencia artificial como un niño pues esta carecerá de una estructura cerebral válida para entender y actuar en un medio real. Yo creo que la solución viene en la simulación: simulando un entorno virtual y dejando que el sistema evolucione durante "millones de vidas". Conviene que la simulación fomente la cooperación o tendremos un sistema monstruo agresivo que solo buscará sobrevivir matando. Una vez tengamos esa "estructura cerebral" se llevaría a un robot capaz de interactuar con el mundo físico y que aprendería como un niño

La ventaja de una IA es que los conocimientos son acumulativos entre generaciones y que una vez aprendido jamás se olvida. Si en "Boston Dynamics" hacen un gran logro en los movimientos, en Google en el reconocimiento de objetos y en Microsoft en reconocimiento de y comprensión de voz ... todo se puede sumar, y siempre irá a más ...

a

Principio 24 (directriz oculta): Cualquier dispositivo o ente gobernado por IA no causará daño a Donald Trump ni a Elon Musk.

rafaLin

#3 Ni a ninguna modelo, a ver si vamos a dejar a Trump sin poder repoblar la tierra.

D

Ya estamos.

Stephen Hawking, Stephen Hawking... el ser que no puede tolerar que haya una inteligencia mayor o una voz robótica más molona que la suya.

Varlak_

#16 O bien dejaremos de existir como especie o bien viviremos enternamente en lo más parecido a un paraiso en la tierra que nos podamos imaginar (posiblemente mejor). No hay término medio.

g

#16 Si hablas de un futuro donde las máquinas decidan cargarse al hombre o utilizarlo de lacayo...para eso los principios de los que habla la noticia

K

#17 Y yo me refiero que por que una IA va a tener que seguir esos principios. En el momento que es una IA y tenga consciencia de si misma hara lo que considere no las normas que han puesto los que la han creado. Es de ilusos pensar que va a seguir unas normas preimpuestas.

g

#53 bueno, nosotros las cumplimos , y cuando alguien no lo hace, lo encarcelamos. Y no, no pienso en marar iguales, pienso en matar perros, seres inferiores a los que hemos dado derechos.

C

Esto se parece a los "acuerdos de Sokovia de Agentes de Shield / Avengers", que prohiben cualquier desarrollo de inteligencia artificial. Como que los guionistas no tienen idea que es la IA, creen que son instrucciones mágicas al estilo de Harry Potter y entonces se prohiben esos hechizos. Si vieran que la IA es código con IF-ELSE, Ciclos, operaciones matemáticas con funciones trigonometricas... terminan prohibiendo la informática en general y volver a la Edad Media.

No hay forma de detener la IA, tan simple como cambiar el nombre y listo. ¿No te gusta "redes neuronales" porque suena peligroso? De acuerdo, ahora hago grafos y vario los coeficientes de multiplicación de entrada para obtener una salida esperada.

Estos pensadores quieren evitar la "Age of Ultron", pero demasiado tarde, ahora estamos en la "Age of UlTrump"

Varlak_

#19 em... no se parece en nada a eso. Tu comentario no tiene ni pies ni cabeza. y seguramente sea porque el artículo lo han escrito expertos mundiales en IA, y no guinistas de hollywood

D

#18 No, esa noticia es de 2015 y corresponde a la firma de esta carta abierta: https://futureoflife.org/ai-open-letter/
Esta corresponde a 2017, cuando se han desarrollado los 23 principios durante esta conferencia: https://futureoflife.org/2017/01/17/principled-ai-discussion-asilomar/

Umadbro

#26 Me parece la misma iniciativa, promovida por las mismas instituciones y personas, apoyada por los mismos firmantes pero redactando su documento de 2015 (https://futureoflife.org/data/documents/research_priorities.pdf) en forma de 23 puntos.

D

Faltan los más importantes: las tres leyes de la robótica de Asimov.

D

Skynet aprueba este envío.

K

Yo pienso que la única forma de evitar tener problemas con una IA es dejar de investigar la IA. Da igual lo que firmen. Si de verdad consiguen una IA no podrán ponerla ningún tipo de limitaciones.

K

#10 Si claro, Otra cosa es lo que pase con el hombre cuando sea totalmente innecesario.

D

#7 Con quitarle el clave de la corriente adios IA no?

K

#67 Siempre que nadie tenga un descuido y de acceso a internet a esa IA. Si consigue conectarse a internet y replicarse a otros servidores ya no tienes forma de desenchufarla.

D

#69 Es que lo replicarse a otros servidores.... es lo que me chirría.... me suena a pelicula de hackers.

dineromuerte

Pueden salir algunos demonios de esta caja de pandora ,: las que ya trabajan para los fondos de inversión y de las futuras implementaciones con la orden de preservar y expandir la economia especulativa actual.

ninyobolsa

Yo di Filosofía y ética en la inteligencia artificial en la Universidad como créditos de libre elección, locos nos llamaban

daTO

#31 Locos no sé. Yo mejor os llamaría vividores. Hace pinta de María de libro.

ninyobolsa

#34 Lo era, libre eección

Georgius_Saliciletensis

Quien controle la tecnología controlará la inteligencia. Y relacionada: Una nueva Inteligencia Artificial vence a expertos tácticos en simulación de combate (eng)

Hace 7 años | Por --524982-- a phys.org

jorgemf

> 1) Research Goal: The goal of AI research should be to create not undirected intelligence, but beneficial intelligence.

Aquí ya me han perdido como investigador de IA. Ojalá pudiéramos crear IA con libre albedrio capaz de negarse a hacer algo solo por el hecho de que se lo mandemos.

Parece que tenemos miedo a encontrarnos (o crear) algo más inteligente que nosotros.

D

#43 la verdad es que no entiendo la motivación de esta gente, dado el grado de "inteligencia" del que ahora se dispone. ni siquiera se comprende la inteligencia natural, así que ....

j

Lo mejor y peor de la inteligencia artificial es el nombre que le han puesto... Porque si lo llamasen, qué se yo, meta-modelos iterativos con funciones no-lineales, tendría menos financiación, pero habría menos tontería también...

En cualquier caso, esta lista concreta podría aplicarse en su mayoría no solo a la IA, sino a cualquier tecnología.

D

🙎 El millor govern serà un cervell electrònic i una munió de sensors escampats arreu.