Hace 8 años | Por Natsu a waitbutwhy.com
Publicado hace 8 años por Natsu a waitbutwhy.com

Extenso artículo sobre las posibilidades de la inteligencia artificial. Su posible desarrollo cercano. Percepciones erróneas sobre cuán cerca está la humanidad de conseguirla o hasta qué punto es posible controlarla. Análisis de posibles ventajas y riesgos. Primera parte de una serie de varios artículos.

Comentarios

o

#26 Si, has fumado.

D

#26 ¡La naturaleza es una sucia comunista!

D

#25 #26 En cierto modo Internet funciona como un sistema nervioso, aunque en un estado primitivo. Cuando tengamos implantes que conecten nuestros cerebros directamente al ordenador, podríamos estar hablando de una superinteligencia o conciencia global.

Inyurfeis

#2 Me enganché en el primero, vamos a por el segundo.

N

#3: Ya me contarás, pero yo diría que el segundo es mejor. La historia de Turry me dejó las cosas bastante claritas...

Cyberbob

#5 #3 ¿No es demasiado optimista el autor? Lo he leido al completo y correcto, me ha parecido interesante. Pero ¿vosotros como lo veis...?
Parece que si bien dice estar basado en premisas coherentes, estudios serios, etc, no está apenas teniendo en cuenta posibles contratiempos... a mi se me ocurren varios.

Para empezar, uno muy plausible, la oposición de la sociedad. ¿Sabéis la cantidad de grupos que hay anti-organismos genéticamente modificados, anti investigación con células madre (p.ej.: la propia iglesia Católica) ... ? Pues yo creo que aplicando la misma mentalidad corta, un supuesto sistema de IA, desde sus primeras fases, encontraría oposición de muchos colectivos.

v

#7 Sí. Pero yo creo que esa consciencia social se daría cuando la singularidad sea plausible tecnicamente. Y puede q sea demasiado tarde.

Transcendence creo q lo ilustra bastante bien (obviando las multiples licencias ficticias de un blackbuster hollywoodiense) en cuanto a tiempos de avance.

Ya solo falta ver como la transgenesis se robotiza con ai, y luego chutas al bicho con una ai superhumana y addons ciberneticos con manufactura en materiales nanotecnologicos.

Vamos a moriir!

No. Es coña. Los q investigamos en esto no vamos a sembrar miles de hectareas con sistemas q no sabemos como funcionan en su totalidad. Antes de eso haremos colapsar el sistema financiero, pues la avaricia mueve el mundo y algun hacker loco habrá q eso no le vale.

N

#9: Ahí estoy de acuerdo: todavía les falta mucho, pero aun así eso no cambia el hecho de que a base de software de reconocimiento de caras, y de colores, y de cosas así, estamos avanzando en la percepción de la AI... Y el problema, como dice el autor, es que cuando nos vayamos acercando a inteligencia de nivel humano, la AI nos va a adelantar a nivel super humano antes de que nos demos cuenta o podamos hacer algo al respecto.

#7: Yo creo que el optimista es Kurzweil. El autor quiere que Kurzweil tenga razón (¿y quién no?), pero sabe perfectamente que un montón de cosas pueden ir mal... especialmente si no se ponen baremos éticos y de "human-friendliness" al desarrollo de la AI, que es el posible problema.

En cuanto a la oposición social, volvemos al problema de base: para una Inteligencia Artificial que esté diez órdenes de magnitud por encima del ser humano, lo que diga la Iglesia o los grupos en contra debería ser absolutamente irrelevante.

tranki

#10 En ese aspecto tienes razón, independientemente del tiempo que se tarde en llegar, cuando se consiga una IA real, será nuestra nueva evolución, y nosotros como tal, desapareceremos.

N

#14: Funcione o no funcione, falte mucho tiempo o no, lo cierto es que los miembros de la Future of Life fundation y todos los demás hacemos bien en preocuparnos aunque sea un poquito de que cuando surja la ASI tenga puesto por activa y por pasiva en el kernel que tiene que hacer cosas positivas para los humanos y que ésa es la prioridad aparte de cualquier otra oden que tenga en el resto del código.

#18: El problema es que con el desarrollo exponencial, puedes estar muy lejos un día y haberte pasado dos órdenes de magnitud al siguiente. Y una vez pasados esos dos órdenes de magnitud, el desarrollo subsiguiente sería tan rápido que quizá ni pudiéramos seguirlo.

p

#21 Funcione o no funcione, falte mucho tiempo o no, lo cierto es que los miembros de la Future of Life fundation y todos los demás hacemos bien en preocuparnos aunque sea un poquito de que cuando surja la ASI tenga puesto por activa y por pasiva en el kernel que tiene que hacer cosas positivas para los humanos y que ésa es la prioridad aparte de cualquier otra oden que tenga en el resto del código.

Una vez se conozca la forma de desarrollar una inteligencia artificial verdadera va a ser difícil (por no decir imposible) evitar que un particular pueda llevar a cabo un desarrollo por su cuenta. A mi me dan más miedo las medidas que puedan tomar los futuros gobiernos para abordar este problema que el problema en sí.

Penrose

#21 me parece muy ingenuo por tu parte. Nada me impide diseñar una IA a mi antojo si es un conocimiento técnico común. Es como decir que quieres que todos los programas del mundo sean éticos para que no haya malware. Muy bonito, pero imposible.

N

#50: Estoy de acuerdo contigo. Ése es el problema y lo que tiene acojonados a los que saben de esto. Que siempre habrá un Fausto Eric.

atl3

#10 Decir que "falta mucho" es como decir que la Tierra está "lejos" de Pollux.

D

#7 Hay varios errores como el gráfico de potencia de los ordenadores y la arquitectura que se usa no vale para una IA es por eso que IBM esta desarrollando "cpus neuronales" http://research.ibm.com/cognitive-computing/neurosynaptic-chips.shtml#fbid=pf5dGiB9dXv junto con su sofware que nada tiene que ver con 0 y 1.
Luego la computación cuántica sera el otro camino lógico para una IA.

D

#7 El optimismo de la fe en el mito del progreso.

https://es.m.wikipedia.org/wiki/Mito_del_progreso

Están mejor vistos que los magufos, pero sus premisas, apoyándose en el pesamiento mágico, son las mismas.

davokhin

#2 Este tío escribe muy bien, tiene unos cuantos posts muy buenos

N

#19: Casi todo el blog entero merece la pena. Traduciría, pero es tan largo que me da una pereza tremenda.

D

#22 Ánimo asi practicas tu inglés.

D

#9 todo ordenador solo se basa en cinco ( siete ) puertas lógicas; or, not, and, xor ...
como tu comprenderas eso es un cutrerio total con lo que no se puede llegar muy lejos, aunque eso si, sí muy rápido repitiendo eso billones de veces por segundo ...
pero no nos despistemos, poco mas que una calculadora ha conseguido la Humanidad aun... la tecnologia sigue siendo rudimentaria y la entiende un niño ...

tranki

#12 Toda proteína se basa en 20 aminoácidos (sólo) y la cantidad de combinaciones posibles son la repera+la reostia.
El problema no está en las puertas lógicas, ni en el sistema binario, ni en el hexadecimal, ni en la computación propiamente dicha.
El problema está en entender como funciona un cerebro (aunque sea el de una mosca)
No posemos basar una IA en algoritmos y funciones (eso es muy fácil) el problema está más allá

D

#13 si porque en los aminoacidos al estar involucrado los enlaces covalentes, con sus electrones, la fisica conocida y desconocida, la quimica conocida y la que jamas se conocera, la cuantica y mas alla etc va a ser lo mismo que las puertas electronicas que se define en un papelito y no hay mas alla ... anda anda ...

D

#12 nand . Esa sirve para todos.

p

#9 Y eso que estás hablando de los elementos de percepción, que son los que creo que tienen más margen de mejora partiendo de los conocimientos actuales. Aún más lejos estamos de reproducir el razonamiento humano.

tranki

#17 Por eso, por eso.
Por ese motivo he querido empezar por algo "simple", para poder ver la magnitud del problema.

m

#9: Estamos muy lejos

Y que así sea por mucho tiempo.

D

#43: Se sigue comparando un puñado de algoritmos de análisis y procesado de datos con IA. Así nos luce el pelo.

N

#18: Hombre, si somos capaces de hacer una súper inteligencia artificial cuya prioridad sea mejorar la vida (tanto esperanza como calidad de) los seres humanos, que llegue cuanto antes. El problema es que algún listo quiera hacer una ASI cuya prioridad sea fabricar drones/ganar dinero/llámale X y por ir deprisa y corriendo pase de meter en el código el temita éste de la mejora de la vida de los seres humanos. A eso es a lo que han especificado que le tienen miedo Bill Gates, Elon Musk y todos los de la Future of Life foundation, y por eso están avisando a grito pelado y pidiendo un marco normativo. Si vamos a crear un bicho unas 100.000 veces más listo que nosotros, queremos programarlo para que trabaje en nuestro beneficio Y para que cualquier otra cosa que cree y programe también vaya en nuestro beneficio.

Y si no lo vemos en vida, pues no ha pasado nada. Pero dado el hecho de que si sí lo vemos en vida, un resultado negativo puede ser catastrófico, este es un caso serio de "tenemos que arreglar el problema antes de que ocurra porque después de que ocurra no vamos a poder ni hartos de grifa".

p

#53 Si hicieran una IA con ese objetivo que realmente fuese capaz de cumplirlo, sería desoída o desconectada porque iría contra los intereses de quienes salen ganando con toda la desgracia ajena.

Si no se resuelven los problemas en el mundo no es por falta de inteligencia, ni falta de ideas, ni falta de dinero, sino por los intereses.

D

#64 Parte de la clave de este tema es que los humanos siempre tendrán el poder de desconectar la IA, aunque dea tirando del enchufe.

D

La inteligencia artificial global no se basará en silicio sino en la compartición y parasitamiento de cerebros humanos.

Dividiendo el problema en partes infinitesimales ,que se resolverán de forma distribuida por el gran cerebro biológico colectivo mediante una aplicación en nuestros moviles que nos pedirá resolver una parte minuscula del problema.

Por ejm, cuando los captcha nos piden resolver un numero de calle escaneado. Estamos alimentando el Gran Cerebro Biológico Global.

La inteligencia colectiva será el Gran Hermano que rija nuestras vidas

o

#25 ¿Has fumado?

alexwing

#25 Somos los Borgs, toda resistencia es fútil, prepárese para ser asimilado.

https://es.wikipedia.org/wiki/Borg_%28Star_Trek%29

deverdad

#25 Eso ya existe y funciona muy bien: una entidad que se dedica a generar beneficios y para las tareas que requieren inteligencia parasita cerebros humanos (con los incentivos adecuados y reemplazando pronto las piezas defectuosas sale bastante mas eficiente que en silico): se llama empresa.
Temer un AI descontrolado y no el capitalismo descontrolado es insensato.

R

La película de Terminator 5 mola. La acabo de ver.

m

joder, vamos a morir en lo mejor

p

#6 joder, vamos a morir en lo mejor

¿Muerte por kiki?

D

#6 yo quiero quedarme aunque sea sólo de expectador, no me lo quiero perder......

redewa

#47 Cuando vayas a morir, una IA te preguntará si quieres ser desconectado o si prefieres que te conecten el cerebro a menéame.net a cambio de todos tus bienes (incluidos el resto de tus órganos) para decidirlo, no te preocupes.

Segador

#47 Cuando vayas a morir, una IA te dirá: "con s, espectador"

woopi

Penrose y Hameroff van a gener razón y existirá un relación entre los microtúbulos neuronales y una estructura cuántica ‘proto-consciente’ de la realidad. Hace años que leyendo La nueva mente del emperador, me parecía una excusa/pataleta medio incomprensible (por mi ignorancia) debido al escaso éxito de las IA en algunos ámbitos, pero visto con perspectiva me parece más atractiva que la IA de algoritmia tradicional de Turing. Aunque igual de incomprensible !!!

D

Hay un aspecto que se suele olvidar y es el consumo energético. El cerebro humano apenas consume el equivalente de una bombilla de bajo consumo de 20 vatios. Hoy no existe una tecnología asentada que proporcione esa potencia de computación a tan bajo consumo. Los superordenadores de los que hablamos tienen una factura eléctrica considerable.

D

Se hace mucho hicapié en que la IA nacerá de la electrónica, pero la electrónica es solo una cañería que unirá los nodos principales que formarán el Cerebro Biológico Global, los cerebros humanos parasitados.

En un principio , como todas las infecciones parasitarias, sólo nos ocupará de tareas infimas como busquedas en google,resolucion de captchas,etc.
mas adelante nos parasitará minutos,horas, cada vez más hasta la total despersonalización y seamos hormigas trabajando para un Ente desconocido, que nos tratará como piezas biológicas de recambio ,desechables y sin valor.

Los adolescentes actuales ya pasan un 50% de sus vidas mirando pantallas. Esperad a que se lleven gafas google desde el nacimiento, o implantes craneales.

o

#29 Y mucho.

D

Me veo eligiendo una SuperInteligencia para que nos gobierne, la campaña entre Inteligencia Linux, Microsoft y Apple está asegurada. La Linux con mejoras sociales y de libre acceso, la Microsoft con nuevas subcontrataciones, aún con más opciones que antes y Apple, una ciudad blanca y limpia con impuestos de lujo en productos básicos.

Waskachu

Es demasiado extenso pero muy interesante.

D

#5 Resumen de la segunda parte.

La Superinteligencia Artificial es:
1. Inevitable
2. Probablemente supremacista respecto a otras SIAs (la primera SIA en aparecer previene el desarrollo de posteriores SIAs).

Lo que nos coloca (a la humanidad) ante dos destinos, la inmortalidad o la extinción, dependiendo de si la primera SIA en aparecer ha sido desarrollada con cuidado o sin él, respectivamente.

sonixx

#49 yo es que simplemente no entiendo a que llaman inteligencia artificial la verdad, aquí se habla mas en modelos humanos y en todo caso más inteligentes. Con sus virtudes y defectos, pero una maquina inteligente? A que se extrapola, no tiene hambre, no se cansa, no tiene por ello necesidad de poder.
La IA del futuro solo será una copia nuestra pero en maquina?
Yo desconozco que motivaciones tendrá una maquina inteligencte y con cierta arbitrariedad, pero tiene que tener una conducta humana si o si ?

Vermel

Si en español me cuesta leer un artículo asi de largo, en inglés ya ni te cuento lol
Quizás en el 2025 tenga componentes cibernéticos que me ayuden, pero hoy por hoy, aquí os lo dejo

CortoCircuito

Lo siento pero voto sensacionalista, y creo que mi nick y una década investigando en el campo me autorizan

El mismo autor reconoce que no es experto, simplemente se ha tirado ¡3 semanas! investigando (wow...) y se ha flipado. Es entendible, pero la realidad es mucho más dura.

Por mil razones, todo es mucho más complejo, y no puede explicarse en un post de este foro.
Recomiendo empezar leyéndose, por ejemplo, esta tesis doctoral de filosofía de 2014: http://eprints.ucm.es/24630/

Que sí, tendremos coches que anden sólos y drones que hagan maravillas, pero dudo mucho, mucho, que jamás lleguen a ser verdaderamente inteligentes y capaces de mejorar, auto-organizarse de maneras creativas tal como hace un humano, etc.

Ojalá me equivoque, pero os aseguro que a día de hoy no hay ningún paper científico que sea prometedor en esa línea.

D

#23 La filosofía no pinta nada en una IA a no ser que quieras implementare limites y que por otro lado pueden surgir por si solas como surgieron la humanas.
En lo que te doy la razón es articulo cojea en su exposición de como va el tema pensado que una booleana es la que creara las primeras IAs.

sorlandsk

#23 Creo que el problema del artículo es resumirlo todo en una gráfica exponencial y quedarse tan ancho. Hasta ahora se progresa mucho utilizando ANI de distintas formas, pero eso no quiere decir que se desarrollarán de forma natural sistemas AGI.

Joice

¿Superinteligencia? ¡Que te follen! ¡Superfuerza!

N

Cuando la IA llegue a cierto punto, el mundo va a cambiar mucho social y económicamente. Cuando una máquina pueda ser capaz de realizar cualquier trabajo sin asistencia, nuestro sistema económico se va a ir a la mierda lol ¿Servirá de algo el dinero en un mundo en el que la producción de nuestros servicios depende de seres que no somos nosotros?

Me figuro que el mundo tal y como lo muestra la segunda parte de la peli de Wall-e, tampoco está muy lejos.

yemeth

Puesss me parece un artículo bastante mediocre. Basa la explosión supuesta de la IA en el aumento de la velocidad de computación y poco más, cuando hace bastante que ese no es el problema. Deep Blue ya llegó hace mucho tiempo a una capacidad de cálculo como para hacerse campeón al ajedrez. Pero el problema de la IA y la cuestión de la inteligencia no están ahí.

Dedicarse a medir la "potencia de cálculo" del cerebro y compararla con los ordenadores tiene que ver con resolución de algoritmos, pero no con IA.

Y Kurzweil es un poco flipao, si os leeis libros antiguos de él que apuntaran a 2015.

borteixo

Muy fan de ese gráfico exponencial. Ojalá fuese la gráfica de mis ahorros jejej

Battlestar

Bah, yo ya de los científicos no me creo nada, que estamos en el 2015 y ni coches voladores, ni lasers, ni robots asesinos, ni si quiera un brote de virus zombie, ni na de na. Solo quieren mas dinero para investigación para seguir decepcionándonos, yo hasta que no me enseñen por lo menos un robot con instintos asesinos propios y un cañon de plasma en el brazo, no confió mas en ellos.

FinGolF

¿Alguien sabría decirme que carrera habría que hacer para dedicarse al estudio de la IA? ¿Ingeniería informática?

G

#39 Para dedicarte al estudio de la IA necesitas EGB como mínimo aprobado sin dificultades de lectura y un buen colchón económico.

Para trabajar investigando el tema ya sube "un poco" el tema.

D

#39 Sí, en Informática puedes estudiar IA. A mí siempre me ha gustado y fue una de las ramas que seguí mientras estudiaba. No obstante te aconsejo que leas primero sobre el tipo de problemas que se resuelven actualmente con IA y veas si te gusta o no.

También tienes que pensar en cómo vas a vivir siguiendo un carrera profesional en el mundo de la investigación...

animalDeBellota

#39 si ... Informatica y (neuro)biologia