Extenso artículo sobre las posibilidades de la inteligencia artificial. Su posible desarrollo cercano. Percepciones erróneas sobre cuán cerca está la humanidad de conseguirla o hasta qué punto es posible controlarla. Análisis de posibles ventajas y riesgos. Primera parte de una serie de varios artículos.
#26:
La bomba atómica se hizo sin intervención de fisicos ni de ingenieros, solamente se logró porque los cálculos los hacía una legión de secretarias.
De esta manera, usando cerebros minúsculos para resolver pequeñisimas partes de un problema enorme, los aliados vencieron a Alemania. Fué el primer logro de la computación biológica distribuida.
Cuando empiezas a teclear una búsqueda en google, te aparece siempre la alternativa que buscas. No es inteligencia artificial de silicio, es inteligencia artificial biologicamente distribuida.
la naturaleza siempre tiende al agrupamiento. las neuronas forman el cerebro unidas por enlaces electroquimicos, y es logico que el siguiente paso sea unir todos los cerebros ahora que es posible mediante enlaces electronicos digitales.
El resultado sera,forzosamente, un gran Cerebro biológico global, una consciencia planetaria que sabe Dios de que manera nos dará por el culo. Basta ver el funcionamiento de Meneame para acojonarse
Hasta que no entendamos como un bebé, partiendo de cero, escucha los sonidos que oye por primera vez, los procesa y memoriza y es capaz de entender palabras, y con el paso de los años articular él mismo las palabras aprendidas (con su significado, claro).
¿Cómo un montón de neuronas aprenden el sonido de una "o" dicha por cualquiera esa "o"?
Partimos del oído, donde hay unas 30.000 neuronas (células ciliadas) que recogen las diferentes frecuencias y amplitudes de esa hipotética "o"
Después el nervio auditivo envía esa información al cerebro donde se procesa y se generan los enlaces neuronales y se almacena
Y así sucesivamente para todos los sonidos que va oyendo ese bebé.
He hablado sólo del oído que ya tiene una complejidad para una IA de proporciones gigantescas.
Pensad si hablamos de la vista o si hablamos del aparato locomotor.
Estamos muy lejos
#54:
#10 Ojala, pero cualquiera que trabaje en IA sabe que lo de "inteligencia" es a dia de hoy puro marketing, estamos muy muy lejos de ello. Y lo que es peor, nadie espera que cambie por bastante tiempo, ya que no tenemos ni idea de como hacer que haga algo mas complejo que lo que puede hacer una "weak AI" (y tampoco somos capaces de hacerlo para todos los dominios).
No merece la pena ni preocuparse antes de que tengamos robots humanoides que hagan las tareas del hogar (un problema infinitamente menos complejo, eso es incluso "weak AI").
#8#7 En cuanto alguien lo consiga se conocera de inmediato en el mundo academico, y pueden pasar decadas antes de que pase a la industria, con lo que hay tiempo mas que suficiente de pararlo si fuera peligroso. De todas formas soy de la opinion de que las peliculas son bastante pesimistas con respecto a una verdadera AI... creceria exponencialmente en inteligencia, con lo que enseguida descartaria "matarnos"
#2:
No es cosa de enviar dos noticias con lo mismo, así que aquí está la segunda parte:
#62:
Lo que no tiene sentido es dar por hecho lo del crecimiento exponencial de la inteligencia. Es una asunción con una base muy débil, por no decir fantástica.
Se asume sin una base racional o demostrable que:
- Hay una escala infinita de inteligencia, cuando puede haber límites fundamentales a la misma por causas físicas o de la teoría de la información.
- La inteligencia no tiene retornos decrecientes en el mundo real, cuando la experiencia en el mundo real indica que los tiene (una persona con un CI de 250 no parece que tenga demasiadas ventajas respecto a una con una inteligencia alta).
- La inteligencia da superpoderes (lectura de mentes, omnisciencia, omnipotencia...)
- La inteligencia es capaz de desarrollarse en el vacío (sin procesos de crecimiento y socialización o adaptación cultural).
- La inteligencia puede existir sin incentivos vitales.
- Una inteligencia es capaz de producir otra más inteligente que ella misma, ni siquiera sabemos si esta apreciación es medible o tiene sentido como afirmación.
Hay más razones que deberían hacernos ser bastante escépticos respecto a estos planes grandilocuentes, no vaya a ser que esto sea el siguiente jetpack o el siguiente coche volador.
#43:
#18 Prueba de ello (bastante irónica, por cierto)... mientras leía el artículo -que es bastante denso- empecé a encontrarme con algunos problemas con el inglés. Que más o menos soy capaz de leerlo, pero en este caso me estaba costando. Así que recurrí a Google Translate. Un galimatías de tres pares de narices apareció en mi pantalla: sí, era castellano, pero sin sentido. El 80% de la traducción era basura.
Justo en ese instante leí estupefacto como el autor ponía como ejemplo a Google Translate... desde luego es una herramienta útil. Pero está muy lejos de una traducción humana.
#14:
#10 Yo creo que lo que pasa con la inteligencia artificial es lo mismo que pasaba en los años 60 y 70 respecto a la carrera espacial.
En aquellos años se estaba viviendo un progreso enorme en tecnología espacial y ya se pensaban que para el año 2000 estaríamos como mínimo colonizando otros planetas y ya ves.
Ahora estamos en una era de la información, la informática ha estado avanzando muchísimo y la percepción social de la inteligancia artificial también, pero el desarrollo de inteligencia artificial verdadera está muy lejos. Está claro que un descubrimiento puntual puede cambiarlo todo, pero, si me pides mi opinión, no creo que ninguno de nosotros llegue a verlo.
Las gráficas para extrapolar y predecir el futuro son muy bonitas porque resulta fácil ajustar resultados previos a una función cualquiera y luego considerar el resto de la función como una predicción, pero eso no siempre funciona, y menos en asuntos tan complejos.
La bomba atómica se hizo sin intervención de fisicos ni de ingenieros, solamente se logró porque los cálculos los hacía una legión de secretarias.
De esta manera, usando cerebros minúsculos para resolver pequeñisimas partes de un problema enorme, los aliados vencieron a Alemania. Fué el primer logro de la computación biológica distribuida.
Cuando empiezas a teclear una búsqueda en google, te aparece siempre la alternativa que buscas. No es inteligencia artificial de silicio, es inteligencia artificial biologicamente distribuida.
la naturaleza siempre tiende al agrupamiento. las neuronas forman el cerebro unidas por enlaces electroquimicos, y es logico que el siguiente paso sea unir todos los cerebros ahora que es posible mediante enlaces electronicos digitales.
El resultado sera,forzosamente, un gran Cerebro biológico global, una consciencia planetaria que sabe Dios de que manera nos dará por el culo. Basta ver el funcionamiento de Meneame para acojonarse
#25#26 En cierto modo Internet funciona como un sistema nervioso, aunque en un estado primitivo. Cuando tengamos implantes que conecten nuestros cerebros directamente al ordenador, podríamos estar hablando de una superinteligencia o conciencia global.
#5#3 ¿No es demasiado optimista el autor? Lo he leido al completo y correcto, me ha parecido interesante. Pero ¿vosotros como lo veis...?
Parece que si bien dice estar basado en premisas coherentes, estudios serios, etc, no está apenas teniendo en cuenta posibles contratiempos... a mi se me ocurren varios.
Para empezar, uno muy plausible, la oposición de la sociedad. ¿Sabéis la cantidad de grupos que hay anti-organismos genéticamente modificados, anti investigación con células madre (p.ej.: la propia iglesia Católica) ... ? Pues yo creo que aplicando la misma mentalidad corta, un supuesto sistema de IA, desde sus primeras fases, encontraría oposición de muchos colectivos.
#7 Sí. Pero yo creo que esa consciencia social se daría cuando la singularidad sea plausible tecnicamente. Y puede q sea demasiado tarde.
Transcendence creo q lo ilustra bastante bien (obviando las multiples licencias ficticias de un blackbuster hollywoodiense) en cuanto a tiempos de avance.
Ya solo falta ver como la transgenesis se robotiza con ai, y luego chutas al bicho con una ai superhumana y addons ciberneticos con manufactura en materiales nanotecnologicos.
Vamos a moriir!
No. Es coña. Los q investigamos en esto no vamos a sembrar miles de hectareas con sistemas q no sabemos como funcionan en su totalidad. Antes de eso haremos colapsar el sistema financiero, pues la avaricia mueve el mundo y algun hacker loco habrá q eso no le vale.
#10 Ojala, pero cualquiera que trabaje en IA sabe que lo de "inteligencia" es a dia de hoy puro marketing, estamos muy muy lejos de ello. Y lo que es peor, nadie espera que cambie por bastante tiempo, ya que no tenemos ni idea de como hacer que haga algo mas complejo que lo que puede hacer una "weak AI" (y tampoco somos capaces de hacerlo para todos los dominios).
No merece la pena ni preocuparse antes de que tengamos robots humanoides que hagan las tareas del hogar (un problema infinitamente menos complejo, eso es incluso "weak AI").
#8#7 En cuanto alguien lo consiga se conocera de inmediato en el mundo academico, y pueden pasar decadas antes de que pase a la industria, con lo que hay tiempo mas que suficiente de pararlo si fuera peligroso. De todas formas soy de la opinion de que las peliculas son bastante pesimistas con respecto a una verdadera AI... creceria exponencialmente en inteligencia, con lo que enseguida descartaria "matarnos"
#9: Ahí estoy de acuerdo: todavía les falta mucho, pero aun así eso no cambia el hecho de que a base de software de reconocimiento de caras, y de colores, y de cosas así, estamos avanzando en la percepción de la AI... Y el problema, como dice el autor, es que cuando nos vayamos acercando a inteligencia de nivel humano, la AI nos va a adelantar a nivel super humano antes de que nos demos cuenta o podamos hacer algo al respecto.
#7: Yo creo que el optimista es Kurzweil. El autor quiere que Kurzweil tenga razón (¿y quién no?), pero sabe perfectamente que un montón de cosas pueden ir mal... especialmente si no se ponen baremos éticos y de "human-friendliness" al desarrollo de la AI, que es el posible problema.
En cuanto a la oposición social, volvemos al problema de base: para una Inteligencia Artificial que esté diez órdenes de magnitud por encima del ser humano, lo que diga la Iglesia o los grupos en contra debería ser absolutamente irrelevante.
#10 En ese aspecto tienes razón, independientemente del tiempo que se tarde en llegar, cuando se consiga una IA real, será nuestra nueva evolución, y nosotros como tal, desapareceremos.
#10 Yo creo que lo que pasa con la inteligencia artificial es lo mismo que pasaba en los años 60 y 70 respecto a la carrera espacial.
En aquellos años se estaba viviendo un progreso enorme en tecnología espacial y ya se pensaban que para el año 2000 estaríamos como mínimo colonizando otros planetas y ya ves.
Ahora estamos en una era de la información, la informática ha estado avanzando muchísimo y la percepción social de la inteligancia artificial también, pero el desarrollo de inteligencia artificial verdadera está muy lejos. Está claro que un descubrimiento puntual puede cambiarlo todo, pero, si me pides mi opinión, no creo que ninguno de nosotros llegue a verlo.
Las gráficas para extrapolar y predecir el futuro son muy bonitas porque resulta fácil ajustar resultados previos a una función cualquiera y luego considerar el resto de la función como una predicción, pero eso no siempre funciona, y menos en asuntos tan complejos.
#14: Funcione o no funcione, falte mucho tiempo o no, lo cierto es que los miembros de la Future of Life fundation y todos los demás hacemos bien en preocuparnos aunque sea un poquito de que cuando surja la ASI tenga puesto por activa y por pasiva en el kernel que tiene que hacer cosas positivas para los humanos y que ésa es la prioridad aparte de cualquier otra oden que tenga en el resto del código.
#18: El problema es que con el desarrollo exponencial, puedes estar muy lejos un día y haberte pasado dos órdenes de magnitud al siguiente. Y una vez pasados esos dos órdenes de magnitud, el desarrollo subsiguiente sería tan rápido que quizá ni pudiéramos seguirlo.
#21Funcione o no funcione, falte mucho tiempo o no, lo cierto es que los miembros de la Future of Life fundation y todos los demás hacemos bien en preocuparnos aunque sea un poquito de que cuando surja la ASI tenga puesto por activa y por pasiva en el kernel que tiene que hacer cosas positivas para los humanos y que ésa es la prioridad aparte de cualquier otra oden que tenga en el resto del código.
Una vez se conozca la forma de desarrollar una inteligencia artificial verdadera va a ser difícil (por no decir imposible) evitar que un particular pueda llevar a cabo un desarrollo por su cuenta. A mi me dan más miedo las medidas que puedan tomar los futuros gobiernos para abordar este problema que el problema en sí.
#21 me parece muy ingenuo por tu parte. Nada me impide diseñar una IA a mi antojo si es un conocimiento técnico común. Es como decir que quieres que todos los programas del mundo sean éticos para que no haya malware. Muy bonito, pero imposible.
#7 Hay varios errores como el gráfico de potencia de los ordenadores y la arquitectura que se usa no vale para una IA es por eso que IBM esta desarrollando "cpus neuronales" http://research.ibm.com/cognitive-computing/neurosynaptic-chips.shtml#fbid=pf5dGiB9dXv junto con su sofware que nada tiene que ver con 0 y 1.
Luego la computación cuántica sera el otro camino lógico para una IA.
Hasta que no entendamos como un bebé, partiendo de cero, escucha los sonidos que oye por primera vez, los procesa y memoriza y es capaz de entender palabras, y con el paso de los años articular él mismo las palabras aprendidas (con su significado, claro).
¿Cómo un montón de neuronas aprenden el sonido de una "o" dicha por cualquiera esa "o"?
Partimos del oído, donde hay unas 30.000 neuronas (células ciliadas) que recogen las diferentes frecuencias y amplitudes de esa hipotética "o"
Después el nervio auditivo envía esa información al cerebro donde se procesa y se generan los enlaces neuronales y se almacena
Y así sucesivamente para todos los sonidos que va oyendo ese bebé.
He hablado sólo del oído que ya tiene una complejidad para una IA de proporciones gigantescas.
Pensad si hablamos de la vista o si hablamos del aparato locomotor.
#9 todo ordenador solo se basa en cinco ( siete ) puertas lógicas; or, not, and, xor ...
como tu comprenderas eso es un cutrerio total con lo que no se puede llegar muy lejos, aunque eso si, sí muy rápido repitiendo eso billones de veces por segundo ...
pero no nos despistemos, poco mas que una calculadora ha conseguido la Humanidad aun... la tecnologia sigue siendo rudimentaria y la entiende un niño ...
#12 Toda proteína se basa en 20 aminoácidos (sólo) y la cantidad de combinaciones posibles son la repera+la reostia.
El problema no está en las puertas lógicas, ni en el sistema binario, ni en el hexadecimal, ni en la computación propiamente dicha.
El problema está en entender como funciona un cerebro (aunque sea el de una mosca)
No posemos basar una IA en algoritmos y funciones (eso es muy fácil) el problema está más allá
#13 si porque en los aminoacidos al estar involucrado los enlaces covalentes, con sus electrones, la fisica conocida y desconocida, la quimica conocida y la que jamas se conocera, la cuantica y mas alla etc va a ser lo mismo que las puertas electronicas que se define en un papelito y no hay mas alla ... anda anda ...
#9 Y eso que estás hablando de los elementos de percepción, que son los que creo que tienen más margen de mejora partiendo de los conocimientos actuales. Aún más lejos estamos de reproducir el razonamiento humano.
#18 Prueba de ello (bastante irónica, por cierto)... mientras leía el artículo -que es bastante denso- empecé a encontrarme con algunos problemas con el inglés. Que más o menos soy capaz de leerlo, pero en este caso me estaba costando. Así que recurrí a Google Translate. Un galimatías de tres pares de narices apareció en mi pantalla: sí, era castellano, pero sin sentido. El 80% de la traducción era basura.
Justo en ese instante leí estupefacto como el autor ponía como ejemplo a Google Translate... desde luego es una herramienta útil. Pero está muy lejos de una traducción humana.
#18: Hombre, si somos capaces de hacer una súper inteligencia artificial cuya prioridad sea mejorar la vida (tanto esperanza como calidad de) los seres humanos, que llegue cuanto antes. El problema es que algún listo quiera hacer una ASI cuya prioridad sea fabricar drones/ganar dinero/llámale X y por ir deprisa y corriendo pase de meter en el código el temita éste de la mejora de la vida de los seres humanos. A eso es a lo que han especificado que le tienen miedo Bill Gates, Elon Musk y todos los de la Future of Life foundation, y por eso están avisando a grito pelado y pidiendo un marco normativo. Si vamos a crear un bicho unas 100.000 veces más listo que nosotros, queremos programarlo para que trabaje en nuestro beneficio Y para que cualquier otra cosa que cree y programe también vaya en nuestro beneficio.
Y si no lo vemos en vida, pues no ha pasado nada. Pero dado el hecho de que si sí lo vemos en vida, un resultado negativo puede ser catastrófico, este es un caso serio de "tenemos que arreglar el problema antes de que ocurra porque después de que ocurra no vamos a poder ni hartos de grifa".
#53 Si hicieran una IA con ese objetivo que realmente fuese capaz de cumplirlo, sería desoída o desconectada porque iría contra los intereses de quienes salen ganando con toda la desgracia ajena.
Si no se resuelven los problemas en el mundo no es por falta de inteligencia, ni falta de ideas, ni falta de dinero, sino por los intereses.
La inteligencia artificial global no se basará en silicio sino en la compartición y parasitamiento de cerebros humanos.
Dividiendo el problema en partes infinitesimales ,que se resolverán de forma distribuida por el gran cerebro biológico colectivo mediante una aplicación en nuestros moviles que nos pedirá resolver una parte minuscula del problema.
Por ejm, cuando los captcha nos piden resolver un numero de calle escaneado. Estamos alimentando el Gran Cerebro Biológico Global.
La inteligencia colectiva será el Gran Hermano que rija nuestras vidas
#25 Eso ya existe y funciona muy bien: una entidad que se dedica a generar beneficios y para las tareas que requieren inteligencia parasita cerebros humanos (con los incentivos adecuados y reemplazando pronto las piezas defectuosas sale bastante mas eficiente que en silico): se llama empresa.
Temer un AI descontrolado y no el capitalismo descontrolado es insensato.
Lo que no tiene sentido es dar por hecho lo del crecimiento exponencial de la inteligencia. Es una asunción con una base muy débil, por no decir fantástica.
Se asume sin una base racional o demostrable que:
- Hay una escala infinita de inteligencia, cuando puede haber límites fundamentales a la misma por causas físicas o de la teoría de la información.
- La inteligencia no tiene retornos decrecientes en el mundo real, cuando la experiencia en el mundo real indica que los tiene (una persona con un CI de 250 no parece que tenga demasiadas ventajas respecto a una con una inteligencia alta).
- La inteligencia da superpoderes (lectura de mentes, omnisciencia, omnipotencia...)
- La inteligencia es capaz de desarrollarse en el vacío (sin procesos de crecimiento y socialización o adaptación cultural).
- La inteligencia puede existir sin incentivos vitales.
- Una inteligencia es capaz de producir otra más inteligente que ella misma, ni siquiera sabemos si esta apreciación es medible o tiene sentido como afirmación.
Hay más razones que deberían hacernos ser bastante escépticos respecto a estos planes grandilocuentes, no vaya a ser que esto sea el siguiente jetpack o el siguiente coche volador.
#47 Cuando vayas a morir, una IA te preguntará si quieres ser desconectado o si prefieres que te conecten el cerebro a menéame.net a cambio de todos tus bienes (incluidos el resto de tus órganos) para decidirlo, no te preocupes.
Penrose y Hameroff van a gener razón y existirá un relación entre los microtúbulos neuronales y una estructura cuántica ‘proto-consciente’ de la realidad. Hace años que leyendo La nueva mente del emperador, me parecía una excusa/pataleta medio incomprensible (por mi ignorancia) debido al escaso éxito de las IA en algunos ámbitos, pero visto con perspectiva me parece más atractiva que la IA de algoritmia tradicional de Turing. Aunque igual de incomprensible !!!
Hay un aspecto que se suele olvidar y es el consumo energético. El cerebro humano apenas consume el equivalente de una bombilla de bajo consumo de 20 vatios. Hoy no existe una tecnología asentada que proporcione esa potencia de computación a tan bajo consumo. Los superordenadores de los que hablamos tienen una factura eléctrica considerable.
Se hace mucho hicapié en que la IA nacerá de la electrónica, pero la electrónica es solo una cañería que unirá los nodos principales que formarán el Cerebro Biológico Global, los cerebros humanos parasitados.
En un principio , como todas las infecciones parasitarias, sólo nos ocupará de tareas infimas como busquedas en google,resolucion de captchas,etc.
mas adelante nos parasitará minutos,horas, cada vez más hasta la total despersonalización y seamos hormigas trabajando para un Ente desconocido, que nos tratará como piezas biológicas de recambio ,desechables y sin valor.
Los adolescentes actuales ya pasan un 50% de sus vidas mirando pantallas. Esperad a que se lleven gafas google desde el nacimiento, o implantes craneales.
Me veo eligiendo una SuperInteligencia para que nos gobierne, la campaña entre Inteligencia Linux, Microsoft y Apple está asegurada. La Linux con mejoras sociales y de libre acceso, la Microsoft con nuevas subcontrataciones, aún con más opciones que antes y Apple, una ciudad blanca y limpia con impuestos de lujo en productos básicos.
La Superinteligencia Artificial es:
1. Inevitable
2. Probablemente supremacista respecto a otras SIAs (la primera SIA en aparecer previene el desarrollo de posteriores SIAs).
Lo que nos coloca (a la humanidad) ante dos destinos, la inmortalidad o la extinción, dependiendo de si la primera SIA en aparecer ha sido desarrollada con cuidado o sin él, respectivamente.
#49 yo es que simplemente no entiendo a que llaman inteligencia artificial la verdad, aquí se habla mas en modelos humanos y en todo caso más inteligentes. Con sus virtudes y defectos, pero una maquina inteligente? A que se extrapola, no tiene hambre, no se cansa, no tiene por ello necesidad de poder.
La IA del futuro solo será una copia nuestra pero en maquina?
Yo desconozco que motivaciones tendrá una maquina inteligencte y con cierta arbitrariedad, pero tiene que tener una conducta humana si o si ?
Si en español me cuesta leer un artículo asi de largo, en inglés ya ni te cuento
Quizás en el 2025 tenga componentes cibernéticos que me ayuden, pero hoy por hoy, aquí os lo dejo
Lo siento pero voto sensacionalista, y creo que mi nick y una década investigando en el campo me autorizan
El mismo autor reconoce que no es experto, simplemente se ha tirado ¡3 semanas! investigando (wow...) y se ha flipado. Es entendible, pero la realidad es mucho más dura.
Por mil razones, todo es mucho más complejo, y no puede explicarse en un post de este foro.
Recomiendo empezar leyéndose, por ejemplo, esta tesis doctoral de filosofía de 2014: http://eprints.ucm.es/24630/
Que sí, tendremos coches que anden sólos y drones que hagan maravillas, pero dudo mucho, mucho, que jamás lleguen a ser verdaderamente inteligentes y capaces de mejorar, auto-organizarse de maneras creativas tal como hace un humano, etc.
Ojalá me equivoque, pero os aseguro que a día de hoy no hay ningún paper científico que sea prometedor en esa línea.
#23 La filosofía no pinta nada en una IA a no ser que quieras implementare limites y que por otro lado pueden surgir por si solas como surgieron la humanas.
En lo que te doy la razón es articulo cojea en su exposición de como va el tema pensado que una booleana es la que creara las primeras IAs.
#23 Creo que el problema del artículo es resumirlo todo en una gráfica exponencial y quedarse tan ancho. Hasta ahora se progresa mucho utilizando ANI de distintas formas, pero eso no quiere decir que se desarrollarán de forma natural sistemas AGI.
Cuando la IA llegue a cierto punto, el mundo va a cambiar mucho social y económicamente. Cuando una máquina pueda ser capaz de realizar cualquier trabajo sin asistencia, nuestro sistema económico se va a ir a la mierda ¿Servirá de algo el dinero en un mundo en el que la producción de nuestros servicios depende de seres que no somos nosotros?
Me figuro que el mundo tal y como lo muestra la segunda parte de la peli de Wall-e, tampoco está muy lejos.
Puesss me parece un artículo bastante mediocre. Basa la explosión supuesta de la IA en el aumento de la velocidad de computación y poco más, cuando hace bastante que ese no es el problema. Deep Blue ya llegó hace mucho tiempo a una capacidad de cálculo como para hacerse campeón al ajedrez. Pero el problema de la IA y la cuestión de la inteligencia no están ahí.
Dedicarse a medir la "potencia de cálculo" del cerebro y compararla con los ordenadores tiene que ver con resolución de algoritmos, pero no con IA.
Y Kurzweil es un poco flipao, si os leeis libros antiguos de él que apuntaran a 2015.
Bah, yo ya de los científicos no me creo nada, que estamos en el 2015 y ni coches voladores, ni lasers, ni robots asesinos, ni si quiera un brote de virus zombie, ni na de na. Solo quieren mas dinero para investigación para seguir decepcionándonos, yo hasta que no me enseñen por lo menos un robot con instintos asesinos propios y un cañon de plasma en el brazo, no confió mas en ellos.
#39 Sí, en Informática puedes estudiar IA. A mí siempre me ha gustado y fue una de las ramas que seguí mientras estudiaba. No obstante te aconsejo que leas primero sobre el tipo de problemas que se resuelven actualmente con IA y veas si te gusta o no.
También tienes que pensar en cómo vas a vivir siguiendo un carrera profesional en el mundo de la investigación...
Comentarios
La bomba atómica se hizo sin intervención de fisicos ni de ingenieros, solamente se logró porque los cálculos los hacía una legión de secretarias.
De esta manera, usando cerebros minúsculos para resolver pequeñisimas partes de un problema enorme, los aliados vencieron a Alemania. Fué el primer logro de la computación biológica distribuida.
Cuando empiezas a teclear una búsqueda en google, te aparece siempre la alternativa que buscas. No es inteligencia artificial de silicio, es inteligencia artificial biologicamente distribuida.
la naturaleza siempre tiende al agrupamiento. las neuronas forman el cerebro unidas por enlaces electroquimicos, y es logico que el siguiente paso sea unir todos los cerebros ahora que es posible mediante enlaces electronicos digitales.
El resultado sera,forzosamente, un gran Cerebro biológico global, una consciencia planetaria que sabe Dios de que manera nos dará por el culo. Basta ver el funcionamiento de Meneame para acojonarse
#26 Si, has fumado.
#26 ¡La naturaleza es una sucia comunista!
#25 #26 En cierto modo Internet funciona como un sistema nervioso, aunque en un estado primitivo. Cuando tengamos implantes que conecten nuestros cerebros directamente al ordenador, podríamos estar hablando de una superinteligencia o conciencia global.
No es cosa de enviar dos noticias con lo mismo, así que aquí está la segunda parte:
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
#2 Me enganché en el primero, vamos a por el segundo.
#3: Ya me contarás, pero yo diría que el segundo es mejor. La historia de Turry me dejó las cosas bastante claritas...
#5 #3 ¿No es demasiado optimista el autor? Lo he leido al completo y correcto, me ha parecido interesante. Pero ¿vosotros como lo veis...?
Parece que si bien dice estar basado en premisas coherentes, estudios serios, etc, no está apenas teniendo en cuenta posibles contratiempos... a mi se me ocurren varios.
Para empezar, uno muy plausible, la oposición de la sociedad. ¿Sabéis la cantidad de grupos que hay anti-organismos genéticamente modificados, anti investigación con células madre (p.ej.: la propia iglesia Católica) ... ? Pues yo creo que aplicando la misma mentalidad corta, un supuesto sistema de IA, desde sus primeras fases, encontraría oposición de muchos colectivos.
#7 Sí. Pero yo creo que esa consciencia social se daría cuando la singularidad sea plausible tecnicamente. Y puede q sea demasiado tarde.
Transcendence creo q lo ilustra bastante bien (obviando las multiples licencias ficticias de un blackbuster hollywoodiense) en cuanto a tiempos de avance.
Ya solo falta ver como la transgenesis se robotiza con ai, y luego chutas al bicho con una ai superhumana y addons ciberneticos con manufactura en materiales nanotecnologicos.
Vamos a moriir!
No. Es coña. Los q investigamos en esto no vamos a sembrar miles de hectareas con sistemas q no sabemos como funcionan en su totalidad. Antes de eso haremos colapsar el sistema financiero, pues la avaricia mueve el mundo y algun hacker loco habrá q eso no le vale.
#10 Ojala, pero cualquiera que trabaje en IA sabe que lo de "inteligencia" es a dia de hoy puro marketing, estamos muy muy lejos de ello. Y lo que es peor, nadie espera que cambie por bastante tiempo, ya que no tenemos ni idea de como hacer que haga algo mas complejo que lo que puede hacer una "weak AI" (y tampoco somos capaces de hacerlo para todos los dominios).
No merece la pena ni preocuparse antes de que tengamos robots humanoides que hagan las tareas del hogar (un problema infinitamente menos complejo, eso es incluso "weak AI").
#8 #7 En cuanto alguien lo consiga se conocera de inmediato en el mundo academico, y pueden pasar decadas antes de que pase a la industria, con lo que hay tiempo mas que suficiente de pararlo si fuera peligroso. De todas formas soy de la opinion de que las peliculas son bastante pesimistas con respecto a una verdadera AI... creceria exponencialmente en inteligencia, con lo que enseguida descartaria "matarnos"
#9: Ahí estoy de acuerdo: todavía les falta mucho, pero aun así eso no cambia el hecho de que a base de software de reconocimiento de caras, y de colores, y de cosas así, estamos avanzando en la percepción de la AI... Y el problema, como dice el autor, es que cuando nos vayamos acercando a inteligencia de nivel humano, la AI nos va a adelantar a nivel super humano antes de que nos demos cuenta o podamos hacer algo al respecto.
#7: Yo creo que el optimista es Kurzweil. El autor quiere que Kurzweil tenga razón (¿y quién no?), pero sabe perfectamente que un montón de cosas pueden ir mal... especialmente si no se ponen baremos éticos y de "human-friendliness" al desarrollo de la AI, que es el posible problema.
En cuanto a la oposición social, volvemos al problema de base: para una Inteligencia Artificial que esté diez órdenes de magnitud por encima del ser humano, lo que diga la Iglesia o los grupos en contra debería ser absolutamente irrelevante.
#10 En ese aspecto tienes razón, independientemente del tiempo que se tarde en llegar, cuando se consiga una IA real, será nuestra nueva evolución, y nosotros como tal, desapareceremos.
#10 Yo creo que lo que pasa con la inteligencia artificial es lo mismo que pasaba en los años 60 y 70 respecto a la carrera espacial.
En aquellos años se estaba viviendo un progreso enorme en tecnología espacial y ya se pensaban que para el año 2000 estaríamos como mínimo colonizando otros planetas y ya ves.
Ahora estamos en una era de la información, la informática ha estado avanzando muchísimo y la percepción social de la inteligancia artificial también, pero el desarrollo de inteligencia artificial verdadera está muy lejos. Está claro que un descubrimiento puntual puede cambiarlo todo, pero, si me pides mi opinión, no creo que ninguno de nosotros llegue a verlo.
Las gráficas para extrapolar y predecir el futuro son muy bonitas porque resulta fácil ajustar resultados previos a una función cualquiera y luego considerar el resto de la función como una predicción, pero eso no siempre funciona, y menos en asuntos tan complejos.
#14: Funcione o no funcione, falte mucho tiempo o no, lo cierto es que los miembros de la Future of Life fundation y todos los demás hacemos bien en preocuparnos aunque sea un poquito de que cuando surja la ASI tenga puesto por activa y por pasiva en el kernel que tiene que hacer cosas positivas para los humanos y que ésa es la prioridad aparte de cualquier otra oden que tenga en el resto del código.
#18: El problema es que con el desarrollo exponencial, puedes estar muy lejos un día y haberte pasado dos órdenes de magnitud al siguiente. Y una vez pasados esos dos órdenes de magnitud, el desarrollo subsiguiente sería tan rápido que quizá ni pudiéramos seguirlo.
#21 Funcione o no funcione, falte mucho tiempo o no, lo cierto es que los miembros de la Future of Life fundation y todos los demás hacemos bien en preocuparnos aunque sea un poquito de que cuando surja la ASI tenga puesto por activa y por pasiva en el kernel que tiene que hacer cosas positivas para los humanos y que ésa es la prioridad aparte de cualquier otra oden que tenga en el resto del código.
Una vez se conozca la forma de desarrollar una inteligencia artificial verdadera va a ser difícil (por no decir imposible) evitar que un particular pueda llevar a cabo un desarrollo por su cuenta. A mi me dan más miedo las medidas que puedan tomar los futuros gobiernos para abordar este problema que el problema en sí.
#21 me parece muy ingenuo por tu parte. Nada me impide diseñar una IA a mi antojo si es un conocimiento técnico común. Es como decir que quieres que todos los programas del mundo sean éticos para que no haya malware. Muy bonito, pero imposible.
#50: Estoy de acuerdo contigo. Ése es el problema y lo que tiene acojonados a los que saben de esto. Que siempre habrá un
FaustoEric.#10 Decir que "falta mucho" es como decir que la Tierra está "lejos" de Pollux.
#7 Hay varios errores como el gráfico de potencia de los ordenadores y la arquitectura que se usa no vale para una IA es por eso que IBM esta desarrollando "cpus neuronales" http://research.ibm.com/cognitive-computing/neurosynaptic-chips.shtml#fbid=pf5dGiB9dXv junto con su sofware que nada tiene que ver con 0 y 1.
Luego la computación cuántica sera el otro camino lógico para una IA.
#7 El optimismo de la fe en el mito del progreso.
https://es.m.wikipedia.org/wiki/Mito_del_progreso
Están mejor vistos que los magufos, pero sus premisas, apoyándose en el pesamiento mágico, son las mismas.
#2 Este tío escribe muy bien, tiene unos cuantos posts muy buenos
#19: Casi todo el blog entero merece la pena. Traduciría, pero es tan largo que me da una pereza tremenda.
#22 Ánimo asi practicas tu inglés.
Voy a hablar del oído:
Hasta que no entendamos como un bebé, partiendo de cero, escucha los sonidos que oye por primera vez, los procesa y memoriza y es capaz de entender palabras, y con el paso de los años articular él mismo las palabras aprendidas (con su significado, claro).
¿Cómo un montón de neuronas aprenden el sonido de una "o" dicha por cualquiera esa "o"?
Partimos del oído, donde hay unas 30.000 neuronas (células ciliadas) que recogen las diferentes frecuencias y amplitudes de esa hipotética "o"
Después el nervio auditivo envía esa información al cerebro donde se procesa y se generan los enlaces neuronales y se almacena
Y así sucesivamente para todos los sonidos que va oyendo ese bebé.
He hablado sólo del oído que ya tiene una complejidad para una IA de proporciones gigantescas.
Pensad si hablamos de la vista o si hablamos del aparato locomotor.
Estamos muy lejos
#9 todo ordenador solo se basa en cinco ( siete ) puertas lógicas; or, not, and, xor ...
como tu comprenderas eso es un cutrerio total con lo que no se puede llegar muy lejos, aunque eso si, sí muy rápido repitiendo eso billones de veces por segundo ...
pero no nos despistemos, poco mas que una calculadora ha conseguido la Humanidad aun... la tecnologia sigue siendo rudimentaria y la entiende un niño ...
#12 Toda proteína se basa en 20 aminoácidos (sólo) y la cantidad de combinaciones posibles son la repera+la reostia.
El problema no está en las puertas lógicas, ni en el sistema binario, ni en el hexadecimal, ni en la computación propiamente dicha.
El problema está en entender como funciona un cerebro (aunque sea el de una mosca)
No posemos basar una IA en algoritmos y funciones (eso es muy fácil) el problema está más allá
#13 si porque en los aminoacidos al estar involucrado los enlaces covalentes, con sus electrones, la fisica conocida y desconocida, la quimica conocida y la que jamas se conocera, la cuantica y mas alla etc va a ser lo mismo que las puertas electronicas que se define en un papelito y no hay mas alla ... anda anda ...
#12 nand . Esa sirve para todos.
#9 Y eso que estás hablando de los elementos de percepción, que son los que creo que tienen más margen de mejora partiendo de los conocimientos actuales. Aún más lejos estamos de reproducir el razonamiento humano.
#17 Por eso, por eso.
Por ese motivo he querido empezar por algo "simple", para poder ver la magnitud del problema.
#9: Estamos muy lejos
Y que así sea por mucho tiempo.
#18 Prueba de ello (bastante irónica, por cierto)... mientras leía el artículo -que es bastante denso- empecé a encontrarme con algunos problemas con el inglés. Que más o menos soy capaz de leerlo, pero en este caso me estaba costando. Así que recurrí a Google Translate. Un galimatías de tres pares de narices apareció en mi pantalla: sí, era castellano, pero sin sentido. El 80% de la traducción era basura.
Justo en ese instante leí estupefacto como el autor ponía como ejemplo a Google Translate... desde luego es una herramienta útil. Pero está muy lejos de una traducción humana.
#43: Se sigue comparando un puñado de algoritmos de análisis y procesado de datos con IA. Así nos luce el pelo.
#18: Hombre, si somos capaces de hacer una súper inteligencia artificial cuya prioridad sea mejorar la vida (tanto esperanza como calidad de) los seres humanos, que llegue cuanto antes. El problema es que algún listo quiera hacer una ASI cuya prioridad sea fabricar drones/ganar dinero/llámale X y por ir deprisa y corriendo pase de meter en el código el temita éste de la mejora de la vida de los seres humanos. A eso es a lo que han especificado que le tienen miedo Bill Gates, Elon Musk y todos los de la Future of Life foundation, y por eso están avisando a grito pelado y pidiendo un marco normativo. Si vamos a crear un bicho unas 100.000 veces más listo que nosotros, queremos programarlo para que trabaje en nuestro beneficio Y para que cualquier otra cosa que cree y programe también vaya en nuestro beneficio.
Y si no lo vemos en vida, pues no ha pasado nada. Pero dado el hecho de que si sí lo vemos en vida, un resultado negativo puede ser catastrófico, este es un caso serio de "tenemos que arreglar el problema antes de que ocurra porque después de que ocurra no vamos a poder ni hartos de grifa".
#53 Si hicieran una IA con ese objetivo que realmente fuese capaz de cumplirlo, sería desoída o desconectada porque iría contra los intereses de quienes salen ganando con toda la desgracia ajena.
Si no se resuelven los problemas en el mundo no es por falta de inteligencia, ni falta de ideas, ni falta de dinero, sino por los intereses.
#64 Parte de la clave de este tema es que los humanos siempre tendrán el poder de desconectar la IA, aunque dea tirando del enchufe.
La inteligencia artificial global no se basará en silicio sino en la compartición y parasitamiento de cerebros humanos.
Dividiendo el problema en partes infinitesimales ,que se resolverán de forma distribuida por el gran cerebro biológico colectivo mediante una aplicación en nuestros moviles que nos pedirá resolver una parte minuscula del problema.
Por ejm, cuando los captcha nos piden resolver un numero de calle escaneado. Estamos alimentando el Gran Cerebro Biológico Global.
La inteligencia colectiva será el Gran Hermano que rija nuestras vidas
#25 ¿Has fumado?
#25 Somos los Borgs, toda resistencia es fútil, prepárese para ser asimilado.
https://es.wikipedia.org/wiki/Borg_%28Star_Trek%29
#25 Eso ya existe y funciona muy bien: una entidad que se dedica a generar beneficios y para las tareas que requieren inteligencia parasita cerebros humanos (con los incentivos adecuados y reemplazando pronto las piezas defectuosas sale bastante mas eficiente que en silico): se llama empresa.
Temer un AI descontrolado y no el capitalismo descontrolado es insensato.
Lo que no tiene sentido es dar por hecho lo del crecimiento exponencial de la inteligencia. Es una asunción con una base muy débil, por no decir fantástica.
Se asume sin una base racional o demostrable que:
- Hay una escala infinita de inteligencia, cuando puede haber límites fundamentales a la misma por causas físicas o de la teoría de la información.
- La inteligencia no tiene retornos decrecientes en el mundo real, cuando la experiencia en el mundo real indica que los tiene (una persona con un CI de 250 no parece que tenga demasiadas ventajas respecto a una con una inteligencia alta).
- La inteligencia da superpoderes (lectura de mentes, omnisciencia, omnipotencia...)
- La inteligencia es capaz de desarrollarse en el vacío (sin procesos de crecimiento y socialización o adaptación cultural).
- La inteligencia puede existir sin incentivos vitales.
- Una inteligencia es capaz de producir otra más inteligente que ella misma, ni siquiera sabemos si esta apreciación es medible o tiene sentido como afirmación.
Hay más razones que deberían hacernos ser bastante escépticos respecto a estos planes grandilocuentes, no vaya a ser que esto sea el siguiente jetpack o el siguiente coche volador.
La película de Terminator 5 mola. La acabo de ver.
joder, vamos a morir en lo mejor
#6 joder, vamos a morir en lo mejor
¿Muerte por kiki?
#6 yo quiero quedarme aunque sea sólo de expectador, no me lo quiero perder......
#47 Cuando vayas a morir, una IA te preguntará si quieres ser desconectado o si prefieres que te conecten el cerebro a menéame.net a cambio de todos tus bienes (incluidos el resto de tus órganos) para decidirlo, no te preocupes.
#47 Cuando vayas a morir, una IA te dirá: "con s, espectador"
Penrose y Hameroff van a gener razón y existirá un relación entre los microtúbulos neuronales y una estructura cuántica ‘proto-consciente’ de la realidad. Hace años que leyendo La nueva mente del emperador, me parecía una excusa/pataleta medio incomprensible (por mi ignorancia) debido al escaso éxito de las IA en algunos ámbitos, pero visto con perspectiva me parece más atractiva que la IA de algoritmia tradicional de Turing. Aunque igual de incomprensible !!!
Hay un aspecto que se suele olvidar y es el consumo energético. El cerebro humano apenas consume el equivalente de una bombilla de bajo consumo de 20 vatios. Hoy no existe una tecnología asentada que proporcione esa potencia de computación a tan bajo consumo. Los superordenadores de los que hablamos tienen una factura eléctrica considerable.
Se hace mucho hicapié en que la IA nacerá de la electrónica, pero la electrónica es solo una cañería que unirá los nodos principales que formarán el Cerebro Biológico Global, los cerebros humanos parasitados.
En un principio , como todas las infecciones parasitarias, sólo nos ocupará de tareas infimas como busquedas en google,resolucion de captchas,etc.
mas adelante nos parasitará minutos,horas, cada vez más hasta la total despersonalización y seamos hormigas trabajando para un Ente desconocido, que nos tratará como piezas biológicas de recambio ,desechables y sin valor.
Los adolescentes actuales ya pasan un 50% de sus vidas mirando pantallas. Esperad a que se lleven gafas google desde el nacimiento, o implantes craneales.
#29 Y mucho.
Me veo eligiendo una SuperInteligencia para que nos gobierne, la campaña entre Inteligencia Linux, Microsoft y Apple está asegurada. La Linux con mejoras sociales y de libre acceso, la Microsoft con nuevas subcontrataciones, aún con más opciones que antes y Apple, una ciudad blanca y limpia con impuestos de lujo en productos básicos.
Es demasiado extenso pero muy interesante.
#5 Resumen de la segunda parte.
La Superinteligencia Artificial es:
1. Inevitable
2. Probablemente supremacista respecto a otras SIAs (la primera SIA en aparecer previene el desarrollo de posteriores SIAs).
Lo que nos coloca (a la humanidad) ante dos destinos, la inmortalidad o la extinción, dependiendo de si la primera SIA en aparecer ha sido desarrollada con cuidado o sin él, respectivamente.
#49 yo es que simplemente no entiendo a que llaman inteligencia artificial la verdad, aquí se habla mas en modelos humanos y en todo caso más inteligentes. Con sus virtudes y defectos, pero una maquina inteligente? A que se extrapola, no tiene hambre, no se cansa, no tiene por ello necesidad de poder.
La IA del futuro solo será una copia nuestra pero en maquina?
Yo desconozco que motivaciones tendrá una maquina inteligencte y con cierta arbitrariedad, pero tiene que tener una conducta humana si o si ?
Si en español me cuesta leer un artículo asi de largo, en inglés ya ni te cuento
Quizás en el 2025 tenga componentes cibernéticos que me ayuden, pero hoy por hoy, aquí os lo dejo
Lo siento pero voto sensacionalista, y creo que mi nick y una década investigando en el campo me autorizan
El mismo autor reconoce que no es experto, simplemente se ha tirado ¡3 semanas! investigando (wow...) y se ha flipado. Es entendible, pero la realidad es mucho más dura.
Por mil razones, todo es mucho más complejo, y no puede explicarse en un post de este foro.
Recomiendo empezar leyéndose, por ejemplo, esta tesis doctoral de filosofía de 2014: http://eprints.ucm.es/24630/
Que sí, tendremos coches que anden sólos y drones que hagan maravillas, pero dudo mucho, mucho, que jamás lleguen a ser verdaderamente inteligentes y capaces de mejorar, auto-organizarse de maneras creativas tal como hace un humano, etc.
Ojalá me equivoque, pero os aseguro que a día de hoy no hay ningún paper científico que sea prometedor en esa línea.
#23 La filosofía no pinta nada en una IA a no ser que quieras implementare limites y que por otro lado pueden surgir por si solas como surgieron la humanas.
En lo que te doy la razón es articulo cojea en su exposición de como va el tema pensado que una booleana es la que creara las primeras IAs.
#23 Creo que el problema del artículo es resumirlo todo en una gráfica exponencial y quedarse tan ancho. Hasta ahora se progresa mucho utilizando ANI de distintas formas, pero eso no quiere decir que se desarrollarán de forma natural sistemas AGI.
¿Superinteligencia? ¡Que te follen! ¡Superfuerza!
Cuando la IA llegue a cierto punto, el mundo va a cambiar mucho social y económicamente. Cuando una máquina pueda ser capaz de realizar cualquier trabajo sin asistencia, nuestro sistema económico se va a ir a la mierda ¿Servirá de algo el dinero en un mundo en el que la producción de nuestros servicios depende de seres que no somos nosotros?
Me figuro que el mundo tal y como lo muestra la segunda parte de la peli de Wall-e, tampoco está muy lejos.
Puesss me parece un artículo bastante mediocre. Basa la explosión supuesta de la IA en el aumento de la velocidad de computación y poco más, cuando hace bastante que ese no es el problema. Deep Blue ya llegó hace mucho tiempo a una capacidad de cálculo como para hacerse campeón al ajedrez. Pero el problema de la IA y la cuestión de la inteligencia no están ahí.
Dedicarse a medir la "potencia de cálculo" del cerebro y compararla con los ordenadores tiene que ver con resolución de algoritmos, pero no con IA.
Y Kurzweil es un poco flipao, si os leeis libros antiguos de él que apuntaran a 2015.
Muy fan de ese gráfico exponencial. Ojalá fuese la gráfica de mis ahorros jejej
Bah, yo ya de los científicos no me creo nada, que estamos en el 2015 y ni coches voladores, ni lasers, ni robots asesinos, ni si quiera un brote de virus zombie, ni na de na. Solo quieren mas dinero para investigación para seguir decepcionándonos, yo hasta que no me enseñen por lo menos un robot con instintos asesinos propios y un cañon de plasma en el brazo, no confió mas en ellos.
¿Alguien sabría decirme que carrera habría que hacer para dedicarse al estudio de la IA? ¿Ingeniería informática?
#39 Para dedicarte al estudio de la IA necesitas EGB como mínimo aprobado sin dificultades de lectura y un buen colchón económico.
Para trabajar investigando el tema ya sube "un poco" el tema.
#39 Ahí tienes para ir empezando: http://www.sciencedirect.com/science/article/pii/S0004370214000216
#39 Sí, en Informática puedes estudiar IA. A mí siempre me ha gustado y fue una de las ramas que seguí mientras estudiaba. No obstante te aconsejo que leas primero sobre el tipo de problemas que se resuelven actualmente con IA y veas si te gusta o no.
También tienes que pensar en cómo vas a vivir siguiendo un carrera profesional en el mundo de la investigación...
#39 si ... Informatica y (neuro)biologia