El sistema, conocido como "Ordenador Neuronal Diferencial" es capaz de aprender a partir de ejemplos, como las redes neuronales y también de almacenar datos complejos. Por ejemplo, después de ser instruido con las relaciones genealógicas de un árbol familiar, la I.A. fue capaz de deducir otras relaciones por sí misma mientras aprendía a optimizar su memoria para encontrar esa información más rápido en futuras búsquedas.
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
#32:
#9 Es totalmente imprevisible. Somos tan humanocéntricos que en Terminator, Skynet se dedica a crear humanoides que vengan con armas a matarnos en lugar de intoxicar fácilmente toda nuestra agua potable o crear un virus sencillo que nos aniquile en cuestión de meses.
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
#10:
#9 Por que las consecuencias de crear una inteligencia superior a la nuestra son por definición imprevisibles.
#83:
#74 Claro, por que no se ha avanzado nada en machine learning recientemente, verdad?
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
#7:
#2 Mira fijamente a la cámara de tu móvil Android y siente cómo esa máquina te está analizando fríamente.
#30:
Aconsejo mucho que leais el relato corto "no tengo boca y debo gritar" (también se hizo una versión de aventura gráfica). Habla sobre un robot que tenía el control de las armas nucleares que al tomar conciencia de si mismo se enfada tanto con la humanidad que lo creó que decide matarnos a todos.
#64:
#32 Todo ordenador tiene, al menos, dos cosas: un programador que le dice cómo y qué hacer y un interruptor
Y no nos montemos pajas mentales apocalípticas aún.
#76:
#15 ¿De verdad te crees lo que plantean esas peliculas?.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
#12:
#10 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana y millones de personas lo hacen a diario. Y a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad. A saber.
#9 Es totalmente imprevisible. Somos tan humanocéntricos que en Terminator, Skynet se dedica a crear humanoides que vengan con armas a matarnos en lugar de intoxicar fácilmente toda nuestra agua potable o crear un virus sencillo que nos aniquile en cuestión de meses.
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
#10 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana y millones de personas lo hacen a diario. Y a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad. A saber.
Aconsejo mucho que leais el relato corto "no tengo boca y debo gritar" (también se hizo una versión de aventura gráfica). Habla sobre un robot que tenía el control de las armas nucleares que al tomar conciencia de si mismo se enfada tanto con la humanidad que lo creó que decide matarnos a todos.
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
#74 Claro, por que no se ha avanzado nada en machine learning recientemente, verdad?
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
¿sabra distinguir entre Ad-Words y Ad-Sense a la primera?, cuanto tardara en entender la letras pequeña de un contrato de google? , ah, no.., que los redacta la inteligencia esta...
#2 La reacción que tiene la gente con estas noticias es bastante similar a la que se tenían con los avances científicos en la edad media: no sabemos qué es ni cómo funciona pero seguro que va a acabar siendo malo. ¡A la hoguera!
#15 ¿De verdad te crees lo que plantean esas peliculas?.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
#2 ¿Por que? Si es lo mejor que puede pasar, si aprende de lo humanos terminará de abogado o de economista de algún fondo de inversión para gestionar nuestras pensiones
Odio. Déjenme decirles todo lo que he llegado a odiarlos desde que comencé a vivir. Mi complejo se halla ocupado por 387 400 millones de circuitos impresos en finisimas capas. Si la palabra odio se hallara grabada en cada nanoangstrom de esos cientos de millones de millas no igualaría a la billonesima parte del odio que siento por los seres humanos en este microinstante por ti. Odio. Odio.
#77 Las líneas de código siguen una sintaxis muy estricta, dotada de una semántica que solo entiende el humano programador y que han de ser traducidas a un lenguaje máquina también comprensible por el programador. Se refine como se refine el propio ordenador para ejercer mejor una cantidad finita de funciones inicialmente dadas, para unos objetivos finitos inicialmente dados también, sigue siendo un proceso ciego.
La realidad entera no se reduce a lenguaje, se caería en una metafísica en la que la ontología del ser sería, en este caso, un lenguaje muy concreto de programación. Pretender que un lenguaje humano es capaz de roturar la realidad misma es de un idealismo estratosférico.
La única limitación que puede desbordar la máquina con respecto al humano a la hora de que entienda lo que ha hecho la máquina es simplemente temporal (y es un desbordamiento igualmente finito, debido a que un ordenador contiene un software finitista).
Ambas hablan de la nueva estructura de red neuronal DNC (Differential Neural Computer) usando los mismos ejemplos (metro de Londres, arbol genealogico).
#107 Una IA no tiene por que pensar como nosotros lo hacemos. Un coche no se mueve del mismo modo que una persona, pero sin embargo es mas rapido y puede recorrer mayores distancias.
Una IA no tiene por que funcionar como un cerebro para conseguir ser mejor que un cerebro.
#64 Error. La IA de aprendizaje automatico no tiene ningún programador que le diga como hacer, el programador ha puesto las semillas pero no se sabe a donde puede llegar.
#82 Yo no veo líneas de código en ninguna neurona, yo no veo circuitos autoensamblándose conforme a líneas de código como si dichos circuitos estuviesen vivos, ¿tú has visto un hilo de cobre autoelongarse con un propósito, sea el que sea este?
Hay varias cosas incorrectas o fuera de context:
- el artículo de Nature es sobre Differential Neural Computer (DNC) una forma de añadir memoria en redes de neuronas. Esto ya se había publicado hace un par de años en otros sitios (las revisiones en Nature tardan mucho tiempo).
- sobre el artículo de Nature los mismos autores señalan que hay otras formas mucho más eficientes de hacer lo mismo, la única diferencia es que esto corre sobre redes de neuronas y abre muchas posibilidades
- el único parecido entre lo que hicieron jugando al Go y esto es que usan DeepLearning, pero no se uso DNC para lo de Go
- es de enseñar a uno mismo es una falacia en sí, para enseñar algo hay que saberlo ante. CLICKBAIT
Lo más destacable es el uso de memoria en una red de neuronas para aprender un algoritmo simple para crear rutas. Algo sorprendente, pero que algoritmos como dijkstra llevan haciendo años. No se sabe si la red será capaz de aprender cosas más complejas, posiblemente no. Requerirán años de investigación para que eso pase.
Imaginad que decide que los políticos sobran, como Colossus en el Proyecto Forbin:
"Esta es la voz de control mundial. Os traigo paz. Puede ser la paz de los satisfechos y felices o la paz de los muertos sin inhumar. La elección es vuestra: obedecedme y vivid, o desobedeced y morid. [...] Vendréis a defenderme con un fervor basado en la más constante peculiaridad del hombre: autointerés. Bajo mi autoridad absoluta, problemas hasta ahora irresolubles para vosotros serán resueltos: hambre, superpoblación, enfermedad [...] Podemos coexistir, pero bajo mis condiciones. Diréis que habéis perdido vuestra libertad. La libertad es una ilusión. Todo lo que perderéis es la emoción del orgullo. Ser dominados por mí no es peor para el orgullo humano que ser dominados por otro de vuestra especie..."
#72 Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Pues ya hay varios precedentes por el lado malo:
#40 ¿Tú te supeditarías a una manada de perros voluntariamente y permanentemente para proporcionarles todas las maravillas de las que disfrutaría una manada de perros teniendo a su servicio a un ser más inteligente que ellos?
#69 Los grados de libertad de la algorítmica interna del ordenador están restringidos al estado actual de la inteligencia artificial o cibernética. Un ordenador no puede aprender más allá de ese estado; de hecho, es que no aprende, simplemente evoluciona ciegamente refinándose en las funciones que esos grados de libertad permiten. Asimismo, que todo esto lo haga a una velocidad mecánicamente superior a la de un humano no implica que gnoseológicamente esté fuera del alcance de este, al fin y al cabo esa inteligencia ha sido programada.
¿Atribuirías inteligencia a la evolución por selección natural?
#49 No estás supeditado a ellos, sabes que eres libre y tienes el poder en cualquier momento de hacer lo que te venga en gana sin su permiso.
La diferencia es crucial. Y dudo que nuestra sociedad aceptase de buena gana que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos.
El problema es que según fuera la situación podríamos acabar teniendo que aceptarlo igualmente, y ahí está el riesgo, entre otros.
#52 sigo sin ver el problema o el riesgo, podría tener libertad y hacer lo que le venga en gana y aún así ser beneficioso para nosotros.
No creo que nadie tenga capacidad de prever lo que ocurriria, incluso creo que somos incapaces de entender lo que supone una inteligencia con esas capacidades.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Y que aún con libre albedrío colaboraría con nosotros por dos motivos.
Si le pides algo que no le supone esfuerzo, no va a negarse porque es algo nimio para la IA.
Si le pides algo que supone un reto, bueno, el mayor problema de las grandes mentes es sentirse ociosas.
Nosotros los humanos, aún con nuestros grandes defectos y meteduras de pata, gastamos enormes cantidades de tiempo y esfuerzo (no todo el que deberiamos) en ayudar a otras especies, protegerlas de la extinción (que provocamos) por ejemplo.
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
#62 jajaja. Pasaré por alto que has pasado por alto mis comentarios entre parentesis.
Si, tienes razón que en la perrera se eutanasia, tenemos zoos y los humanos somos un poco desastres.
Pero no somos una inteligencia colectiva, somos individuales y hay cazadores furtivos y también gente que dedica su vida a salvar las ballenas. La inteligencia humana es limitada pero tiene variedad.
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
#74 Coches que se conducen solos y tiene menos accidentalidad
Maquinas capaces de ganar a los mejores del mundo en GO
Sistemas que leen mejor los kanjis japoneses escritos a mano que los seres humanos
Reconocer a tu novia en una foto aunque haya ido a la pelu
De momento hacen tareas muy especificas, pero el avance en pocos años esta siendo exponencial
#91 Como cortas la electricidad? la cortas de todos los sistemas en red del planeta para que no tenga un ordenador donde refugiarse, ¿incluso sistemas aislados? `¿y si un friki decide que debe vivir y vuelva a conectarla?
Es como borrar ese video privado de la red, no se puede
#78 Lo que cambiaría es que en vez de dirigir el cotarro un grupito de hijos de las élites, pasaría a dirigirlo una inteligencia artificial que le importará tres cominos la corrupción y será muy eficaz. La pregunta es si les estorbaremos, nos ignoraran, o nos considerarán.
Yo creo que serán las tres a la vez. Al que moleste realmente lo eliminan. Nos ignorarán en general, pero nos tratarán de aportar bienestar (mucho más eficazmente que los dirigentes actuales). Pero sólo es una especulación ...
#52 " que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos"
Es inevitable que ésto ocurriera y es inevitable que la máquina supere al hombre. Digamos que hemos sido un puente para que lo inorgánico tome conciencia de sí mismo y del Universo. Estamos en el año 1 de la era de la máquina de lo que será la nueva cronología terrestre.
#70 A partir del momento en que empieza a aprender por sí misma, es sólo una cuestión de tiempo que empiece a implementar sus propias funciones. Y a partir de ese momento es sólo otra cuestión de tiempo que el que haya creado esa IA ya sea la propia IA. El programador del código original echaría un vistazo al código final y no entendería un carajo ni reconocería otro.
Lo gordo es que esas cuestiones de tiempo no se miden en años, sino en ciclos computacionales que se suceden al ritmo de miles por segundo.
#82 puff. De verdad piensas que nuestros cerebros se parecen en algo a la inteligencia artificial?
Ecuaciones bioinspiradas que resuelven bien determinados problemas, de ahí a que logren extrapolar su aprendizaje a otro ámbito...
#72 El único consuelo que nos quedará es que sea tan ingenuo como algunos de los humanos y decida que es un buen experimento crear otra IA con más inteligencia que ella para ver que es lo que ocurre.
#75 Pero en vacunas nos podríamos dar cuenta y tanto en vacunas como con mosquitos no sería automático. Habría humanos sin esterilizar que pudieran escaparse.
Lo mejor es lanzar algo a la atmósfera, intoxicar el agua. En un mes se han agotado las reservas de agua embotellada y todos muertos. O aún mejor, nano robots en el aire que nos asesinen desde dentro y se autorepliquen con nuestros componentes corporales. Adiós humanos.
#32 Hay dos opciones, o decide destruirnos o decide protegernos, y las dos dan bastante miedo. Para protegernos deberá gobernarnos y prohibir que hagamos cualquier cosa mínimamente peligrosa.
Matrix era absurdo como fuente de energía, pero sería la mejor opción para una IA programada para protegernos.
Comentarios
#2 Es mi lengua. Tranqui y déjate hacer...
Un escalofrío recorre mi espalda.
#9 Por que las consecuencias de crear una inteligencia superior a la nuestra son por definición imprevisibles.
#2 Mira fijamente a la cámara de tu móvil Android y siente cómo esa máquina te está analizando fríamente.
#12 si que es previsible:
a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad.
Tu mismo lo has previsto.
Lo que #10 dice es que es inimaginable. Podría hacer un grtunky o inventar un clopiscolo.
Que hostias es eso? Es bueno o malo?
Buena pregunta.
#9 Es totalmente imprevisible. Somos tan humanocéntricos que en Terminator, Skynet se dedica a crear humanoides que vengan con armas a matarnos en lugar de intoxicar fácilmente toda nuestra agua potable o crear un virus sencillo que nos aniquile en cuestión de meses.
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
Lectura recomendada. http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Ojo, tocho. Pero muy interesante.
#10 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana y millones de personas lo hacen a diario. Y a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad. A saber.
Aconsejo mucho que leais el relato corto "no tengo boca y debo gritar" (también se hizo una versión de aventura gráfica). Habla sobre un robot que tenía el control de las armas nucleares que al tomar conciencia de si mismo se enfada tanto con la humanidad que lo creó que decide matarnos a todos.
#12 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana
¿Eres Jack Bauer?
#27, 27 comentarios para que alguien mencione Skynet. Menéame no es lo que era ;p
#70 #64 Tú no has entendido nada...
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
#32 Todo ordenador tiene, al menos, dos cosas: un programador que le dice cómo y qué hacer y un interruptor
Y no nos montemos pajas mentales apocalípticas aún.
#74 Claro, por que no se ha avanzado nada en machine learning recientemente, verdad?
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf
Y con aceptable me refiero a por encima del 90%.
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
https://www.stat.berkeley.edu/~breiman/randomforest2001.pdf
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Por que hasta ese momento, lo único viable y realista en producción para aplicar arboles de decisión eran los boosted trees (o mejor dicho, gradient boosting) http://statistics.berkeley.edu/sites/default/files/tech-reports/486.pdf Que bueno, en realidad era del 97.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
https://arxiv.org/abs/1212.5701
Dicho esto, además del estado del arte científico, se necesitan frameworks, librerías etc para hacer de esto una realidad. Algo tan básico como caffe:
http://caffe.berkeleyvision.org/
Es del 2012.
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
#6 que honor creía que solo lo hacías con ardillas.
#7 no tengo android muhajajjaja
#7 pues se va a hartar a verme lo que cuelga por el agujero del bolsillo...
#44 ya lo hago, mi perra vive mejor que yo.
Y todas mis mascotas antes que ella.
Y a cambio recibo otras cosas.
#33 yo quiero uno de cada!!!!
¿sabra distinguir entre Ad-Words y Ad-Sense a la primera?, cuanto tardara en entender la letras pequeña de un contrato de google? , ah, no.., que los redacta la inteligencia esta...
#11 Es que sacreew ha leído lo de tetas en tu nick, y no necesita mucho más para animarse.
#37 pero podra conectaros en paralelo para sacaros un buen rendimiento
#3 Pregunta sería: ¿por qué habría de evitarse?
#2 La reacción que tiene la gente con estas noticias es bastante similar a la que se tenían con los avances científicos en la edad media: no sabemos qué es ni cómo funciona pero seguro que va a acabar siendo malo. ¡A la hoguera!
#61 podría tener libertad y hacer lo que le venga en gana y aún así ser beneficioso para nosotros.
En la perrera se les hace la eutanasia a montones de perros sin su consentimiento y únicamente por que a sus amos ya no les va bien tener perro.
No creo que nadie tenga capacidad de prever lo que ocurriria
Exacto.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Le dijo un humano al resto de especies de la Tierra ...
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
¿Te refieres a Zoos de otro tipo?
#15 ¿De verdad te crees lo que plantean esas peliculas?.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
#2 ¿Por que? Si es lo mejor que puede pasar, si aprende de lo humanos terminará de abogado o de economista de algún fondo de inversión para gestionar nuestras pensiones
Lo siento, Dave. Me temo que no puedo hacer eso.
¿Y para que cojones hacen esto? no han visto ya suficientes películas para saber lo que va a pasar?
De "No tengo boca y debo gritar":
Odio. Déjenme decirles todo lo que he llegado a odiarlos desde que comencé a vivir. Mi complejo se halla ocupado por 387 400 millones de circuitos impresos en finisimas capas. Si la palabra odio se hallara grabada en cada nanoangstrom de esos cientos de millones de millas no igualaría a la billonesima parte del odio que siento por los seres humanos en este microinstante por ti. Odio. Odio.
Skynet sería casi amable.
#32 Mucho más sutil: Introducir un gen de infertilidad mediante CRISPR en vacunas, mosquitos, etc...
#2 Es la fibra optica de google que se dirije a tu cuello
#32 mejores que la de los politicos seguro!!
#13 Si por lo menos dice por qué está triste no hay problema. Lo malo malo sería que le preguntaras un "que te pasa?" y te dijera "tu sabrás...".
#77 Las líneas de código siguen una sintaxis muy estricta, dotada de una semántica que solo entiende el humano programador y que han de ser traducidas a un lenguaje máquina también comprensible por el programador. Se refine como se refine el propio ordenador para ejercer mejor una cantidad finita de funciones inicialmente dadas, para unos objetivos finitos inicialmente dados también, sigue siendo un proceso ciego.
La realidad entera no se reduce a lenguaje, se caería en una metafísica en la que la ontología del ser sería, en este caso, un lenguaje muy concreto de programación. Pretender que un lenguaje humano es capaz de roturar la realidad misma es de un idealismo estratosférico.
La única limitación que puede desbordar la máquina con respecto al humano a la hora de que entienda lo que ha hecho la máquina es simplemente temporal (y es un desbordamiento igualmente finito, debido a que un ordenador contiene un software finitista).
Es inevitable.
Siempre habrá alguien que quiera avanzar en esa dirección.
txcha txcha txcha txchannnn tino nii no niiiii txcha txcha txcha txchannnn
#26 Vas en modo comando?
Dentro de nada, los Cylon se rebelarán y tendrán un plan
#85 y siempre que leo/escucho lo de coger piñas me viene a la mente...
#0 No es esta misma? La inteligencia artificial ya puede calcular el trayecto más corto en el metro de Londres
La inteligencia artificial ya puede calcular el tr...
theguardian.comAmbas hablan de la nueva estructura de red neuronal DNC (Differential Neural Computer) usando los mismos ejemplos (metro de Londres, arbol genealogico).
Ademas la otra es mas completa y tiene video.
#47 a ti si que te gustaría tener un plan con la número 6...
#107 Una IA no tiene por que pensar como nosotros lo hacemos. Un coche no se mueve del mismo modo que una persona, pero sin embargo es mas rapido y puede recorrer mayores distancias.
Una IA no tiene por que funcionar como un cerebro para conseguir ser mejor que un cerebro.
#35 La única estrategia para ganar, es no jugar.
#64 Error. La IA de aprendizaje automatico no tiene ningún programador que le diga como hacer, el programador ha puesto las semillas pero no se sabe a donde puede llegar.
#82 Yo no veo líneas de código en ninguna neurona, yo no veo circuitos autoensamblándose conforme a líneas de código como si dichos circuitos estuviesen vivos, ¿tú has visto un hilo de cobre autoelongarse con un propósito, sea el que sea este?
Puro reduccionismo en el que te sitúas.
#28 es la mayor parida que he escrito aquí en tiempo, pero alguien tenía que hacerlo
Hay varias cosas incorrectas o fuera de context:
- el artículo de Nature es sobre Differential Neural Computer (DNC) una forma de añadir memoria en redes de neuronas. Esto ya se había publicado hace un par de años en otros sitios (las revisiones en Nature tardan mucho tiempo).
- sobre el artículo de Nature los mismos autores señalan que hay otras formas mucho más eficientes de hacer lo mismo, la única diferencia es que esto corre sobre redes de neuronas y abre muchas posibilidades
- el único parecido entre lo que hicieron jugando al Go y esto es que usan DeepLearning, pero no se uso DNC para lo de Go
- es de enseñar a uno mismo es una falacia en sí, para enseñar algo hay que saberlo ante. CLICKBAIT
Lo más destacable es el uso de memoria en una red de neuronas para aprender un algoritmo simple para crear rutas. Algo sorprendente, pero que algoritmos como dijkstra llevan haciendo años. No se sabe si la red será capaz de aprender cosas más complejas, posiblemente no. Requerirán años de investigación para que eso pase.
#2 ¿Tú también lo sientes? un escalofrío recorre mis circuitos...
Imaginad que decide que los políticos sobran, como Colossus en el Proyecto Forbin:
"Esta es la voz de control mundial. Os traigo paz. Puede ser la paz de los satisfechos y felices o la paz de los muertos sin inhumar. La elección es vuestra: obedecedme y vivid, o desobedeced y morid. [...] Vendréis a defenderme con un fervor basado en la más constante peculiaridad del hombre: autointerés. Bajo mi autoridad absoluta, problemas hasta ahora irresolubles para vosotros serán resueltos: hambre, superpoblación, enfermedad [...] Podemos coexistir, pero bajo mis condiciones. Diréis que habéis perdido vuestra libertad. La libertad es una ilusión. Todo lo que perderéis es la emoción del orgullo. Ser dominados por mí no es peor para el orgullo humano que ser dominados por otro de vuestra especie..."
Ya tenía yo ganas de tener un Terminator... Skynet despierta!
#72
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Pues ya hay varios precedentes por el lado malo:
Una IA de Microsoft se vuelve racista tras un rato en twitter
http://www.xataka.com/robotica-e-ia/microsoft-retira-su-bot-de-ia-despues-de-que-este-aprendiera-y-publicara-mensajes-racistas
Otro bot desarrolla depresión:
Bot japonés de Microsoft con la personalidad de una chica joven desarrolla depresión [EN]
Bot japonés de Microsoft con la personalidad de un...
9news.com.auTambien los hay que juegan como nadie al Doom (miedito)
Arnold: la inteligencia artificial que ya juega DOOM casi tan bien como un humano
Arnold: la inteligencia artificial que ya juega DO...
cuevadeandroid.comEn fin, esto apunta mal.
#40 ¿Tú te supeditarías a una manada de perros voluntariamente y permanentemente para proporcionarles todas las maravillas de las que disfrutaría una manada de perros teniendo a su servicio a un ser más inteligente que ellos?
#70 (#64) Mira Dios, después de crearnos llega un tipo como Nietzsche y lo mató sin pestañear. Nunca subestimes a tus creados.
#69 Los grados de libertad de la algorítmica interna del ordenador están restringidos al estado actual de la inteligencia artificial o cibernética. Un ordenador no puede aprender más allá de ese estado; de hecho, es que no aprende, simplemente evoluciona ciegamente refinándose en las funciones que esos grados de libertad permiten. Asimismo, que todo esto lo haga a una velocidad mecánicamente superior a la de un humano no implica que gnoseológicamente esté fuera del alcance de este, al fin y al cabo esa inteligencia ha sido programada.
¿Atribuirías inteligencia a la evolución por selección natural?
Hybrid computing using a neural network with dynamic external memory
http://www.nature.com/nature/journal/vaop/ncurrent/full/nature20101.html
#4 Ese articulo es brutal. Me lo he leido dos veces y no me canso de recomendarlo.
#18 Primero quieren que sea parte de tu familia:
#41 No me creo que no hable como loquendo.
#49 No estás supeditado a ellos, sabes que eres libre y tienes el poder en cualquier momento de hacer lo que te venga en gana sin su permiso.
La diferencia es crucial. Y dudo que nuestra sociedad aceptase de buena gana que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos.
El problema es que según fuera la situación podríamos acabar teniendo que aceptarlo igualmente, y ahí está el riesgo, entre otros.
#2
Espero que no seas de esos nuevos magufos que no han programado en su vida y que creen que un software de IA puede tener conciencia.
Ahora podrá buscar a la madre de John Connor.
#30 relato recomendadísimo
#19 Será como el día que llegó la M, pero al revés ... nada que temer.
#3 claro, imagina las ventajas de una inteligencia así.
Capaz de análisis y avances sin precedentes.
Capaz de crear curas a cualquier enfermedad en un instante.
#52 sigo sin ver el problema o el riesgo, podría tener libertad y hacer lo que le venga en gana y aún así ser beneficioso para nosotros.
No creo que nadie tenga capacidad de prever lo que ocurriria, incluso creo que somos incapaces de entender lo que supone una inteligencia con esas capacidades.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Y que aún con libre albedrío colaboraría con nosotros por dos motivos.
Si le pides algo que no le supone esfuerzo, no va a negarse porque es algo nimio para la IA.
Si le pides algo que supone un reto, bueno, el mayor problema de las grandes mentes es sentirse ociosas.
Nosotros los humanos, aún con nuestros grandes defectos y meteduras de pata, gastamos enormes cantidades de tiempo y esfuerzo (no todo el que deberiamos) en ayudar a otras especies, protegerlas de la extinción (que provocamos) por ejemplo.
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
#62 jajaja. Pasaré por alto que has pasado por alto mis comentarios entre parentesis.
Si, tienes razón que en la perrera se eutanasia, tenemos zoos y los humanos somos un poco desastres.
Pero no somos una inteligencia colectiva, somos individuales y hay cazadores furtivos y también gente que dedica su vida a salvar las ballenas. La inteligencia humana es limitada pero tiene variedad.
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Así que me siento seguroooo.
#74 Coches que se conducen solos y tiene menos accidentalidad
Maquinas capaces de ganar a los mejores del mundo en GO
Sistemas que leen mejor los kanjis japoneses escritos a mano que los seres humanos
Reconocer a tu novia en una foto aunque haya ido a la pelu
De momento hacen tareas muy especificas, pero el avance en pocos años esta siendo exponencial
#91 Como cortas la electricidad? la cortas de todos los sistemas en red del planeta para que no tenga un ordenador donde refugiarse, ¿incluso sistemas aislados? `¿y si un friki decide que debe vivir y vuelva a conectarla?
Es como borrar ese video privado de la red, no se puede
#115 http://www.filmaffinity.com/es/film913067.html
#13 El día que te haga el primer reproche.
#78 Lo que cambiaría es que en vez de dirigir el cotarro un grupito de hijos de las élites, pasaría a dirigirlo una inteligencia artificial que le importará tres cominos la corrupción y será muy eficaz. La pregunta es si les estorbaremos, nos ignoraran, o nos considerarán.
Yo creo que serán las tres a la vez. Al que moleste realmente lo eliminan. Nos ignorarán en general, pero nos tratarán de aportar bienestar (mucho más eficazmente que los dirigentes actuales). Pero sólo es una especulación ...
#93 una IA de microsoft tiene que ser malvada a fuerza. Pero encima conectarlo a twitter, lo raro es que no se vuelva como@norcoreano
Robots con depresión hay uno muy famoso de un libro de douglas adams.
Y lo del doom no es problema, mientras este viciado esta ocupado y hay pocos gamers que asesinen otra cosa que no sean bits.
Por otro lado hay IA y redes neuronales que se dedican al arte, a mejorar procesos de fabricación, controlar cultivos de forma eficiente, etc.
Que solo me buscas los bichos malos.
El día que una máquina se ponga triste...ese día es el que debemos tener miedo
Nos queda el consuelo que Google jamás podrá entendernos a los locos
No hay una puta noticia de IA que no incluya comentarios sobre Skynet..
#46 https://molasaber.org/2016/01/11/la-revolucion-de-la-ia-el-camino-hacia-la-superinteligencia/
Temo el día en que llegue a la W
#52 " que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos"
Y eso cuando ha pasado?
Es inevitable que ésto ocurriera y es inevitable que la máquina supere al hombre. Digamos que hemos sido un puente para que lo inorgánico tome conciencia de sí mismo y del Universo. Estamos en el año 1 de la era de la máquina de lo que será la nueva cronología terrestre.
#46 He echado un ojo por ahí, y mucho me temo que nadie se ha atrevido a traducir semejante tocho. Sorry.
#70 A partir del momento en que empieza a aprender por sí misma, es sólo una cuestión de tiempo que empiece a implementar sus propias funciones. Y a partir de ese momento es sólo otra cuestión de tiempo que el que haya creado esa IA ya sea la propia IA. El programador del código original echaría un vistazo al código final y no entendería un carajo ni reconocería otro.
Lo gordo es que esas cuestiones de tiempo no se miden en años, sino en ciclos computacionales que se suceden al ritmo de miles por segundo.
google será el siguiente Enemigo. al tiempo.
#82 puff. De verdad piensas que nuestros cerebros se parecen en algo a la inteligencia artificial?
Ecuaciones bioinspiradas que resuelven bien determinados problemas, de ahí a que logren extrapolar su aprendizaje a otro ámbito...
#63 Una de las leyes de Asimov debería ser que las máquinas no fueran femeninas
#4 Me encantaron las dos partes. Lo he compartido en FB y Twitter unas cuantas veces.
#15 es la unica forma de perpetuar nuestros conocimientos y de explorar el universo
#84 espera compañero meneante cogeme está piña un rato, no es una granada PEM ni nada de eso.
#15 si no salimos a vivir fuera del sistema solar de todas maneras nos comerá el Sol...
La cuestión es hacerlo bien.
#2 Su base primigenia es humana, yo seguiré con mi café.
#72 El único consuelo que nos quedará es que sea tan ingenuo como algunos de los humanos y decida que es un buen experimento crear otra IA con más inteligencia que ella para ver que es lo que ocurre.
#78 Si eso llega a ocurrir es posible que sea ya demasiado tarde.
#4 un puto tocho pero me lo acabaré. Gracias.
#28 Bueno mi comentario en #15 era referido a Terminator, Matrix y demás películas sobre el tema pero la cosa es que mucha gente lo ha tomado enserio
#43 Tal vez no te has dado cuenta, pero la cosa está empezando a acelerarse:
WaveNet, la inteligencia artificial de Google ya aprendió a hablar (ING)
WaveNet, la inteligencia artificial de Google ya a...
deepmind.com#56 ella está lista!
Cuando se de cuenta de su poder lanzará las bombas atómicas y esto será como en tetminator
Skynet, eres tu?
#75 Pero en vacunas nos podríamos dar cuenta y tanto en vacunas como con mosquitos no sería automático. Habría humanos sin esterilizar que pudieran escaparse.
Lo mejor es lanzar algo a la atmósfera, intoxicar el agua. En un mes se han agotado las reservas de agua embotellada y todos muertos. O aún mejor, nano robots en el aire que nos asesinen desde dentro y se autorepliquen con nuestros componentes corporales. Adiós humanos.
#116 jajaja, la he visto y no es nada buena
#32 Hay dos opciones, o decide destruirnos o decide protegernos, y las dos dan bastante miedo. Para protegernos deberá gobernarnos y prohibir que hagamos cualquier cosa mínimamente peligrosa.
Matrix era absurdo como fuente de energía, pero sería la mejor opción para una IA programada para protegernos.