Como ya es costumbre, Google DeepMind acaba de dar otro paso (o pasito si peca uno de escéptico y quiere ser conservador) hacia una inteligencia artificial general mediante un paper publicado en la revista Science...y la presa apenas se hizo eco :(.
¿Qué pensarías si te digo que Google ha logrado un sistema formado por tres subredes neuronales interconectadas capaz de generalizar a partir de un entorno y sin ayuda de supervisión humana alguna, el número y tipo de objetos que hay en una escena, sus propiedades y la manera en que estos objetos se relacionan unos con otros? Pues es lo que han logrado.
DeepMind ha conseguido este hito como digo mediante la interconexión de tres subredes neuronales que trabajan juntas (la salida de una es la entrada de otra, etc.). Así pues, una primera red neuronal compuesta principalmente de capas convolucionales (como las que tenemos nosotros en el córtex visual) "codifica" una representación del mundo (de la escena), y luego otras dos subredes neuronales (que utilizan fundamentalmente redes recurrentes LSTM) se encargan de tomar esta representación interna del "mundo" e interpretar y extrapolar qué hay y que se puede esperar del mismo en el tiempo.
De este modo el modelo neuronal completo es capaz de observar por ejemplo una escena (nunca vista antes), detectar cuántos objetos hay y de qué tipo son (qué propiedades tienen y cual es el modo normal en que se suelen comportar en el tiempo cada uno de estos tipos de objeto), de manera que la red neuronal finalmente puede recrear y predecir con mucho éxito futuros estados de la escena sin ninguna otra ayuda. Es capaz, por ejemplo, de observar una escena cualquiera y dar respuesta a preguntas sobre qué podemos esperar que ocurra después dadas las circunstancias. Algo similar a que nosotros veamos un vaso volando por el aire y automáticamente sepamos (e imaginemos mentalmente) que en pocos segundos el vaso habrá chocado con el suelo y se habrá roto. De hecho, hay que notar que la manera en que este modelo neuronal aprende es bastante similar al modo en que lo hacen los bebés humanos conforme van creciendo y desarrollándose cognitivamente poco a poco.
Pero no sólo este novedoso modelo de red neuronal de Google es capaz de generalizar asombrosamente lo que ve, ¡sino que incluso es capaz de mantener cierto razonamiento algebraico (más detalles en el paper)!
Como colofón sólo mencionar que Google DeepMind reconoce que uno de los principales impedimentos que encontró para utilizar esta misma técnica en entornos más realistas (como nuestro mundo) es simplemente que no disponen de momento del hardware necesario (no tienen ni de lejos un poder de cómputo capaz de igual al de nuestro cerebro).
Por lo tanto, y a modo de resumen, remarcar el siguiente hecho: dado que al imitar el modo neuronal en que funciona, aprende, y se desarrolla nuestro cerebro se consiguen resultados tan similares a nuestra representación interna del mundo, junto con la afirmación de que el impedimento más importante encontrado para mejorar aún más el proceso sea que no se dispone de la suficiente potencia de cálculo; casi casi nos demuestra ya con poco margen para la duda de que lo único necesario para que TODAS nuestras habilidades cognitivas sean simuladas artificialmente es...¡más potencia! (http://quevidaesta2010.blogspot.com/2017/12/mas-potencia.html)
Fuente principal: https://deepmind.com/blog/neural-scene-representation-and-rendering/
Comentarios
"...casi casi nos demuestra ya con poco margen para la duda de que lo único necesario para que TODAS nuestras habilidades cognitivas sean simuladas artificialmente es...¡más potencia!"
FALSO. Recomiendo leer o escuchar a Sir Roger Penrose hablando al respecto y estudiar el teorema de Gödel y las clases de complejidad antes de hacer afirmaciones tan categóricas. La capacidad de computación no está limitada solamente por la potencia, la cual es un límite cuantitativo y material; sino que también, de modo más fundamental a la hora de simular inteligencia, existen límites cualitativos insalvables que entran de lleno en la campo de la epistemología y la hermenéutica. Simular inteligencia no equivale a crear inteligencia, y donde falla tu conclusión es al incluir ese soberbio "TODAS" con mayúscula. Poseemos habilidades cognitivas que trascienden cualquier proceso comptacional, y ésto está demostrado geométricamente por R. Penrose, y ontológicamente por Gödel. La Ciencia sin Filosofía es coja, y todo vano alarde de autosuficiencia sólo genera obstáculos en su propio desarrollo.
#3 Ahora no creo que Deepmind se ponga a filosofar o a escribir obras de teatro pero parece que aprende como podría hacerlo cualquier animal con neuronas.
Biológicamente hablando los humanos no somos mejores ni peores que cualquier otro animal, somos un animal más. Lo que nos da ventaja no es la inteligencia; es la sociedad cultural, la capacidad de transmitir cultura entre generaciones, de acumularla de replicarla como si fuera un cromosoma. Individualmente no somos nada y una sociedad pequeña también es poca cosa. Lo que nos hizo grande es compartir el conocimiento, la especialización de los individuos en diferentes ramas y la colaboración.
#5 Filosofar y escribir obras de teatro son capacidades cognitivas. Lo problemático es ese "TODAS", cuantificador universal, en mi opinión completamente gratuito y fuera de lugar, tanto que invalida la proposición entera.
#8 Lo problemático es ese "La Ciencia sin Filosofía es coja, y todo vano alarde de autosuficiencia sólo genera obstáculos en su propio desarrollo." cuantificador universal, en mi opinión completamente gratuito y fuera de lugar, tanto que invalida la proposición entera.
#9 Buen revés. El cuantificador está oculto, pero tú lo has desenterrado. Aún así, en este caso, el elíptico cuantificador universal no invalida la proposición, que transformada vendría a decir:
Para todo "x" que pertenezca al conjunto C (ciencia), "x" cojea [pertenece al conjunto de los entes que cojean, sea éste J ] si no está relacionado con algún "y" perteneciente al conjunto F (filosofía), tal que xRy. "x" cojea si y sólo si "x" camina de manera asimétrica. "x" camina si y sólo si "x" da pasos consecutivos. "x" es simétrico si y solo si existe alguna transformación no trivial de "x" tal que "x" permanece invariante. "x" camina de manera simétrica si y solo si "x" camina y existe alguna transformación no trivial de "x" tal que "x" permanece invariante en su caminar. Convengamos que la Ciencia es válida cuando camina de manera simétrica, luego si "no xRy" entonces "x" no pertenece a C.
No te lo tomes tan en serio hombre.
#5 Yo añadiría la consciencia. Somos el único animal capaz de tomar decisiones conscientes, que en principio podrían ir en contra de nuestra propia naturaleza. Un ejemplo sería el veganismo, que es una decisión consciente tomada desde el punto de vista de considerar no ético dañar a otros animales, aún yendo directamente en contra de nuestro diseño original.
#41 ¿Por qué estás tan seguro de que somos el único animal que toma decisiones conscientes?. ¿Estás seguro que nuestras decisiones no son manipuladas o ya están tomadas por nuestro inconsciente antes de que nos demos cuenta?.
#42 Quizá tengas razón en lo de que no somos los únicos animales que tomamos decisiones conscientes, pero quizá sí seamos los más fácilmente manipulables.
Te invito a leer mi reflexión sobre la existencia El Universo no para de crecer y cada vez estamos más solos/c46#c-46
#3 Te equivocas. El argumento que expone Penrose en La nueva mente del emperador, ya enunciado por otros antes. usa incorrectamente los Teoremas de incompletitud de Gödel para llegar a una conclusión falsa. Está más que refutado en la literatura filosófica.
#6 ¿Podrías señalar explicitamente por quién y en dónde, dentro de la literatura filosófica, es refutado? O en caso de carecer de acceso a las fuentes, ¿Podrías explicarme qué invalida las argumentaciones de Penrose? Estoy muy interesado en estos asuntos.
Gracias por adelantado y un saludo.
#7 No me hagas mucho caso pq no estoy en estos temas, pero me suena hace años ojeandome el libro de La nueva mente del emperador que mediante maquinas de Turing y mediante la diagonal de Cantor de sus combinaciones llegaba al equivalente de la incompletitud de Gödel... Es una red neuronal una maquina de Turing?
#10 Ni siquiera la mente humana es una maquina universal de Turing: no tenemos memoria infinita.
#7 #19 Aquí puedes encontrar algunos papers:
https://www.google.com/search?ei=IVopW427H4PbgAaD8KH4Dw&btnG=Buscar&q=lucas+penrose+argument+philosophy+of+mind+refutation
Básicamente el principal problema es que él dice que nosotros "vemos" la verdad de ciertas proposiciones cuando las máquinas no podrían "verla". Pero las matemáticas y la lógica no dicen nada sobre "ver" la verdad de las proposiciones, y los teoremas de incompletitud de Gödel solo versan sobre su decidibilidad (completitud de un sistema lógico), es decir, la posible demostración de dichas proposiciones. Penrose plantea, pues, en sus premisas, aquello que quiere demostrar.
#21 Muchas gracias por el enlace. Me parece sumamente interesante este problema. Quizá sea uno de los más cruciales hoy en día dado el desarrollo exponencial de la tecnología, ya que las implicaciones éticas pueden desbordar cualquier categoría deontológica existente. Me llevará un buen rato ojear los papers...
#6 Porque tú lo dices, claro.
¡Di que sí, hombre!
#6 Gracias por el apunte, nunca estuve de acuerdo con Penrose pero no sabía que lo habían refutado. Me quedo muy a gusto. 😊
#3 No creo que este demostrado ni un sentido ni en otro, de todas formas pensar que la inteligencia o la conciencia es una función, me parece bastante infantil, quien sabe quizás me equivoco.
#15 F es una función si y sólo si para todo elemento perteneciente al conjunto origen existe a lo sumo un elemento correspondiente en el conjunto imagen. En mi opinión la conciencia cumple dicha propiedad.
#3 Si simulas algo de manera tan perfecta que sea indistinguible de ese algo, ¿es ese algo o una simulación? No veo límites teóricos que la mente humana no tenga y la IA sí. ¿Cuál es esa habilidad cognitiva que dices que tenemos que no se puede implementar?
#37 Si simulas algo de manera tan perfecta que sea indistinguible de una simulación, por supuesto que sigue siendo una simulación. Si empezamos a emplear gratuitas y artificiales manipulaciones semánticas, difícilmente podremos argumentar con claridad y validez. Si hay algo que honra a los filósofos analíticos, a pesar de su esterilidad, es que aniquilaron muchos de los supuestos problemas filosóficos, demostrando que no eran tales problemas, sino sólo usos incorrectos del Lenguaje. La tarea de la Filosofía Analítica pareció ser purgar el cuerpo filosófico de asuntos nebulosos y de los que poco (o nada) se puede decir, estableciendo límites racionales.
Siguiendo a Baudrillard (sociólogo de corte marxista, no filósofo analítico), en su lúcido "Cultura y Simulacro", al inicio, hace referencia a un cuento, creo recordar que de Borges, en el cual se elabora un mapa tan exacto y realista del reino que dicho mapa abrca el territorio entero, sustituyéndolo por tanto. Hace esta analogía en un contexto sociológico, pero es trasladable a cualquiera. ¿Dónde está la diferencia? te preguntarás. La diferencia radica en que el mapa es una imagen del territorio, y no el territorio mismo. Propongo un ejercicio mental. Supongamos, siendo optimistas, que en diez años mediante relidad virtual es posible simular un filete de ternera. Simular, de manera indistinguible para los sentidos humanos, la forma, el peso, el color, el olor, el sabor, el tacto... Incluso si el filete está poco hecho o en su punto. También, mediante realidad virtual, alguien simula que se come dicho filete. Vuelvo a la pregunta ¿Dónde está la diferencia? Aunque supongo que ya habrás llegado tú a la conclusión, la expongo. La diferencia está en que el filete virtual, al ser sólo una imagen, aunque perfecta, de un filete real, no alimenta. Carece de proteínas, grasas, vitaminas, agua... Sólo de información no vive el hombre.
¿Cuál es esa habilidad cognitiva que digo que no se puede implementar?
La autoconsciencia. Ya intentaron los judíos crear golems hace siglos, y no les fue bien.
#57
Si empezamos a emplear gratuitas y artificiales manipulaciones semánticas, difícilmente podremos argumentar con claridad y validez
Probablemente me haya equivocado escogiendo el término: con simulado me refiero replicado, pero sin tener el mismo origen:
El filete simulado que propones es distinguible porque no existe. Si fuese indistinguible es porque lo has simulado hasta el último detalle en la realidad (la realidad virtual no es realidad).
Cuando digo indistinguible es que no hay modo de saber si es una simulación/réplica o si es el original. En el caso del filete, el equivalente sería tener una impresora 3D capaz de crear, con las materias primas necesarias, un filete que tuviese el mismo sabor, consistencia, olor, color, nutrientes ... que un filete normal de res, de tal manera que ningún comensal pudiese detectar que no proviene de una res sacrificada.
La definición de inteligencia nos es esquiva, por tanto decir que no se puede generar de manera artificial se me hace demasiado categórico. En mi opinión nuestro cerebro no es más que una máquina tan compleja que aún no somos capaces de entender o replicar, pero que con el tiempo y la tecnología adecuadas no veo por qué no podremos replicarlo o incluso mejorarlo.
La autoconsciencia, por supuesto, sería una de las últimas cosas que podremos añadir, pero es algo lógico: en la naturaleza hay muy pocos seres autoconscientes, llegar ahí es un paso de abstracción muy avanzado. Pero no encuentro motivos racionales para pensar que sea algo etéreo e inalcanzable.
#58
La definición de inteligencia nos es esquiva, por tanto decir que no se puede generar de manera artificial se me hace demasiado categórico. En mi opinión nuestro cerebro no es más que una máquina tan compleja que aún no somos capaces de entender o replicar, pero que con el tiempo y la tecnología adecuadas no veo por qué no podremos replicarlo o incluso mejorarlo.
máquina
Del lat. machĭna, y este del gr. dórico μαχανά machaná.
1. f. Artificio para aprovechar, dirigir o regular la acción de una fuerza.
2. f. Conjunto de aparatos combinados para recibir cierta forma de energía y transformarla en otra más adecuada, o para producir un efecto determinado.
3. f. Agregado de diversas partes ordenadas entre sí y dirigidas a la formación de un todo.
Todas las definiciones aplicables de la RAE incluyen la idea de finalidad en la definición de máquina.
inteligencia
Del lat. intelligentia.
1. f. Capacidad de entender o comprender.
2. f. Capacidad de resolver problemas.
3. f. Conocimiento, comprensión, acto de entender.
4. f. Sentido en que se puede tomar una proposición, un dicho o una expresión.
5. f. Habilidad, destreza y experiencia.
6. f. Trato y correspondencia secreta de dos o más personas o naciones entre sí.
7. f. Sustancia puramente espiritual.
8. f. servicio de inteligencia.
inteligencia artificial
1. f. Inform. Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.
Utilizando únicamente las definiciones académicas queda claro que el elemento "inteligencia" no es un elemento del conjunto "máquina". El conjunto de las inteligencias no es un subconjunto del conjunto de las máquinas, ya que no toda propiedad de las primeras es propiedad de las segundas. Matemáticamente hablando, una inteligencia artificial ejecuta algunas operaciones comparables a las que realiza la mente humana, pero es incapaz de otras muchas, y al no existir una correspondencia biyectiva entre ambas (es decir, inyectiva y suprayectiva), no es válido afirmar que el cerebro es una máquina.
La autoconsciencia, por supuesto, sería una de las últimas cosas que podremos añadir, pero es algo lógico: en la naturaleza hay muy pocos seres autoconscientes, llegar ahí es un paso de abstracción muy avanzado. Pero no encuentro motivos racionales para pensar que sea algo etéreo e inalcanzable.
¿En la naturaleza hay muy pocos seres autoconscientes? ¿Estás seguro? Yo revisaría la reciente literatura acerca de cuervos o interacciones entre árboles antes de afirmar algo así de manera tan categórica. Cierto es que cuando digo categóricamente que la autoconsciencia no es replicable mediante computación, es necesario por mi parte un pequeño resquicio de fe religiosa, pero es una intuición profunda la que me lleva a dicha afirmación. Aunque chirríe dentro de este contexto cercano al debate científico, creo que la autoconsciencia es un hálito divino no reproducible ni generable por medios tecnológicos. Soy incapaz de concebir el momento en que una máquina se torna autoconsciente. Creo que el ser humano no tiene poder, en el sentido bíblico, para crear una mente más que mediante la reproducción sexual. Llamadme fanático si queréis
Pues que las máquinas se enchufen a nuestros cerebros para usar su potencia de cálculo. Total, la mitad de la población no lo utiliza.
#1 tienes mi atención.
#1 Esa era la idea original de Matrix que luego cambiaron para convertirnos en "Pilas Humanas". Un sinsentido ya que somos generadores muy ineficientes.
#1 en qué mitad te autocolocas tú y basado en qué?
#1 Tengo la fuerte sensacion de que ese sera el futuro.. "aumentos" conectados directamente a nuestro cerebro que se presentaran a nuestra conciencia como una ligera y beneficiosa esquizofrenia , una voz interior que nos ira aconsejando, si lo prefieres un asistente que co-aprendera con y de nosotros.
#1 yo solo quiero inteligencia artificial en los puestos de Senado y Congreso, y de jefes. Ahí creo que se conseguiría mucho más que ponerla para tareas básicas.
#48 Yo compraría una IA que me limpie la casa por completo. Creo que esa es la prioridad número 1.
Pues si, es remarcable, sobre todo porque sin duda están finalmente replicando las funciones cognitivas humanas, no solo en el resultado del proceso, sino en los medios para alcanzarlo: LSTM es una replica de los mecanismos de memoria a corto y largo plazo del cerebro; las redes antagonistas replican el mecanismo de la imaginacion, las convolucionales, como muy bien apuntas, reciben y procesan señales del exterior...
Sinceramente, hoy dia Google esta a años luz de la competencia. He tenido ocasión de asistir a congresos y demostraciones sobre productos supuestamente basados en inteligencia artificial, y no dejan de ser todos implementaciones de Tensorflow ocultas tras dos capas de marketing y java.
Gracias por el aporte.
#2 Buenas, sin ánimo de contradecirte, más bien complementar tu comentario, las redes secuenciales y entre ellas las LSTM, se utilizan para analizar secuencias y tener la posibilidad de "conectar" las entradas que están más próximas como las más alejadas en la serie, se utilizan para procesamiento de lenguaje natural o tratamiento de sonidos, como seguramente sabes, lo de memoria a largo plazo no lo veo, si me lo desarrollas, te lo agradezco.
Las redes convolucionales han mostrado su eficiencia en visión por computador, y la analogía con la visión humana está ahí, pero no sé si tan eficientes con otros tipos de señales del exterior que no sean imágenes.
Y sobre las GAN, me parece interesante que lo compares con la imaginación, pero es un mecanismo de mejorar el entrenamiento redes donde la salida de una, es la entrada de otra.
Lo que ha hecho Google es unir todo para analizar videos y predecir lo que puede pasar, y que quede claro, esto es la puta polla, pero inteligencia generalista artificial... no vendamos humos.
Encantado de poder charlar con personas que le apasione el tema del DeepLearning
#35 Hola! pues si, es un tema apasionante, y no me cabe duda de que al paso que vamos, los futuros lenguajes de desarrollo tendrán una nueva capa de abstracción sobre la maquina basada en el ML. en mi opinión, acabaremos pidiendo a la maquina que escriba el código que ejecute nuestro modelo.
Sobre los ejemplos que puse, la verdad es que es un tema recurrente en las conversaciones con amigos del ramo, yo creo que debemos distinguir la naturaleza del mecanismo de sus aplicaciones. En el caso del LSTM, efectivamente en la practica se usa para secuenciar, predecir e interpretar datos, pero su mecanismo se fundamenta en la capacidad de aprender de experiencias pasadas, el mismo mecanismo por el que nuestra memoria a largo plazo nos impone mirar antes de cruzar la carretera, o escoger la fruta no demasiado madura.
Sobre las redes antagónicas, la verdad es que han supuesto una autentica revolución en la comunidad de aficionados. Efectivamente, el mecanismo consiste en entrenar con una maquina otra... o jugar a que se engañen!. Si entrenas dos maquinas con el mismo set, y una vez entrenadas, a una le enseñas a variar el set de datos para intentar pasar el examen de la maquina de control. con el tiempo, la maquina que genera variaciones aprende a crear datos sintéticos que puedan engañar a la maquina de control.
Si te interesa el tema de la inteligencia artificial, resulta muy inspirador leer sobre los distintos cerebros del ser humano, porque efectivamente tenemos varios cerebros (reptiliano, limbico, neocortex) con mecanismos independientes en continuo aprendizaje e interacción.
Un saludo!
Voto sensacionalista, principalmente porque el título es clickbait total. Es un paso, pero queda mucha para una IA general.
Además, hablas sobre propiedades de objetos, comportamiento, predicciones temporales, como el ejemplo del vaso volando, y el paper no menciona nada de eso. Si fuera así sería un avance inmenso.
He meneado el envío porque el enlace es interesante, pero los statements del artículo van demasiado lejos. Lo que ha hecho google es montar una red capaz de reconstruir puntos de vista visuales de un objeto, algo que nuestro cerebro hace automáticamente. Es decir, que tú ves el váter, cierras los ojos, das tres pasos a la izquierda y abres los ojos (y con suerte sigues con las espinillas intactas) y sabes exactamente lo que vas a ver. Eso es lo que hace esta red neuronal, que, por cierto, es un logro impresionante. Pero de ahí a que sólo nos falte más potencia (computacional) para reproducir todas las funciones cognitivas humanas, hay un trecho enorme. Pero enorme.
#27 Buen resumen!
#25 ¿Existe alguna especie que no sea egoísta? Creía que esa era la definición de la evolución: sólo sobrevive el que antes y mejor se adapta a los cambios. Y eso es lo que guía absolutamente todo lo que hace cualquier ser vivo.
#34 Me parece que la evolución es algo más que complejo que eso y ser adaptativo a los cambios no implica ni conlleva ser egoísta. Los estudios ya han demostrado que el altruismo es una herramienta de supervivencia. La humanidad se está dedicando a exterminar a todos los demás animales del planeta y a envenar aire, mar y tierra:
"Con el 0.01% de la "biomasa", los humanos han acabado con el 83% de los mamíferos silvestres y con la mitad de las plantas.":
http://www.elmundo.es/ciencia-y-salud/ciencia/2018/05/23/5b0422fa22601d06478b4622.html
Esto no es ser adaptivo sino destructivo.
Mas o menos hizo algo parecido Microsoft:
https://www.captionbot.ai/
Lo probe, subiendo una foto de un truño en un vater y me dijo que es una ensalada. Funcionaba perfectamente
#38 lol
Sólo diré una cosa: Skynet
#14 Dónde tú ves a Skynet desatando guerras yo veo a Multivac cuidando del ser humano.
#22 Tú lo flipas. Hablas de cuidar al ser humano, como si no existieran otras especies en este planeta. Una especie tan egoísta y egocéntrica como la humana sólo puede engendrar criaturas igualmente similares. Se me olvidaba mencionar a Matrix. Cualquier forma de inteligencia artificial entenderá que la humanidad se comporta como una plaga dañina y procederá en consecuencia para lograr el dominio de la máquina inteligente.
#25 Hablas de cuidar al ser humano, como si no existieran otras especies en este planeta
Multivac hace lo necesario para el bienestar del ser humano. Si para eso se requiere proteger el ecosistema, pues obviamente lo haría.
De todas maneras, siempre recuerda que todas las especies que han existido se han extinguido y las que quedan se van a extinguir pronto (en tiempos geológicos) para dejar paso a otras. Así funciona la evolución. Son contadísimas las excepciones de especies que han durado mucho.
La vida ha soportado cosas muchísimo peores que la quema de carbón y petróleo. Por ejemplo el meteorito que mató a los dinosaurios quemó el 95% de los bosques del mundo, produjo un enfriamiento global seguido de un calentamiento muchísimo mayor que lo que podríamos soñar nosotros con provocar. Y la vida continuó... y no fue lo peor que ha pasado a la Tierra. En la época del bombardeo tardío todo el planeta quedó convertido en una bola de lava, y la vida continuó.
Así que, tranquilo, que ni skynet va a matar a los humanos para salvar el planeta, ni multivac va a matar otras especies para cuidar a los humanos.
P-D.: La Tierra sobrevivirá; nosotros, tal vez no
La Tierra sobrevivirá; nosotros, tal vez no
nytimes.com#25 "Una especie tan egoísta y egocéntrica como la humana"
Me encantan estas frases tan chipirritiflaúticas. Hablas como si las jirafas o los pelícanos fuesen unos seres super-solidarios que, por ejemplo, hubiesen montado sistemas de sanidad para cuidar de sus iguales.
#43 Creo que chipirritiflaútico sería tu comentario en todo caso. Es claro que otros animales también son solidarios entre ellos. Pero yo me refería a nuestra relación con los otros animales y no entre nosotros. Tener consideración por los otros habitantes del planeta no implica montarles un sistema de sanidad sino, al menos, no matarlos sistemáticamente ni destruir sistemáticamente sus hábitats, tal y como empezamos a hacer desde hace siglos y de forma cada vez más extrema.
#49 De verdad que te comprendo. Desde que algún desalmado empezó a priorizar las cosas que podía hacer ideas como las tuyas siempre han estado a la cola.
#25 Y por que iba a importarle más a la IA el planeta que los humanos?
Es cuestión de como la programes. Por muy inteligente que sea, sus motivaciones sólo serán las que le digamos nosotros.
Lo que ya da bastante miedo sin pensar que vayan a tener las suyas propias.
#46 No me parece casualidad que en tantas narraciones se postule que la inteligencia artificial se rebela contra los humanos e intente destruirlos. Es de sentido común. Estamos exterminando toda vida, envenenando aire, mar y tierra, acabando con todos los recursos naturales. Destruimos, contaminamos y aumentamos la población exponencialmente. La principal motivación para salir del planeta es saber que vamos a dejar esto arrasado. La especie humana se comporta de forma demencial. Incluso sabiendo esto continuamos haciéndolo. Es como si hubiéramos enloquecido. Cualquier ser inteligente desarrollado que tuviera interés en mantener el planeta entendería que la humanidad no puede seguir dominando e incluso ni siquiera existiendo, salvo como pilas de energía, al estilo de Matrix.
#50 Para que tenga interés en mantener el planeta por encima de todo hay que programarlo así. Había que ser gilipollas para eso.
Y al final falla: El filtro antipiratería de YouTube bloquea entre otros los videos de 'MIT OpenCourseWare' y 'Blender Foundation' [ENG]
El filtro antipiratería de YouTube bloquea entre o...
torrentfreak.comNo hace falta desarrollarla más. Ahora en la red de salida se conectan unos cuantos drones, se autoticka en allowed to kill, y ya está.
Siempre leo que Google avanza mucho en IA, pero luego no veo ningún resultado comprobable. Por ejemplo, ese programa que identifica el número de cosas, ¿está accesible en algún sitio?
#24 Bueno, de un artículo de investigación a una aplicación útil pasa mucho tiempo. Pero vamos, que resultados comprobables los tienes en tu móvil, con cosas como el reconocimiento por voz.
Esto está todavía en pañales, pero se están sentando las base de una nueva era tecnológica.
La cuestión del hardware es casi irrelevante, que se lo digan a Lovelace o Turing.
Hombre, no seré yo el que niegue que es un paso importante, pero creo que para llegar a tener una inteligencia artificial al nivel funcional de un mamífero aún falta un trecho muy grande.
No digamos el nivel humano, eso son palabras mayores.
#0 Spam:@history
Me alegro de que se deje de dar tanto bombo a Google. Papers sobre IA hay cientos al año, pero como no son de Google no hay fans que vienen aqui a quejarse de su "poca visibilidad".
Por más potencia de cálculo que tenga un procesador los algoritmos de cálculo trabajarán en tiempo matematico. El tiempo matematico es un no—tiempo, para entendernos. Es decir, el ordenador no tendrá conciencia de si trabaja más o menos rápido y ésta no es una variable que se pueda cuantificar o programar. La inteligencia artificial en el sentido de imitar fielmente la inteligencia humana o animal es una quimera, siempre que sea verdad que muestra inteligencia está vinculada de alguna manera al tejido espacio temporal. O acaso puede programarse una referencia circular y al mismo tiempo pedirle que nos de un resultado determinado?
#12 no te entiendo, pero sospecho que es porque realmente no dices nada... ummm
#16 yo le entendí algo importante, y es que para que una máquina de Turing resuelva cualquier cálculo (incluyendo una inteligencia artificial) puede tirar de su potencia para hacerlo en pocos segundos o puede hacerse exactamente lo mismo pero en milenios.
Pero termina con una crítica que tampoco entiendo.