Hace 5 años | Por Samu__
Publicado hace 5 años por Samu__

Comentarios

Techzisen

#5 Filosofar y escribir obras de teatro son capacidades cognitivas. Lo problemático es ese "TODAS", cuantificador universal, en mi opinión completamente gratuito y fuera de lugar, tanto que invalida la proposición entera.

JovenCarcamal

#8 Lo problemático es ese "La Ciencia sin Filosofía es coja, y todo vano alarde de autosuficiencia sólo genera obstáculos en su propio desarrollo." cuantificador universal, en mi opinión completamente gratuito y fuera de lugar, tanto que invalida la proposición entera.

Techzisen

#9 Buen revés. El cuantificador está oculto, pero tú lo has desenterrado. Aún así, en este caso, el elíptico cuantificador universal no invalida la proposición, que transformada vendría a decir:
Para todo "x" que pertenezca al conjunto C (ciencia), "x" cojea [pertenece al conjunto de los entes que cojean, sea éste J ] si no está relacionado con algún "y" perteneciente al conjunto F (filosofía), tal que xRy. "x" cojea si y sólo si "x" camina de manera asimétrica. "x" camina si y sólo si "x" da pasos consecutivos. "x" es simétrico si y solo si existe alguna transformación no trivial de "x" tal que "x" permanece invariante. "x" camina de manera simétrica si y solo si "x" camina y existe alguna transformación no trivial de "x" tal que "x" permanece invariante en su caminar. Convengamos que la Ciencia es válida cuando camina de manera simétrica, luego si "no xRy" entonces "x" no pertenece a C.

No te lo tomes tan en serio hombre.

p

#5 Yo añadiría la consciencia. Somos el único animal capaz de tomar decisiones conscientes, que en principio podrían ir en contra de nuestra propia naturaleza. Un ejemplo sería el veganismo, que es una decisión consciente tomada desde el punto de vista de considerar no ético dañar a otros animales, aún yendo directamente en contra de nuestro diseño original.

vviccio

#41 ¿Por qué estás tan seguro de que somos el único animal que toma decisiones conscientes?. ¿Estás seguro que nuestras decisiones no son manipuladas o ya están tomadas por nuestro inconsciente antes de que nos demos cuenta?.

p

#42 Quizá tengas razón en lo de que no somos los únicos animales que tomamos decisiones conscientes, pero quizá sí seamos los más fácilmente manipulables.

Te invito a leer mi reflexión sobre la existencia El Universo no para de crecer y cada vez estamos más solos/c46#c-46

Res_cogitans

#3 Te equivocas. El argumento que expone Penrose en La nueva mente del emperador, ya enunciado por otros antes. usa incorrectamente los Teoremas de incompletitud de Gödel para llegar a una conclusión falsa. Está más que refutado en la literatura filosófica.

Techzisen

#6 ¿Podrías señalar explicitamente por quién y en dónde, dentro de la literatura filosófica, es refutado? O en caso de carecer de acceso a las fuentes, ¿Podrías explicarme qué invalida las argumentaciones de Penrose? Estoy muy interesado en estos asuntos.
Gracias por adelantado y un saludo.

sangaroth

#7 No me hagas mucho caso pq no estoy en estos temas, pero me suena hace años ojeandome el libro de La nueva mente del emperador que mediante maquinas de Turing y mediante la diagonal de Cantor de sus combinaciones llegaba al equivalente de la incompletitud de Gödel... Es una red neuronal una maquina de Turing?

deverdad

#10 Ni siquiera la mente humana es una maquina universal de Turing: no tenemos memoria infinita.

Res_cogitans

#7 #19 Aquí puedes encontrar algunos papers:
https://www.google.com/search?ei=IVopW427H4PbgAaD8KH4Dw&btnG=Buscar&q=lucas+penrose+argument+philosophy+of+mind+refutation

Básicamente el principal problema es que él dice que nosotros "vemos" la verdad de ciertas proposiciones cuando las máquinas no podrían "verla". Pero las matemáticas y la lógica no dicen nada sobre "ver" la verdad de las proposiciones, y los teoremas de incompletitud de Gödel solo versan sobre su decidibilidad (completitud de un sistema lógico), es decir, la posible demostración de dichas proposiciones. Penrose plantea, pues, en sus premisas, aquello que quiere demostrar.

Techzisen

#21 Muchas gracias por el enlace. Me parece sumamente interesante este problema. Quizá sea uno de los más cruciales hoy en día dado el desarrollo exponencial de la tecnología, ya que las implicaciones éticas pueden desbordar cualquier categoría deontológica existente. Me llevará un buen rato ojear los papers...

D

#6 Porque tú lo dices, claro.

¡Di que sí, hombre!

empe

#6 Gracias por el apunte, nunca estuve de acuerdo con Penrose pero no sabía que lo habían refutado. Me quedo muy a gusto. 😊

D

#3 No creo que este demostrado ni un sentido ni en otro, de todas formas pensar que la inteligencia o la conciencia es una función, me parece bastante infantil, quien sabe quizás me equivoco.

Techzisen

#15 F es una función si y sólo si para todo elemento perteneciente al conjunto origen existe a lo sumo un elemento correspondiente en el conjunto imagen. En mi opinión la conciencia cumple dicha propiedad.

pawer13

#3 Si simulas algo de manera tan perfecta que sea indistinguible de ese algo, ¿es ese algo o una simulación? No veo límites teóricos que la mente humana no tenga y la IA sí. ¿Cuál es esa habilidad cognitiva que dices que tenemos que no se puede implementar?

Techzisen

#37 Si simulas algo de manera tan perfecta que sea indistinguible de una simulación, por supuesto que sigue siendo una simulación. Si empezamos a emplear gratuitas y artificiales manipulaciones semánticas, difícilmente podremos argumentar con claridad y validez. Si hay algo que honra a los filósofos analíticos, a pesar de su esterilidad, es que aniquilaron muchos de los supuestos problemas filosóficos, demostrando que no eran tales problemas, sino sólo usos incorrectos del Lenguaje. La tarea de la Filosofía Analítica pareció ser purgar el cuerpo filosófico de asuntos nebulosos y de los que poco (o nada) se puede decir, estableciendo límites racionales.
Siguiendo a Baudrillard (sociólogo de corte marxista, no filósofo analítico), en su lúcido "Cultura y Simulacro", al inicio, hace referencia a un cuento, creo recordar que de Borges, en el cual se elabora un mapa tan exacto y realista del reino que dicho mapa abrca el territorio entero, sustituyéndolo por tanto. Hace esta analogía en un contexto sociológico, pero es trasladable a cualquiera. ¿Dónde está la diferencia? te preguntarás. La diferencia radica en que el mapa es una imagen del territorio, y no el territorio mismo. Propongo un ejercicio mental. Supongamos, siendo optimistas, que en diez años mediante relidad virtual es posible simular un filete de ternera. Simular, de manera indistinguible para los sentidos humanos, la forma, el peso, el color, el olor, el sabor, el tacto... Incluso si el filete está poco hecho o en su punto. También, mediante realidad virtual, alguien simula que se come dicho filete. Vuelvo a la pregunta ¿Dónde está la diferencia? Aunque supongo que ya habrás llegado tú a la conclusión, la expongo. La diferencia está en que el filete virtual, al ser sólo una imagen, aunque perfecta, de un filete real, no alimenta. Carece de proteínas, grasas, vitaminas, agua... Sólo de información no vive el hombre.
¿Cuál es esa habilidad cognitiva que digo que no se puede implementar?
La autoconsciencia. Ya intentaron los judíos crear golems hace siglos, y no les fue bien.

pawer13

#57
Si empezamos a emplear gratuitas y artificiales manipulaciones semánticas, difícilmente podremos argumentar con claridad y validez

Probablemente me haya equivocado escogiendo el término: con simulado me refiero replicado, pero sin tener el mismo origen:

El filete simulado que propones es distinguible porque no existe. Si fuese indistinguible es porque lo has simulado hasta el último detalle en la realidad (la realidad virtual no es realidad).

Cuando digo indistinguible es que no hay modo de saber si es una simulación/réplica o si es el original. En el caso del filete, el equivalente sería tener una impresora 3D capaz de crear, con las materias primas necesarias, un filete que tuviese el mismo sabor, consistencia, olor, color, nutrientes ... que un filete normal de res, de tal manera que ningún comensal pudiese detectar que no proviene de una res sacrificada.

La definición de inteligencia nos es esquiva, por tanto decir que no se puede generar de manera artificial se me hace demasiado categórico. En mi opinión nuestro cerebro no es más que una máquina tan compleja que aún no somos capaces de entender o replicar, pero que con el tiempo y la tecnología adecuadas no veo por qué no podremos replicarlo o incluso mejorarlo.

La autoconsciencia, por supuesto, sería una de las últimas cosas que podremos añadir, pero es algo lógico: en la naturaleza hay muy pocos seres autoconscientes, llegar ahí es un paso de abstracción muy avanzado. Pero no encuentro motivos racionales para pensar que sea algo etéreo e inalcanzable.

Techzisen

#58
La definición de inteligencia nos es esquiva, por tanto decir que no se puede generar de manera artificial se me hace demasiado categórico. En mi opinión nuestro cerebro no es más que una máquina tan compleja que aún no somos capaces de entender o replicar, pero que con el tiempo y la tecnología adecuadas no veo por qué no podremos replicarlo o incluso mejorarlo.

máquina

Del lat. machĭna, y este del gr. dórico μαχανά machaná.

1. f. Artificio para aprovechar, dirigir o regular la acción de una fuerza.

2. f. Conjunto de aparatos combinados para recibir cierta forma de energía y transformarla en otra más adecuada, o para producir un efecto determinado.

3. f. Agregado de diversas partes ordenadas entre sí y dirigidas a la formación de un todo.

Todas las definiciones aplicables de la RAE incluyen la idea de finalidad en la definición de máquina.


inteligencia


Del lat. intelligentia.

1. f. Capacidad de entender o comprender.

2. f. Capacidad de resolver problemas.

3. f. Conocimiento, comprensión, acto de entender.

4. f. Sentido en que se puede tomar una proposición, un dicho o una expresión.

5. f. Habilidad, destreza y experiencia.

6. f. Trato y correspondencia secreta de dos o más personas o naciones entre sí.

7. f. Sustancia puramente espiritual.

8. f. servicio de inteligencia.

inteligencia artificial

1. f. Inform. Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.

Utilizando únicamente las definiciones académicas queda claro que el elemento "inteligencia" no es un elemento del conjunto "máquina". El conjunto de las inteligencias no es un subconjunto del conjunto de las máquinas, ya que no toda propiedad de las primeras es propiedad de las segundas. Matemáticamente hablando, una inteligencia artificial ejecuta algunas operaciones comparables a las que realiza la mente humana, pero es incapaz de otras muchas, y al no existir una correspondencia biyectiva entre ambas (es decir, inyectiva y suprayectiva), no es válido afirmar que el cerebro es una máquina.

La autoconsciencia, por supuesto, sería una de las últimas cosas que podremos añadir, pero es algo lógico: en la naturaleza hay muy pocos seres autoconscientes, llegar ahí es un paso de abstracción muy avanzado. Pero no encuentro motivos racionales para pensar que sea algo etéreo e inalcanzable.


¿En la naturaleza hay muy pocos seres autoconscientes? ¿Estás seguro? Yo revisaría la reciente literatura acerca de cuervos o interacciones entre árboles antes de afirmar algo así de manera tan categórica. Cierto es que cuando digo categóricamente que la autoconsciencia no es replicable mediante computación, es necesario por mi parte un pequeño resquicio de fe religiosa, pero es una intuición profunda la que me lleva a dicha afirmación. Aunque chirríe dentro de este contexto cercano al debate científico, creo que la autoconsciencia es un hálito divino no reproducible ni generable por medios tecnológicos. Soy incapaz de concebir el momento en que una máquina se torna autoconsciente. Creo que el ser humano no tiene poder, en el sentido bíblico, para crear una mente más que mediante la reproducción sexual. Llamadme fanático si queréis

squanchy

Pues que las máquinas se enchufen a nuestros cerebros para usar su potencia de cálculo. Total, la mitad de la población no lo utiliza.

borteixo

#1 tienes mi atención.

D

#1 Esa era la idea original de Matrix que luego cambiaron para convertirnos en "Pilas Humanas". Un sinsentido ya que somos generadores muy ineficientes.

D

#1 en qué mitad te autocolocas tú y basado en qué?

D

#1 Tengo la fuerte sensacion de que ese sera el futuro.. "aumentos" conectados directamente a nuestro cerebro que se presentaran a nuestra conciencia como una ligera y beneficiosa esquizofrenia , una voz interior que nos ira aconsejando, si lo prefieres un asistente que co-aprendera con y de nosotros.

M

#1 yo solo quiero inteligencia artificial en los puestos de Senado y Congreso, y de jefes. Ahí creo que se conseguiría mucho más que ponerla para tareas básicas.

squanchy

#48 Yo compraría una IA que me limpie la casa por completo. Creo que esa es la prioridad número 1.

D

Pues si, es remarcable, sobre todo porque sin duda están finalmente replicando las funciones cognitivas humanas, no solo en el resultado del proceso, sino en los medios para alcanzarlo: LSTM es una replica de los mecanismos de memoria a corto y largo plazo del cerebro; las redes antagonistas replican el mecanismo de la imaginacion, las convolucionales, como muy bien apuntas, reciben y procesan señales del exterior...

Sinceramente, hoy dia Google esta a años luz de la competencia. He tenido ocasión de asistir a congresos y demostraciones sobre productos supuestamente basados en inteligencia artificial, y no dejan de ser todos implementaciones de Tensorflow ocultas tras dos capas de marketing y java.

Gracias por el aporte.

Shelu

#2 Buenas, sin ánimo de contradecirte, más bien complementar tu comentario, las redes secuenciales y entre ellas las LSTM, se utilizan para analizar secuencias y tener la posibilidad de "conectar" las entradas que están más próximas como las más alejadas en la serie, se utilizan para procesamiento de lenguaje natural o tratamiento de sonidos, como seguramente sabes, lo de memoria a largo plazo no lo veo, si me lo desarrollas, te lo agradezco.

Las redes convolucionales han mostrado su eficiencia en visión por computador, y la analogía con la visión humana está ahí, pero no sé si tan eficientes con otros tipos de señales del exterior que no sean imágenes.

Y sobre las GAN, me parece interesante que lo compares con la imaginación, pero es un mecanismo de mejorar el entrenamiento redes donde la salida de una, es la entrada de otra.

Lo que ha hecho Google es unir todo para analizar videos y predecir lo que puede pasar, y que quede claro, esto es la puta polla, pero inteligencia generalista artificial... no vendamos humos.

Encantado de poder charlar con personas que le apasione el tema del DeepLearning

D

#35 Hola! pues si, es un tema apasionante, y no me cabe duda de que al paso que vamos, los futuros lenguajes de desarrollo tendrán una nueva capa de abstracción sobre la maquina basada en el ML. en mi opinión, acabaremos pidiendo a la maquina que escriba el código que ejecute nuestro modelo.

Sobre los ejemplos que puse, la verdad es que es un tema recurrente en las conversaciones con amigos del ramo, yo creo que debemos distinguir la naturaleza del mecanismo de sus aplicaciones. En el caso del LSTM, efectivamente en la practica se usa para secuenciar, predecir e interpretar datos, pero su mecanismo se fundamenta en la capacidad de aprender de experiencias pasadas, el mismo mecanismo por el que nuestra memoria a largo plazo nos impone mirar antes de cruzar la carretera, o escoger la fruta no demasiado madura.

Sobre las redes antagónicas, la verdad es que han supuesto una autentica revolución en la comunidad de aficionados. Efectivamente, el mecanismo consiste en entrenar con una maquina otra... o jugar a que se engañen!. Si entrenas dos maquinas con el mismo set, y una vez entrenadas, a una le enseñas a variar el set de datos para intentar pasar el examen de la maquina de control. con el tiempo, la maquina que genera variaciones aprende a crear datos sintéticos que puedan engañar a la maquina de control.

Si te interesa el tema de la inteligencia artificial, resulta muy inspirador leer sobre los distintos cerebros del ser humano, porque efectivamente tenemos varios cerebros (reptiliano, limbico, neocortex) con mecanismos independientes en continuo aprendizaje e interacción.

Un saludo!

D

Voto sensacionalista, principalmente porque el título es clickbait total. Es un paso, pero queda mucha para una IA general.
Además, hablas sobre propiedades de objetos, comportamiento, predicciones temporales, como el ejemplo del vaso volando, y el paper no menciona nada de eso. Si fuera así sería un avance inmenso.

D

He meneado el envío porque el enlace es interesante, pero los statements del artículo van demasiado lejos. Lo que ha hecho google es montar una red capaz de reconstruir puntos de vista visuales de un objeto, algo que nuestro cerebro hace automáticamente. Es decir, que tú ves el váter, cierras los ojos, das tres pasos a la izquierda y abres los ojos (y con suerte sigues con las espinillas intactas) y sabes exactamente lo que vas a ver. Eso es lo que hace esta red neuronal, que, por cierto, es un logro impresionante. Pero de ahí a que sólo nos falte más potencia (computacional) para reproducir todas las funciones cognitivas humanas, hay un trecho enorme. Pero enorme.

D

#27 Buen resumen!

D

#25 ¿Existe alguna especie que no sea egoísta? Creía que esa era la definición de la evolución: sólo sobrevive el que antes y mejor se adapta a los cambios. Y eso es lo que guía absolutamente todo lo que hace cualquier ser vivo.

Noctuar

#34 Me parece que la evolución es algo más que complejo que eso y ser adaptativo a los cambios no implica ni conlleva ser egoísta. Los estudios ya han demostrado que el altruismo es una herramienta de supervivencia. La humanidad se está dedicando a exterminar a todos los demás animales del planeta y a envenar aire, mar y tierra:
"Con el 0.01% de la "biomasa", los humanos han acabado con el 83% de los mamíferos silvestres y con la mitad de las plantas.":
http://www.elmundo.es/ciencia-y-salud/ciencia/2018/05/23/5b0422fa22601d06478b4622.html
Esto no es ser adaptivo sino destructivo.

D

Mas o menos hizo algo parecido Microsoft:

https://www.captionbot.ai/

Lo probe, subiendo una foto de un truño en un vater y me dijo que es una ensalada. Funcionaba perfectamente

D

#38 lol

Noctuar

Sólo diré una cosa: Skynet

anv

#14 Dónde tú ves a Skynet desatando guerras yo veo a Multivac cuidando del ser humano.

Noctuar

#22 Tú lo flipas. Hablas de cuidar al ser humano, como si no existieran otras especies en este planeta. Una especie tan egoísta y egocéntrica como la humana sólo puede engendrar criaturas igualmente similares. Se me olvidaba mencionar a Matrix. Cualquier forma de inteligencia artificial entenderá que la humanidad se comporta como una plaga dañina y procederá en consecuencia para lograr el dominio de la máquina inteligente.

anv

#25 Hablas de cuidar al ser humano, como si no existieran otras especies en este planeta
Multivac hace lo necesario para el bienestar del ser humano. Si para eso se requiere proteger el ecosistema, pues obviamente lo haría.

De todas maneras, siempre recuerda que todas las especies que han existido se han extinguido y las que quedan se van a extinguir pronto (en tiempos geológicos) para dejar paso a otras. Así funciona la evolución. Son contadísimas las excepciones de especies que han durado mucho.

La vida ha soportado cosas muchísimo peores que la quema de carbón y petróleo. Por ejemplo el meteorito que mató a los dinosaurios quemó el 95% de los bosques del mundo, produjo un enfriamiento global seguido de un calentamiento muchísimo mayor que lo que podríamos soñar nosotros con provocar. Y la vida continuó... y no fue lo peor que ha pasado a la Tierra. En la época del bombardeo tardío todo el planeta quedó convertido en una bola de lava, y la vida continuó.

Así que, tranquilo, que ni skynet va a matar a los humanos para salvar el planeta, ni multivac va a matar otras especies para cuidar a los humanos.

P-D.: La Tierra sobrevivirá; nosotros, tal vez no

Hace 5 años | Por preziveli a nytimes.com

numero

#25 "Una especie tan egoísta y egocéntrica como la humana"

Me encantan estas frases tan chipirritiflaúticas. Hablas como si las jirafas o los pelícanos fuesen unos seres super-solidarios que, por ejemplo, hubiesen montado sistemas de sanidad para cuidar de sus iguales.

Noctuar

#43 Creo que chipirritiflaútico sería tu comentario en todo caso. Es claro que otros animales también son solidarios entre ellos. Pero yo me refería a nuestra relación con los otros animales y no entre nosotros. Tener consideración por los otros habitantes del planeta no implica montarles un sistema de sanidad sino, al menos, no matarlos sistemáticamente ni destruir sistemáticamente sus hábitats, tal y como empezamos a hacer desde hace siglos y de forma cada vez más extrema.

D

#49 De verdad que te comprendo. Desde que algún desalmado empezó a priorizar las cosas que podía hacer ideas como las tuyas siempre han estado a la cola.

empe

#25 Y por que iba a importarle más a la IA el planeta que los humanos?
Es cuestión de como la programes. Por muy inteligente que sea, sus motivaciones sólo serán las que le digamos nosotros.
Lo que ya da bastante miedo sin pensar que vayan a tener las suyas propias.

Noctuar

#46 No me parece casualidad que en tantas narraciones se postule que la inteligencia artificial se rebela contra los humanos e intente destruirlos. Es de sentido común. Estamos exterminando toda vida, envenenando aire, mar y tierra, acabando con todos los recursos naturales. Destruimos, contaminamos y aumentamos la población exponencialmente. La principal motivación para salir del planeta es saber que vamos a dejar esto arrasado. La especie humana se comporta de forma demencial. Incluso sabiendo esto continuamos haciéndolo. Es como si hubiéramos enloquecido. Cualquier ser inteligente desarrollado que tuviera interés en mantener el planeta entendería que la humanidad no puede seguir dominando e incluso ni siquiera existiendo, salvo como pilas de energía, al estilo de Matrix.

empe

#50 Para que tenga interés en mantener el planeta por encima de todo hay que programarlo así. Había que ser gilipollas para eso.

jaspeao

No hace falta desarrollarla más. Ahora en la red de salida se conectan unos cuantos drones, se autoticka en allowed to kill, y ya está.

...

Siempre leo que Google avanza mucho en IA, pero luego no veo ningún resultado comprobable. Por ejemplo, ese programa que identifica el número de cosas, ¿está accesible en algún sitio?

sotanez

#24 Bueno, de un artículo de investigación a una aplicación útil pasa mucho tiempo. Pero vamos, que resultados comprobables los tienes en tu móvil, con cosas como el reconocimiento por voz.

D

Esto está todavía en pañales, pero se están sentando las base de una nueva era tecnológica.
La cuestión del hardware es casi irrelevante, que se lo digan a Lovelace o Turing.

S

Hombre, no seré yo el que niegue que es un paso importante, pero creo que para llegar a tener una inteligencia artificial al nivel funcional de un mamífero aún falta un trecho muy grande.

No digamos el nivel humano, eso son palabras mayores.

sk8benji

#0 Spam:@history

D

Me alegro de que se deje de dar tanto bombo a Google. Papers sobre IA hay cientos al año, pero como no son de Google no hay fans que vienen aqui a quejarse de su "poca visibilidad".

D

Por más potencia de cálculo que tenga un procesador los algoritmos de cálculo trabajarán en tiempo matematico. El tiempo matematico es un no—tiempo, para entendernos. Es decir, el ordenador no tendrá conciencia de si trabaja más o menos rápido y ésta no es una variable que se pueda cuantificar o programar. La inteligencia artificial en el sentido de imitar fielmente la inteligencia humana o animal es una quimera, siempre que sea verdad que muestra inteligencia está vinculada de alguna manera al tejido espacio temporal. O acaso puede programarse una referencia circular y al mismo tiempo pedirle que nos de un resultado determinado?

Molari

#12 no te entiendo, pero sospecho que es porque realmente no dices nada... ummm

luiggi

#16 yo le entendí algo importante, y es que para que una máquina de Turing resuelva cualquier cálculo (incluyendo una inteligencia artificial) puede tirar de su potencia para hacerlo en pocos segundos o puede hacerse exactamente lo mismo pero en milenios.
Pero termina con una crítica que tampoco entiendo.