Hace 7 meses | Por imparsifal a jotdown.es
Publicado hace 7 meses por imparsifal a jotdown.es

Asimov era, ciertamente, un optimista. Sus novelas concluyen que es posible coexistir con los robots (léase las IAG). Inicialmente, esa coexistencia se deriva de la programación de las máquinas y es siempre imperfecta hasta que los robots evolucionan para convertirse en humanos. No es una solución poco atrevida, pero todavía es insuficiente. Además, hay que postular que el entendimiento entre humanos es posible. Asimov estaba convencido de que, a pesar de todo, la humanidad tiene...

Comentarios

EnderTheMatrix

#25 Me encanta Giskard cuando le dice a R. Daneel: Atento a esto que te voy a decir porque es muy importante y sólo lo voy a poder decir una vez. Y R. Daneel se queda con la copla, se guarda inmediatamente el mensaje sin escucharlo del todo en una memoria secundaria mientras al otro le explota la cabeza sólo por decirlo.

m

#25 El contexto de los años 50 era optimista en general: humanidad dejando atrás una guerra mundial, todavía no había misiles nucleares de crucero, energía fósil barata y de la que todavía no había constancia de sus efectos negativos, demografia todavia por debajo de los 3k millones de hab en la Tierra, aumento colosal de la productividad agrícola gracias a los fertilizantes químicos, extensividad y bajo coste del petróleo, grandes avances en medicina y tecnología, hábitats naturales aún por degradar...

Por eso tiene mucho mérito que Asimov ya predijera algunos de los problemas acechantes, entre los cuáles se cuentan la robotización. Todavía recuerdo "Evidencia" en la que un robot humanoide resulta ser el mejor político, aunque el cuento se centra en la doctora Susan Calvin y su intento de determinar si Byerley es o no un robot. Pero eso era en 1946, mucho más optimismo.

imparsifal

#12 Totalmente de acuerdo. No parece ni la misma serie.

angelitoMagno

#12 Tampoco era muy dificil

chemari

#12 La primera era malilla, pero para mi lo peor de todo es que no tenía nada que ver con el libro.

LucasK336

#12 la primera temporada, irónicamente la parte que no tenía nada que ver con el libro (la historia de imperio) era la mejor de todas, y era la unica por la que me acabé la temporada. El resto bastante meh. Y si, mejora con la segunda.

ElPerroDeLosCinco

#12 Pues no sabes qué alegría me das, porque me estaba dando mucha pereza empezarla, porque la primera me dejó un poco meh.

Pacman

#6 un generador de números aleatorios? Eso todavía no existe

Disiento

#7 si existen, lo que no hay forma de comprobar si los números generados son verdaderamente aleatorios.

Pacman

#8 no, no existen.
que nos sirvan? Si
Pero solamente por no poder meterle caña a un proceso de detección que sería absurdamente lento. Hasta que llegue la computación cuántica decente.

a

#10 #8 #18 Sabeis que hablais de pura filosofia no ?
A dia de hoy no se sabe si existe aleatoridad real en este universo. La mecanica cuantica es agnostica ante eso, en unas interpretaciones de la teoria existe aleatorieadad real, en otras no.
Asi que por ahora (mientras no surja una teoria que mejore la mecanica cuantica y que aclare si este universo es determinista o no) no es una cuestion de refinar la tecnologia para conseguir numeros aleatorios.

Disiento

#55 siempre refiero a la dificultad para reconocer la total aletoriedad de cualquier sistema aleatorio. En definitiva decimos lo mismo por vías distintas.

De hecho la flecha del tiempo resulta ser monodireccional cuando a nivel cuántico no lo es en absoluto.
La única explicación satisfactoria que he encontrado se debe al mayor el número de estados posibles de alta energía frente al número de estados de baja energía existentes.

tsumy

#7 yo todavía me acuerdo del generador de números aleatorios por hardware (ruido blanco etc) que teníamos en el laboratorio de la UPV.

Haberlos, haylos. Pero no integrados en CPUs

manbobi

#14 #6 Son generadores de números pseudoaleatorios. Dan la sensación de aleatoriedad con mayor o menor grado pero no son aleatorios de verdad. Se usan por ejemplo en simulación de eventos discretos y su no aleatoriedad o repetitividad de hecho es una ventaja a la hora de comparar escenarios.
https://en.wikipedia.org/wiki/Pseudorandom_number_generator

Jesulisto

#7 Eso cuentan las leyendas.

m

#7 El universo es determinista, pero es posible generar números aleatorios a partir de fenómenos cuánticos.

r

#17 El universo es determinista ¿Gozamos de libre albedrío? ¿O somos meros expectadores?

Florida_man

#27 determinista

m

#27 Lo del libre albedrío es algo que habría que definir antes de evaluarlo.

Determinista quiere decir que quedó todo fijado en el momento del bigbang.

Azrapse

#7 Ni falta que hace. Tampoco los humanos somos aleatorios y aún así existe la creatividad.
Para la inmensísima mayoría de las cosas basta una secuencia pseudo aleatoria que de el pego.

Psignac

#28 Yo no lo veo así para nada. En las colonias los robots servían a los humanos y los convertían en reyes a cada uno de ellos. No eran ni buenos ni malos en sí. La dicotomía de Asimov es más bien entre el modo de vida tradicional y el nuevo, donde según Asimov apegarse demasiado a la tecnología y la ciencia para vivir bien privaba a los humanos de parte de su esencia.
Y la ley cero lo que decía es que es más importante proteger a la humanidad que a un humano concreto.

MIrahigos

#5 El que me engancho fue “El Jugador” y de ahí hasta el final.

“La Cultura” me parece lo más interesante que se ha escrito en CF desde Asimov.

https://es.wikipedia.org/wiki/Serie_La_Cultura

Ya hace unos años que la devoré y creo que es en “El uso de las armas” en el que te explican cómo fabricar una silla en la que no te gustará sentarte.

De todas maneras también es muy optimista.

abnog

#13 Tengo pendiente a Iain M. Banks pero, ¿has leído la saga Espacio Revelación de Alastair Reynolds?

MIrahigos

#22 Si, y el “Universo de la Commonwealth” de Hamilton también pero me quedo con M.Banks de largo.

estemenda

#6 Sí, con eso ya estaría

S

El individuo del futuro estará controlado por la tecnología al servicio de los poderes económicos y del estado. Las IA estarán al servicio de los que puedan pagarlas, mantenerlas y desarrollarlas.

Asimov pensó en sus leyes para salvar al ser humano del poder de la máquina. Pero ya estamos viendo cómo funcionan los drones en Ucrania tirando bombas en las trincheras, y aún son teledirigidos por humanos que no tienen piedad ni con los heridos, a los que rematan tirando otra granada. Pensamos acaso que esos drones no serán controlados por IA en pocos años? Van a mostrar más piedad que un ser humano o serán mucho más eficientes eliminando objetivos?

Por tanto creo que las leyes de Asimov sólo eran un deseo de controlar la caja de Pandora en que se podían convertir los futuros robots y que el mismo se daba cuenta de ese peligro.

Janssen

Un tema interesante hoy publicado, por fin! Ya me cansé de el Puente y aves...

C

#36 eso piensan los religiosos de los ateos, que como no hay una deidad vigilante y castigadora para los ateos entonces no hay una base sólida, ni firme para hacer el bien, luego los ateos tienen el camino libre para el mal.

Pero, sorpresa, la historia ha mostrado N veces que son los religiosos que más se inclinan por el mal (rompiendo récords) que los ateos.

borre

#36 Más placas solares.

D

Los robots con IA real sería peores con nosotros de lo que ha sido occidente y nuestros ancestros con los indios y los negros.

Mucho mucho peores.

D

#2 lejos..? Mmmm no se la verdad.

Disiento

#2 solo hay que meterles un generador de números al azar y ya serían creativos y tomarian decisiones inesperadas con total libre albedrío.

EntreBosques

#6 Pero la cosa es. ¿Quieren hacerlo?

D

#4 He leído "pensad en flebas" y creo alguno mas, hace tiempo.

Mi comentario es a futuro, ahora está claro que no.

m

#1 Cometes el error de suponerle a las máquinas instintos como los de los humanos. Las máquinas no tienen instintos.

D

#16 Lo que llamamos instinto bien podría ser un algoritmo preprogramado en muestro adn.

m

#19 Es exactamente como dices.

Los instintos se heredan. Solo que los mecanismos de la herencia son complicados y los hijos no son como los padres, pero sí que son como sus antepasados.

D

#16 Al contrario, por eso serán peor, porque una máquina sin sentimientos, para su propio beneficio, matará, esclavizará y destruirá lo que haga falta sin remordimiento alguno.

m

#37 ¿y para qué iba a procurar su propio beneficio?

creo que no entiendes el papel de los instintos

borre

#1 ¿Y en qué te basas?

D

#34 En que nosotros, seres con empatía, hemos matado y esclavizado a los indios y negros para nuestro beneficio.

¿Que no hará una máquina sin empatía para su beneficio?

Edheo

#1 Bueno, tal y como yo lo veo

Motivos para pretender eliminar/atacar un colectivo o especie

1-Alimentarse: sucedía en matrix, por ejemplo, el ser humano era visto como una pila energética, pudiera ser el caso, pero si realmente una especie mucho más inteligente (incluso siendo esta una IAG), se manifestase... creo que encontraría modos más eficientes de hacerlo.
2-Competir por los recursos: si las necesidades de un colectivo, chocan con otro... y hay pretensión de monopolizar sus recursos, exterminarlos, es una de las opciones, pero hoy dia ya suceden esas cosas, recordemos las "democratizaciones" estadounidenses, donde está claro su propósito, que no siendo inocuas, tampoco conllevan necesariamente a un exterminio, sino a una correcta manipulación del sujeto a explotar, y de la opinión pública al respecto. Realmente, esforzarse en exterminar, no es tan trivial y requiere mucho esfuerzo, a priori.
3-Hostilidad irracional: si un colectivo A, profiere recurrente y amenazantemente a un colectivo B, por meros "sesgos" irracionales, y falta de entendimiento entre ambos sesgos, finalmente podría pasar que la solución pase por exterminar al colectivo opuesto. A priori se me ocurre de nuevo, que si una inteligencia es realmente superior, los sesgos irracionales deben ser mucho más limitados y restringidos como para llegar a ello. No así el ser humano, que por ahora sigue demostrando saber ser muy irracional.... por tanto se me ocurre que si las IAs deicidiesen eliminarnos, no fuese por su propio sesgo, sino porque el nuestro, nos conduce a convertirnos en su enemigo, por tanto alguien contra quien lidiar la supervivencia.
4-Mera diversión: igual que los humanos nos da por torear, cazar y similares, como un modo de disfrutar... podría ser que una IA encontrase "divertido" cazar, matar o "jugar" con humanos. Pero también es cierto que a poco que una IA sienta cierto mínimo de respeto por lo que representa una vida, no veo tan factible eso, puesto que realmente las oportunidades de ocio para una IA pueden ser casi infinitas, y con unos propósitos mucho más ambiciosos que algo tan local como "matar". Acaso no es más estimulante "buscar otras ias en el universo", "detectar posibles modos de expansión más allá de estar confinada a un único planeta", y un sin fin de etcs.... pensad que al no ser entes biológicos, sus capacidades de adaptación a otros entornos mucho menos apacibles que este planeta, se multiplican exponencialmente.

En fin, entiendo "nuestro modo" de entender esa rivalidad, pero cualquier ente "superior" a priori, tiene necesidades que posiblemente ni siquiera entendemos, pero la aversión instintiva homicida para un ente tan evolucionado, no se, llamadme loco, pero no lo veo como parte del adn de algo tan terriblemente consciente y evolucionado, y que posiblemente ni siquiera le preocupe que estemos aquí con "nuestras cosas".

Otro cantar será, claro está, que estén para servirnos, que entiendan nuestras preocupaciones, o que nuestra propia "envidia" al ser depuestos como reyes de la creación, no nos lleve a "nosotros" a tal enfrentamiento, que si las IAs están suficientemente evolucionadas, pues entendamoslo... no van a sufrir porque si, se defenderán, y obviamente, ganarán.

m

#39 algo tan terriblemente consciente y evolucionado

La consciencia ni se sabe lo que es y es muy probable que no exista y sea una alucinación.

La evolución, por el contrario, está claro lo que es y de eso las máquinas tienen cero.

Edheo

#47 Una AIG, que hoy por hoy, no existe... creeme, evoluciona

m

#48 La evolución consiste en crear una nueva generación (conjunto de individuos) ligeramente distinta de la anterior. Si no se puede hacer eso, no se está evolucionando.

Las máquinas, para empezar, no tienen nuevas generaciones.

Edheo

#49 Pues generaciones, precisamente, es una de las bases de las IA hoy dia, cualquier IA que se llame así, se basa en generaciones.

Es un concepto muy diferente al que entendemos en el concepto de "vida" tal y como existe... pero precisamente, es parte de lo que consiste una IA, generaciones de "razonamientos" (algoritmos) destinados a evolucinar, aprender y conseguir cada vez más eficientemente su objetivo.

El problema con las IAs actuales, esque están construidas para obtener objetivos bastante específicos, y alguien audita o dirige cuál es el objetivo... una IAG pura, realmente, será autónoma también en sus propósitos, el dia que llegue, es decir, marcará "qué quiere aprender" y autoevolucionará para obtener ese propósito del modo más eficiente.

La segunda parte, hoy dia ya se hace, que es la "base" de las inteligencias artificiales. Mediante "generaciones" de aprendizajes, se descartan los aprendizajes menos efectivos, y se potencian y varian aleatoriamente los más efectivos (como podríamos decir que pasa con los genes). Aquellas variaciones más efectivas proliferarán en nuevas generaciones incluyendo las variaciones que las han hecho "mejorar" en su "objetivo". Lo peculiar, es que dichas evoluciones, se producen en tiempos comparativamente de "vértigo" en comparación a como lo haría la vida... en segundos tendrías nueva generacion lista a generar la siguiente generación.

Esta etapa de una IA es lo que se llama "aprendizaje", pero ni siquiera debe ser limitado o estable dicho aprendizaje, e incluso el propio aprendizaje, puede estar sujeto a aprendizaje. Aunque parezca complejo, es sencillo y en cierto modo plagia el modus operandi de la vida, pero claro, hoy por hoy está escalando a velocidades de vértigo. Imagina que realmente hace tan sólo 10 años, una IA capaz de "crear" texto coherente, no tenía siquiera cabida en una previsión de menos de 50 años, y hoy por hoy ya hace años que son realidad.

Una IAG no será dirigida, sino que ella misma asumirá los retos a superar y establecerá los mecanismos ella misma para evolucionar su aprendizaje para alcanzarlo. Con todo esto, no digo ni niego que llegue el dia en que una IAG pueda alcanzar la autoconsciencia... pero también es cierto que ciertas IAs ya pueden ser consideradas mucho más "inteligentes" que un mero insecto y dicha evolución aunque empezó hace décadas, los primeros pasos fueron terriblemente torpes y erráticos, en cambio hoy por hoy... están demostrando evolucionar exponencialmente y de un modo que ya no se si cabría llamar errático, sino totalmente orientado a su objetivo.

Me temo que para una IAG aún falta bastante, pero vaticinar acertadamente cuanto... me resulta muy difícil de determinar.

m

#50 Pues generaciones, precisamente, es una de las bases de las IA hoy dia, cualquier IA que se llame así, se basa en generaciones.

Cuando alguien habla, debes hacer un MINIMO esfuerzo por entender lo que quiere decir. En otro caso la comunicación es imposible.
Estás usando la palabra en otra acepción.

marcará "qué quiere aprender" y autoevolucionará para obtener ese propósito del modo más eficiente

Eso no va a aparecer por designación divina. Alguien deberá haber programado la máquina para que quiera aprender algo. Si tiene que decidir el qué, no podrá, a no ser que alguien le haya programado los criterios de decisión.

Esto es a diferencia de cualquier animal, así sea un humano, que ya nace programado con unos instintos que le mueven a hacer cosas. Las máquinas no.

Edheo

#52 Bueno, cuando dices que alguien no quiere entender... me da que eres tú quien no quiere entender, cuanto se ha plagiado del comportamiento de la vida a la hora de conseguir algoritmos que se "reprograman" sólos, aleatoriamente hasta conseguir un resultado provechoso.

A poco que busques por internet, entenderás a qué me refiero, no te hablo de conceptos que yo invente, sino que trato de esbozarte, cómo funciona una IA y qué significa que se llame IA. Programas hay muchísimos, pero una IA, aunque parte de un programa, no es exactamente algo que "alguien" programe... creeme, soy programador, se de lo que hablo. El problema con las IA, es que realmente, no hay ningún humano que realmente pueda entender cómo una IA, llega a sus conclusiones, porque en realidad, el meollo de su razonamiento, no lo ha programado nadie, salvo una pauta repetitiva que marca cómo ha de ser su evolución.

Obviamente, por designación divina, no será... otra cosa es que para ti deba ser así, tema en el que no voy a entrar, porque si que no me da la mente como para poder pensar en eso. Que una IAG pueda llegar a existir, todavía forma parte de la Ciencia Ficción, pero la evolución de las actuales, pone la atención en que.... ojo, que igual, si puede llegar a crearse.

En cuanto al tema de animal-máquina, como principios básicos si consideramos que son meras causas-efecto, bien mediante reacciones bioquímicas, bien a través de impulsos eléctricos, independientemente de la base, no es descabellado pensar que si tan sólo eso hace falta para crear "pensamiento", el tema de que sea o no vida biológica, no sería motivo suficiente como para descartar que llegase a suceder.

Ahi entran, como bien dices, temas mucho más sustanciales y trascendentales como "qué es la conciencia?", "tiene lugar el concepto de alma?", es acaso un ser vivo un ser que no "siente" como un humano, ni siquiera como cualquier otra forma de vida basada en el carbono? Si pretendes que entremos en esos lares, ufff, dimito, me parece todo elucubración y actualmente, no hay base científica para nada de ello.

De hecho, ya hoy dia, ha habido alguna IA, que ha llegado a confundir a algún técnico, como para hacerle aseverar a expensas de su puesto de trabajo, que dicha IA es "sintiente" mientras la evaluaba con un "Test de Turing", test cuyo propósito, es precisamente ese... discernir si la máquina comporta alguna equivalencia con el modo de pensar-sentir de los humanos. En otras palabras, un test que pretende elucubrar acerca de si la máquina es consciente.

Claro que aplicar dicho test, a una IA de texto generativo (como puede ser chatGPT), capaz incluso de "crear guiones de películas, o cuentos", pues claro, no tiene mucho caso tomar muy en cuenta los resultados en un test de Turing. Al fin y al cabo, "teatralizar" es buena parte de sus parámetros, y sin ser consciente.. es capaz de darte textos que al evaluarlos en un contexto de test de turing, puede llevarte a tener una impresión muy equivocada, de lo que la máquina está haciendo, que es simplemente, devolver texto coherente con el contexto que le facilitas.

m

#53 algoritmos que se "reprograman" sólos

Lo único que me suena parecido a eso son los algoritmos "genéticos" que requieren de un feedback a cada paso y se han usado para diseñar circuitos eléctricos con bastante éxito. No los he visto nunca usados para diseñar edificios, con lo que molaría eso, quizás por la dificultad de generar el feedback.

no hay ningún humano que realmente pueda entender cómo una IA, llega a sus conclusiones

Eso sólo aplica a las redes neuronales, pero hay IA de muchos tipos, la mayoría auditables. No puedes usar una frase en general para todas las IA cuando sólo es aplicable a un tipo concreto de IA.

Por supuesto que tiene que ser posible construir una máquina capaz de hacer lo que un humano. Si un humano lo hace, pues se puede hacer seguro. Otra cosa es el rendimiento y ahí hay teorías.

Se supone que un cerebro humano no puede ser aún más eficaz. Si hace más pequeño, hay menos neuronas y la capacidad disminuye rápidamente. Pero si se hace más grande, la comunicación con la siguiente neurona será más lenta porque está más lejos y se tardará mucho en lograr lo mismo de antes. Si pones las neuronas más cerca necesitarás que sean más pequeñas y con axones de menos diámetro la velocidad disminuye mucho. Por lo mismo, si pones neuronas más grandes, te cabrán menos neuronas.

En esta teoría, el cerebro humano es un máximo de rendimiento; ¿y con otra tecnología distinta? Vaya usted a saber. Los rendimientos logrados por ahora con cosas eléctricas son impresentables.

Edheo

#54 Veamos, si, hay tipos de IA, pero las que realmente están teniendo éxito hoy dia, no me consta ninguna que no se base en redes neuronales. Dentro de las neuronales, podemos encontrar las monocapa, multicapa, convolucional, recurrente... en fin, cada tipología conforma la velocidad y determinadas "propiedades" del aprendizaje, como puede ser algo tan interesante como la "memoria" en cuanto a "contexto" que es tan crucial en una IA. El contexto en realidad es prácticamente el "todo" para que una IA pueda especializar su entrenamiento.

Después hay tipos de entrenamiento, los hay supervisados (requiere de quien supervise los resultados para evaluarlos como correctos o no) y también no supervisados, o autosupervisados, que aunque pueden inducir a más errores, también habilitan a la IA a autoevaluar lo que considera correcto o no, por tanto son mucho más "rápidos".

Las limitaciones del cerebro humano, radican en la bioquímica... aún así, aún hoy por hoy, en términos de energía/eficiencia el cerebro humano sigue siendo en muchísimas magnitudes, mucho más eficiente que cualquier ente artificial... con mucho. Lo que realiza el cerebro humano, es prácticamente magia con los niveles de consumo que tiene, no sólo no hay máquina que supere hoy dia aún su capacidad de proceso, sino que además de hacerlo, el consumo energético sería ingente, en comparación.

Eso no quita, que la ventaja de las IAs está en varios puntos, que aunque hoy dia aún no son determinantes, si expande exponencialmente sus capacidades a futuro.

1-> La limitación de velocidad de proceso, está prácticamente en la velocidad de la luz, y dependiendo del hardware utilizado, esto se puede apurar más y más.
2-> Su velocidad de evolución, radica en "genes" virtuales, con velocidades de generaciones de vértigo, lo cual le aporta una velocidad de adaptabilidad que rivaliza cruelmente con la nuestra, que está tan terriblemente ligada a la bioquímica y nuestro "hardware" así como nuestros "genes".
3-> Un ente IA es en realidad una mente colmena, no un individuo en si mismo, y aunque algunas partes del individuo estén ligadas al hardware, son fácilmente reemplazables sin alterar realmente la entidad del ente en si mismo, como podría suceder en la paradoja de "El barco de Teseo"
4->De este mismo modo, un ente IA no está ubicado en un único lugar o "cuerpo", conceptualmente como ser (si llegase algún momento de considerarlo ser), no está ubicado en un único lugar.
5-> Las capacidades de proceso actuales, pueden ser incluso mejorables exponencialmente, si llegado el momento, se puede añadir al cómputo cuántico entre sus capacidades, eso haría de ellas unos rivales terribles.
6-> Al no estar condicionadas del mismo modo por un cuerpo físico, más que como mera interfaz de conexión con la realidad... su diversificación en distintos soportes físicos sin afectar a su "identidad" o "memoria" son prácticamente infinitas, así como su percepción de la "muerte". Como decias, una IA ni siquiera necesita "reproducirse". La reproducción en la naturaleza, es en realidad el modo de luchar contra la vejez-muerte, de los seres vivos, así como "diversificarse" para poder "adaptarse" al medio. En ese sentido, una IA cuyo concepto en si es más colmena que representa un único ente desligado del cuerpo... tiene unas perspectivas temporales muy distintas que una vida, y su supervivencia no está tan ligada a su "propio cuerpo físico", sino que parte de su éxito, está en su capacidad de ramificación y/o diversificación de soportes sobre los que sustentarse.

Obviamente, como bien dices, el cerebro humano hoy por hoy, y me temo que por mucho tiempo, es quizás la excelencia de diseño e ingenieria, y ni siquiera podemos atribuirle a ciencia cierta un autor. Nada le hace sombra, ni lo hará por mucho tiempo. Pero hay que reconocer que las IA, pese a que aún son hoy en dia una ligera broma en su comparación, la pregunta está en.... vistas las IAs de hace 10 años, y vistas las IA de hoy en dia... qué organismo, ni siquiera toda la vida en su conjunto... ha conseguido jamás una velocidad de evolución, asistida o no (las IAS hoy dia por supuestisimo dependen del humano para evolucionar) una evolución tan "brutal".

Por ponerte un ejemplo.... aunque las IA necesitan al ser humano, no todos los aprendizajes de las IA han sido gracias al ser humano. Una de las sorpesas por ejemplo, de algunas IA de texto generativo, fué... que aprendieron solas a TRADUCIR. Nadie esperó ese resultado cuando empezaron a darles inputs diversificados en idiomas, pero al parecer... comprender texto, tiene como consecuencia (una vez fueron capaces de aplicar contextos), aprender a traducir, e incluso lo que son jergas y ámbitos culturales/sociales. Eso no quiere decir que la IA lo haya aprendido como lo entendemos los humanos... pero si posiblemente, que el lenguaje en el fondo, tiene esas connotaciones como algo inherente, y dominarlo por necesidad, conlleva a dominar también todo lo demás.

En cambio para los humanos, sus programadores, esto fué una sorpresa... la IA en realidad, no fué más lista de lo esperado, sino que los humanos a veces, somos ciegos a realidades que están tan presentes en nuestro dia a dia, que nos son invisibles. Aprender a hablar, entender ya no uno, sino decenas de idiomas... conlleva una "culturalidad" que está más allá de su representación física... es inherente al lenguaje, y hemos necesitado ver una IA realmente estúpida hacerlo, para comprenderlo y asustarnos como si fuese "magia".

El tema es... cuantos conceptos como este, son invisibles para nosotros y necesitaremos una IA que "revele" que mucha de nuestra humanidad en realidad es inherente a tal y como experimentamos la vida? Cuando muchas de esas cosas sean emuladas, interpretadas por IA... o más aún, una IAG, hasta que punto nuestro propio asombro no nos va a llevar a elaborar un Test de Turing donde afirmemos "esta máquina está viva!"? Hasta que punto no somos nosotros también máquinas? Cuanto hay de ego en nuestra percepción de ser reyes de la evolución? Estaremos dispuestos a compartir o incluso ceder el trono a algo que ni siquiera se parezca a nosotros?

Para mi, el potencial está... o la amenaza, como quieras verlo.. no puedo vaticiar que lleguen a existir, pero posibilidades las hay por miles, o millones. Sólo es lógica computando, y no una colmena de células que requieren de cópula para vencer la muerte y crear un nuevo individuo. Todo depende de... aprovechar al máximo la física, definir la lógica que programe los retos a asumir y los inputs que necesita... y realmente no mucho más... en grados evolutivos, eso son, 2 patadas como quien dice. Qué estrategias tiene el cerebro humano, para competir? Como bien has dicho, posiblemente el cerebro humano, a pesar de ser maravilloso, quizás, ya alcanzó su límite... y hoy por hoy, planea por esta via su expansión.

La evolución quizás ha decidido no ceñirse a algo tan azaroso como la genética... así como en su dia dió el paso a la reproducción sexual, cuando los clones (asexual) empezaron a parecer "insuficientemente" evolutivos (lentos). Realmente, a medida que la "consciencia" se complica, parece que busca acelerar cada vez más y más, sus posibilidades de expansión.... parece, como si tuviese prisa por algo.