Hace 1 mes | Por elparches a technologyreview.es
Publicado hace 1 mes por elparches a technologyreview.es

Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes

Comentarios

apetor

#42 Venga no me jodas... una cosa es que con suficientes factores, items, nodos, interrelaciones o conexiones, etc. el esquema no sea modelable o se parezca a un sistema caotico e impredecible. Eso es asi, pero de ahi a hacer esa pregunta retorica y a) no saber explicar que por mucha complejidad que tenga el apredizaje humano... b) la cosa no sea comparable a lo que se insinua en esa retorica... RIGOR, Cojones, rigor.

l

#48 Otro que cree que sabe y que piensa que la IA es una mera función estadística alimentada con muchos datos.

Lee el artículo, en serio, léelo está muy bien.

i

#1 Diego Ruzarrin en sus debates y charlas suele hacer una pregunta a sus interlocutores: ¿por qué sabes lo que sabes? Y no es una pregunta baladí, especialmente cuando se tiene una base de conocimientos muy amplia y heterogenea.
Así que si no hay nadie al volante, no lo hay para nadie, ni nada. Personas o IA. 😉

i

#51 A pesar de tu redacción, que es para analizarla, voy a intentar contestarte.
La pregunta de Ruzarrin no es retórica, sino concreta y honesta.
Y la pregunta es completamente relevante, también en el ámbito de la IA. Cuando el input es complejo y heterogeneo, las relaciones entre sus componentes y, por lo tanto, su razonamiento no están claros; ni en los humanos, ni en las máquinas.
Y que no está claro en las máquinas no lo digo yo, lo dice Ilya Sutskever, cuando dijo en 2015 que el algoritmo es muy simple, pero que cuando le introduces grandes conjuntos de datos, lo que ocurre en el interior de la IA es un misterio. Y de hecho, lo mostró gráficamente en la conferencia NIPS de 2015.
Si pides rigor, quizás deberías elevarte un poco por encima de las meras consideraciones técnicas. Y de paso, construir tus proposiciones con algo más de claridad: por ejemplo si empiezas con un "de ahí...", deberías terminar con un "... a...." y así te podríamos entender mejor.
Y baja el tono, haz el favor, que no nos conocemos de nada.

kinz000

Nadie al volante

#35, lo de que la conciencia radica en el cerebro está fuera de toda duda. Hay una correspondencia directa entre lo que le pasa a la conciencia y lo que experimenta la conciencia. Desde los estupefacientes, hasta las lesiones físicas.

x

#4 los animales tienen inteligencia sin conciencia

hasta_los_cojones

#11 al menos algunos

Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.

Aunque como siempre, todo depende de las definiciones

Edheo

#25 Bueno, realmente, el qué es la consciencia.. es algo que ni empírica, ni científicamente, ha tenido ninguna explicación aún plausible, constatable... ni tan siquiera hay rotundidad demostrable de si la misma radica en el cerebro, en el caso de los humanos.

x

#2 o no

D

Lo hace un mago.

sauron34_1

#34 #37 iba a comentar justo esto. Está tan anticuado el test del espejo que hasta en Netflix hay un documental que explica lo que estáis diciendo.

d

#6 Para poner de presidente del gobierno a alguien que no se sabe el ciclo del algua, sí, se puede poner a una máquina, o a una gallina.

De hecho es la misma persona que envio al Prestige a alta mar cuando era muy evidente que eso era lo que no se debía hacer. No he dicho evidente "a posteriori" sino evidente en ese momento.

POR ESO que esa desgracia sucedió en España, porque en otros paises no ponen de ministro a un analfabeto.

B.Vallejo

#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.

-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.

PD: Descartes es tu amigo.

obmultimedia

#1 Lo hizo un mago.

yemeth

Como ejemplo de enorme inteligencia pero completamente inconsciente (o eso pensamos tinfoil ) es fantástico el tema de algoritmos genéticos, donde se estudia la propia evolución como mecanismo inteligente. Que es donde yerra la religión que pone una mano divina detrás; es la propia evolución la que, como si se tratara de un antiguo y ciego dios pagano, funciona de manera inteligente.

yemeth

#35 Pero eso me hace todavía más escéptico sobre la idea de que se vaya a generar espontáneamente porque un algoritmo sea muy complejo, si ni siquiera sabemos explicar de dónde surgen los qualia. Le veo más sentido a las tesis base de Roger Penrose, que la emergencia de la conciencia sea algo que está ligado necesariamente a un soporte material.

#280, vaya al final no estamos tan en desacuerdo. La explicabilidad y el poder controlar estos sistemas va a ser un reto con el que trabajar.

Edheo

#29 O pero aún, se están haciendo a si mismas...

crycom

#28 Los cuervos lo pasan.

M

#20 Menos mal que se leen cosas cuerdas por aquí.

Está esto lleno de magufos que creen que por el simple hecho de aumentar la potencia de las IA éstas van a desarrollar instintos y capacidades biológicas.

Es como creer que conforme los coches se fabriquen más rápidos mágicamente desarrollarán el instinto de huir. lol

d

#65 "conforme los coches se fabriquen más rápidos mágicamente desarrollarán el instinto de huir"

Buen ejemplo, es la misma clase de esperanza basada en la magia.

sauron34_1

#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro

Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.

d

#2 No tiene por qué. La consciencia es un resultado de la evolución que es necesario para sobrevivir. SI no tienes consciencia se te comen y no dejas descendencia.

No hay ningún motivo por la que deba "surgir" sólo porque sí.

MisturaFina

No hay trazabilidad. Una red neuronal no se puede fundir con otra ni se puede borrar selectivamente un aprendisaje. Se copian y pegan pero luego tienen evoluciones diferentes. Cada una es unica, pronto seran individuos, como la vida misma. Y cuando la complejidad sean tan alta desarrollaran consciencia. Sin saber como ni porque como nosotros.

M

#35

Si la conciencia humana no radica en el sistema nervioso, ¿qué alternativa postulas?

¿Y en los animales? ¿Crees que funciona diferente?

Voynich

#53 Tienes razón. No lo había leído. Y tienes razón en que está bien. Y es un problema epistemológico del carallo. Están apareciendo propiedades "emergentes" constantemente.Lo cual tiene su lógica, porque las neuronas son casi el paradigma de las propiedades emergentes. Una neurona hace cosas tontas, pero interconectas unos cuantos billones de ellas y... pues ya sabes. Lo que sucede es que estamos entrando más en el ámbito de la filosofía. Entre la complejidad del Software (Lllama 2 tiene seiscientas y pico líneas de código) y lo el software es capaz de hacer hay un abismo. Y es misterioso, ciertamente. Y esto, lógicamente, justo a miles de millones de dólares, es terreno abonado para el adanismo.

l

#71 Lee el artículo, cada vez leemos menos

x

Es como intentar explicar por qué a alguien se le ocurre una idea brillante

x

#80 con animal me refería a no humano, y con conciencia a conciencia plena.

Robus

Se sabe porque y como replicarlo, lo que no se sabe es justificar la salida en razón a las entradas, porque están "diluidas"... por eso mismo las redes neuronales "no copian", sino que "cocinan" la información.

Edheo

#64 Si, y no... y razón no te falta, pero veamos.

El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.

Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.

Las lesiones, también por tanto interfieren en dichas funciones, y en un cerebro completamente formado y adulto es muy poco probable que la maleabilidad funcional del propio cerebro, pueda compensar según que daños, obviamente resultará en fallas muy posiblemente letales.

No lo planteo en esos términos, sino en lo que comenta #52 como autoconciencia... y es ahi donde, obviamente, el mejor candidato será el cerebro, pero aún sigue siendo un misterio dicha autopercepción, en qué magnitud otras especies pueden estar experimentándola, cómo se mide y localiza dicha autopercepción, y cuando suceda en una IA, seremos capaces de reconocerla? O siquiera podemos empíricamente demostrar, que es imposible que eso suceda en una IA porque hay una causa o premisa que los organismos vivos si tenemos y las IA no?

Es a eso a lo que me refiero, y para nada digo que sea imposible que esté en el cerebro, pero también es cierto que estamos lejísimos aún de comprender cómo funciona el mismo, ni siquiera para la gran mayoría de sus funciones básicas, y menos aún en cuanto a lo que se refiere a la autopercepción. Qué elementos confinan un "yo"? cuantos yoes puede haber? Un organismo como el nuestro, que a su vez, contiene infinidad de organismos, cuantos "yoes" alberga? unos encapsulan a otros? hay transferencia o incluso consciencia de esos yoes entre ellos? Dudo que sea algo tan simple como plantearlo como un mero sistema mecánico que responde a impulsos... o quizás si sea posible y simplemente me resisto a creerlo.

Tuatara

#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle entendemos por inteligencia) es un tema siempre bastante controvertido, por la inevitable tentación de arrojar una valoración "humano centrista".
En algunos de los estudios que más conozco, por ejemplo, se ha utilizado la escala de CI de Louis Lefebvre, pero esa escala de por si no tiene porque representar los estudios de Chris Templeton acerca del lenguaje del carbonero. ¿porqué? Porque tal vez la importancia del lenguaje para el carbonero sea tan alta, que para nosotros resulte muy difícil comprender cómo de importante para su inteligencia es esa capacidad.
Es un ejemplo obvio pero lo pongo por si acaso: Una persona muda no deja de ser inteligente. Puede ser tan inteligente o más que yo. Eso es algo que como humanos sabemos. Por eso es muy arriesgado intentar trasladar estos parámetros a otras especies.
Ahora no me voy a acordar del nombre, pero hay estudios sorprendentes en esta misma dirección con abejorros, planteándoles una serie de problemas a modo de puzzle, que eran capaces de resolver.
Respecto a un intento de arrojar luz específicamente a las capacidades cognitivas, Herculano-Houzel tiene estudios intentando relacionar la cantidad de neuronas con las capacidades cognitivas.
Es interesante echar un ojo a sus estudios porque determina una forma de medir, cuantitativamente, la capacidad cognitiva, gracias a los resultados del % de neuronas en la corteza cerebral. Aunque como tampoco niegan... es como estar midiendo algo que no sabemos muy bien que es. Pero deja la puerta abierta a ese otro tipo de inteligencias.
Si han podido demostrar que, en los casos de especies que aún podemos llegar a poner a prueba (según las pruebas humanas) esa mayor concentración de neuronas en la corteza cerebral es la que permite unas mayores capacidades cognitivas... y nos encontramos con una especie (de ave por ejemplo) don un % que puede estar triplicando el de algunos mamíferos (como el del elefante) , pero no somos capaces de "entender" sus capacidades... ¿qué nos estaremos perdiendo? ¿qué es lo que no estamos viendo?
Con esto voy a tirar de un clásico, como Carl Sagan, la cuestión que planteaba creo que poniendo como ejemplo una serpiente como un alienígena muy inteligente, del cual, ambos seríamos totalmente inconscientes de la capacidad de inteligencia mútua, por la incapacidad de comunicarnos entre nosotros.

No digo que los estudiosos que tú planteas no sean útiles. Son cruciales. Pero es posible que estemos como humanos, bloqueados por la propia asíntota de que no podemos dejar de ser humanos cuando intentamos entender las capacidades de otras especies, y sólo podemos sorprendernos cuando se dan esas circunstancias que permiten un nexo comparativo entre diferentes formas de ser inteligente.

Llevamos con esta matraca desde Aristóteles con su scala naturae y en realidad, tampoco hemos avanzado mucho


Agradezco mucho tu comentario. Da gusto leer algo así.

d

#50 Todo lo que se hace en SciFi es suponerle de golpe todos los instintos humanos a una máquina, sólo porque sí. Desde los robots de Asimov hasta los de Lem. Es un recurso literario, pero no tiene ni el más mínimo sentido.

M

Me gustaría nombrar a todos los participantes en los comentarios con # .

Hacía años que no disfrutaba leyendo comentarios juntos de tanta gente, sin odio, sin payasadas (algún chistecillo hay pero bien hecho).

Esto es el meneame que hubo paralelamente a Barrapunto, que pena no sea así siempre.

Ahora falta que debajo de la linea lleguen los trolls:
--------

ErMijita

#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.

#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.

I

#138 "Tomar decisiones" es quizá decir mucho para una bacteria o para una lechuga. Y en ambos casos 'son comidos' por otros, así que no sé qué 'consciencia' deben tener.

Por cierto, el modelo ese de realidad que dices que crean 'para tomar decisiones', ¿dónde lo crean?

sauron34_1

#211 no, sabes que no es lo mismo.

sauron34_1

#213 algo así empezaría a parecerse.

rojo_separatista

#14, se sabe por qué de aquella manera, porque los propios investigadores que entrenaron GPT-3 quedaron sorprendidos de cómo un modelo entrenado para decir tokens uno detrás de otro de forma que parecieran coherentes, aprendiese a programar o a trasladar conceptos abstractos aprendidos en un idioma a otro. Obviamente no hay magia, sino matemáticas y una enorme complejidad, pero muchos de sus resultados no eran esperables.

rojo_separatista

#162, se que eres desarrollador y estás bastante asustado por lo que está pasando, pero no hace falta que te alteres de esta manera y lo pagues con insultos.

Vamos a ver porque parece que no te has enterado de nada: el modelo no copia nada de ninguna base de datos de 700GB, esto es el tamaño del repositorio con el que se le ha entrenado para escribir código, pero los modelos de Deep Learning no guardan una representación del dataset con el que se entrenan, sino que aprenden a extraer patrones que están en dicho dataset y les permiten extrapolar lo aprendido a nuevos escenarios (por ejemplo, puedo entrenar un clasificador de gatos con 1 millón de imágenes y luego, cuando le pase una imagen completamente nueva, sabrá hacerlo bien aunque no está en el dataset), en segundo lugar, lo que comentas sobre el filtrado de soluciones no es un defecto sino que es parte de la propia arquitectura del modelo, y en cierta manera los seres humanos funcionamos así cuando resolvemos un problema, no acertamos a la primera e intentamos encontrar la solución correcta mediante varios intentos basados en prueba y error. Tampoco has entendido la parte en la que dice que a pesar de que no es perfecto, está por encima del 54% de programadores humanos en estos tests, lo que lo situa por encima de la media que es el 50%. Es decir, más de la mitad de desarrolladores humanos, lo hacen peor que esta IA. Y como apunte final, decirte que este modelo ya está bastante obsoleto, modelos como Devin, presentado la semana pasada ya son mucho mejores.

En definitiva, entiendo tu frustración como programador y me recuerda un poco a la de los ilustradores, es duro ver que para lo que te has formado durante toda tu vida va a terminar siendo automatizado más temprano que tarde, pero pagarla con insultos no es la solución. Trata de ser constructivo, aprende a utilizar asistentes como Copilot para no perder comba con otros desarrolladores que ya se apoyan con IA y por último piensa en cómo organizarte con otra gente con tu misma situación para que la sociedad sepa dar una salida a todos aquellos que se van a ver fuertemente impactados por los avances de la IA.

#48, bueno, esto depende de qué califiques de misterio y qué no. Si una IA aprende a determinar el sexo de un individuo a partie de las imágenes del iris y nosotros no somos capaces de extraer qué características correlaciona la red neuronal para llegar a dicha conclusión, no significa que haga magia o que no haya un patrón matemático dentro, pero nosotros no somos capaces de saber cual es.

Esto es lo que ocurre con las redes neuronales de gran tamaño, que hacen cosas inesperadas por parte de quienes las diseñaron. Por ejemplo GPT, aprendió a programar cuando se diseñó para sólo escribir textos con sentido. No hay magia y sabemos las reglas básicas que han hecho que llegue aquí, pero no sabemos exactamente como se ha configurado la red neuronal para desarrollador esta habilidad.

E

#48 El titular no es absurdo. Está relacionado con un problema popularmente conocido como "la maldición de la dimensionalidad" del que creíamos tener una idea relativamente clara y que los LLM han hecho saltar por los aires, y que tiene implicaciones profundas porque es posible que hable más de la estructura del conocimiento que de las capacidades de los modelos en sí. Algunas de sus vertientes están bien explicadas en el cuerpo del artículo.

MorrosDeNutria

#32 Empezaron en un garage !

dilsexico

Me recuerda un cuento de ciencia ficcion que lei de joven: La ONU se reune para encender por primera vez un super-ordenador que, con su inmenso intelecto y memoria, podra contestar cualquier pregunta. Se elige a un presidente de un pais por sorteo que hara los honores de encendido y se decide de antemano la primera pregunta que la humanidad hara a la maquina; "Existe Dios?"
El ordenador, en una milesima de segundo, toma control de todas las bolsas y cuentas bancarias, todas las bases con misiles nucleares del mundo, las centrales electricas y de comunicacion y contesta:
"Ahora, yo soy dios"

B.Vallejo

#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece", no por ello desapareciendo la inteligencia, sino no habria capacidad de agenciamiento, ni intencionalidad, ni experiencia de flujo, lo que se llama capacidad exteroceptiva en neuropsicología. I cuando "pensamos" o " o "reflexionamos" ( cogito, ergo sum), aparece toda la parte de dualidad, toda nuestra capacidad para pensar en categorías, dualidades, matemáticas, etc. Lo que se llama capacidad interoceptiva. Aquí te dejo una masterclass que lo desarrolla bien:

From brain to mind: A spatiotemporal approach



Los trabajos de Joseph LeDoux, sobretodo estos últimos dos años que por abreviación no voy a desarrollar, van bastante en la línea de lo que desarrollas en el que cognición, inteligencia i consciencia, están intrínsecamente conectados (abogando porqué el problema duro de la consciencia no se puede resolver) peró aún no sabemos, como por ejemplo la tabla de instintos de Panksepp (Neurociencia afectiva) que asignan unos neurotransmisores y neuromoduadores a una capacidades afectivas, de aprendizaje e intelectivas, que tenemos todos los mamíferos, se conectan con la consciencia. Pero "más o menos" si la inteligencia. A saber, afectos y capacidad de discriminación segun circunstancias (inteligencia)

-Búsqueda/ sistema de espectativas
-Rabia/Agresividad
-Miedo/Ansiedad
-Deseo/Sexualidad
-Cuidado/Educación
-Pánico/Separación
-Juego/Alegría

Cómo de ello sale nuestra capacidad de auto-consciencia reflexiva, sigue siendo un puto misterio. Considerando el emergentismo un ad-hoc, claro esta. He de ir a currar lo siento, me encantaria desarrollarlo más. Pero me encantaria que me pudieras pasar algunos links o libros sobre los trabajos con animalicos, sería fenomenal, es un tema muy fascinante.

Muchas gracias, :)))).

apetor

#75 Todos estos LLMs estan MUY lejos de esa autpercepcion o autoconsciencia o consciencia del Yo. Vamos, que si les preguntas te diran cositas que les describe y demas, pero en fin, nada de nada. Otra cosa es que, siendo el tipo de inteligencia ( el dia que lo sea, el famoso AGI o tal ) diferente a la nuestra ( fundamentalmente diferente ), esa autoconsciencia sea un requisito para algo/nada.

a

#52 Una pista: retroalimentación.

M

#196 No, no creo que estemos en páginas diferentes. Por supuesto lo habitual es pedirle a la IA que genere algo no preexistente. No lo he dicho expresamente porque me parece algo obvio y sobreentendido.

Pero al mismo tiempo le estás pidiendo que copie estilos, elementos, cosas reconocibles de sus fuentes. Y sí, digo copiar, porque esos elementos reconocibles no los crea la IA ni se generan de la nada.

En mi opinión, que por medio haya un cifrado estadístico de esos elementos no quita que se están copiando, y que eso es exactamente lo que se le pide a la IA.

Te pongo un ejemplo a ver si así explico mejor mi punto de vista. Le pides a una IA una imagen de Rajoy vestido de Supermán. Y obtienes lo que quieres, una imagen que no existía. Pero si te das cuenta... esos musculazos... ese flequillo de supermán... resulta que son idénticos a ilustraciones concretas usadas como fuente. Esos elementos son una copia, un plagio. Y son lo que hace reconocible a Supermán, tal y como le has pedido a la IA. Eres tú quien le ha pedido que copie, porque ésa es la finalidad de la IA.

Ahora cambia Supermán y su flequillo por cualquier otra cosa y uno o más elementos que la caractericen. (De Rajoy vamos a pasar)

O mejor aún, pídele a la IA que produzca una imagen con un elemento o estilo del cual no se la ha alimentado con copias. Verás que el resultado no tiene nada que ver con lo que has pedido. Porque si no puede copiar no funciona.


me ha dado la sensación de que me estabas trolleando un poco a la hora de interpretar mi mensaje”.

No, hombre. Si te trolleara no te cabría duda alguna al respecto. lol

#8 la Cibeles

B.Vallejo

#44 Tienes toda la razón. Gracias por recordarlo.

Voynich

#58 Si tu ajustas los billones de parámetros de un modelo en base a trillones de datos, conseguiras un aproximador universal que no tiene ni idea de donde viene la información, porque le has dado la información pero no le has dado ni la fuente ni una "ontología" respecto de la cual referenciarla, ni le has dicho siquiera si es verdad o ficción. Sabe, pero no sabe porque sabe. Eso es implícito a la arquitectura de redes neuronales actuales y al descenso de gradiente que se usa para ajustar los pesos.

C

#67 Es que los humanos también lo hacen, siguiendo corrientes artísticas o mismamente en el momento que están aprendiendo ciertas artes para poder ejecutar sus propias obras.

I

#10 ¿Estás diciendo que una bacteria tiene consciencia? ¿o una lechuga? ¿O no la tienen porque hay otro ser vivo que se las comen? ¿Un pollo o una vaca tienen consciencia?

#100, no se como sabes tú que un gusano tiene o no tiene conciencia.

#85, sí saben programar, de hecho ya superan al promedio de programadores en competiciones de programación: https://www.extremetech.com/science/341451-deepmind-builds-ai-that-codes-as-well-as-the-average-human-programmer

#188, pobrecitos los de tu empresa si tienen en cuenta tus opiniones. Debéis ser los únicos que no han incorporado Copilot a su flujo de trabajo.

Mientras tanto y en el mundo real (hace un año): https://www.xataka.com/aplicaciones/copilot-escribe-40-codigo-lenguajes-como-java-python-que-llega-a-github-cinco-anos-llegara-al-80

#191, una bacteria también lo hace mediante receptores químicos, por otro lado una IA podrá hacer todo esto que dices y no tendremos forma de demostrar que si es consciente o lo simula.

#200, mientras tanto, en el mundo real: https://www.revistaeyn.com/empresasymanagement/sap-suprimira-8-000-empleos-equivalente-a-mas-del-7-de-la-plantilla-BH17106788

Ni siquiera me creo que no utilices Copilot a escondidas. lol lol lol

#206, repito, entiendo tus miedos, pero el insulto no es la solución. Respecto a la noticia que he enlazado tienes este párrafo: La empresa ha anunciado que en 2024 pretende aumentar aún más su enfoque en áreas estratégicas clave de crecimiento, en particular la IA empresarial, así como transformar su configuración operativa para capturar sinergias organizativas, eficiencias impulsadas por la IA y prepararse para un crecimiento futuro de ingresos altamente escalable.

Tal vez no entiendas lo que quiere decir, pero significa incorporar herramientas de IA en sus flujos de trabajo. Te recomiendo que te reinventes, porque va venir un junior recién salido de la universidad que sí sabe como utilizar estas herramientas y te va a pasar la mano por la cara.

#237, se te ve muy nervioso, tómate una tila. No me rebajaré a seguir debatiendo con quien intenta suplir su falta de nivel con insultos.

rojo_separatista

#131, no, no es eso, es que después de varias décadas se ha visto que la IA simbólica no tiene recorrido porque la realidad es demasiado compleja para poder modelizar-la en reglas comprensibles.

Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.

Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia humana basadas en Deep Learning y que hubiese sido más "elegante" una aproximación de tipo simbólico, pero la realidad se impone y los modelos que funcionan son los de Deep Learning, si hubiese algo mejor y más eficiente, no dudes que aparecerían trabajos en este sentido.

#53, este usuario además de un ignorante es un faltón, si repasas su historial de comentarios lo verás. Lo he reportado y espero que lo baneen, que vaya a otro sitio a expresar sus cuñadeces con mala educación.

#266, bueno, puede que para algunos problemas una combinación entre ambos paradigmas, pueda resultar útil, son lo que se llaman arquitecturas neurosimbólicas pero el grueso del procesamiento siempre caerá en la parte neuronal que es la que nos ha sacado del invierno en el que estaba la IA. Siempre circunscrito a problemas definidos con reglas rígidas que cumplir.

rojo_separatista

#269, sinceramente opino que estás completamente equivocado, el momento que está experimentando la IA en la actualidad no tiene nada que ver con ninguno de los anteriores. Es bueno, hasta sano diría yo intentar no dejarse arrastrar por el entusiasmo desmedido frente a una nueva tecnología por el riesgo que sea un bluf, pero este no es para nada el caso de la IA actual. En los últimos años el progreso ha sido exponencial y las herramientas que tenemos hoy en día ya permiten hacer infinidad de cosas hasta antes impensables. Generación de imágenes, video, código de programación, canciones o texto, sintetizadores de voz, chatbots conversacionales a nivel prácticamente humano, algoritmos de visión por ordenador que permiten identificar lo que ocurre en la escena, todo esto abre un abanico prácticamente infinito de aplicaciones que se pueden desarrollar con la tecnología que ya existe y lo más emocionante es la velocidad a la que está evolucionando.

Y todo esto gracias al deep learning, quien nos iba a decir que intentar emular el cerebro biológico produciría resultados tan parecidos a lo que este hace.

Los referentes más cercanos que encuentro respecto a otras olas tecnológicas son los ordenadores personales, Internet y los smartphones, pero esta creo que tendrá muchísimo más impacto.

rojo_separatista

#271, ya que me interpelas en en términos personales voy a hablar de mi experiencia, tengo un doctorado en ingeniería informática, tengo más de 30 publicaciones en revistas y congresos, he estado años investigando en el extranjero, trabajo en una empresa de robótica e inteligencia artificial dirigiendo el departamento de visión por computador, vamos que no soy para nada ajeno a esta área del conocimiento, es algo más que un trabajo para mi, es mi pasión y me parece curioso que hables de esta manera si realmente llevas tiempo dedicado a esto, porque los que hemos trabajado en esto y hemos visto el nacimiento de modelos como AlexNet sabemos mejor que nadie que el desarrollo ha sido exponencial. Dentro del ámbito académico diría que mi entusiasmo es compartido por muchos investigadores con los que he hablado, precisamente porque sabemos de dónde venimos. Cierto es que hay un pequeño grupo de viejos académicos que se resisten a darse cuenta que el GOFAI está muerto y enterrado, tal vez tu eres uno de ellos, no lo se, pero el consenso en torno a que el Deep Learning es el camino es enorme.

¿Sabes a quien no le hizo ni fu, ni fa chat-GPT cuando les enseñé sus capacidades? A mi madre y mi hermana. A quienes les costó ver el salto cualitativo que representava respecto a asistentes como Siri o Alexa.

#273, nosotros estamos desarrollando sistemas de IA discriminativa basados en redes neuronales para monitorizar procesos industriales, tampoco puedo ni quiero dar más detalles de a qué me dedico, pero te aseguro que hay muchos millones de euros en juego si esto funciona tal y como se espera. Y esto es una aplicación real del ML en algo que tiene un impacto directo en la industria.

La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.

Lo que tu apuntas es el tema de la tolerancia a errores, en esto el Deep Learning todavía falla, pero en todos aquellos procesos en el que esto no sea un imperativo creo que ya tiene mucho recorrido y en el futuro creo que se subsanará sin tener que cambiar de paradigma.

#275, estamos hablando de un sistema de visión por ordenador para control de calidad en el que si eres capaz de lograr una precisión superior al 80% puedes llegar a ahorrar muchos millones de dólares para una tarea en la que es inviable tener un humano supervisando esto manualmente, esto lo logran ya muchos modelos con redes neuronales convolucionales ahora. Simplemente se necesita la infraestrutura y el entrenamiento para lograrlo. Por supuesto que es viable monetizar una solución para este problema y por eso se está invirtiendo tanto.

Los ejemplos que se suelen poner para referirse al fracaso del aprendizaje profundo suelen ser el famoso problema de la conducción autónoma cuando es precisamente uno de los últimos problemas que será solucionado, precisamente por la nula tolerancia a errores que tiene y la diversidad de escenarios posibles.

Microsoft ya está a estas alturas monetizando sus copilot para un montón de tareas por no hablar de los sistemas de recomendación que se utilizan para prácticamente todo en internet y que están basados en ML.

Me parece muy bien que te dediques a explorar soluciones a otros paradigmas, pero no seas tan asertivo al afirmar que tu tienes la solución a los problemas inherentes en el Deep Learning, El mismísimo Yann Lecun metió la pata una semana antes de que OpenAI presentara Sora afirmando taxativamente que el problema de generación de videos era imposible de resolver con modelos de difusión. Hay que ser un poquito más humildes ante el potencial que están mostrando los últimos modelos de Deep Learning.

#277, jamás he dicho que se puedan resolver todos los problemas con ML actualmente, lo que digo es que ya con lo logrado a día de hoy hay una industria de miles de millones por desarrollar. Lo que está en duda en todo caso es si vamos por el buen camino para desarrollar una AGI o no, en mi opinión sí, y no habrá ningún otro invierno de por medio. Piienso que el cerebro humano no funciona ni con ontologías, ni con reglas, ni con representaciones simbólicas de por medio más allá de las que construye nuestra propia red neuronal internamente. Cuando se logrará una AGI, no lo se, pero una ventana de 5 a 20 años con un 90% lo considero una buena estimación. Estimación que no la he hecho yo, sino un premio Alan Turing como Yoshua Bengio.

MisturaFina

#2 correcto. Totalmente de acuerdo. La eacala hace al fenomeno. La misma neurona simple y predecible provoca a gran escala consciencia.

M

#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.

Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.

M

#53la IA es una mera función estadística alimentada con muchos datos”.

Es la definición exacta del actual paradigma de IA, sólo te ha faltado añadir la retroalimentación. Por mucho que algunos queráis imaginar magia y ciencia ficción.

M

#17 Y un jueves bajará dios y las tocará con el dedo, sí.

Cómo os flipáis algunos.

M

#70 Yo también. Y precisamente ser científico es lo que me lleva a concluir que tu apreciación de que la vida y la conciencia son algo que emerge mágicamente por sofisticación de objetos es una flipada sin base. Por mucho que lo diga alguien con bata y un título.

M

#63 Empíricamente se ha demostrado de sobra que las capacidades conscientes se ven alteradas por daños cerebrales.

Otra cosa es que tú no lo sepas y escribas quilométricas tesis pajilleras basadas en esa ignorancia o en algún caso anecdótico, al más puro estilo magufo.

M

#66 Ni las IA saben programar ni manejan conceptos abstractos.

Pues anda que no se hacen experimentos al respecto, y el resultado es siempre una risa.

Algunos os flipáis cosa mala.

sauron34_1

#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.

M

#84la consciencia es un tema de moda en el ambito científico desde el auge de la cuantica”.

Que los magufos usen gratuitamente la palabra ”cuántica” para intentar dar empaque a cualquier flipada sin base no significa que eso tenga nada de científico, mi querida ilusa.

Tú misma estás metiendo la cuántica en un tema que no tiene absolutamente nada que ver, para intentar rebatir un comentario que tampoco tiene nada que ver. Muy ”científico” todo. lol

Mi definición de conciencia la he puesto en otro comentario por aquí, por cierto. La buscas y la lees, no voy a repetirme porque tú vayas de sobrada y tengas ganas de faltar.

sauron34_1

#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.

sauron34_1

Bueno, A VER. No se sabe como no se sabe muchas veces por qué ocurren ciertos bugs rarísimos en los sistemas operativos que solo se saben arreglar formateando e instalando de nuevo. Se alcanza tal nivel de dificultad que es difícil saber los outputs a partir de los inputs. Nada más.
Si fuéramos capaz de hacer debug del camino que ha seguido el código diríamos “ah coño, por eso!”

Edheo

#78 Nada más lejos de mi intención, que plantear magufadas.

Por lo demás, ok y gracias.

ErMijita

#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.

Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.

No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.

Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.

sauron34_1

#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor

sauron34_1

#176 no, eso no es reprogrmar, hombre! Es que el programa reescriba su propio código.

sauron34_1

#186 no, la cinta son los datos, lee de unas hojas, repasa la definición. De todas formas, os estamos perdiendo en tecnicismo: los programas actuales no son capaces de reescribirse. Ninguno

sauron34_1

#198 no, reescribir en memoria no cuenta como reescribir.

sauron34_1

#208 se le acerca, pero no, no cambia su código en tiempo real basándose en su propio código.
De hecho, es que el cerebro no hace eso, porque lo que cambia es el hardware, por lo que sería como si los chips se reconfiguraran.

sauron34_1

#215 sigue sin ser lo mismo

1 2 3