Publicado hace 1 año por MellamoMulo a culturainquieta.com

A diferencia de ChatGPT y sus similares, la mente humana no es una pesada máquina estadística de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la contestación más probable en una conversación o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que funciona con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones.

Comentarios

Molari

#1 yo veo un debate académico donde tú ves resquemor... Se puede disentir sin tener que hacer (o sufrir) ataques personales.

MellamoMulo

#1 pues yo creo que a ti te molesta más que Chomsky diga que actualmente no hay comparación entre un herramienta de procesamiento de texto y la mente humana, cosa que es empírica cierta, que lo que le pueda molestar a él dicha herramienta

alexwing

#7 no me jode, se perfectamente las limitaciones de estos modelos que no son más que estadísticos, también me gustaría que se llegase a una IA por otros medios más lógicos y comprensibles, lamentablemente dudo que eso sea factible fuera de ese aprendizaje automático que al final son una caja negra, pero igual esos mismos algoritmos nos dan la solución.

MellamoMulo

#12 por el tono de tu comentario si pareciera que te jode, pero si dices que no te creo. Si lees el artículo te darás cuenta de que Noam es bastante aséptico, como corresponde a un tío con su trayectoria y conocimientos, no se intuye ningún resquemor por nada de Chat GPT. A mi también me gustaría que se encuentre otra forma de implementar las IA's, y estoy convencido de que así será en un futuro no tan lejano

Parece que aún no entendemos que se están comparando cientos de miles de años de evolución del cerebro humano con 15 años de tecnología... Démosle 10 años más y se acabarán estas dudas sobre las capacidades de la IA (y lo fio largo).

Nos va a superar... Y dependerá de nosotros que sea para bien o para mal ( mi apuesta es para mal).

MellamoMulo

#2 eso mismo opino yo, aunque lo que opinamos no va en contra de lo que dice Chomsky. El boom actual por las malentendidas IA's hace que la mayoría de las personas educadas en la ciencia ficción se monten unos microteatros que no son reales, y en el presente aún nos queda camino que recorrer. Por resumirlo, el salto ha sido grande, pero no nos flipemos

roybatty

#3 el salto ha sido cuantitativo, no cualitativo. Todo este discurso de las IA es humo, y Chomsky es la persona más adecuada en el mundo para delatarlo.

rojo_separatista

#9, se nota que jamás utilizaste un modelo de procesamiento de lenguaje natural. Los que los utilizamos hace más de cinco años, antes de que no existiesen los transformers y se basasen en RNN o sistemas basados en reglas sabemos que el salto ha sido esencialmente cualitativo.

roybatty

#13 en términos técnicos tal vez, pero en nivel de inteligencia, no. ChatGPT es igual de estúpido que un chatbot.

rojo_separatista

#3, yo creo que más bien es lo contrario. La ciencia ficción ha creado expectativas irreales sobre la IA, dando a entender que tiene que ser consciente, tener sentimientos y voluntad propia, por eso a mucha gente le parece un bluf algo tan aparentemente limitado como chatGPT cuando es un paso de gigante en el campo del NLP que ningún casi ningún académico que investigase en este campo hubiese podido predecir hace cinco años que hoy estaríamos en este punto. Para el público general, no es nada demasiado sorprendente.

MellamoMulo

#14 por eso digo que el salto es grande, pero que no nos flipemos porque hay gente que ya está viendo a Skynet o a HAL9000 cuando no lo es. Yo estoy lejos de ser un experto, pero cuando escucho o leo a los que sí lo son dar a entender que una herramienta así facilitará mucho mucho trabajos que se basan en procesar textos y los acelerará, pero no es un programa "consciente"

j

Lo que dice es que la mente humana es mucho más eficiente y no necesita tener todo internet cacheado para generar respuestas "humanas".

La aproximación que se ha hecho con las IAs está marcando un camino erróneo, ya que a pesar de que el resultado parece humano, la forma de llegar no lo es y en aplicaciones reales, con impacto en la vida de la gente, es donde se verán los problemas de ello.

Al final lo que está haciendo la gente es "hablar" con internet, pero no es consciente de ello y se están montando películas.

Cada lengua ha hecho una aproximación diferente a la hora de representar la realidad, priorizando unas cosas sobre otras, dando visibilidad a cosas que en otras lenguas no existen, las formas verbales para representar una acción en el tiempo y así un largo etcétera.

¿Qué pasa con las IAs? pues que al funcionar por estadística, están mostrando sólo una parte de la realidad. Quien pueda controlar qué realidad muestran, controlará el mundo.

rojo_separatista

#8, de momento ya tiene infinidad de aplicaciones. Aunque al final fuese cierto y esta tecnología tuviese limitaciones intrínsecas, cosa que yo no creo, el camino habría valido la pena per se.

j

#15 tuviese? Más bien tiene.

Sigue necesitanto "un internet entero" cacheado y mucho "hierro" para que tire en condiciones una versión propia.

También tiene problemas de seguridad, ya que va guardando inputs y outputs para ser revisados y para posterior entrenamiento.

Para mí es un camino muerto. Hay que buscar una ia que dependa menos de la fuerza bruta.

rojo_separatista

#18, gracias a tener un dataset con miles de millones de textos y a pesar de sus limitaciones es capaz de hablar con propiedad de una variedad de temas superior a la de cualquier humano.

j

#19 hablar con propiedad?

Por favor... te da una respuesta en base a unas prioridades definidas que determinan la fuente. Si auditan las fuentes de las ias y resulta que están difundiendo contenido con copyright se va a liar una grande.

Y hay que recordar que las fuentes están obsoletas. Chatgpt tiene un snapshot de 2021 y estamos a mediados del 23.

rojo_separatista

#20, no, de hecho este es uno de los problemas de chatGPT, que es imposible saber en qué parte del dataset está referenciada cada una de las partes que cita ya que no hace una copia literal de lo que ha leído sino que ha aprendido a construir frases completamente nuevas a partir de miles de ejemplos. De ahí el problema de las alucinaciones, que hace que se invente cosas falsas que no estaban en el dataset.

Y sí, me reafirmo con que es un salto cualitativo respecto a lo que teníamos hace cinco años, negarlo es simplemente producto de ignorar completamente el estado del arte entonces y ahora.

j

#21 realmente no se inventa cosas. En base al tipo de lenguaje que utiliza va rellenando huecos y ahí es donde aparece el problema de las fuentes, que se le puede colar una magufada de un foro, pues una IA no tiene capacidad para validar nada por sí misma porque no aprende, sólo hace síntesis de textos en base a unas reglas.
Y tampoco son frases completamente nuevas. Si entrenas una ia con textos de Cervantes, te va a soltar parrafadas en plan el Quijote pero metiendo contenidos relacionados con la pregunta que le hagas, o sea, que te puede escribir de física cuántica con el español del siglo XVII.
Esto nos lleva a que los modelos de lenguaje se van a deprecar muy deprisa. Para evitarlo harán falta versiones anuales con su correspondiente entrenamiento, testeo y demás, lo cual es mucho dinero.

En cuanto a los datasets, he visto a gente flipando en foros porque chatgpt da información muy concreta que normalmente sólo se encuentra en publicaciones científicas de pago. Un ejemplo en otro ámbito, busca en internet el sueño de una noche de verano de rtve de 1971. Trata de averiguar qué actor hace cada papel. Pues no lo vas a encontrar, sólo una lista de actores, pero chat sí te lo genera. ¿Cómo lo ha encontrado? ni idea y eso es lo que me preocupa.

#22 no me parece correcto decir que una ia "habla", ya que no tienen iniciativa ni intención en una conversación. Se limitan a contestar, igual que un prompt te devuelve la salida de un comando o google te devuelve unos resultados en base a unas palabras clave.

A ver, tampoco quiero negar el mérito de lo que han conseguido. El resultado es impresionante, pero hay que entender muy bien lo que consigue y cómo lo hace. Insisto, estamos llegando a un callejón sin salida con muchos problemas legales y saltará la liebre en cuanto los abogados vean que hay de donde trincar.

rojo_separatista

#25, pues Geoffrey Hinton, uno de los padres de la IA moderna y premio Turing, que de redes neuronales sabe un rato, no opina que estemos en un callejón sin salida.

"De repente he cambiado de opinión sobre si estas cosas van a ser más inteligentes que nosotros", dijo Hinton, de 75 años, en una entrevista con MIT Technology Review esta semana.
"Creo que ahora están muy cerca de ello y que en el futuro serán mucho más inteligentes que nosotros... ¿Cómo sobreviviremos a eso?".

https://es.euronews.com/next/2023/05/05/por-que-esta-preocupado-el-padrino-de-la-ia-estos-son-los-4-peligros-que-teme-de-la-tecnol

Creo que uno de los errores más comunes es no ser capaz de separar lo que es la autoconciencia y la voluntad, de lo que es la inteligencia en sí.

j

#26 a ver no mezcles cosas.

Hinton habla de la IA en general.

Este meneo habla de chatgpt y yo me he centrado en eso. Chatgpt y todas las ias que precisan un internet cacheado como modelo lingüístico están en un callejón sin salida. No tienen inteligencia porque carecen de la capacidad para determinar si algo es correcto o no. No están entrenadas para validar la información, sólo para hacer síntesis de lo que tienen cacheado.

Yo no he hablado en ningún momento de autoconciencia ni de voluntad. Me refiero a que chatgpt no habla, sólo responde y lo hace sin intención ni iniciativa.

rojo_separatista

#27, lo de auto-validar información es lo que hace por ejemplo auto-gpt y con eso logra mejorar bastante el desempeño. Y Hinton no dice que actualmente estos modelos no sean inteligentes, sino que todavía no son tan inteligentes como nosotros, pero cree que lo serán en poco tiempo.

j

#28 lo ves? ya hablas otra vez de otro modelo en lugar de chatgpt, que es de lo que habla el meneo y a lo que yo he respondido. ¿Tanto te cuesta centrarte?

Cambiar de tema no te da la razón e inventarte lo que yo digo tampoco.

En ningún momento he dicho que chatgpt no sea inteligente. Sólo muestro algunos de sus problemas y sus limitaciones.

rojo_separatista

#20, y a pesar de los problemas que te comenté puede hablar del imperio romano, Platón, Descartes, la química inorgánica, el electromagnetismo y los pintores renascentistas, mejor que tú y que yo juntos.

N

Personalmente, creo que Chomsky se equivoca en la separación que realiza entre la inteligencia humana y las redes neuronales artificiales. Aunque ahora mismo nuestro conocimiento incompleto del cerebro humano, así como del potencial de los modelos de lenguaje generales que estamos desarrollando, nada indica que haya una diferencia fundamental en el funcionamiento de uno u otro.

Tanto la mente humana como los modelos de redes neuronales crean su estado a través de entrenarse con enormes cantidades de información. Este estado, que ocupa un espacio ínfimo en comparación con los datos de entrenamiento, es capaz de producir en ambos casos resultados "originales" (entendiendo por ello que no reproducen los datos de entrenamiento).

Tenemos que entender que Chomsky cree en unas hipótesis sobre el lenguaje diferentes a las que son mayoritarias hoy en día, por lo que es comprensible que para él su premisa de partida sea que éste entendimiento de la inteligencia sea "una concepción fundamentalmente errónea del lenguaje y el conocimiento.".

Dado que los modelos artificiales son capaces de evolucionar exponencialmente más rápido que los biológicos, creo que pronto veremos si existen los límites y las diferencias que Chomsky plantea, o si el excepcionalismo de la inteligencia humana que nuestra sociedad ha mitificado durante siglos se desmorona ante IAs que la igualan y superan en todos los aspectos.

Casiopeo

que los textos de esta IA son banales, prescindibles y faltos de imaginacion es una verdad como un templo.

rojo_separatista

Que a los 92 años quede patente que las teorías que has desarrollado a lo largo de tu vida no cuadran con los resultados empíricos que muestra un modelo que sigue una aproximación completamente distinta, debe ser bastante jodido, aunque seas el académico más citado del mundo en tu campo hasta el momento.