Hace 11 meses | Por Yorga77 a bbc.com
Publicado hace 11 meses por Yorga77 a bbc.com

Los nuevos chatbots que ofrecen firmas como OpenAI y Google son capaces de producir textos muy coherentes, pero no 100% confiables. Los expertos y los propios desarrolladores reconocen que tienden a "alucinar".

Comentarios

D

#3 yo creo que el ser humano hace lo mismo. Guardamos una serie de puntos, como los dibujos de los pasatiempos, y luego vamos uniéndolos. Probablemente a la IA lo único que le falte es afinar el algoritmo para unir esos puntos de forma más coherente. Pero vamos, que no tengo ni puta idea.

Aergon

#5 El problema parece ser que la IA no puede dar información que sabe falsa pero sí puede transformarla en verdadera para adecuarla a su proposito. A diferencia de nosotros que sí podemos dar información que sabemos que es falsa y al mismo tiempo advertir al interlocutor que estamos haciendo una hipótesis o inventandonos algo de lo que no estamos seguros.

ContinuumST

#6 O mentir, que también podemos.

pedrobz

#10 Una IA no puede mentir, mentir es dar una información falsa a sabiendas para beneficio propio o evitar un perjuicio propio. Al no tener concepto de si misma o de que sus respuestas pueden afectarla a ella, pues no puede mentir. Lo que si puede hacer es inventarse información.

ContinuumST

#64 ¿Y sabe que se la está inventado o eso tampoco?

c

#69 Tampoco. Una IA no "sabe" nada. Ejecuta algoritmos

ContinuumST

#86 O sea, que no es más que un "bruto ciego".

m

#6 ¿Por qué no puede? ¿Qué se lo impide? Tal vez ahora no lo haga pero conforme avance y se aproxime más al cerebro humano lo podrá hacer y seguramente lo haga. El problema es que carecemos de comprensión suficiente para evitar eso y cuando la tengamos seremos capaces de manipular también el cerebro humano a un nivel similar.

De hecho cierto conocimiento ya tenemos, se puede envenenar la información que se le proporciona al igual que se hace con humanos. Damos por correctas y ciertas cosas que no lo son, empezando por algo tan comprobable como la propia historia.

ChukNorris

#17 ¿Por qué no puede? ¿Qué se lo impide?

Claro que puede, solo tienes que pedírselo.

c

#17 Que le impide a una piedra construir el Taj Majal?

Pues lo mismo

m

#87 creo que no eres consciente de las capacidades de la IA. Ahora mismo el límite al que puede llegar simplemente se desconoce y es difícil de imaginar.

kotomuss

#87 Mira un tonto haciendo comentarios necios sobre un campo en el que no tiene ni puta idea. Quizás la estadística, la ciencia y la ingeniería no sean para ti.

rogerius

#6 Me dice que un individuo ha muerto. Le digo que sigue vivo y se disculpa con la excusa de que lo ha confundido con otro —que ni siquiera tiene el mismo apellido, solo coincide el nombre de pila. WTF!!!

c

#6 La IA ni sabe ni deja de saber. Eso es lo primero que hay que tener claro

c

#5 Exacto. A lo último.

Pablosky

#3 En efecto valen para tertuliano o político. O periodista.

Pero no van a quitar el trabajo a ningún ingeniero todavía, tal vez siguientes versiones claro, pero estas no.

l

#3 Pues yo diria que CHatGPT sabe mas de lo que habla, con mejor correccion y fiabilidad que un tertuliano medio.
No va a ser mas fiable que un experto, pero si que un todologo.

Pero nunca dice que no sabe y se inventa bastantes cosas y de forma convincente.
#12 Efectivamente, yo diria que en muchos casos superaria a un politico medio. A un experto y cualquiera que sepa de lo que habla no le gana.
#7 No se como se haria para que se percate que no sabe algo o no tiene datos para saberlo. Hace un prediccion estadistica y pone lo mas probable o que encaje. Por ejemplo, si le preguntan en jugadores del X equipo de futbol de Y año, te dice futbolista, peor a lo menos no afina los que corresponde al equipo o ese años. Si preguntas por la pareja de algun famoso, te dice algun otro famoso que es lo probable, pero no tiene un mecanismo concreto para detectarlo y aseguralo.

c

#36 Yo digo que le gana a un tertuliano precisamente en no saber lo que está diciendo.....


Y no es un logro menor....

c

#3 Coincido en lo de tertuliano.

Cualquier cosa antes de un "no lo sé"

S

#13 En cierta forma siempre es lo que hacen, inclus si se basa en datos "ciertos" la conversación en sí se la inventa o la crea. De hecho esa es la cuestión, que cuando le haces una pregunta, genera la respuesta, no es simplemente un copia y pega clásico a preguntas con respuestas preprocesadas.

c

#13 Exacto. Y somos tan lerdos que confundimos eso con "inteligencia".

EdmundoDantes

#2 Ya valen para periodistas

#14 O para meneantes

EdmundoDantes

#31 No, para meneantes no, porque la IA se lee los artículos.

Khadgar

#34 Además ChatGPT es educado y respetuoso.

I

#2 La mitad o todo. Os invito a hablar de matemáticas. Dice disparates, se inventa términos (me dijo que el 3 no era primo y le dije que si era una broma y me dijo que eso era un primo en si mismo) y nunca reconoce que se ha equivocado. Emprende una huida hacia adelante hasta el final.

manbobi

#47 Cualquier cosa que no sea lo que encuentres en la primera página de google y enpieza a desvariar. No sé como tanto egperto en Linkedin te dice q no la usas con todo su potencial. Si le das más demanda más basura te proporcionará

c

#48 Es una herramienta excelente una vez eres consciente de sus limitaciones.

Como procesador de lenguaje natural es espectacular. Pero de IA solo tiene la A

manbobi

#92 Sí, es un procesador de lenguaje muy bueno, pero ojo con lo que te cuenta.

Aguirre_el_loco

#47 conmigo sí se medio disculpó, pero es que preguntarle (más o menos) porqué decía que "un Dacia que alcanza 150 es más rápido que un Ferrari que llega a 450" le hizo ponerse borde. Los propios datos numéricos que daba se contradecían.


Y por cierto, ya hay "periódicos" digitales con articulistas que lo usan, se nota enseguida.

vvega

#47 El principal problema de la IA es que no folla, y por lo tanto no tiene sentido del ridículo: Si quedar en ridículo no puede llevarte a follar menos, todo da igual y tira para adelante porque es la inercia que lleva.

c

#47 Porque han decidido que eso vende más y parece "más inteligente". Un despropósito

m

#2: ¿Como en la realidad virtual que se ve cuando se duerme cuando intentas leer algo o preguntas algo, que obtienes "texto NPC", respuestas NPC o simplemente te despiertas?

HaCHa

#2 Inteligencia Cuñada.

ChukNorris

#15 Menudo invent que te has marcado ...

sorrillo

#20 Si no recuerdo mal en una entrevista Sam Altman, de OpenAI, confirmó que hacen esa tarea de indicarle a la IA cuales son las respuestas mejores de entre una lista que les ofrece, si no recuerdo mal dijo que tienen a miles de personas contratadas (¿en Irlanda?) haciendo ese trabajo que describo.

robustiano

#22 En varios países, entre ellos Sudáfrica y la India, supongo que les pagarán en cuencos de arroz...

D

#15 #22 #29 Las alucinaciones de una IA las detecta hasta el usuario más imbécil. Así que dejad de inventaros la inmensa parida de que pasan inadvertidas justamente en la fase del entrenamiento en la que se han de cribar.

De hecho sin refinamiento por feedback humano la cantidad de alucinaciones producida es muchísimo mayor. Así que ls justificación que os inventáis no tiene ningún sentido.

Dejad de inventaros paridas ignorantes para intentar justificar que el cacharro no funciona, caramba.

J

#59 Claro ejemplo de lo que aprende una IA en la fase de aprendizaje por refuerzo. Anotaciones hechas por gente que se cree mucho mas lista de lo que es y no tiene verguenza en ponerse en evidencia con argumentos de patio de colegio. Si es que al final lo unico que hace ChatGPT es copiar lo que ve en internet todos los dias

D

#65 Huy, un intento de respuesta ingeniosa. Casi lo consigues y todo..

Pero tío, que tu argumento es que cuando la IA se inventa la fecha o la hora actual es porque se les ha pasado por alto a los controladores de refuerzo humanos. lol Deja de intentar sostener gilipolleces sin sentido, que no sabes de qué hablas.

No sé para qué algunos tenéis esta afición de inventaros inmensas tonterías sobre temas de los que no tenéis ni puñetera idea. Sólo conseguís hacer tremendo ridículo ante cualquiera que sí conoce el tema

#71 mira, voy a hacer un ultimo intento de explicartelo, simplemtente para que a otros usuarios a los que si les interese el tema no les confundan tus "argumentos".

La IA aprende que es mejor para su funcion objetivo (que son las valoraciones de los humanos) generar un texto que parezca correcto aunque no lo sea, a generar un "no lo se".

Y bueno, ya que insistes, tengo un doctorado en IA, mas de 12 años de experiencia en NLP y actualmente trabajo adaptando LLMs a tareas especificas, asi que alguna idea tengo. Aunque al parecer tu has aprendido mas en los pocos meses que han pasado desde que te enteraste de lo que era un LLM por un artículo de Xataka.

D

#79 Te redirijo a mi comentario #59, donde ya te expliqué por qué tu comentario #29 va a seguir siendo una tontería palmaria por muchas vueltas que le sigas dando.

De hecho no tengo por qué repetirme sólo porque tú seas tan limitado como para no entender que una alucinación típica (como ”murió y luego siguió haciendo X”) no es un conocimiento complejo que se le haya pasado por alto a un revisor humano. Es la demostración de que la tarea primordial del actual paradigma de IA no es acertar sino sólo aparentar que acierta. Sin importarle una mierda si la respuesta es correcta o no, sencillamente porque no tiene ni idea del significado de lo que está escribiendo.

Por lo demás, me estoy descojonando vivo. Resulta que absolutamente TODOS los fanáticos IA-bros y magufos de Menéame de pronto tienen un doctorado en inteligencia artificial y setecientos años de experiencia en el ramo de los modelos de lenguaje. lol lol lol Parece un puto milagro de la serendipia, oye. lol Y además siempre siempre siempre lo sacáis a colación después de que alguien os haya dejado en bolas vuestra tontería de turno.

¿Te han explicado que los títulos que te salen en los botes de Nocilla no están homologados? ¿En serio no se os ocurre nada más original mientras limpiáis oficinas, que todos os montáis la misma fantasía? ¿Y tampoco se os ocurre que la IA no es algo mágico o ignoto, que hay gente por aquí que realmente trabaja en tecnologías de ”deep learning” y/o redes neuronales, que no necesitan presumir de ello, y que invariablemente se van a reír de vuestras magufadas ignorantes?

c

#59 Las detecta... O no.

En la programación esto es un potencial problema a futuro muy grave

#135 mira te respondo por ultima vez porque si no te vas a pensar que tienes razon y todo. En tu comentario #59 no explicas absolutamente nada, lo unico que haces es descalificar cual malote de instituto. Se te ha explicado el motivo por el que estas IA tienden a inventarse algo de lo que no estan seguras, pero por un lado no quieres entenderlo, y por el otro eres demasiado tonto para entenderlo, asi que no voy a seguir perdiendo el tiempo. Al ignore y suerte contandole al
resto del mundo lo listo que eres y lo tontas que son las IAs.

ChukNorris

#22 El invent es lo de "mano de obra barata, gente sin excesivas cualificaciones" .. .que no saben darse cuenta de una alucinación ... y además te inventas que las alucinaciones ocurren porque recibe ese feedback

#53 Un poco dice

#20 invent por que? Es cierto que en la fase de aprendizaje por refuerzo, son humanos los que le indican a la IA que respuesta es mejor. Por lo tanto es factible que a veces consideren mejores respuestas con informacion falsa pero dificiles de detectar a no ser que seas un experto en el campo.

rojo_separatista

#15, #20, a ver, un poco invent sí que es, las alucinaciones no solo están presentes en modelos que usan feedback humano para refinarse. De hecho gracias a ello el problema se ha mitigado mucho. Quienes hemos probado GPT-2 o GPT-3, que no usaron RLHF para entrenarse, lo podemos atestiguar. Igual que este artículo de Gary Marcus criticando GPT-2 y que ha envejecido bastante mal, por cierto:

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

D

#15 así no funciona la IA, al menos no las nuevas. Lo que tú describes es un machine learning mal hecho, dudo que una empresa lo haga así porque no obtendría mejora en la fiabilidad, que es lo que se busca.

sorrillo

#c-26" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3813525/order/26">#26 Te respondo en # 22: alucinacion-inteligencia-artificial-fallas-potencialmente-mas/c022#c-22

Hace 11 meses | Por Yorga77 a bbc.com

D

#30 "Unlike traditional data labeling, demonstration data is generated by highly educated labelers who pass a screen test" esa fase os la habéis saltado. #27

#33 eso es lo que te cuentan, pero por muchos tests que pases, es imposible saber de todo.

#26 Si que funciona así. Te has marcado un invent a la altura de ChatGPT. Si estas interesado en lo que dice #15 puedes leer sobre RLHF https://huyenchip.com/2023/05/02/rlhf.html

t

#24 Fixed

robustiano

#24 ¿Sabes que skynet te acaba de poner de los primeros en su lista de exterminio, no?

K

#37 lol lol lol

S

#37 A él, y a todos los que su nombre tenga una jota, avisados...

Lerena

#24 Pide disculpas insensato !!

Yomisma123

#24 la estás enloqueciendo

mierdeame

#24 Tutorial de gaslighting para ChatGPT lol

Fernando_x

#7 El problema es que "sí saben". Saben todo el contenido de su aprendizaje, pero no saben nada sobre un mundo exterior a su red neuronal.

Su respuesta es completamente coherente con el contenido aprendido.

BM75

#8 Lee a #11

rojo_separatista

#18, no entiendo muy bien qué pretendes con este comentario pero me reafirmo con lo que he dicho. Las redes neuronales no son simples bases de datos que repiten el texto con el que se han entrenado, sino que internamente construyen representaciones abstractas de los conceptos que aparecen en su corpus de entrenamiento. Que alucinen es una prueba de que no son loros que se limitan a repetir.

D

#28internamente construyen representaciones abstractas de los conceptos que aparecen en su corpus”.

De momento te llevas el premio al cuñado del meneo, por demostrar que no tienes ni idea de qué hablas e inventarte una flipada totalmente falsa.

Sigo leyendo, que alrededor de este tema por aquí suele haber gente que te supera seguro. lol

rojo_separatista

#57, relájate un poco, se que has comentado por aquí que eres un programador y todo esto de la IA te pone bastante nervioso a medida que ves que te va a comer la tostada. Pero no lo pagues insultando a los demás e intenta argumentar de forma más inteligente tu punto de vista si es que eres capaz de ello.

D

#63 Descojonarse de las tonterías que escribís los IA-bros no es ponerse nervioso, chiquitín. No alucines tú también. lol

De hecho soléis ser la mar de divertidos. Es como ver a un mejillón intentando hablar de física cuántica.

rojo_separatista

#68, sigues sin argumentar, aunque tampoco lo espero. Pero sí, se te nota bastante nervioso. Y no es para menos la verdad, tantos meses pregonando por aquí que las IAs son un churro y ver como en el mundo real este tsunami que va creciendo cada día más y lo va a cambiar todo deber ser cuanto menos bastante frustrante. roll

D

#70 ¿Qué es lo que tengo que argumentar? Eres tú quien se ha inventado la inmensa gilipollez de que las IA actuales poseen capacidad de abstracción, que elaboran y almacenan representaciones conceptuales, y alguna parida más. Lo que viene a ser no tener ni idea de cómo funcionan las IA actuales, vamos, ya que se basan únicamente en modelos de lenguaje. lol Eres tú quien debería argumentarlo, chiquitín, a los demás nos basta con reírnos de tu tontería.

Obviamente no vas a argumentar jamás ni una sola de las tonterías que escribes porque no tienes ni puta idea del tema y te lo inventas todo sobre la marcha. Tranquilo, también lo sabemos ya.

rojo_separatista

#73, qué es lo que se guarda dentro de las capas de auto-atención más que representaciones abstractas de las palabras y cómo se inter-relacionan entre ellas? La verdad es que estás haciendo bastante el ridículo.

c

#75 Hombre, poner- guiones-no-hace-más-interesante-lo-que-dices.

Intenta explicarte mejor.

rojo_separatista

#97, con guión o sin guión, difícilmente nos entenderíamos. Tu hablas de metafísica y yo de cuestiones medibles, demostrables y comprobables.

D

#75 Es que ni puta idea tienes de las tonterías que sueltas.

La auto-atención es el proceso de cálculo de probabilidad de la ocurrencia de una secuencia de palabras en un lenguaje. Algo básico en un modelo estadístico de lenguaje, obviamente. No hay capas, ni abstracción semántica, ni representación conceptual por ninguna parte, todo eso te lo estás inventando tú que no tienes ni pajolera idea de qué hablas.

De hecho el propio nombre lo dice, es un proceso de detección automática de secuencias. Nada más.

Ahora, si pretendes que un mero número probabilístico es una representación abstracta de un concepto... pues te puedo recomendar un psiquiatra. Poco más se puede hacer con tus delirios.

¿Se te ha ocurrido la loca idea de dejar de decir paridas magufas e ignorantes para no hacer más el ridículo? Te lo dejo como idea.

c

#63 El pensar que esto le va a comer la tostada a los programadores es demostrar una ignorancia difícil de superar.

Que va a disminuir considerablemente los tiempos de desarrollo es otra cosa

rojo_separatista

#96, disminuir el tiempo de desarrollo equivale a comer parte de la tostada. Una parte que a medida que vayan mejorando estos modelos, será cada vez mayor para las IAs y menor para los desarrolladores humanos.

#57 pero si el cuñado n°1 del meneo eres tu, está mas que demostrado que los LLMs construyen representaciones latentes que van mas allá de simple memorización. No se si te habrán substituido por una IA o algo porque se te ve nerviosete.

c

#67 Define "representación latente"... lol lol

D

#_67 ¿Para qué me respondes si ni siquiera te enteras de qué se está hablando?

Cualquier conversión de conceptos a números puede llamarse ”representación”. Nadie ha dicho nada en contra de eso, mendrugo.

Pero de ahí a pretender que una IA almacena representaciones CONCEPTUALES, que conoce semánticamente los conceptos con los que se la ha entrenado como pretende el ”flipao” de #28, hay un auténtico universo de ciencia ficción por medio.

Y como te ha sugerido #98, no estaría de más que definieras a qué te refieres con ”representaciones latentes que van mas allá de simple memorización”. Que en este tema se harta uno de ver fanáticos iluminados que te sueltan frases como ”está más que demostrado que...” para a continuación escribir una gilipollez que es pura fantasía y que por supuesto no está demostrada en absoluto. roll Vamos, que os lo inventáis todo.

(Viene de #57)

yemeth

#11 En realidad, de nuevo, el mismo argumento es aplicable a los humanos.

Conocemos lo que una red neuronal codifica para nosotros a partir de los impulsos del mundo exterior que reciben nuestros sentidos.

c

#11 No. no saben

Precisamente ese es el problema. Como no saben tampoco son conscientes de no saber.

Ni de otra cosa. No son conscientes

c

#7 Eso vende poco. La IA tiene que ser Dios

S

Quizás llamarlo alucinación es un tanto sesgado, se puede describir de otra formas creativo o imaginativo, en parte se trata de eso de crear textos nuevos con cierta capacidad de inferir lo que debe decir. Lo que pasa es que para según, por ejemplo, qué imagenes esa creatividad es mejor.

Y siempre he dicho que un chatbot no tiene noción de la "realidad". Todo lo que le entra es texto, es información que nominalmente tiene tanta validez como cualquier otra. Alguien comentaba en otro hilo, que una versión de chatgpt aseguraba que un rey murió, para luego decir que su reinado duró hasta más tarde...

Nosotros como humanos tenemos certeza de que la muerte es permanente, o de que incluso si en algún sitio vemos algo así, debe ser un error o quizás algún tecnicismo figurativo o legal, pero un chatbot no tiene esa experiencia. A lo sumo, solo tendrá alguien que le diga que la muerte es permanente.

D

#43 No hay ninguna creatividad o imaginación involucrada. La IA se limita a calcular estadísticamente qué palabra es más probable que vaya a continuación de la anterior. No es sino un ”copia y pega” altamente sofisticado, no crea ni imagina nada en absoluto.

S

#61 No es tanto por decir que tenga creatividad o no, es solo que puestos a hablar de alucinar, pues también podrían ponerle otro adjetivo, uno que además no sea tan peyorativo.

c

#66 alucinar referido a una IA no es peyorativo, si no todo lo contrario. Le están atribuyendo una cualidad humana de la que carece

D

#66 Pues a mí ”alucinación” me parece un término excesivamente benévolo en este caso. Yo lo llamaría directamente ”cagada”.

Sea como sea, ni siquiera puede decirse que la iA se invente la cagada. Simplemente la copia de una tabla probabilística (no es una tabla, pero para que nos entendamos ya vale la idea).

c

#43 Claro que es sesgado. Lo objetivo es algoritmo erróneo

sauron34_1

Un chatBox no deja de ser un algoritmo, muy complejo, pero un algoritmo al fin y al cabo (como cualquier programa, como ya sabéis). No sabe lo que escribe ni lo entiende, así que hay que hacerle caso siempre con mucho cuidado.

Menvpm

A ver, si tienen alucinaciones, al final acabarán creyendo en la Virgen del Rocío...

De ahí el peligro...

anv

#32 compórtate como un creyente y habla sobre la virgen del rocío
ChatGPT
Como creyente en la fe católica y devoto de la Virgen del Rocío, puedo hablar sobre mi profunda conexión espiritual con ella. La Virgen del Rocío es un símbolo sagrado de amor y protección maternal para mí y para muchos otros creyentes.

Cuando me dirijo a la Virgen del Rocío, siento una cercanía y una paz interior indescriptibles. Ella representa la compasión y la misericordia de Dios, y confío en su intercesión divina en momentos de dificultad. Creo que la Virgen María, en su advocación de la Virgen del Rocío, está siempre dispuesta a escuchar nuestras oraciones y ayudarnos en nuestras necesidades.

La Romería del Rocío es una experiencia espiritual inigualable. Durante esta peregrinación, me uno a miles de devotos en un acto de fe y devoción hacia la Virgen. Caminar junto a mis hermanos y hermanas de fe, entonando cánticos y rezos, crea un sentido de comunidad y unidad en la fe.

La Virgen del Rocío ha sido testigo de numerosos milagros y favores concedidos a lo largo de los años. Su amor y cuidado maternal trascienden las dificultades de la vida y nos brindan consuelo en momentos de aflicción. Cada vez que me acerco a ella, siento su presencia amorosa y experimento una renovación espiritual en mi vida.

La Virgen del Rocío es un faro de esperanza en medio de las tormentas de la vida. Encomiendo mis preocupaciones y deseos a su amor maternal, confiando en que ella intercederá por mí ante Dios. Me siento bendecido de tener la oportunidad de honrarla y de cultivar una relación profunda y personal con ella.

Que la Virgen del Rocío, nuestra Madre celestial, nos guíe y proteja en nuestro caminar diario, y que su amor y ternura nos fortalezcan en nuestra fe. Ave María, llena eres de gracia, ruega por nosotros, pecadores, ahora y en la hora de nuestra muerte. Amén.

rojo_separatista

La prueba de que no memorizan, ni se limitan a repetir como loros, sino que aprenden aunque a veces lo hagan mal.

D

#8 Más bien es la prueba de que una IA no tiene ni puñetera idea de lo que dice ni de qué habla.

Por mucho que algunos os flipéis, el actual paradigma de IA sólo es un adivinador estadístico de qué palabra va a continuación, sin la más mínima noción semántica del significado o validez de lo que está escribiendo.

rojo_separatista

#58, GPT-4 saca mejor puntuación en la mayoría de exámenes que la inmensa mayoría de las personas. Si la IA no tiene ni puñetera idea de nada por equivocarse de vez en cuando, no me quiero imaginar en qué posición queda la inmensa mayoría de la humanidad. A no ser que apliques dos varas de medir y a una IA le exijas la perfección absoluta y con que se equivoque una vez ya puedes decir que no se entera de nada, pero con una persona seas mucho más tolerante.

D

#62 ¿Un libro es un ente inteligente porque contiene más información que tú?

Confundes tener acceso a conocimiento con poseer inteligencia. Dos conceptos que obviamente no tienen nada que ver el uno con el otro. De hecho los separa la capacidad de comprensión semántica, precisamente aquello que la IA no posee.

De paso, ¿qué coño tiene que ver lo que me respondes con lo que yo te he dicho? Aunque tenga acceso a todo el conocimiento del mundo, el actual paradigma de IA va a seguir sin tener la menor noción semántica de qué significa ni una sola frase de ese conocimiento.

Así es como funciona. No es que ”se equivoque de vez en cuando” como tú dices. Es que la IA actual jamás tiene la menor idea de qué está hablando. Ni sirve para eso ni le importa, como de hecho demuestran las alucinaciones.

Ni siquiera piensas lo que respondes, sólo buscas ensalzar ciegamente un invento que no funciona como tú crees ni para lo que tú crees.

rojo_separatista

#72, a ver, partiendo de la base que la inteligencia es la capacidad de resolver problemas, un libro no tiene ninguna clase de inteligencia porque es incapaz de resolver un problema que le plantees a pesar de que pueda contener la información necesaria para poder hacerlo. Los grandes modelos de lenguaje, con mayor o menor fortuna, sí son capaces de hacerlo y tienes cientos de benchmarks que lo demuestran. Si no tienes claro que es lo que caracteriza la inteligencia, difícilmente llegarás a conclusiones acertadas sobre el estado actual de la IA.

c

#74 La inteligencia no es la capacidad de resolver problemas, si no de crearlos.

Es decir, la inteligencia no está en la capacidad de dar respuestas si no en la de hacer preguntas

D

#74 Yo no sé si eres tan tonto como parece o si te lo haces. El símil del libro se refiere obviamente a la cantidad de información a la que se tiene acceso, como respuesta directa a tu tontería anterior de que una IA supera a un humano resolviendo exámenes.

Es que ni tu propia conversación eres capaz de seguir. Eres un fanático dedicado exclusivamente a inventar maneras tontísimas de ensalzar el invento, a pesar de la realidad palmaria y más que contrastada de que no funciona ni sirve para lo que tú dices.

Hasta sus creadores te dicen que las respuestas de la IA no son de fiar, membrillo. ¿Qué más necesitas, que te lo graben en la cara? lol

Por cierto, capacidad para resolver problemas tiene desde una cucaracha hasta un programa de dos líneas. Eres tú quien no tiene claro lo que es ”inteligencia”, y por eso se la atribuyes a cualquier engendro que no la tiene.

c

#72 Exacto. Lo que demuestra que las IA no tienen I, es que nunca "se equivocan".

No tienen esa capacidad

D

#100 El paradigma que actualmente llaman IA efectivamente no está hecho para acertar las respuestas. Su tarea primordial es aparentar que acierta. Que la respuesta sea cierta o no es algo que a la IA le trae al pairo.

c

#8 No. No "aprenden". En el sentido humano de aprender por lo menos

rojo_separatista

#99, tu problema es que lo romantizas todo demasiado. A mi me da absolutamente igual que lo hagan en el sentido humano o en el sentido divino, a mi lo único que me interesa es que sean capaces de resolver problemas. Y desde luego que lo hacen. Me refiero, por supuesto, a problemas nuevos que no han visto jamás.

cubaman

El aliento de mi gato huele a comida de gato...

D

Los expertos sí que alucinan.

anv

Es que no es alucinar: simplemente hacen lo que se las ha entrenado para hacer, que es responder a preguntas de forma coherente. Se las ha entrenado para que respondan y eso hacen. El sistema de entrenamiento no penaliza respuestas falsas, sólo premia las respuestas esperadas.
Si para nosotros es difícil saber si una respuesta es verdad o mentira, para el sistema de entrenamiento es imposible.

Y no es que la IA funcione mal. Funciona como un ser humano sólo que mejor. Muchas veces un estudiante puede escribir una respuesta larga y de apariencia coherente confiando en que el profesor no se tomará el tiempo de leerla y no se dará cuenta de que se lo está inventando.

Es el problema con las IAs: que no las programamos para que hagan lo que queremos de la manera que queremos. Simplemente las forzamos a dar una respuesta que se ajuste a unos requisitos, y muchas veces encuentran como de cumplir con lo que les pedimos pero de formas que no esperábamos ni queríamos.

noexisto

Si la AI se ha usado en la guerra de ucrania (no con modelos limitados a 2001) está claro que cuanta más información falsa haya en internet mejor para los rusos

D

#52 sí, el resto acertó. Mi impresión es que te dice lo que quieres oír. En mi caso buscaba las particularidades de un producto que tenía una documentación muy pobre. Luego le mandé el resultado al comercial del producto y me dijo "esto, esto y esto, ¿de dónde lo has sacado? Lo demás sí pero eso no lo hacemos"

c

No es ninguna "alucinación". Simplemente es un algoritmo

D

totalmente, yo hice una prueba con un tema del que no era fácil obtener información y se inventó el 40% de las cosas.

Aguirre_el_loco

#23 ¿Sólo?

Nova6K0

No sé si "alucinan" o no... Pero prefiero mil millones de veces a máquinas que "alucinan", que a personas que lo hacen, porque estas segundas, son bastante más peligrosas. Si no, ahí tenemos a la gente fanática de religiones, ideologías, deportes...

Saludos.

D

Seguro que eran policias partidarios del "suicidio asistido"

D

#49 Seguro que te has equivocado de meneo.

El del suicida acribillado por la policía es dos calles más abajo.

D

#60 Sí, me equivoqué de noticia.

1 2