edición general
196 meneos
1903 clics
La IA no es inteligente y creerlo es un enorme peligro que no puedes imaginar -  Guillaume Thierry

La IA no es inteligente y creerlo es un enorme peligro que no puedes imaginar - Guillaume Thierry

Darle a la IA un rostro, voz o tono humano es un acto peligroso de travestismo digital. Desencadena una respuesta automática en nosotros, un reflejo antropomórfico, que conduce a afirmaciones aberrantes según las cuales se dice que algunas IA han pasado la famosa prueba de Turing (que evalúa la capacidad de una máquina para exhibir un comportamiento inteligente similar al humano). Pero creo que si las IA están pasando la prueba de Turing, necesitamos actualizar la prueba.

| etiquetas: inteligencia artificial , consciencia , sentimientos , humanos
Comentarios destacados:                                  
#1 Me ha gustado la explicación del artículo acerca de lo que significa Inteligencia Artificial: "Un loro digital que regurgita patrones extraídos de océanos de datos humanos".
Me ha gustado la explicación del artículo acerca de lo que significa Inteligencia Artificial: "Un loro digital que regurgita patrones extraídos de océanos de datos humanos".
#1 Y aun así, este loro digital regurgita la información infinitamente mejor que el 99% de la gente que conozco, incluído yo.
#8 Más rápido si, infinitamente más rápido, pero no se yo si mejor, la caga cada dos por tres, a veces se contradice a sí mismo dentro de la misma respuesta y se lía con cosas sencillas.
#10 Está en pañales.
#11 no es que esté en pañales, es que la arquitectura elegida se comporta de esta manera. Para evolucionar, habría que deshacer el sistema y optar por otra arquitectura.
#79 Los "programadores" están en pañales.
#11 La pregunta que me surge es que va a pasar en el futuro cuando esa AI que no esta en pañales se encuentre con la informacion erronea creada por si misma cuando estaba en pañales.
#80 dirá "como cojones pude decir está memez" xD
#80 Seguramente poca cosa, dado que esa información es bastante aleatoria.
#10 Pues como yo xD
#10 de momento programa mejor que yo. Que es lo que necesito.

También parece que hace mejores diagnósticos médicos.
#24 Pero razona peor que tú.
#28 no necesito que razone, es una herramienta, y necesito que me libere de tareas y me ayude a hacerlas mejor.
#43 Para un diagnóstico médico sí necesitas que razone. Ahí, no todo es 2+2
#89 Te puede orientar y acercarte mucho al diagnóstico, luego ya decides tú. Y así con todo. No confío en la IA para que me de la respuesta final a nada, pero me ayuda a acercarme a esa respuesta de manera muy rápida.
#89 necesitas que te dé el diagnóstico más probable con el input adecuado.

Y para eso está el médico para entender y usar esa información. Lo que he dicho, es una herramienta maravillosa y llega a sitios donde el médico/ ingeniero no llega
#28 pues igual en algunas situaciones, pero en otras tiene una capaz de razonar impresionante

A mi me ayudo en una oposicion. Basicamente, hay 52 temas para estudiar. En el examen caen 4 temas, de los que escoges 2. Obviamente, no estudias los 52 temas. ¿pero cuantos temas tienes que estudiar para tener un 95% de posibilidades de que te salgan dos temas que has estudiado?

Yo no tengo ni idea de como calcular eso. IAlo resuelve en un segundo

Tambien probré unas de esas adivinanzas de…   » ver todo el comentario
#94 Esos ejemplos son válidos si sabes cómo comprobar que sus respuestas son correctas. Y no todo el mundo sabe.
#94 Tambien probré unas de esas adivinanzas de escuderos que siempre mienten y caballeros que siempre dicen la verdad, no se si las conoces, y la IA era capaz de razonar la respuesta en las adivinanzas que probé.

Eso, y los problemas de misioneros que cruzan el rio en barca pero no puede haber nunca más caníbales que misioneros.

Los primeros modelos eran totalmente incapaces de resolver nada de eso. Se lo tomaron como un reto y para los siguentes modelos les habían entrenado las…   » ver todo el comentario
#94 admin. Que denuncien a.este pajaro. se saco unas oposiciones ilegalmente. a la carcel.
#24 Pues cuidado con lo que hace, que si bien es cierto que a veces te sorprende con cosas que uno no habría pensado, a veces el código que vomita no es que sea erróneo, es que usa funciones que directamente ni existen.

Pero lo mejor de todo es cuando intentas corregir su cagada, que ahí directamente empieza la fase de locura y se combina la cabezonería de querer seguir haciendo lo mismo pero corrigiendo parte de lo que le has dicho, creando un frankenstein espectacular. Al final tienes que tirar a la basura el 50% de las cosas que te dice, como poco.
#33 Lo bueno de programar es que puedes comprobar si lo que dice es cierto o no, con la medicina es más probablematico, pero en programación generalmente te da un código, lo pruebas, te da un mensaje se error, se lo dices y lo corrige, que a lo mejor hace falta tres rondas, pero al final acaba haciendo el 90% del curro si no es algo muy complicado
#48 y como te dice más arriba, te habrá creado un engendro.
#33 usa funciones que directamente ni existen.
Ese es el menor de los problemas. El problema son los bugs laterales ocultos que pasaran desapercibidos a corto plazo y que seran un puto infierno a medio y largo
#33 cuando le corriges y entra en bucle es cuando te das cuenta que estás perdiendo el tiempo y que mejor lo haces tú mismo desde cero.
A mí ha habido a veces que me ha dado una explicación del código para luego soltar un código que contradice su propia explicación. O, por ejemplo, ha inicializado variables y las usa fuera de su scope o las usa como si fueran de otro tipo o cosas así. Y eso en códigos extremadamente sencillos, no le confiaría nada complejo ni loco.
Al final puede guiarte, pero no sé hasta que punto ahorra tiempo.
#24 Si programa mejor que tú es precisamente algo que no necesitas ni deberías usar.
#24 Pues dice eso más bien poco de ti.

A todas las AIs que he probado les doy vueltas programando. O se ponen las pilas o no me van a quitar el trabajo en la vida :-D
#76 No hace falta que sean mejores que tu.

Con que sean un 80% de lo que tu puedes hacer (que no es ni medio dificil) si una empresa tiene que decidir entre pagarte a ti 30 40 o 50k al año, o pagar unos tokens, pues lo tienes claro.

Y eso ahora, en 5 o 10 años como siga una curva similar...
#76, puedes poner un ejemplo de un trozo de código que programes tú mejor que una IA?
#76 Seguro? yo llevo casi 30 años programando... y en 5 segundos la IA me puede dar código en lenguajes que hasta ahora desconocía.
Que igual hay que darle más contexto... darle más información, mejores instrucciones, etc... pero si lo esto lo haces bien, yo creo que el código que te da es mejor que el que haces tú y el que hago yo.

Otra cosa es que te quiten el trabajo... al final programar es plasmar unas especificaciones... esas sí que las tienes que dar tú o yo... aunque sea también con la ayuda de una IA.
#24 lo segundo no lo hace. O más bien hace lo que puede en entornos muy cerrados y concretos, difícilmente extrapolables
#24 Eso no habla muy bien de ti.
#82 y el problema? Me pagan por solucionar problemas y entregar productos, no por ser el mejor programador.
#24 es el momento de buscarte otra profesión.
#24 como va a hacer un diagnostico si no tiene ojos.
#10 esto acaba de empezar, no entiendo a la gente que ya da por hecho que esto se va a quedar como está.
#35 porque no "acaba de empezar" sino que lleva varios años, y en los últimos parece que no han avanzado nada a pesar de las ingentes cantidades de capital y talento de primer nivel que reciben.

Ya no hay más datos disponibles con los que entrenar a las IAs, todo lo que había disponible ya se ha usado, con lo cual hay poco potencial de crecimiento o saltos cualitativos.

No hay que hacerle mucho caso a los Altmans ni a los Musks de turno, porque esos lo que hacen es vender motos a…   » ver todo el comentario
#91 Ya no hay más datos disponibles con los que entrenar a las IAs, todo lo que había disponible ya se ha usado, con lo cual hay poco potencial de crecimiento o saltos cualitativos.

Se están generando datos constantemente, pero en realidad se trata de mejores y más potentes modelos lo que las hace avanzar. Y eso no tiene nada que ver con los vendehumos que mencionas después.
#95 Yo creo q estan lkegando o han llegado al limite de los modelos basados en transformers....

Queman dinero sin fin y no se ve mucha mejora...
#95 #_107 El entrenamiento con datos sintéticos (generados por otra IA) es hacerse trampas al solitario. Sólo están haciendo los modelos más grandes, pero escasamente mejores.

Y es EVIDENTE que el ritmo de mejoras en exactitud y precisión de las respuestas ha disminuido mucho. El último salto cualitativo fue el mal llamado ”razonamiento” (añadir más tiempo de cómputo para repasar las respuestas), y de eso ya ha llovido. En este momento las IA solo avanzan en tareas generativas (generación de imagen, texto...), pero no a la hora de dar respuestas.
#91 Que no han avanzado nada? Compara gpt3.5 con gpt4 con gpt4.1

Y luego vuelves.

Lo que hay que leer dios santo...
#91 parece que no han avanzado nada a pesar de las ingentes cantidades de capital y talento de primer nivel que reciben

Tengo esa misma impresión. Sin embargo los que han probado el reciente modelo o3 (no el mini, sino el más caro) afirman que es un salto adelante en capacidad.

Ya no hay más datos disponibles con los que entrenar a las IAs

Con lo que caes de cuatro patas en el overfitting y ya no puedes medir nada.
#35 porque muchos sabemos como va esto de la programación y hemos visto otras burbujas que prometían el cielo y que han acabado explotando y quedando en nada.
ChatGPT nace de dos años de un trabajo titánico alimentando el modelo con miles de personas picando respuestas con salarios muy bajos, y aún así openai ha perido un pastizal descomunal y la ha tenido que salvar Microsoft, que no sé yo si con Copilot será suficiente para recuperar la inversión.
Es un poco como el streaming: muchas…   » ver todo el comentario
#10 pero no se yo si mejor
No sabes porque no tienes la inteligencia/habilidad para hacer preguntas decentes. Vamos que no te sabes comunicar a su nivel y no hablas su idioma (Prompt) .
Sin embargo la gente que si prueba estos modelos hace muchos meses que llegaron a demostrar que su razonamiento esta muy superior a todos los PhD que han existido en la tierra.

Para esto existe Humanity's Last Exam scale.com/leaderboard/humanitys_last_exam
Web que prueba todos los LLMS con las preguntas mas dificiles.

Yo es que flipo con la ignorancia que hay en MNM Y como la gente se enorgullece de eso.
Un LLM descifra el doblado de proteinas y gana un premio novel.
MNM: Buaf , esta en pañales xD xD xD xD
#45 Y tú parece que sabes más que Guillaume Thierry, , J Mark Bishop, Rafe Brena, Ph.D., Shannon Vallor, y muchos otros expertos en IA.
pmc.ncbi.nlm.nih.gov/articles/PMC7874145/ (por poner un ejemplo)
¿Acaso es falso lo que ha dicho #10?
#99 No se mas que Guillaume Thierry. Pero dado que su estudio fue publicado en 2021 , y la Inteligencia Aritificial se duplica cada 3 mses y medio . Puedo asegurar que su articulo sesgado esta en la epoca del Plesitoceno , en medidas de tiempo de AI.
EN los ultimos 6 meses OpenAi libero 4o que adelantaba por la derecho por mucho a todos , 3 meses despues DeepSek le labo la cara y 1 mes despues Gemini le ha meado en la cara a todos. xD xD xD
#99, y tú parece que sabes más que Geoffrey Hinton, Yoshua Bengio, Illya Sustkever, Andrej Karpathy o Demis Hassabis que hablan de AGI en menos de 10 años.
#45 > llegaron a demostrar que su razonamiento esta muy superior a todos los PhD que han existido en la tierra

Las LLM no razonan. ¿No tienes la inteligencia/habilidad para saber eso? :troll:
#45 el desdoblado de proteinas es una tarea más o menos automática que podría hacer un humano en un tiempo muchísimo más largo. Donde demuestra con eso la inteligencia de la IA?
#45 la gente que si prueba estos modelos hace muchos meses que llegaron a demostrar que su razonamiento esta muy superior a todos los PhD que han existido en la tierra

No paran de salir informes midiendo la capacidad de razonamiento. Ya varios desde el de Apple. Todos coinciden en que es cero.
#10 "la caga cada dos por tres, a veces se contradice a sí mismo dentro de la misma respuesta y se lía con cosas sencillas"
Pues como la mayoría de humanos
#46 Esto no es cierto. Hacer entrar en una contradicción a una IA es trivialmente sencillo.
#10 "a veces se contradice a sí mismo dentro de la misma respuesta y se lía con cosas sencillas."

¿M. Rajoy es IA?
#10 yo la uso para cosas que controlo. De las que no, luego contrasto.
#10 se contradice como los humanos o sino mira mucho cristiano de capilla pero bien racista.
#8 lo siento, pero si dices eso poco lo has utilizado o lo has utilizado para cosas sin demasiada importancia. Yo lo uso a menudo para el curro y la lía muchísimo. Y ya no es que se equivoque, que es comprensible, es que como dice #10 se contradice y encima como no tenga almacenada la respuesta correcta, entra en bucle dándote la razón y diciendo exactamente lo mismo de nuevo.
En ese momento es cuando se le ven las costuras: nos parece tan bueno porque está programado para darnos la razón.
#10 Como los humanos.
#10 La mayoría de la gente también se lía con cosas sencillas, y además es incapaz de traducir texto del chino al español, programar en COBOL o explicar en lenguaje sencillo papers de biología o química.
#10 y también resuelve cosas complejas que nuestro cerebro no es capaz de resolver.
#10 Como todo humano…
#10 ¿Y las personas no? xD A ver, yo conozco unos cuantos. Joder, mira los terraplanistas...
#8 Depende porque, cuando la IA no sabe algo con exactitud, lo rellena con datos inexactos, hasta el punto de inventárselos.

Más de una vez lo he comprobado.
#36 Exactamente igual que la mayoría de humanos.
#49 Bueno, algunos decimos "no lo sé" cuando no sabemos algo. La IA no lo hará, siempre dará una respuesta.

Eso no quita que tengas razón en lo que dices. :-D :-D
#83 los que decimos "no lo sé" cuando no sabemos algo somos minoría, por desgracia
#83 #119 pero sabes que no lo sabes. La IA no lo sabe. Simplemente junta inputs para satisfacer el prompt aunque el output carezca totalmente de sentido.

Como era eso de que infinitos monos con máquinas de escribir acabarían escribiendo el Quijote? Son inteligentes los monos? Pues la IA igual.
#83, algunos me da la impresión que probasteis GPT-3.5 y allí os quedasteis. Hace ya unas cuentas iteraciones que la IA ha aprendido a decir "no lo sé".
#8 Una biblioteca tiene más información que el 99% de la gente que conozco yo, y no por eso es inteligente.
#50, a una biblioteca le puedes pedir que te responda el examen de selectividad de este año?
#8 Ese loro digital me produjo, en pruebas, una consulta SQL que calculaba 4 veces la desviación típica de unos datos, cuando con una vez era más que suficiente. Al señalarle el error, lo corrige, pero introduce otro diferente.

La IA necesita un experto al lado para no cagarla.
#56 Igual que un junior xD
#56 y eso con sql que habrá visto infinidad de ejemplos, llévatela a algo más de nicho y salvo para cosas muy sencillas lloras...
#1 Lo que se le olvida a Guillaume Thierry es que nuestro cerebro también es un loro digital.
#18 Correcto, aunque en nuestro caso sería más bien analógico.
#18 Eso es matizable, a veces encuentras relaciones en base a cosas que antes nadie ha pensado (o eso crees tu) basándose en dos conceptos diferentes y resulta que la tontería que acabas de pensar funciona. No digo que eso sea lo que haces todo el tiempo (ni de putísima coña, vamos) pero a veces pasa.

¿Eso lo categorizamos como "loro analógico" o como "inteligencia"?
#37 relacionar dos cosas que nadie habia pensado es aumentar la aleatoriedad.
#18 No, no solo.
Si fuera asi estaríamos por debajo de los chimpancés y a la altura de un gusano de tierra
#71 Los chimpances son otras maquinas estadisticas.
#18 No. Nada que ver.
Decir eso es no saber de qué se habla.
CC #25
#90 Sí. Por supuesto que es lo mismo.
#98 Ciando la IA sienta empatía o compasión, me lo vuelves a decir.
#18 dios no. Yo flipo cuando algunos decís estas cosas. Tu propia experiencia autoconsciente te hace creer que eres un loro digital?
#1 Anda, igual que los humanos. ¿está diciendo que los humanos somos loros no inteligentes?
#1 Como si la inteligencia humana fuera muy distinta.
#29 Lo es. Completamente distinta.
#73 No lo es. ¿Qué crees que hacemos desde que nacemos? , entrenarnos a base de estímulos e información.

Lo que veo yo es mucha humanidad frágil que tiene que estar constantemente afirmando que es superior.
#85 por favor, podéis leer aunque sea neurociencia básica antes de decir cosas completamente falsas? Porfa.
#85 Pero te olvidas de la intuición. Eso jamás lo tendrá una IA.
#85 Si tuvieras razon en que simplemente somos "maquinas entrenadas con patrones" tendríamos el desarrollo tecnológico de las lombrices de tierra.
#1 pues yo creo que hemos bajado el liston

hace 10 años deciamos inteligencia era razonar, relacionar etc.... ahora las IAs hacen eso de sobra, si pensamos como lo haciamos a principio de siglo lo de ahora diríamos que nunca se alcanza, que relacionar y alcanzar, pero cuando lo hemos alcanzado alcanzamos, nah pero no es inteligencia.... pero como es que hace 20 años si lo era?

una IA no es humana, pero inteligente con la definición clásica lo es, otra cosa es que ahora nos hayamos acostumbrado a ella, y repito no es humana, no es un ser vivo, no es lo mismo que una persona... pero inteligente?..... lo es
#97 el núcleo de la cuestión es que ni comprende ni razona.

Lo que hace es simular comprender y razonar interpolando una respuesta probable basada en la expresión escrita de la comprensión y razonamiento de humanos.

Es como pasar un examen copiando de otros sin entender nada. Si tu meta es sólo aprobar el examen, entonces genial.
#1 en el pasado, los negros eran considerados seres sin alma y por eso justificaban el esclavismo y los castigos crueles e injustos. El antepasado del autor hubiese escrito un artículo similar cambiando IA por negro.
#1 Esa descripción circula desde hace años, no tiene nada de novedoso.
#1 Tenemos sobrevalorada la inteligencia natural.
#1 Eso es un LLM. Lo que hay detrás es un algoritmo para generar respuestas que es bastante sofisticado. Usa varias redes neuronales dentro para segmentar la pregunta y construir la respuesta paso a paso, comprobando y descartando cosas en cada fase.

Como que está copiando de documentos bien redactados, lo que responde está bien escrito, aunque a veces no tenga ningún sentido, pero eso el algoritmo no lo puede saber.
#1 Y... no te has preguntado si el resto de seres vivos no somos más que loros de repetición también? La diferencia es que la IA ahora puede repetir un gran parte del conocimiento universal.. tú sólo el que vives o el que has conseguido extraer y retener a lo largo de tu vida.
Yo si creo que la IA es inteligente. Ahora bien hay diversas formas de razonar y la IA es muy buena en unas pero extremadamente inepta en otras. Por ejempo lo que son razonamientos inductivos, es decir sacar conclusiones de experiencias previas lo hace muy bien, incluso mejor que mucha gente. Tambien es buena en creación y manipulación del lenguaje. Donde se le va la pinza completamente es en razonamientos deductivos. Es algo similar a las personas con alzeimer leve otros tipos de deterioro cognitivo,. Parece que estan bien porque saben hablar bien, pero cometen errores de bulto en otros aspectos lo que hace que lo dicen muy poco fiable
#5 Ese es uno de los principales problemas. Que carece de memoria. Y si no es capaz de recordar, muy inteligente no es.

No considerarías inteligente a una persona que olvida con mucha frecuencia, no es capaz de recordar más allá de un pequeño lapso de tiempo y sólo repite datos en forma de patrón.
#9 Si algo tiene es "memoria".
#13 Me refiero a memoria declarativa. No a memoria RAM.
#20 Tambien la tiene. Mantiene el contexto de una conversación de forma más que aceptable. Lo que no tiene es "voluntad".
#67 Si? Haz una prueba. Pregúntale algo hoy y mañana le dices que te recuerde lo que le preguntaste hoy.
Y vienes y me cuentas el resultado.

Que sea aceptable no hace que sea "inteligente".
Muchos subestimáis la mente humana de forma exagerada.
#81 Mantiene el contexto un tiempo razonable, si no fuera así jamás habria memoria suficiente
#67 No la tiene. La IA sólo mantiene el contexto porque en cada iteración se le inyecta tu prompt + todos los prompts que has ido hablando. Si no se hiciera eso, no tiene contexto de la conversación.
#9 Se arregla con rabitos de uvas pasas
#19 o chupando una buena...
#9 Cuando le preguntas algo, no lo sabe, la corriges y se enroca en la idea errónea a lo largo de los siguientes 8 mensajes hasta que al final te hartas y decides borrar el chat ya te digo yo que memoria tiene :troll:

Otra cosa es que la use espantosamente mal.
#9 Lo de la memoria ya lo han implementado hace un par de semanas, al menos en ChatGPT de pago.
#9 No carece de memoria, no se de donde has sacado eso, tiene más memoria que yo, que no recuerdo cómo llegué anoche a casa xD
#53 Pues lo he sacado a base de utilizar modelos de IA. Y pasa con todos. Jejeje
#5 No hay en absoluto inteligencia en simplemente amontonar datos y sacar aquello que sea estadísticamente más probable, porque sólo es eso, estadísticamente, no deductivamente.
#12 Hablar de inteligencia sin definir lo que es no lleva a ningun lado. Antiguamente se consideraba inteligencia saber jugar al ajedrez o saber calcular. Cuando las maquinas aprendierona jugar a ajedrez ya calcular...cambiamos la definicion a cosas mas difusas como hablar o reconocer objetos.
Es mucho menos ambiguo hablar de habilidades especificas o de formas de razonar concretas .

Por otro lado los racionamientos basados en estadísticas se llaman racionamientos por inducción, y son una…   » ver todo el comentario
#5 Todo depende de tu definición de "inteligencia"
#5 Todo depende a que le llamemos "inteligente". Con la definición apropiada, mi silla lo es.
#5 no se trata de creer o no creer, se trata de lo que es.
Un automatismo nunca puede ser inteligente.
#5 ¿ Por qué piensas que razona ? ¿ Cómo puedes demostrar que no es simplemente una base de datos programada para repetir lo que le han metido anteriormente, simplemente cambiando unas palabras por otras de acuerdo con el contexto (la pregunta y preguntas previas) ?
¿ O es simplemente que te lo imaginas y crees que es así. ¿ LO que afirmas es solo una imaginación tuya sin base real ?
#5 un automatismo nunca puede ser inteligente, por mucho que esté creado para parecerlo. Por qué deberíamos creer que es más inteligente chatGPT que la máquina de café del metro? Tiene los mismos chips, los mismos if-else (el mismo software) y la misma base arquitectónica.
Yo no digo que no podamos crear una inteligencia artificial, lo que sí digo (y cualquiera que haya estudiado informática debería decir) es que no es posbile crearla en base a una máquina de Turing. El cerebro no lo es y eso lo sabemos desde que echamos por tierra el conductismo clásico en los años 60.
Aunque el artículo tenga razón , el razonamiento "i las IA están pasando la prueba de Turing, necesitamos actualizar la prueba." es tramposo.

Si no pasa el test de Turing, todo va bien.
Si pasa el test, cambiamos las normas, la definición o lo que sea, para que no lo pase.
#6 Me temo que esto va por la línea de "todo lo que no venga de dios no es inteligente y es un peligro".
#6 Si no es inteligente y pasa el test simplemente el test no vale
#14 pero hasta hace poco tiempo el test valía.
Lo que no puede ser es válido cuando me viene bien.
#15 paramos, pues, todos los descubrimientos científicos que contradigan el conocimiento que tenemos ahora?
#32 no se trata de eso, sino de cambiar el criterio.

#38 El test de turing, por definición no pretende distinguir entre máquina y humano, sino de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este.

Si la gente usa el test de turing para otra cosa (aunque suficientemente cercana), es cosa de ellos.

Una vez dicho esto, creo que muchas siguen sin pasar el test de Turing. Muchos textos huelen a IA, al menos sin revisión.
#52 pero huelen a IA porque hemos visto muchas respuestas ya de IA.
Si pones a un ser humano de hace 3 años a hablar con una IA crees que no pasaría el test?
#15 Por supuesto. El conocimiento y los descubrimientos cambian, y el test de Turing no está escrito en piedra.
Si no sirve, habrá que mejorarlo o cambiarlo.
¿O es que aún es válido el modelo de universo con la Tierra en el centro?
#96 El test de Turing es bastante ambiguo, no define muchas condiciones de contorno. Pero es lo que es.

Una aproximación más correcta sería "El test de Turing es insuficiente para blablabla" o algo así. Pero modificar el test de Turing porque no da los resultados que yo quiero es tendencioso.

Imagina:
Pues tienes razón, hay que modificar el TT porque no distingue blablabla. Vamos a hacer el Test de Ombresaco
Durante unos años va bien, pero cuando las IA mejoren, pasarán también el…   » ver todo el comentario
#14 pero es que sí es inteligente. La IA razona y toma decisiones generalmente mejor que cualquier persona. Lo que no tiene es emociones, y por eso es incluso mejor tomando decisiones y razonando.
#44 No. No lo es.
Y no razona. Saca conclusiones de donde no se puede, cae en contradicciones lógicas y "inventa" continuamente para que la respuesta tenga un aspecto coherente.

Tampoco toma decisiones. Es incapaz de eso, solo busca respuestas a cuestiones que un humano le plantee (el buscador de google hace lo mismo). Ademas esas respuestas con aspecto coherente tienen a menudo errores muy graves que a un profano en el tema le pasarán desapercibidos, lo que es un auténtico peligro.
#44 Tomar decisiones me parece más complicado, porque algunas como ChatGPT tienen el filtro "dorarte la píldora" por defecto y es fácil hacerles adoptar una postura por encima de otra. Puedes convencerles de una cosa y de la contraria. Y se enfrentan a unos sesgos que se encuentran desde los orígenes de la información de entrenamiento hasta los filtros decididos a puerta cerrada por las corporaciones que las crean.

Otra cosa es que sí, claro que es inteligente, es como tener a tu…   » ver todo el comentario
#44 Las IA actuales tienen cero capacidad de razonar. Solo se lo montan bien en una respuesta entrenada.

Eso del stream razonador que sacan no es lo que hacen por dentro, sino una salida más.

Puedes poner a prueba a una de esas IA en cualquier pregunta no entrenada y verás como son incapaces de sacar la conclusión correcta de su razonamiento, por evidente que sea.
#14 Es que el test de Turing no es un test de inteligencia.
#14 no. El test es el que es. Si no te parece bueno inventate otro
#6 El test de Turing sirve para distinguir entre un humano y una máquina. Si las máquinas se han perfeccionado hasta el punto en que el test las confunde con humanos, evidentemente hay que mejorar el test.
#38 tú te estás refiriendo al test de Voight-Kampf :roll:
El de Turing no es para distinguir, es simplemente para saber si las máquinas han llegado a un nivel de comportamiento inteligente equiparable a un humano.
#38 En el test Turing, es un humano el que evalúa una conversación (que puede ser con otro humano o una máquina)
Si un humano no consigue distinguir al humano de la máquina ¿Como mejorar un test así?

Un test donde la máquina convenza a un humano de que no es un humano real :troll: xD
#6 Es que si enseñas a la IA a pasar dicho test, igual dicho test queda obsoleto
#6 Eso es lo que no entiendo, han pasado el test de Turing, eso es bueno, ahora habrá que desarrollar otros tests distintos, pero ya no serán el de Turing.
#57 Míralo de este modo: si cambian el test del examen de conducir por otro distinto ¿ya no podría ser un test del examen de conducir?
#6 El test de Turing ha sido una chorrada desde el día cero.
#27 Pero esos descubrimientos... ¿han sido porque la IA ha procesado rapidísimo muchos datos que a los humanos les hubiera costado la hostia de procesar, como por ejemplo cuando la ponen a revisar TACs y radiografías y te dice qué pacientes tienen cáncer?

¿...o es que ha sido la IA la que ha deducido ella sola qué debía investigar y cómo, y se ha puesto a la faena descubriendo cosas que no se le habían ocurrido antes a los humanos?

Ahí tienes la diferencia.
#34 busca sobre cómo se descubrieron las cualidades de la Alicina como antibiótico.
#61 Busco y encuentro: francis.naukas.com/2020/03/02/halicina-un-potente-antibiotico-descubie

El trabajo está liderado por Regina Barzilay y James J. Collins, ambos en el MIT (Boston, EEUU). Se partió de una base de datos de 2560 moléculas (2335 sin repeticiones), de las que 232 (7.97%) mostraban actividad antibiótica; se entrenó una red neuronal “profunda” (deep learning) con dicha base de datos para que aprendiera a correlacionar

…   » ver todo el comentario
#34 el que recuerdo ahora mismo fue uno que permitió leer escritos antiguos que no se habían logrado descifrar.

Pero estás moviendo la portería. Si definimos como inteligente a aquel que sea capaz de investigar y deducir y descubrir cosas nuevas a partir de ello, entonces la mayor parte de la humanidad no es inteligente.
#88 No estoy moviendo la portería. Los seres humanos son capaces de investigar cosas a partir de decisiones individuales propias y seguidamente deducir y descubrir cosas nuevas. A unos niveles o a otros. Por poner un caso realista, a un grupo de niños humanos con formación de parvulario puedes abandonarlos en una isla desierta ellos solos sin asistencia de ninguna clase y en algún momento empezarían a construir sus propias herramientas, a adquirir conocimientos sobre qué es comestible y qué no…   » ver todo el comentario
#88 la mayor parte de la humanidad no es inteligente

No lo es. Nadie nunca ha dicho lo contrario. La gran mayoría de la gente vive su vida de forma puramente automática. También todos los animales.
A mí se me ocurre un test: si puede hablar en profundidad sobre demasiados campos de conocimiento es que es una IA porque no hay ser humano capaz de aprender todo eso. :troll:
#2 ¿Que no? Sujétale el cubata al cuñao de turno... :hug:
#3 Entonces sería una cuñIA?

Vale, puedes matarme...:foreveralone:
#2 error, cualquier cuñado puede
#2 me parece que es la primera vez leo el límite superior del test de Turing. El no parece suficientemente humano siempre lo he visto asociado a no es suficientemente inteligente o no llega a tener emociones humanas.
#26 Pues es curioso que no se le haya ocurrido a nadie, para mí el acceso instantáneo a una cantidad enorme de información y la velocidad de proceso son las principales ventaja que tienen las IA sobre nosotros así que también deberían servir para identificarlas.
#2 ... la camarilla de "Saber y ganar" ha entrado al chat
Vaya birria de artículo tramposo.

En resumen, que no es inteligente porque no tiene un montón de cosas que no tienen que ver con la inteligencia. Y si pasa la prueba para comprobar si es inteligente, en vez de aceptarlo, cambio la prueba para que no la pase.

Y por supuesto, no es inteligente, porque eso me hace sentir incómodo. :shit:
#31 Te voy a poner un ejemplo.
En los psicotécnicos en su día, la prueba de visión era siempre el mismo panel.
Los taxistas se memorizaron dicho panel y aun ciegos perdidos podían pasar dicha prueba. Actualmente eso es mas complicado por que son digitales mayormente y se cambian al azar si se desea. Es decir se tuvo que actualizar la prueba.

Si una IA aprende como funciona un test y se le enseña para pasarlo, pues lo normal es que pueda pasarlo.
#62 Pero no se les está enseñando cómo pasar un test. Lo que se está diciendo es que pasa el test. Y que como lo pasa, hay que cambiarlo. En tu ejemplo, sería que los taxistas estaban pasando el test porque tenían buena vista, y por eso se decidió cambiar el test.
#86 La IA si tiene acceso informacion sobre como va ese test, al igual que tiene información de miles de cosas.
Por otro lado diria que si se les enseña, se busca precisamente que lo superen, y para eso se las entrena se les hace adquiera conocimientos etc.
A mí lo del loro que repite patrones me parece un tanto feo, porque le quita importancia a algo que lo tiene.

Quiero decir, la IA es perfectamente capaz, y cada vez más, de imitar la razón humana. Si le llamas "extraer patrones de datos", también se lo llamas a la razón humana.

Lo que pasa es que a lo mejor nos estamos dando cuenta de que lo particularmente humano no es la razón, sino la experiencia de la realidad, la construcción de una subjetividad, que es de lo que carecen por completo los LLMs y no sabemos ni cómo funciona, hasta el punto que buena parte de las teorías actuales suponen que de alguna manera la conciencia "emerge", para esquivar que no saben ni cómo ni por qué.
Travestismo???

Y si la máquina se siente humana???

Mucha transfobia veo yo...
#21 el travestismo es distinto de la transexualidad. :-P
Luego, cada historia es un mundo.
#54 lo uso a diario para xls y alguna imagen chorras,
y tienes que orientarle paso a paso lo que quieres adelantandote a sus posibles fallos por lo que veo,
ya que siempre cae en las mismas chorradas,
en mi caso en calculos de fresas para sacar viruta siempre tienes que adelantarle tu el % y coeficiente
si quieres que salga equilibrado,
lo mismo le pasa para recrear los dientes de engranajes, se pierde con conversiones y formulas sencillas
realmente por lo que he probado lo que tiene que ser inteligente es el prompt que introduzcas,
el resto es como hacer una consulta anidada a una base de datos,
solo que las salidas aqui son de multiples tipos
#16 hace cuánto no usas chatgpt? De verdad que tiene una capacidad de análisis y decisión que va muchísimo más allá de una consulta, por compleja que quieras a una BBDD. Pruebalo haciéndole preguntas complejas que requieran analisis y desarrollo. Lo único que la IA no tiene es emociones.
"No es inteligencia artificial, es productividad artificial".
Irvine Welsh
La IA es una impresora con mucha memoria. Solo sirve si vas a reinventar la rueda
#22 En realidad ya ha habido varios descubrimientos nuevos gracias a la IA. En varios ámbitos científicos muy diferentes.
Sólo hay que echar un vistazo a todo lo que ha evolucionado en un año. Pero nada seguimos igual, ayy la mete humana.
#59 Es más de lo mismo. Nada ha cambiado. Sí que hay más, pero ¿y qué?
Inteligente es, consciente ya es otro tema. No obstante tampoco sabemos definir bien la conciencia así que esta negación está cogida por los pelos.
Esto es como cuando las calculadoras, o los primeros ordenadores, o los smartphones, o...
Siempre hay gente que viene un poco retrasada a analizar lo que se piensa que viene nuevo cuando en realidad ya está entre nosotros de hace tiempo y no alcanza a comprender lo que mucha gente tiene ya asumido de hace tiempo.
La IA es la IA, y el cerebro humano es otra cosa, venir a estas alturas a compararlo es no entender nada.
Yo creo que el problema principal es saber qué es la consciencia y si un computador puede tenerla.
#42 no. Pero no hablamos de consciencia, hablamos de inteligencia.
Y diria que es una diferencia muy importante.
El problema es que mucha gente no diferencia entre un procesamiento masivo y rapido de datos con "investigar".
Pueden ayudar en investigaciones? Si, facilitan o aceleran las cosas. Pero la IA no tiene ideas repentinas, ocurrencias.
#55 Hasta que la programen para que las tenga. Los procesos mentales que llamamos inteligencia pueden ser replicados, incluyendo las ocurrencias, que siempre salen de algún sitio, aunque tú no seas consciente de dónde. Las ocurrencias salen de tu memoria y de combinar porciones de conocimiento aparentemente no relacionadas. Ninguna idea humana sale de la nada absoluta, sale de construir, de sumar, de cuestionar ideas o de la oposición a conceptos ya conocidos. Y vamos evolucionando sobre el…   » ver todo el comentario
Veo la IA muy interesante en campos muy concretos (medicina, allá dónde haga falta predicciones, etc) pero en el día a día para que Paco le pregunte qué tiempo va a hacer, pues no. Para eso ya tienes el buscador de toda la vida que tardas lo mismo en buscar esa info.
#92 La IA va a revolucionar la vida de Paco, aunque este no la vaya a usar conscientemente.

De todas formas, mal ejemplo has puesto, la IA da respuesta mejores que el buscador en infinidad de casos.
Curiosamente las IAs van a cambiar la definicion de coeficiente de inteligencia porque lo que median hasta ahora ya no tiene ningun valor.
comentarios cerrados

menéame