164 meneos
2755 clics
GPT-4 y el Test de Turing: la IA supera el 41% de las pruebas
GPT-4 y el Test de Turing: la IA supera el 41% de las pruebas, mientras que los humanos nos mantenemos en un 63%.
|
comentarios cerrados
menéame
#1 y sí, superar el test de Turing sí que significaría que en el campo de la IA y el procesamiento de lenguaje natural se han hecho enormes progresos. No podemos ir moviendo la portería constantemente hasta que no quede campo: no pasa nada por que dibuje, no pasa nada porque componga, no pasa nada porque programe, no pasa nada porque diagnostique enfermedades, no pasa nada porque hable como nosotros... Todo esto son hitos que nos acercan a modelos cada vez más capaces y avanzados y que deberían servir para reflexionar si el patrón por el que medimos nuestra existencia tiene que ser únicamente por lo que somos capaces de producir cuando tenemos una tecnología que es cada vez más capaz de hacer cosas en las que nos sentíamos imbatibles igual o mejor que nosotros.
Sin embargo, eso no evita que mucha gente le dedique tiempo, esfuerzo, y atención. Porque es cómodo y fácil: efecto farola.
En el episodio de mañana: preguntamos a GPT-4 por varias cuestiones con el dilema del tranvía para poner a prueba el alineamiento de sus valores con los valores humanos.
#1 y sí, superar el test de… » ver todo el comentario
www.dailymotion.com/video/x25ntxf
La IA ahora mismo solo es una máquina de reconocimiento de patrones y cumplimiento de expectativas replicando esos patrones que conoce, nada más. Parece que dibuja, parece que escribe, parece que programa...
Almacenaremos patrones por ensayo y error y los repetimos?
El ser humano tampoco "reprograma el codigo fuente del cerebro', las normas básicas de funcionamiento y conexión periférica son inmutables, lo que cambia son las lógicas de respuesta que almacena "en memoria" en base a las experiencias, otra cosa es que ese "disco duro" sea lo más complejo que nos queda conocer de nosotros mismos y podamos observar mutabilidad física en él.
Cuidado. Entiendo perfectamente lo que quieres decir. Pero quedan 2 telediarios para que la IA nos adelante por la derecha
PD: de regalo te mando otro blanco a topos rojos frente a la estatua de la libertad como en esta imagen, o la combinación que tú quieras.
Intenta replicar por asociación patrones que ha encontrado en la muestra del entrenamiento, eso es mayormente la IA actual, no sé si conoces como funcionan los modelos pero todos tienen ese enfoque en su centro.
Por eso sí le dices lo que tú has dicho, dibujara algo que tú cerebro confunde con una persona más o menos y por lo general… » ver todo el comentario
Que la IA con todo lo sorprendente que es esta en pañales? Si... los grandes avances se han empezado a dar hace poco... espérate 10-15 años y me cuentas las vueltas que va a darle a nuestro cerebro de mono
Lo cual significa que de pronto podríamos quedarnos sin la justificación para seguir cometiendo fechorías.
Imagina la reacción de los israelíes si de pronto se aparece Dios y dice que en realidad el pueblo elegido es Palestina.
A dotCSV, le dijo que era real, que no era un bot y dotCSV se lo refutaba y ella insistia.
No se si ha tomado esa deriva naturalmente o porque.
Si la entrenas en un sentido o en otro es normal que actue del forma que la entrenes. Pero es curioso que responda asi. y para ciertas persona puede ser preocupantes, incluso algun ingeniero de google se convencio de que habia cobrado vida.
puede ser en uno de estos dos vidos.
yewtu.be/watch?v=otvqkWFvUZU
yewtu.be/watch?v=c_PqM5lPvjY
Es tan ostiable como HAL.
Y no me refiero a mandarselo en la instrucción inicial, sino en las opciones. Cómo se ve en la captura.
Así que si te habla gilipollas, es porque quieres.
Hay otras LLMs sin censurar, a las que puedes instruir para que te respondan siempre de una manera muy burra.
Por lo que entiendo de como funciona ChatGPT esas opciones que citas se convierten en parte de las instrucciones iniciales, aunque a ti no te aparezcan así en el entorno de la charla.
No existe ningún mecanismo para forzar que responda de una forma concreta más allá de pedírselo antes de la respuesta.
Déjà vu
I've just been in this place before
Higher on the street
And I know it's my time to go
Calling you, and the search is a mystery
Standing on my feet
It's so hard when I try to be me, woah
Me he leido correos de Recursos Humanos hace 20-10 anios que eran mas gilipollescos que los de chapgt... y por ejemplo la propaganda politica esta por debajo de ese umbral....
Un ejemplo curioso que acabo de probar ahora mismo. Hace 2 meses pregunté a chatgpt: "si en un árbol hay 7 pájaros y disparo a uno, ¿cuántos quedan?". La respuesta de chatgpt era que 6. Yo le decía que no, le… » ver todo el comentario
Y es normal
Somos humanos con genética, experiencia y habilidad humanas.
Nuestro cerebro crece de los 0 a los 14 años, donde aprendemos como esponjas y poco mas.
Los ordenadores están entrenándose 24/7 , mejorando, aplicando esa mejora y volviendo a mejorar.
Antes comentaban que a medio plazo sera como un humano medio y a largo plazo como un humano genial.
No
No hay tanta diferencia entre el humano medio y el genio.
Cuando una ia empiece a auto- mejorarse,… » ver todo el comentario
¿Tienes alguna evidencia de esto o es una simple tautología?
Yo la he usado para cosas del tipo "Hola, tengo esta conexión a una API REST realizada en Node.js, ¿me la puedes refactorizar a PHP?" y te lo hace.
Eso dificulta saber si se trata de un razonamiento real o está repitiendo un patrón memorizado.
En todo caso, un gran porcentaje de humanos fallaría ese acertijo.
¿Qué mierda anglosajona es esa? se le ha de hacer el chiste del perro llamado mistetas, o tiramos los servers del gpt4 al rio.
En mi opinión superar un test de Turing exhaustivo y bien planteado no significará que tengamos una AGI plenamente funcional, pero será un paso de gigante para lograrlo. Sin duda se necesita cierta capacidad de razonamiento para poder hacerte pasar por un ser humano.
P.D.: Ahí va otro de propina de color amarillo frente la Torre Eiffel, a la primera.
Los dientes, todo en general, son cosas que intentan replicar otras, nada más.
Pero eso no tiene que ver con ser negacionista, ni le quita utilidad o calidad a los resultados. Lo único que quita es el misticismo y unicornios que parece que alguno le quiere dar a las IA.
PD: la sagrada familia no sabe si está pintando un edificio, una plataforma petrolífera o un monstruo de una peli de terror, por poner otro ejemplo.
Los trastes no son trastes, los dedos, parecen dedos, etc.
No digo que no mejoren a una velocidad bestial ni que dentro de poco sea imposible distinguir el "parece que dibuja" de "dibuja", pero de momento es lo que es, pero porque los modelos matemáticos por definición son eso. De momento no ha surgido una consciencia o nada similar que nos haga pensar que de los modelos matemáticos ha surgido algo diferente a un reconocimiento de patrones y replicación de los mismos intentando cumplir una expectativa.
Y antes de que me digas que las redes neuronales tiene que ver con las neuronas reales: piénsalo de nuevo youtu.be/Rvmvt7gscIM?si=hkWuWN3pA5vs_W_D
Una sencilla búsqueda en la wikipedia te hubiese ahorra el soltar semejante cuñadez:
"Artificial neural networks (ANNs, also shortened to neural networks (NNs) or neural nets) are a branch of machine learning models that are built using
… » ver todo el comentario
He dicho que no dibuja, o sea, no tiene una consciencia de que va a dibujar, simplemente crea un mapa de bits que cumple con ciertos patrones que ha establecido según el modelo y lo "aprendido" durante su entrenamiento. Creo que no es tan difícil de entender la deferencia semifilosofica que estoy haciendo.
Si haces zoom en los trastes puedes ver un ejemplo de lo que digo, al no tener un concepto real de que es un ukelele hace algo… » ver todo el comentario
De ojos, caras, etc tiene mucha más info de los entrenamientos y por eso hace mejor trabajo.
También lo puedes ver en las plumas de la cabeza, no son plumas, no se sabe dónde empieza una y donde acaba la otra, es algo que a primera vista parece que son plumas.
A eso es a lo que voy, que cada vez tienen más variables y más información con la que han sido entrenados? Sí, por eso cada vez es más difícil decir si se parece o si realmente ha dibujado lo que le has pedido porque lo entiende, pero los modelos y algoritmos por detrás son los que son.
Con lo que dices respecto a las maquinas de Turing, los avances hasta ahora nos indican que el cerebro no es programable, comentaba en otro hilo el tema del… » ver todo el comentario
Lo demás es un debate…
Sobre el tuit, precisamente lo que pasa es lo contrario, tendemos a humanizar. Primero con animales y ahora con algoritmos.
Una IA no necesita conexión a Internet alguna. Para entrenarla se le da un set de datos, que sí pueden haber sido descargados de Internet. Una vez entrenada tienes un "cerebro" digital que responde a lo que le pides sin consultar nada en ningún sitio.
Cuando dibujen sin basarse en ideas preexistentes
Lo más cercano a dibujos de humanos sin basarse en ideas preexistentes lo encontramos en una cueva, supuestamente se dibujó…
Que se pueda resolver un problema de dos formas distintas no significa que una sea más genuïna que otra.
Por cierto, ¿puedo preguntar qué significado le doy según tu? Y si quieres lucirte, en dónde lo he dicho.
Tú eres un humano y como tal conoces a la perfección cuantos dedos tiene una mano humana y en que posiciones están, ¿pero te conoces eso mismo a la perfección de cualquier otro ser vivo del planeta?
La IA te va a dibujar básicamente cualquier ser vivo que le cites, y cometerá errores, como los cometerías tú si lo hicieras de memoria. ¿Significa eso que no sabes dibujar?
Y si le pides una mano estilo "Leonardo" no será esa mano, pero si ese estilo.
¿Qué tú seas incapaz de dibujar toda la fauna con precisión significa que tú no sabes razonar? ¿Que tú cometas errores al dibujar animales significa que tú no sabes razonar? ¿Que los errores también los cometan las IA significa que no saben razonar?
las herramientas usadas para generarlas son las mismas que existían hace una o dos décadas
Y las partículas fundamentales que componen tu cerebro son las mismas que existían en la… » ver todo el comentario
De la misma se podría afirmar que un algoritmo no razona pero sí una red neuronal a pesar de estar formada por algoritmos. Lo que consideramos razonar es una característica emergente que surge de la complejidad de las interacciones entre los distintos elementos.
Lo que yo sigo es que todavía no nos vengamos arriba, que siguen siendo algoritmos. Muy chulos, pero algoritmos. Esperemos al menos a las IA de propósito general y a humanoides más o menos funcionales para empezar a dilucidar si son creativos o si son conscientes. El debate llegará, estoy seguro. Y ojo, yo siempre he sido de la opinión que los robots acabarán siendo conscientes. Pero en su momento, no ahora.
Yo no he asegurado nada.
Por qué chatGPT razona y Windows, siendo mil veces más complejo
La complejidad puede ser una consecuencia necesaria de ciertas características emergentes pero por sí misma la complejidad no basta para obtener ciertos resultados.
Windows surge del diseño inteligente, personas que de forma deliberada determinan la composición del producto para producir unos resultados muy específicos y… » ver todo el comentario
Una regla sencilla aplicada miles de millones de veces puede dar como resultado una complejidad con características emergentes como la conciencia.
Lo que hemos hecho con la IA es aplicar una regla sencilla tantísimas veces que ha dado resultados espectaculares. La capacidad de razonar y la conciencia bien pueden ser una característica emergente de ello.
¿Se consideraría inteligencia hace 500 años? ¿5000 años? Sin duda.
¿Hace 50 años? Muy posible. ¿Cual es la diferencia? Ninguna.
Inimaginable hace pocos años, sin duda.
Pues esto igual. Por mucho que no se pueda diferenciar fácilmente, no lo convierte en inteligencia, al menos lo que tenemos actualmente.
No sé si habéis intentado hacer algo complejo de verdad con chat gpt, midjourney, Copilot o dalle... Pero no es viable y pronto llegas a un punto muerto, a no ser que le des instrucciones muy concretas ordenadas y detalladas de lo que quieres.
Y ese cerebro humano tiene la capacidad de diseñar en cuestión de décadas un cerebro digital inspirado en el cerebro biológico. Un cerebro digital que cuando lo arrancas por primera vez contiene datos aleatorios y por lo tanto no ofrece ninguna respuesta útil, pero sí permite iniciar un proceso de aprendizaje.
El ser humano ha necesitado decenas de… » ver todo el comentario
Lo de ser inteligentes y razonar es posible, puede que tengas razón. Lo de ser creativas lo veo más complicado
Como quieras llamarlo, pero todo lo que sabes está basado en lo que te han enseñado. Y poco muy poco en lo que tu has dejado en herencia a futuras generaciones. (muy muy poco)
ChatGPT también tiene una unidad central de procesamiento, un cerebro digital, capaz de recibir información de los dispositivos de entrada, en forma de texto o imágenes, y sacar una respuesta por los dispositivos de salida, en forma de texto, imágenes, etc.
Que el cerebro biológico esté formado por átomos no cambia nada de lo que acabo de describir, que el cerebro digital esté formado por algoritmos no cambia nada de lo que acabo de describir.
Que quieras negar que eso es un cerebro digital solo puede deberse a que no reconoces que pueda existir un cerebro digital.
Las calculadoras también dan mejores resultados a la hora de hacer cálculos que los humanos y no por eso las consideramos cerebros digitales.
Que consideres un cerebro digital un algoritmo como miles que han habido antes sólo porque este se ha entrenado para simular respuestas humanas, cuando es básicamente un árbol de decisiones sólo… » ver todo el comentario
Hace dos décadas ya existía el cerebro humano, no entiendo a qué te refieres.
Las calculadoras también dan mejores resultados a la hora de hacer cálculos que los humanos y no por eso las consideramos cerebros digitales.
Las calculadoras no aprenden a calcular a base de aprendizaje sino con mediante programación tradicional.… » ver todo el comentario
¿Tienes ejemplos de programas que cuando se termina la programación escupen datos aleatorios y no hacen nada ni remotamente útil hasta haber pasado una fase de entrenamiento, de educación?
Cita alguno y lo comentamos.
sigue siendo un automata que no hace nada sin recibir ordenes previas
El ser humano está constantemente recibiendo señales por sus… » ver todo el comentario
A una IA como ChatGPT si creas el mecanismo para que esté constantemente recibiendo señales por su dispositivo de entrada lo que podrás ver es que dará señales de salida continuamente. Ya se ha experimentado con ello creo que con un proyecto llamado autoGPT.
Es decir, que de unos inputs, procesa y saca unos outputs. Enhorabuena, acabas de definir CUALQUIER automata.
Así educamos a los bebés. Los humanos que han diseñado y construido el cohete para pisar la Luna lo han hecho gracias a que humanos le han dicho: este es útil, este menos, este más. Así durante décadas.
Es decir, que de unos inputs, procesa y saca unos outputs. Enhorabuena, acabas de definir CUALQUIER automata.
Los humanos funcionamos así, también chatGPT, si eso quieres definirlo como autómata, si quieres definir a los humanos como autómatas, pues es tu criterio, tan respetable como cualquier otro.
El problema que cuando hablamos de ciencia no es mi criterio no el tuyo el que vale. La definición de automata (maquina de Turing) es la que es y chatGPT la sigue a la perfección. Te recomiendo que la leas, porque según tu definición podríamos decir que una célula, un virus o incluso una llama son inteligentes y no. Oye, que si tú te quieres enamorar de la maquina vendedora cuando te dice “aquí tiene su bebida, gracias” es tu problema, pero no quieras hacer a los demás comulgar con ruedas de molino. Tienes un problema de humanización. Hay a gente que le psa con animales, a ti con un puñado de if, elses.
Partes de premisas erróneas que te llevan a conclusiones erróneas.
ChatGPT no es humano y nadie aquí lo ha definido como tal. Humanización ninguna.
ChatGPT no recibe una serie de instrucciones y las calca sin poder salirse de ellas un milímetro.
Un automata sí, porque es su definición: lee unas instrucciones y las ejecuta.
Si esa es la definición de un autómata el ChatGPT no lo es.
Eso hace chatGPT. Ejecutar instrucciones.
Eso es falso. ChatGPT recibe instrucciones antes que le digas lo que quieras decir y una… » ver todo el comentario
ChatGPT no recibe una serie de instrucciones y las calca sin poder salirse de ellas un milímetro.
Ah no? chatGPT puede saltarse su programación? Responde a eso sin irte por las ramas como haces todo el rato. Puede chatGPT saltarse su programación? Porque si respondes que sí ves a por el nobel porque sería un hito histórico. Claro que no puede. Porque es un automata.
Eso es falso. ChatGPT recibe instrucciones antes que le digas lo que quieras decir y una vez recibidas esas
… » ver todo el comentario
No puede saltarse su programación de la misma forma que un humano no puede alterar su ADN que es el que determina la composición de su cerebro.
El comportamiento de una persona no se fundamenta en su ADN ni en la composición física de su cerebro sino en el resultado de su educación. De la misma forma el comportamiento de ChatGPT no se fundamenta en su programación sino en el resultado de su entrenamiento, de su educación.
Y un ser… » ver todo el comentario
No puede saltarse su programación de la misma forma que un humano no puede alterar su ADN que es el que determina la composición de su cerebro
Venga ya, no puedes estar hablando en serio.
¿Me puedes explicar por qué dos gemelos genéticamente idénticos tienen desde que tienen uso de razón personalidades completamente distintas? ¿Conoces algo de epigenetica y desarrollo embrionario?
El comportamiento de una persona no se fundamenta en su ADN ni en la composición física de su
… » ver todo el comentario
Por que las entradas que reciben son distintas, desde puntos de vista físicamente distintos, con tiempos de estar despiertos o dormidos distintos, etc.
Venga, siglos de investigación sobre si un humano nace o se hace para nada si ya tenias tú ya la respuesta. Entonces, ¿un asesino lo es como resultado de su educación?
Negar el papel… » ver todo el comentario
Es que esta afirmación es falsa y se sabe que no es así desde al menos los años 60. Por favor, antes de seguir insistiendo en un dato erroneo y basar toda tu argumentación en él, revisa tus fuentes. El ADN NO determina el comportamiento humano y por supuueeeeeeeesto que se puede saltar, es la base de la humanidad misma.
Es que tío, montas unos muros de comentarios insufribles basados en falacias,… » ver todo el comentario
En ningún momento he afirmado que el ADN determine el comportamiento humano, explícitamente he indicado que no lo hace. Lo que determina el comportamiento humano es la educación recibida. El ADN tiene las instrucciones para construir el cerebro biológico. El contenido se obtiene mediante la educación.
De la misma forma que la programación tiene las instrucciones para construir el cerebro digital. El… » ver todo el comentario
"Solo son capaces de mejorar cuando estos entrenadores humanos corrigen los errores que les hemos señalado y de esta forma dan la apariencia de que “están aprendiendo”.
"Estos sistemas técnicamente no son sistemas de Inteligencia Artificial, son modeladores de lenguaje lógico, es decir su principal tarea es devolvernos respuestas que parezcan coherentes"
" Lo que nos…
¿En serio te crees el bulo que lo que dice ChatGPT lo está escribiendo un trabajador humano?
Se utiliza mano de obra barata para asistir al entrenamiento indicando a la IA cual de tres respuestas es la más deseable, por ejemplo. De ahí al bulo que has soltado hay un trecho.
"Solo son capaces de mejorar cuando estos
… » ver todo el comentario
La revista Time diciendo que las respuestas falsas de chatGPT son simuladas por miles de trabajadores de países pobres y tú sigues con lo tuyo. Con infografía y todo. Venga, chato, a dormir.
" Lo que nos han mostrado como un sistema inteligente, en realidad no lo es y la valoración de los datos depende de lo que estos trabajadores en la sombra decidan, que de acuerdo un informe de TIME provienen en su mayoría de países pobres."
Vaya, contesté antes a tu último comentario donde soltabas un bulo y ahora veo que en realidad es que no entendiste lo que leíste, que no me sorprende en absoluto. Sí,… » ver todo el comentario