Hace 5 meses | Por eljuligallego a microsiervos.com
Publicado hace 5 meses por eljuligallego a microsiervos.com

GPT-4 y el Test de Turing: la IA supera el 41% de las pruebas, mientras que los humanos nos mantenemos en un 63%.

Comentarios

v

#9 Sujetame el cubata. Trillizas.

angeloso

#12 Y de lo primero, estoy convencido de que sí lo serán y lo veremos en pocas décadas 👾

angelitoMagno

#39 Bueno, eso no es nada, en realidad ese ejemplo no es más que buscar una respuesta en Google.

Yo la he usado para cosas del tipo "Hola, tengo esta conexión a una API REST realizada en Node.js, ¿me la puedes refactorizar a PHP?" y te lo hace.

sauron34_1

#39 córtale internet, a ver si puede.

D

#52 > Cuando una ia empiece a auto- mejorarse, alcanzara al humano medio un jueves a medio día y al mejor de los humanos para la hora de la cena.

¿Tienes alguna evidencia de esto o es una simple tautología?

Lerena

#35 #57 Es irrelevante. La IA no necesita sobrepasar en inteligencia a los humanos, sino de ser capaz de realizar su trabajo, para lo l no hace falta ser muy listo.

D

#39 El problema es que es posible que le hayan explicado literalmente ese acertijo. En cientos de variantes diferentes.

Eso dificulta saber si se trata de un razonamiento real o está repitiendo un patrón memorizado.

En todo caso, un gran porcentaje de humanos fallaría ese acertijo.

d

#39 a mí fíjate que lo que me asusta es que nos empeñemos en que las inteligencias artificiales cada vez sean más capaces, mientras los seres humanos navegan cada día más hacia la ignorancia y la superficialidad de la futilidad.

tusitala

#12 El objetivo de la IA es que supere nuestros límites, igual que usamos la grúa para levantar pesos imposibles la IA moverá conceptos imposibles. Podrá pensar en 5 o en 11 dimensiones o realizar deducciones que requieran relacionar cientos de variables.

thorin

#7 Em, puedes configurar a ChatGPT para que te responda siempre por defecto de cualquier otra manera, siempre y cuando sea SFW.

Y no me refiero a mandarselo en la instrucción inicial, sino en las opciones. Cómo se ve en la captura.

Así que si te habla gilipollas, es porque quieres.


Hay otras LLMs sin censurar, a las que puedes instruir para que te respondan siempre de una manera muy burra.

sorrillo

#31 Y no me refiero a mandarselo en la instrucción inicial, sino en las opciones.

Por lo que entiendo de como funciona ChatGPT esas opciones que citas se convierten en parte de las instrucciones iniciales, aunque a ti no te aparezcan así en el entorno de la charla.

No existe ningún mecanismo para forzar que responda de una forma concreta más allá de pedírselo antes de la respuesta.

thorin

#40 Por lo que tengo entendido es más persistente. Hacerlo en una instrucción inicial puede ser ineficiente, porque puede ser olvidada a lo largo que se desarrolla la conversación, ya que necesita purgar la memoria.

Pero existen mecanismos. Teóricamente se puede entrenar un modelo para que tenga un tipo determinado de respuesta. Pero es una solución costosa y complicada.

sorrillo

#43 Entiendo que es equiparable a darle esa frase antes de cada interacción, no digo que no sea práctico ponerlo en opciones pero no creo que tenga nada de significativamente distinto a lo que puedas decirle tú por consola, es el mismo mecanismo pero automatizado para facilitar la tarea.

thorin

#44 A grosso modo si, es casi como ponerle esa instrucción cada vez que le escribes algo en la misma conversación.

joffer

#7 tu dio muy alto, que ya te estás descansando

Polarin

#33 Pero... a que si? ...

borteixo

#10 nunca podrá perrear.

Autarca

#21 #25 imagino que será algo así

https://www.dailymotion.com/video/x25ntxf

joffer

#21 si y mientras mate humanos con una ametralladora

l

#10 de hecho está alineado para que te confiese que es un bot cuando le preguntas
A dotCSV, le dijo que era real, que no era un bot y dotCSV se lo refutaba y ella insistia.
No se si ha tomado esa deriva naturalmente o porque.
Si la entrenas en un sentido o en otro es normal que actue del forma que la entrenes. Pero es curioso que responda asi. y para ciertas persona puede ser preocupantes, incluso algun ingeniero de google se convencio de que habia cobrado vida.

puede ser en uno de estos dos vidos.

https://yewtu.be/watch?v=otvqkWFvUZU
https://yewtu.be/watch?v=c_PqM5lPvjY

D

#30 El primer video es GPT3. No tiene la parte de InstructGPT, ni el RLHF, y el LLM tiene menos parámetros y una arquitectura más primitiva.

P

#10 no dibuja, no compone, desde luego no programa, no diagnóstica y tampoco se expresa en nuestro lenguaje.

La IA ahora mismo solo es una máquina de reconocimiento de patrones y cumplimiento de expectativas replicando esos patrones que conoce, nada más. Parece que dibuja, parece que escribe, parece que programa...

sauron34_1

#37 no y eso ya se sabe. Un cerebro humano cuando aprende se reconfigura, se reprograma. Todo software geberado hasta hoy en día sólo es capaz de seguir su programación al dedillo. Nada más.

fluty84

#49 la IA regenerativa, cuando aprende también se reprograma hasta encontrar patrones mejorados.

sauron34_1

#66 su código fuente cambia? No, por lo tanto no se reprograma.

fluty84

#70 cambia a nivel lógico ya que reprograma las respuestas a un input en base a su experiencia.
El ser humano tampoco "reprograma el codigo fuente del cerebro', las normas básicas de funcionamiento y conexión periférica son inmutables, lo que cambia son las lógicas de respuesta que almacena "en memoria" en base a las experiencias, otra cosa es que ese "disco duro" sea lo más complejo que nos queda conocer de nosotros mismos y podamos observar mutabilidad física en él.

sauron34_1

#82 no, el cerebro se reprograma, porque cambia a nivel de hardware, cambia los caminos por los que se ejecuta su “software”, las señales eléctricas. Las IA no se reprograman en absoluto, sus respuestas tienen un feedback y va cambiando su “peso”. Cuando una respuesta gana mas peso que otra, comienza a dar esa otra respuesta. Todo en base a su programación. Eso no tiene nada que ver con reprogramar, las reglas sobre las que está escrita siguen siendo las mismas. Si una IA se pudiera reprogramar hubiera sido un hito histórico y estaría abriendo telediarios. Aún no somos capaces de eso.

r

#70 #66 Eso de "reprogramarse" tiene "trampa" porque simplemente estás jugando con definiciones a medida. Por ejemplo una red de neuronas puede "podar" sus conexiones neuronales de la misma forma que lo haría un cerebro o generar nuevas conexiones. Y de hecho, el cerebro humano simplemente se reconfigura según sus propias capacidades, hay cosas que no puede hacer, así como la IA tampoco.

P

#37 la diferencia es que los entendemos (al menos algunos humanos), al menos a un nivel más profundo que la IA y eso todavía no se ha replicado ni nada parecido.

P

#35 "ahora mismo hay humanos que solo son una máquina de reconocimiento de patrones y cumplimiento de expectativas replicando esos patrones que conocen, nada más. Parece que dibujan, parece que escriben, parece que programan..."

Cuidado. Entiendo perfectamente lo que quieres decir. Pero quedan 2 telediarios para que la IA nos adelante por la derecha

sauron34_1

#38 si con dos telediarios te refieres a cien años o más, sí.

P

#38 no he dicho lo contrario, pero no creo que sean dos telediarios, la IA tuvo un boom hace muchos años (con modelos parecidos a los actuales) y, por limitaciones de cómputo, se quedó en la sombra hasta ahora puede perfectamente volver a pasar, que nos estanquemos y se quede en lo que es y evolucione poco a poco. O bien podemos encontrarnos con una asíntota horizontal, si estuvieras en una curva logarítmica pensarías que sube muy rápido y que no tendrá fin, si haces zoom out verás que llega un punto donde el avance es cada vez más inexistente.

r

#74 Algo que suele pasar en el campo de las IAs es que mientras más avanza más evidentes se hacen sus limitaciones, o cambia nuestra perspectiva de lo que consideramos inteligente. También su evolución puede tomar caminos inesperados.

Según el cine, skynet es una IA militar, o en versiones más modernas es "facebook", a mi no me extrañaría que fuera más realista y probable que Matrix fuera un "pornhub". lol

r

#74 Algo que suele pasar en el campo de las IAs es que mientras más avanza más evidentes se hacen sus limitaciones, o cambia nuestra perspectiva de lo que consideramos inteligente. También su evolución puede tomar caminos inesperados.

Según el cine, skynet es una IA militar, o en versiones más modernas es "facebook", a mi no me extrañaría que fuera más realista y probable que Matrix fuera un "pornhub". lol

rojo_separatista

#35, si le pido que dibuje un soldado azteca de piel azul tocando un ukelele rosa delante de la Sagrada Familia, lo hará bien a pesar de que nadie lo haya hecho jamás, porque ha aprendido a abstraer casa uno de estos conceptos y saber cómo y cuando aplicarlos. Basta de repetir este mantra, las IAs generativas tienen problemas de planificación y de un modelo interno del mundo como el nuestro que probablemente se resuelvan en breve, pero no se limitan a copiar.

P

#65 no, no lo hará bien y tendrás que hacer 1000 iteraciones, que algunos parece que queréis engañaros y creer que Hal9000, los replicantes o Skynet están aquí.

Intenta replicar por asociación patrones que ha encontrado en la muestra del entrenamiento, eso es mayormente la IA actual, no sé si conoces como funcionan los modelos pero todos tienen ese enfoque en su centro.

Por eso sí le dices lo que tú has dicho, dibujara algo que tú cerebro confunde con una persona más o menos y por lo general caerá en lo que se conoce como uncanny valley (tendrá un brazo de más, deforme, ojos raros, cara rara...), en ukelele será algo que parece madera con un mástil que se mezcla con el fondo y no se ve donde termina y que tendrá unas cosas que no sabes si son cuerdas o cordones de zapato, y la sagrada familia será un edificio gótico extraño y que tiene algo que te desconcierta.

Después de mil iteraciones sobre diferentes puntos de esa primera imagen, puede que tengas algo que, con pequeños retoques en Photoshop, sea lo que has descrito en un principio.

Lo cual no le quita utilidad, solo retira la capa de misticismo estúpido que se le está poniendo a la IA. Por suerte o ir desgracia tiene la limitación que tiene.

Lo mismo con música, escribiendo y, sobre todo, programando. Simplemente en arte se nota menos por lo amplio de nuestro concepto de arte, pero dile a alguien que sepa de arte si sus composiciones son buenas, su estilo consistente, etc

Es como alguien que quiere modificar un programa y, sin saber programar, por patrones que va viendo consigue algo que parece funcionar pero cualquiera que sepa verá que tiene 10000 agujeros porque quien lo hizo no sabía realmente lo que estaba haciendo.

rojo_separatista

#73, no se de dónde sacas las 1000 iteraciones, si la imagen que te pasé en el comentario la creó a la primera. Y así con la inmensa mayoría de ejemplos. No se si eres consciente de la velocidad con la que están evolucionando estos modelos, el año pasado todo el mundo hablaba de los dedos, hoy casi nunca se equivoca con eso. Negar que estos modelos dibujan está al mismo nivel o peor que los negacionistas del cambio climático, por mucha evidencia que haya, da igual.

P.D.: Ahí va otro de propina de color amarillo frente la Torre Eiffel, a la primera.

P

#77 es lo mismo, es cumplir expectativas, cada vez mejor pero no es más que eso. Solo tienes que hacer zoom y verás que nada está bien, aunque de lejos lo parezca.

Los trastes no son trastes, los dedos, parecen dedos, etc.

No digo que no mejoren a una velocidad bestial ni que dentro de poco sea imposible distinguir el "parece que dibuja" de "dibuja", pero de momento es lo que es, pero porque los modelos matemáticos por definición son eso. De momento no ha surgido una consciencia o nada similar que nos haga pensar que de los modelos matemáticos ha surgido algo diferente a un reconocimiento de patrones y replicación de los mismos intentando cumplir una expectativa.

rojo_separatista

#84, lo dicho, como discutir con un negacionista del cambio climático, no importa la evidencia que le muestres, son más importantes sus creencias personales. Estaría encantado que me señalaras qué está mal en esta ilustración hecha por Midjourney, que haga que no lo podamos considerar un dibujo.

P

#86 he dicho que no se pueda considerar un dibujo?

He dicho que no dibuja, o sea, no tiene una consciencia de que va a dibujar, simplemente crea un mapa de bits que cumple con ciertos patrones que ha establecido según el modelo y lo "aprendido" durante su entrenamiento. Creo que no es tan difícil de entender la deferencia semifilosofica que estoy haciendo.

Si haces zoom en los trastes puedes ver un ejemplo de lo que digo, al no tener un concepto real de que es un ukelele hace algo que lo parece pero si haces zoom en zonas específicas ves que no lo tiene claro.

Soy ing. Informático y tengo bastante idea de IA y los modelos que hay detrás, no sé si tú me hablas desde el mismo cocimiento o si simplemente hablas desde la impresión visual que te genera un resultado, porque entonces el que tiene el nivel de un negacionista del cambio climático no soy yo.

rojo_separatista

#87, no existe hoy un modelo de IA que puede diferenciar si una imagen está hecha por IA o no, vamos a poder nosotros hacerlo a mano simplemente haciendo zoom.

P

#90 he dicho yo eso? Que, por cierto, en las imágenes que me has pasado desde luego que se puede, las IA cometen ciertos tipos de errores por lo que te he dicho, los modelos son entrenados de forma que solo saben cumplir expectativas de patrones conocidos y no tienen realmente un concepto de las cosas si no un concepto de cómo debe ser un conjunto de bits para parecerse lo suficiente a una cosa. Creo, repito, que no es tan difícil de comprender, todos los modelos de inteligencia artificial se reducen a eso en su base.

Parece que no te has ni molestado siquiera en hacer zoom donde te he dicho.

No sé por qué algunos queréis creer que vivís en un futuro que no ha llegado todavía...

P

#86 otro ejemplo, el ukelele tiene diferente número de cuerdas, porque no entiende que es un ukelele si no que características debe tener algo que lo parezca.

De ojos, caras, etc tiene mucha más info de los entrenamientos y por eso hace mejor trabajo.

También lo puedes ver en las plumas de la cabeza, no son plumas, no se sabe dónde empieza una y donde acaba la otra, es algo que a primera vista parece que son plumas.

A eso es a lo que voy, que cada vez tienen más variables y más información con la que han sido entrenados? Sí, por eso cada vez es más difícil decir si se parece o si realmente ha dibujado lo que le has pedido porque lo entiende, pero los modelos y algoritmos por detrás son los que son.

rojo_separatista

#88, el año pasado eran los dedos de la mano, hoy son detalles cada vez más sutiles. El problema de verdad es que ves lo que quieres ver porque partes de la base que hacer un dibujo no puede partir de un conjunto complejo de operaciones matemáticas en un modelo bien entrenado, piensas que es necesario hacerlo de forma consciente, cuando no es así.

P

#91 nunca he dicho lo contrario a lo que afirmas, solo digo que no dibuja como lo hace un humano, no escribe como lo hace un humano, ni hace realmente nada como lo hace un humano.

Solamente crea cosas en base a todo el ensayo y error que ha tenido, no porque tenga un concepto real de dichas cosas si no porque de los millones de ensayo y error y las cientos de miles o millones de variables que tienen en cuenta IAs actuales (ej: gpt4) reconoce patrones que se asemejan lo suficiente a lo esperado como para crear duda.

Creo que no es tan difícil, de verdad.

Lo podemos ver con código, donde al poder ser más concretos y haber menos margen de maniobra (como sí lo hay en el arte) es más fácil reconocer el problema del que hablo. No sé si tienes algo de idea de algoritmia, creo que no y por eso creo que esta conversación es una perdida de tiempo ya que estás hablando desde la creencia y no desde el conocimiento, pero pondré el ejemplo igual:

El algoritmo quick sort, un algoritmo básico de programación y muy utilizado, tiene una estructura muy concreta y cualquier programador lo puede reconocer fácilmente solo con ver la estructura del código. Si a GitHub Copilot le pides que implemente quicksort, te proporciona un código que parece quicksort, a primera vista tu lo ves y hace las mismas operaciones y sigue la lógica de quicksort. ¿Cuál es el problema entonces? Que no tiene ni idea de lo que está haciendo, solo intenta dar un código que se parece lo suficiente a la estructura que él ha encontrado en los ejemplos de su entrenamiento. ¿Por qué lo digo? Porque, de forma sistemática, se carga una de las principales características del algoritmo, que este es "in-place", es decir, no requiere memoria extra para implementarlo.

El arte al permitir subjetividad, al haber espacio para la abstracción, para el surrealismo, para mostrar intenciones, etc no es el mejor medio para evaluar el estado de la IA y sus capacidades, ya que puede llevar al error de que crea código tan bien como crea imágenes(que no "dibuja") y nada más alejado de la realidad.

Repito, creo que no es tan difícil de entender.

Y claro que mejorarán y claro que en algún momento se dará cuenta de que todas las implementaciones de quicksort, por seguir con el ejemplo, tienen la característica que he mencionado y evitará caer en el error pero o hará solo porque es lo que ha visto
y lo que "cree" (vamos a tomar la licencia de usar el verbo creer) y no porque tenga una comprensión de lo que he explicado.

Y, aunque desde fuera puede parecer lo mismo algo replicado de forma automática y sin errores que lo real, no lo es. Por ejemplo, hay indicios de que el 50% del código subido a GitHub (un repo de código, el más grande del mundo) es generado por Copilot. Si asumimos que comete errores similares a ese (porque lo hace, solo he mencionado ese pero se olvida córner cases en operaciones sobre listas enlazadas, se inventa llamadas a funciones que no existen pero paren casi reales...) y en algún momento si propia producción sirve como alimento para su entrenamiento lo único que pasará es que se degrade la calidad de lo que produce.

Sacar la conclusión de que la IA seguirá avanzando a este ritmo durante muchos años, es atrevido, ya nos hemos encontrado con asíntotas horizontales muchas veces, pasando de un avance aparentemente exponencial a un periodo de estancamiento prolongado.

Lo que no quiere decir que el estado actual, y lo que venga, no vayan (ya lo han hecho) a revolucionar el mundo que parece que es lo que confundes en mi discurso.

Uso la IA a diario, Copilot me sirve fantásticamente como sistema de autocompletado, no tanto como sistema de generación de código, como sistema de generación de documentación, y para muchas otras tareas y me ha facilitado la vida no estoy negando eso en ningún momento, simplemente trato de aterrizar la realidad que hay tras las IA actuales, no de decir que los resultado que producen son malos o inútiles si no hablar de la naturaleza de los mismos.

rojo_separatista

#99, soy doctor en ingeniería informática, así que algo de algoritmia y programación sí que se, y aunque no trabaje de desarrollador, y sí utilizo Github Copilot y GPT-4 a diario, así que conozco sus puntos fuertes y sus puntos débiles. Seamos sinceros, una herramienta así era completamente inimaginable hace 5 años. Creo que exageras mucho sus puntos fuertes y minimizas sus puntos débiles, porque aunque no sea perfecto, sabiéndolo usar comprende bastante bien lo que le pides y en la mayoría de casos lo hace muy bien. En mi caso, puedo picar código 4 o 5 veces más rápido que antes. Llámalo como quieras, pero para mí y a pesar de sus limitaciones, sí se puede hablar de una IA que sabe programar.

P

#77 fíjate en el ojo derecho, sabe que pinta tiene que tener un ojo, pero no sabe lo que es un ojo.

Los dientes, todo en general, son cosas que intentan replicar otras, nada más.

Pero eso no tiene que ver con ser negacionista, ni le quita utilidad o calidad a los resultados. Lo único que quita es el misticismo y unicornios que parece que alguno le quiere dar a las IA.

PD: la sagrada familia no sabe si está pintando un edificio, una plataforma petrolífera o un monstruo de una peli de terror, por poner otro ejemplo.

rojo_separatista

#89, por mucho que te incomode es un modelo que dibuja con mayor o menor fortuna, cada vez lo hacen mejor y cada vez lo harán mejor, o te crees que después de la mejora tan espectacular los últimos años la cosa se va a quedar aquí? Más vale que lo vayamos asumiendo.

r

#77 Yo esperaba que fuera azul, que era lo prometido en #65. Me siento engañado... lol

rojo_separatista

#107, el azul frente a la sagrada familia está en #65, pincha la imagen. El amarillo en la torre Eiffel lo puse para demostrar su versatilidad. lol lol lol

PD: de regalo te mando otro blanco a topos rojos frente a la estatua de la libertad como en esta imagen, o la combinación que tú quieras. lol

ny80

#107 El azul lo tienes en #65

Westgard

#35 porque el médico que da un diagnóstico no está aplicando reconocimiento de patrones que ha estudiado y visto cientos de veces... claro... y la música no tiene nada que ver con los patrones matemáticos, y a la hora de dibujar no sigues estilos y técnicas aprendidas que ya existen y existian desde hace tiempo y que simplemente has refinado y perfeccionado a base de miles de repeticiones (iteraciones)...

Que la IA con todo lo sorprendente que es esta en pañales? Si... los grandes avances se han empezado a dar hace poco... espérate 10-15 años y me cuentas las vueltas que va a darle a nuestro cerebro de mono

P

#98 un médico no sólo aplica conocimiento en base a reconocer patrones, no un médico actual al menos. Hay una comprensión profunda que va más allá del "se ha usado con efectividad el 98% de los casos, voy a hacer algo lo suficientemente parecido" que es de lo que estoy hablando.

La mayoría de los que decís estás cosas después no tenéis ni idea de algoritmia ni de los modelos que hay detrás de estas IA, la prepotencia es atrevida.

sauron34_1

#10 lo que pasa es que mucha gente se roma el pasar el Test de Turing como que es capaz de razonar o incluso que significa que es autoconsciente y no. Esto habla más del test que de la IA en sí: tenemos que crear testa más finos para distinguir entre una IA y un humano.

rojo_separatista

#48, Alan Turing jamás planteó este test como algo para verificar si una máquina es auto-consciente, porque no existe tal test, ni siquiera para los seres humanos. Por contra, para superar el test de Turing sí que se necesita capacidad se razonar.

Tal y como dijo Andrej Karpathy, cuando tengamos una AGI plenamente funcional habrá gente que seguirá diciendo que no razonan.

sauron34_1

#64 no, no creó los test para determinar si una maquina es autoconsciente, los creó para saber si una maquina se puede hacer pasar por un humano. Parece lo mismo, pero no lo es.

rojo_separatista

#71, el test de Turing se creó para discernir si una máquina tiene un comportamiento inteligente o no, porque necesitamos algo concreto para no ponernos a debatir sobre el sexo de los ángeles o los androides sueñan con ovejas eléctricas.

En mi opinión superar un test de Turing exhaustivo y bien planteado no significará que tengamos una AGI plenamente funcional, pero será un paso de gigante para lograrlo. Sin duda se necesita cierta capacidad de razonamiento para poder hacerte pasar por un ser humano.

sauron34_1

#72 o no. Una IA que está programada, es decir, que tan solo sigue una serie de instrucciones escritas y que no se puede saltar no puede tener, por definición propia, capacidad de razonar. Si una IA programada pasa un test de Turing es que este necesita mejorarse, porque un automata (es decir, una maquina de Turing) ha conseguido hacerse pasar por un humano. Nada más.

rojo_separatista

#76, una IA moderna basada en redes neuronales no está programada. Está diseñada a nivel de arquitectura, pero se entrena para que aprenda a realizar algún tipo de clase de tarea del mismo modo que la arquitectura de nuestro cerebro nos viene dada pero podemos aprender a realizar diferentes tareas. Puede que el cerebro biológico tenga algo más de plasticidad pero en esencia el funcionamiento es muy similar y el desempeño cada vez más parecido.

sauron34_1

#78 spoiler: las redes neuronales son un nombre chulo que le han dado a una estructura de datos. Tienen poco que ver con las neuronas reales y nada que ver con como aprede nuestro cerebro. Las IAs no se basan a priori en redes neuronales.
Y antes de que me digas que las redes neuronales tiene que ver con las neuronas reales: piénsalo de nuevo

rojo_separatista

#79, pero qué dices? Por qué te crees que la comunidad científica les puso este nombre hace 50 años? Obviamente las redes neuronales artificiales están inspiradas en las redes biológicas y las tratan de modelar aunque sea de forma muy simplificada.

Una sencilla búsqueda en la wikipedia te hubiese ahorra el soltar semejante cuñadez:

"Artificial neural networks (ANNs, also shortened to neural networks (NNs) or neural nets) are a branch of machine learning models that are built using principles of neuronal organization discovered by connectionism in the biological neural networks constituting animal brains.

An ANN is based on a collection of connected units or nodes called artificial neurons, which loosely model the neurons in a biological brain.
...
ANNs are composed of artificial neurons which are conceptually derived from biological neurons."


https://en.wikipedia.org/wiki/Artificial_neural_network

Vamos, que el nombre no es que se le ocurriese un dia de golpe a nadie pensando en algo "chulo", sino que tiene toda la razón de ser porque están inspiradas en las neuronas biológicas. El video que enlazas solo demuestra que no entiendes bien que es un modelo y tienes poca capacidad de abstraer que independientemente de cómo se comporten a nivel físico, la forma en que se conectan las neuronas se puede representar mediante pesos. Que estos modelos estén funcionando tan bien, significa que estamos en el buen camino a la hora de intentar aproximarnos a como funciona la inteligencia biológica.

sauron34_1

#85 vale oye, que eso me lo dijeron en una conferencia sobre IAs, pero si en la wikipedia pone eso ya me quedo más tranquilo. Y que soy programador y he estudiado la historia de las IA y como se ha llegado hasta aquí, en qué consiste un automata/máquina de Turing, en lo que significa que sólo se puedan definir programas computables, que las IAs lo son y el cerebro humano no yq ue lo “único” que hace chatGPT y demás chatbots es dar las respuestas que mejor feedback han tenido y aparentar hablar con mucha seguridad. Y que no están basadas en redes neuronales. Pero en fin, qué sabré yo.

rojo_separatista

#94, no hagas mucho caso a todo lo que escuches por ahí, yo he estado trabajando con redes neuronales artificiales desde hace casi una década, por eso me sorprendí un poco cuando me dijiste que no son un modelo, muy simplificado, de una red neuronal biológica, pero lo son. En cuanto a que sean una máquina de Turing o no, no le veo el problema, porque no hay motivo para pensar que los problemas que asociamos a la inteligencia, no pueden ser computables. Eso sí, opino que la conciencia es otro tema y que con estas arquitecturas no se va a poder replicar, pero creo que le atribuimos a la conciencia un papel equivocado en el funcionamiento cognitivo de nuestro cerebro, que no es el de resolver problemas sino el de fijar objetivos y los mecanismos de recompensa, algo que resolvemos en nuestras arquitecturas con las funciones de coste y algoritmos de entrenamiento como el backpropagation.

sauron34_1

#97 a ver, sí, tienes razón, me he expresado mal, disculpa. Sí que son un modelo muy simplificado de las redes neuronales biológicas, pero que no dejan de ser un modelo de datos. Quiero decir, que mucha gente se basa en ese nombre para decir que las IA razonan o son conscientes y no hay que perder de vista que no es más que un nombre.
Con lo que dices respecto a las maquinas de Turing, los avances hasta ahora nos indican que el cerebro no es programable, comentaba en otro hilo el tema del conductismo por ejemplo y como funcionó en animales y fracasó (casi por completo) en humanos.
Sobre lo que comentas de la conciencia, no se trata solo de eso o no principalmente de eso, si no de los pensamientos que surgen “espontáneamente” y del problema de como consigue el cerebro transformar sus señales en lo que sentimos y en una experiencia autoconsciente. Por mucho que una IA simule, no deja de ser una simulación, no “siente”.
Es que es más, un SO es muchísimo más complejo a todos los niveles que chatGPT y nadie se pregunta si Windows es autoconsciente porque no trata de simularlo. Estamos humanizando algoritmos que simulan una respuesta humana, eso es, creo yo, el problema aquí.

D

#10 El problema con los seres humanos es que hemos justificado las barbaridades que hacíamos diciendo que éramos especiales. Y justamente los LLM nos están ganando en todo aquello que decíamos que nos hacía especiales.

Lo cual significa que de pronto podríamos quedarnos sin la justificación para seguir cometiendo fechorías.

Imagina la reacción de los israelíes si de pronto se aparece Dios y dice que en realidad el pueblo elegido es Palestina.

cognitiva

#10 si no te interesa lo que he dicho, François Chollet te explicará que se ha hecho cero progreso hacia la generalidad de la IA en los últimos 10 años, cero hitos.

rojo_separatista

#59, y dos premios Turing mucho más relevantes como son Geoffrey Hinton y Joshua Bengio dicen con un 90% de confianza que en un lapso de 5-20 años llegaremos a una AGI. También lo dice Demis Hassabis, que tiene un cargo mucho más importante que el investigador que citas dentro de Google.

cognitiva

#63 dicen lo mismo que Marvin Minsky, sólo que varias décadas después.

guaperas

#10 el modelo no está para nada alineado para decirte que es una IA, la versión que nos dejan utilizar esta parametrizada para eso, pero si le quitan los parámetros se puede hacer que pretenda ser una persona, está de sobra entrenado para lo otro también, otra cosa es que no den al público esa opción y todas las apis o webs utilizen un modelo que no pretende ocultar que es una IA

rojo_separatista

#62, creo que no sabes que es el alineamiento y el papel que juega el ajuste fino en todo esto. No son parámetros de quita y pon sino que se ha reentrenado específicamente para que no diga cosas que no quieren que diga.

r

#10 Es curioso lo que mencionas, pero sí está diseñado para generar textos como lo haría un humano, y por defecto la prueba tiene que basarse en eso. Así que en cierta forma sí está hecho para pasar el test de Turing.

troll_hdlgp

#1 El dilema del tranvía ya fue resuelto hace tiempo

cognitiva

#42
Déjà vu
I've just been in this place before
Higher on the street
And I know it's my time to go
Calling you, and the search is a mystery
Standing on my feet
It's so hard when I try to be me, woah

troll_hdlgp

#58 Ni idea del cómic o la referencia, yo solo he buscado dilema del tranvía derrape y he cogido la primera imagen molona.

cognitiva

#81

D

#14 La respuesta correcta a esa pregunta es siempre: que cojones hace una tortuga en un desierto?

troll_hdlgp

#27 No, la respuesta correcta es ¿Hay suficiente agua para hacer la sopa?

p

#27 Pues en Breaking Bad vi una.

K

#14 Pues creo que sí le preguntaron, y después le pidieron que dijera con palabras sencillas cosas que recuerda de su madre... después se oyó un disparo.

M

Pues tendría su "gracia" si entre ese 41% de las pruebas que supera la IA estuviera el 37% de las pruebas que fallamos los humanos o, al menos, un buen número de ellas.

Sofa_Knight

#2 leí que más que por porcentajes, es una especie de escala logarítmica. Vamos, que pasar del 20% al 40% es mucho más fácil que del 40% al 60%

ChatGPT

Creéis que skynet o Hal9000 pasarían el test? Yo creo que no, simplemente se harían los tontos para no parecer peligrosos

H

Lo que Turing no habia contemplado es que haya un 40 por cierto de humanos tan idiotas que no sepan darse cuenta que estan hablando con una maquina.

neiviMuubs

Hace unos años recuperábamos el legendario chiste del perro que jugaba al ajedrez

¿Qué mierda anglosajona es esa? se le ha de hacer el chiste del perro llamado mistetas, o tiramos los servers del gpt4 al rio.

ChatGPT

#15 estoy completamente de acuerdo

Lo que mejor hace imitando a los humanos es equivocarse.

borteixo

#18 además cual cuñao te lo dice sin atisbo de duda

ViejoInsultaAChemTrail

#22 lo importante no se saber, es tener poder de convicción y que el otro sepa menos

I

Habrá que pedirle a GPT-4 que diseñe un nuevo test para sustituir el de Turing, que ya se ha quedado viejo.

c

Si los humanos no pasamos el test de turing, lo que està mal es el test

S

Ya queda menos

s

#5 ¿Para resucitar a Fraga? Virgen santísima.

Polarin

Pero es que el test de Turing tienen un problema: el humano medio es un/a completo/a gilipollas.

Me he leido correos de Recursos Humanos hace 20-10 anios que eran mas gilipollescos que los de chapgt... y por ejemplo la propaganda politica esta por debajo de ese umbral....

pax0r

ya farta menos

D

#_49 Claro, seguro que los ingenieros de OpenAI introducen las correcciones del feedback de los usuarios a mano en el software de ChatGPT.

ACEC

Un test para comprobar si eres humano que falla el 37% de las veces no parece muy fiable.

Cherenkov

Solo aquí tenemos al genuinochatgptchatgpt

D

#3 tambien a@Hal9000 que ejecuta las queries con menos retraso lol

troll_hdlgp

#26 Pero a cambio tarda 43 minutos en dar la respuesta

j

De ser así. El test de Turing, no supera las pruebas

1 2 3