Hace 1 mes | Por navi2000 a maximumtruth.org
Publicado hace 1 mes por navi2000 a maximumtruth.org

Me animé a hacerlo tras escuchar un podcast de Dwarkesh en el que se señalaba que las grandes pruebas de referencia de IA no son más que "buenas pruebas de memorización, no de inteligencia". Es un buen argumento. La mayor parte de la potencia de la IA procede de su enorme base de datos y de la búsqueda de patrones. ¿Hasta qué punto es inteligente la IA? Por eso le he pasado un test de Mensa a ChagGPT. Resultado: ChatGPT no llega al mínimo de un 75 para puntuar.

Comentarios

jonolulu

#9 Los gatos

Top_Banana

#9 Los murcianos

M

#9 La Emperatriz Laseen

d

#9 No tiene sentido compararse con una máquina. Especialmente cuando las redes neuronales no hacen nada parecido a lo que hace un humano.

jonolulu

#0 No es un 75%, sino 75 puntos de coeficiente, lo que viene a ser casi deficiente, más bien no llega al percentil 3.

navi2000

#4 Cierto, corregido!

Ergo

Con la media de CI que habita por TikTok la puntuación 75 de la IA va sobrada

NSFW

#14 ¡Ya ha superado a los humanos!

x

Los test de inteligencia nunca han servido para demostrar inteligencia

navi2000

#2 y para qué sirven? Y sirvan para lo que sirvan, lo que es cierto es que personas que puntúan muy alto suelen ser personas muy inteligentes y personas que puntúan muy bajo suelen ser personas "especiales".

x

#3 inteligentes para qué? Para sacar notas altas?

navi2000

#5 ¿Qué es la inteligencia?

x

#6 una capacidad para adaptarse a los cambios, y no es exclusiva de los humanos

navi2000

#8 ¿eso no es la adaptabilidad?

Narmer

#6 La capacidad de hacerte la vida fácil y, si acaso, a los demás.

d

#6 Es la capacidad de superar tests de inteligencia.

robustiano

Realmente hay trampa en este artículo, lo que está evaluando más que a GPT-4 es al módulo de visión que no está tan pulido como el modelo de lenguaje en sí. Le pasa las imágenes y le pide que razone la respuesta. Sin embargo, dudo que en ejercicios en los que solo intervenga el lenguaje, GPT-4 saque resultados peores en cuanto a razonamiento lógico que la media de los seres humanos. Estas noticias suelen venderse muy bien en estos tiempos de incertidumbre en los que la gente quiere sentirse reforzada escuchando que las IAs no llegan donde llegamos los seres humanos, pero no me parece la postura más inteligente, la verdad, porque si todavía no llegan, un escenario bastante probable es que lleguen en pocos años y en lugar de debatir sobre qué sociedad queremos construir para entonces, estamos dando escondiendo la cabeza debajo el ala pensando que así el peligro se esfumará. Mientras tanto, los despidos por IA ya han empezado, y no pararán.

ur_quan_master

Copérnico nos sacó del centro del universo. Darwin de la ilusión de ser seres especiales distintos al resto de seres vivos.

La tercera bofetada a nuestro ego nos la dará la inteligencia artificial.

Por cierto, nos estamos quedando atrás en software y hardware libre de soporte a la AI. Dejar está tecnología exclusivamente en manos privadas es un riesgo

NSFW

#19 Menos mal que Micro$oft ya se ha asegurado de tener a Mistral bien atado…

NSFW

Ahora todos los años tendremos noticias acerca de cómo la IA va a mejorar exponencialmente y ser más inteligente que el ser humano medio “el año que viene.”

d

#12 El aumento de capacidad que hemos visto recientemente no acerca los LLM a una inteligencia general en nada. Lo que hacen es otra cosa distinta.

NSFW

#23 yo, al contrario, diría que los LLM son la primera IA general (AGI en inglés) con una generalidad nunca vista: pueden producir texto acerca de cualquier tema, incluso código que supuestamente haga cualquier cosa. Pero lo hacen muy mal, es decir, con poca inteligencia. Para variar, fallan en la inteligencia, no en la generalidad. Eso es nuevo.

Pero no es de lo que hablaba.