Ha ocurrido algo extraordinario, aunque aún no nos hemos dado cuenta del todo: unos algoritmos son capaces de resolver tareas intelectuales. Estos modelos no son réplicas de la inteligencia humana. Su inteligencia es limitada, distinta y, curiosamente, resulta que funcionan de un modo que se parece bastante a la intuición. Esta es una de las siete lecciones que hemos aprendido hasta ahora sobre ellas y sobre nosotros
|
etiquetas: piensa , inteligencia , artificial , gran , sorpresa , intuye , ideas
Si tan expertos son, deberían entrenar a sus IAs para que por lo menos sean coherentes con las campañas de marketing de la empresa, porque amigo, la segunda parte de mi mensaje, es un copy paste de la respuesta de ChatGPT
Venga, sigue haciéndolo ridículo...
Estoy harto de tanto antromorfismo barato alrededor de la I
- No piensan porque no realizan actividad cognitiva en sentido fuerte: no tienen estados mentales, intencionalidad, comprensión semántica propia ni metas internas. No elaboran creencias ni evalúan razones. Lo que hacen es procesamiento estadístico de símbolos: estiman la continuación más probable de una secuencia a partir de regularidades aprendidas.
- No intuyen porque la intuición implica una forma de aprehensión inmediata con significado para un sujeto (a menudo ligada a experiencia, corporeidad o juicio implícito). En una LLM no hay “aprehensión”: solo hay cálculo de probabilidades condicionado por contexto.
Nuestro cerebro no tiene nada de sobrenatural y se puede modelar computacionalmente. Decir otra cosa es tontería (te miro a ti, Penrose). Lo que no es cierto es que sea "circuitería". Esto no se puede decir así. No sabemos como funciona el cerebro.