Hace 1 año | Por Ka0 a hypernoir.com
Publicado hace 1 año por Ka0 a hypernoir.com

Hoy en día, nuestros avances supuestamente revolucionarios en inteligencia artificial son, de hecho, motivo tanto de preocupación como de optimismo. Optimismo porque la inteligencia es el medio por el que resolvemos los problemas. Preocupación porque tememos que la variedad más popular y de moda de la Inteligencia Artificial -el aprendizaje automático- degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y del conocimiento.

Comentarios

nemesisreptante

#3 Exactamente que cosas útiles hace? porque a parte de trabajos para escolares yo aún no le pillo la gracia

Fernando_x

#8 Resolver consultas, que es para lo que ha sido diseñada. Recientemente por ejemplo, me ha resuelto varias dudas que era incapaz de encontrar solución en Google.

nemesisreptante

#11 me encantaría algún ejemplo de verdad porque todo lo que veo por ahí son cosas que resuelves con google precisamente

Fernando_x

#15 Dudas muy concretas. Por ejemplo, el origen de los elefantes que usó Aníbal en su campaña europea. Otra, el nombre de una serie de animación francesa de los 80, sobre un niño de origen español que viajaba a América y había tecnología futurista de una civilización perdida.

LostWords

#15 Pregúntale a Google cosas como "dime cual debería ser mi facturación mensual como autonomo para que se equipare al salario percibido como empleado". Esta fue una duda que me plantearon hace un tiempo y chatGPT me ha dado una buena respuesta. En Google ha sido un largo listado de webs que tenía que revisar una a una y ninguna me daba lo que buscaba. Se acercaba pero no era tan claro y directo como con chatGPT
#11

Ferran

#15 “Quién es M.Rajoy” ChatGPT, ¿Quién es M.Rajoy?

“Escribe una carta a mi pareja diciendole que me siento mal por sus celos excesivos”

“Escribe una carta a mi comunidad de vecinos por los ruidos molestos de las cañerías”.

“Escribe una carta al ayuntamiento quejandote del estado del pavimiento de mi calle”

“Escribe una carta entusiasta a mis empleados invitandoles a un fin de semana a toledo y propon un itinerario de viernes a domingo”

Etc

navi2000

#15 Mira, algo muy concreto: yo no soy abogado, pero leo muchos edictos judiciales y notas simples. Hasta ahora, descifrar uno de estos documentos era media hora de trabajo, ahora le pido a chatGPT un resumen y le hago preguntas directas y lo tengo solucionado en 2 minutos

j

#11 si tuvieras acceso a las mismas fuentes que chatgpt podrías obtener la misma información sin que la ia la filtre para ti.

Si todos los libros y publicaciones de física estuvieran digitalizados y se pudiera buscar por cadenas de texto de forma ágil, eso sí sería muy útil para toda la humanidad, no sólo para una ia. El día que se auditen las fuentes de datos que utilicen las ias, habrá buenas multas por infracción de copyright.

Google se descarga copias de internet y hace búsquedas en dichas copias. Así que si un libro con la información que buscas está en las fuentes de chatgpt pero no en internet, ahí tienes tu respuesta.

Molari

#55 el tema es si te puedes fiar de la respuesta, pero es muy convincente. He comprobado con temas que domino bien que a veces se inventa las cosas, pero te convence.

Fernando_x

#62 Claro, por eso si es un tema que no conoces, luego que tienes una respuesta, toca verificarla. Comprobarla luego en google es mucho más sencillo que intentar buscar una respuesta sobre algo que no conoces desde cero.

A mí también en temas de física me lo ha hecho. Y cuando le digo que está usando una ecuación incorrecta, es capaz de decirme que no, que la suya es más general y que la que yo le digo solo sirve para casos particulares, cuando es completamente falso.

Pero por ejemplo en temas más sencillos, si le pido una explicación sobre la fauna y flora del ecosistema del bosque mediterráneo, me da una respuesta excelente. Y por ahora, es eso para lo que sirve.

S

#73 Casi parece más que Google haya involucionado, que que la IA venga a resolver algo.

tul

#62 del que no te puede fiar es de un tipo incapaz de encontrar los resultados que busca en la primera pagina de google https://www.google.com/search?client=firefox-b-e&q=elefantes+anibal+barca

Fernando_x

#62 Tul, que te responde en el comentario 87, y que me tiene ignorado no sé por qué, y aun así sabe qué te explico en mi comentario para criticarme, no te explica que no eso lo que busco. Lo que busco son cosas mucho más concretas sobre esos temas que no aparecen en google, porque son temas tan precisos y concretos que con esos datos es imposible dar con las páginas correctas que lo explican. Salvo que me dedique horas a buscar. ChatGPT me da la solución en segundos. De forma que luego comprobar si es correcto, sabiendo ya lo que tengo que buscar, es cuestión de minutos.

j

#55 pues lo que te he dicho. ChatGPT tiene fuentes digitalizadas que no están en google.

El día que auditen las fuentes que utiliza chatgpt lo mismo nos llevamos una sorpresa. Ya que ese tipo de información tan concreta suele ser de pago.

Fernando_x

#75 ¿fuentes sobre esas supuestas fuentes? ¿Sabes que se sabe las fuentes con las cuales se ha entrenado? Libros, revistas, páginas web, todo el proyecto Guttemberg. No tiene nada de sorprendente. Si yo fuera capaz de aprenderme todo eso, también sabría dar una respuesta a todo en cuestión de segundos.

rojo_separatista

#26, a google le puedes pedir que te escriba una carta solicitando un trabajo específico o que te haga un script en Python?

samsaga2

#11 Todas las veces que lo he usado para resolver dudas se ha inventado la mitad de la respuesta. He decir que era todo cosas bastante técnicas. No es capaz de decir no lo sé.

c

#32 Fallo de programación...intencionado, sin duda

Fernando_x

#32 ¿todas las veces? ¿Puedes darme algún ejemplo concreto?

navi2000

#66 parece ser que no

samsaga2

#66 Esta misma mañana le he preguntado que me describa algunos detalles concretos del protocolo Ethernet/IP. Resultado, casi todo mal.

z

#11 para cosas asi genial, pero yo no la usaría para algo importante, porque muchas veces se inventa la respuesta literalmente. El problema es que lo hace con un léxico y un contexto tan bien hecho dentro de la conversación que parece una respuesta real... es una IA conversacional, hay que comprobar la veracidad de cada respuesta. 
Sobre todo cuando no le das un conjunto de datos finito sobre los que explorar para generarte la respuesta.
fuente: Soy programador y la he estado usando últimamente para hacer pruebas de concepto en una app famosa... mi novia además trabaja en procesado de lenguaje natural y conoce bastante bien este tema y me lleva advirtiendo un tiempo del mal uso que se le va a dar o se le esta dando ya.

Fernando_x

#33 Cierto, y a mi a veces también me da resultados falsos. Y encima te los referencia con enlaces falsos lol

Por eso siempre primero compruebo lo que me dice. Una vez que ya tengo una solución es mucho más sencillo verificiarla que intentar buscar la solución desde cero.

sivious

#8 Por ejemplo, a mi me ayuda MUCHO a prepararme reuniones, para sacarme guiones de documentación y para explicarme cosas, alguna vez lo he usado para que me resumiera textos bastante largos. No se, la verdad es que a mi me ha ayudado basatnte.

Acuantavese

#16 Esto que dices te deja en mal lugar como humano, sin acritud

D

#8 Teniendo en cuenta que se está extendiendo como la pólvora para usarse en mil sitios..

Generación de código, generación de contanido, bots conversacionales, automatización de tareas, creación de cuaquier cosa que tenga base de lenguaje (descripciones, resumenes, traductores, ideas para arte...).

Yo le daría una vuelta.

HaCHa

#8 Nada ni nadie se inventa las cosas mejor.

jarenare

#8 ningunear una herramienta que, por primera vez en la historia de la humanidad, es capaz de hacer los trabajos escolares, me parece, como mínimo, muy osado. 
Y en estas cosas no hay marcha atrás. Todo lo que se ha conseguido será la base para construir la siguiente versión, y esa será la base de la siguiente...
A mí, me tiene la cosa especialmente preocupado. La humanidad ha dado muestras sobradas de no hacer un uso ético de la tecnología, y la IA tiene un potencial enorme para ser usada para el beneficio de unos pocos y en contra del beneficio común. 
Una de sus principales "virtudes" será su uso para control de la opinión pública en RRSS, y si no, al tiempo. 

aironman

#8 va a dejar obsoleto al buscador de webs.

ChukNorris

#8 Genera unos lorem ipsum maravillosos.

higochungo

#8 A mí me genera código fuente en minutos que de otra manera tardaría horas, simplemente diciéndole lo que necesito. Me crea archivos de terraform para crear infraestructura en base a una descripción que le hago en lenguaje natural (crea un archivo de terraform que genere dos máquinas virtuales de tamaño medio, con un load balancer y un firewall). Me resume textos largos. Me da respuestas claras y rápidas que de otra manera sólo conseguiría navegando por muchas webs. Me responde algún mail. Me prepara presentaciones. Me ayuda con algún algoritmo, me identifica actores de las series que estoy viendo y me dice qué otras series y películas ha hecho, etc.

He hecho una pequeña aplicación que lo usa para resumir las noticias más importantes del día en 100 palabras.

En general te hace ahorrar una de tiempo brutal, y te evita visitar decenas de webs. Para mí ahora mismo es un asistente que está siempre abierto en mi ordenador y en mi móvil.

Si no le ves la gracia, es que estás mirando mal.

nilien

#5 Sí, en todos los que no son tan esenciales como nos quieren hacer creer, tal y como se comprobó durante el confinamiento...

Barbol_Pelao

#13 Exactamente. Pasará el mismo proceso que ocurre ya con las redes "sociales".
https://hypernoir.com/el-enmierdamiento-de-tiktok/

P

#25 Un artículo realmente bueno, aunque la traducción está enshitada.

elmike

#13 Creo lo mismo, Ahora le puedes preguntar al famoso chat por los acordes de tal canción y te los muestra, dentro de poco no veo descabellado que a la respuesta añada algo como: "Ademas sabes que para grabar esta canción se usó un amplificador "Acme Sound Terror 150" como el que ahora mismo esta de oferta a solo 499eu en esta web."

p

#13 Creo que será un modelo mixto, la versión gratis irá de publi o cosas peores hasta los topes, pero la versión de pago no.

K

#19 Ni un humano aprende mucho prácticamente solo. ChatGPT y demás han tenido a su alcance una cantidad de datos brutal y también gran cantidad de datos (desde mi punto de vista no los suficientes) de lo que se considera "respuestas correctas", y todo esa información la generó millones de seres humanos.
Por otro lado, no veo yo, a corto plazo, que podamos tener IAs entrenadas para cada faceta de nuestra vida. Las IAs siguen siendo entrenadas para tareas muy especificas.
Y lo mas importante, aún veo muy muy lejano el momento en que una entienda lo que hace. Por resumirlo con un ejemplo sencillo, una IA la entrenas con las tablas de multiplicar, pero no sabe lo que es multiplicar, no entiende el concepto. Es mas, dado que no entiende el concepto, en cuanto le presentas un dato que no entra dentro de lo esperado, se va a la mierda. Volviendo al caso de multiplicar, tú a la IA le enseñas las tablas de multiplicar, todas menos cuanto es 2x5 y joder, que bien va cuando le pido 2x5, no lo entiende pero me da la respuesta correcta, a pesar de que no le enseñe ese valor en concreto. Pero aquí llego yo y como ella no sabe ni siquiera sumar o restar o si quiera que es un número, nadie le enseñó ni nunca entendió lo que hacia (que en realidad no es mas que ciertos casos específicos de la suma), y le digo que quiero saber cuanto es -2x5 o 32x1 y explota. La realidad es que ni siquiera entiende lo que es un número, no sabe lo que es ese signo -. Para ella solo existían 10 posibles representaciones de entrada (0 a 9) ¿Qué coño es eso de 32? Cuando no pase eso es cuando yo creo que podemos, de verdad, empezar a hablar de IA. Y luego quedará el siguiente gran paso, que sean capaces de proponer ideas nuevas o deducir cosa nuevas según lo que ya conocen, eso ya sería la hostia.

rojo_separatista

#59, cómo sabes que otra persona sabe que es multiplicar?

K

#84 Supongo que te refieres a entender que es multiplicar. Pues saberlo no lo sé, pero puedo tener la duda. Pero sí que sé que una IA no entiende lo que es multiplicar.
Como anécdota, existen personas que si, efectivamente no entienden lo que hacen, incluido yo mismo en algunos casos. Estudié informática y el primer año tuve un compañero que se aprendió de memoria los algoritmos de ordenación, pero jamás los entendió. Al llegar al segundo curso (con bastantes pendientes del primero) y le explicaron que íbamos a mejorar esos algoritmos le explotó la cabeza y lo dejó.
Y entono el mea culpa, he estado años haciendo integrales indefinidas sin entender (hasta hace relativamente poco) que era exactamente una integral o por que funciona hacerlas por partes, o haciendo distribuciones de Poisson sin entender un carajo

rojo_separatista

#91, chatGPT es capaz de aplicar las multiplicaciones a problemas que no ha visto antes correctamente. Tu definición no sirve para poder diferenciar por qué chatGpt no entiende que es multiplicar y los seres humanos sí.

K

#94 No has entendido lo que he dicho. chatGPT, como todas las IAs, son capaces de estimar valores con datos de entrada que jamás han visto, eso es correcto, y es lo que se espera de ellas. El problema viene cuando le metes un dato que no está dentro del rango de datos que espera. Si tú a una IA le enseñas a multiplicar solo enteros de un digito positivos, da igual que entero de un digito positivo le des y si lo ha visto antes o no, si está bien entrenada lo hará bien. Ahora preséntale un número con decimales, un número negativo, un número con 2 dígitos, y échate unas risas. A las IAs les puedes cambiar, y es mas, deberías, los datos de entrada que cumplan las mismas reglas sobre las que han sido enseñadas, da igual el valor, pero si les presentas un dato que no cumple esas reglas vete preparando.
Y te voy a poner dos ejemplos que he tenido yo con dos IAs con las que he trabajado. Una estaba entrenada para encontrar en mamográficas cáncer, y llegó a ser mejor en eso que la mayoría de los oncólogos. Aun que está IA no dependía de mi, si que su responsable me dijo que le metieron radiografías de otras partes del cuerpo y dio algunos falsos positivos. La IA esperaba mamografías, si le presentas otra cosa, sigue creyendo que es una mamografía ya que no entiende lo que en realidad es una mamografía.
Mas recientemente, estoy llevando un sistema que lee datos de miles de sensores periódicamente, y tenemos una IA entrenada para rellenar los datos de los sensores en caso de que falten. Bueno, está entrenada con un porrón de datos, desde el año 2012 a hasta hace un año. Hace un trabajo muy bueno. El caso es que esos sensores solo dan valores positivos entre 1 y 1000, y hace apenas un mes, mientras se estaba reparando un sensor, este nos dio un valor negativo y de millones. No te cuento lo que hizo la IA y lo que nos ha costado arreglarlo.

K

#92 y #94 Aquí tenéis la respuesta que me ha dado a través de bing. Si de verdad hubiera entendido que la multiplicación va de números ...

a

#84 Si bien es cierto que una red neuronal de estas no comprende nada y se limita a transformar entradas en salidas según ha aprendido que se hace, no es descartable que haya personas, perfectamente funcionales, que vivan haciendo lo mismo sin haber entendido nunca nada.

D

#59 Yo: Cuanto es 717 por 41

ChatGPT: 717 multiplicado por 41 es igual a 29,397. Por lo tanto, el resultado de la operación es 29,397.

Es posible que le hayan pasado una tabla de multiplicar inmensa como parte del entrenamiento, pero en este caso considero más probable que haya inferido las reglas de multiplicación. Aún así, con números grandes podría haber problemas debido al componente de aleatoriedad, y en operaciones complejas que requieren múltiples pasos también hay problemas.

K

#124 Efectivamente, tú y yo hubiéramos dicho: "esa pregunta no tiene sentido, no puedes multiplicar un número por una fruta". Por que entendemos que es un número y que es multiplicar. Hablas de construcción gramatical. En el ejemplo de #92 tienes los que ocurre cuando preguntas exactamente igual que yo pero con números "cuanto es 717 por 41" y lo hace bien, yo le he probado con cifras a lo loco y lo hace bien, luego el problema no está en la construcción gramatical, si no en que no entiende que mi pregunta es absurda por que no entiende que solo se pueden multiplicar números.

RamonMercader

#92 no es que las haya inferido, es que lo unico que hace es multiplicar y sumar los parametros de entrada para calcular la respuesta

D

#59 gpt empieza a ser bastante general en mi opinión. Cuando te fijas como funciona el modelo, y como representa el conocimiento, te das cuenta de que de alguna forma hay una comprensión de la semántica del lenguaje.

Yo siempre he pensado que la la inteligencia humana tiene una fuerte base en el lenguaje. Debe hecho es una de las argumentaciones de chomsky.

Dentro de sus defectos, gpt interioriza una estructura del conocimiento de los textos con los que lo alimentas. Ya desde la tokenización inicial, con los embeddings, se está representando relaciones semánticas. El modelo está entendiendo la relación entre lexemas a un nivel profundo. Y eso ser vuelve a aplicar a un nivel más general (frases). El modelo aprende a enteder la relación semántica de conceptos muy elaborados. Y eso es la hostia.

Aplicarlo a un bot conversacional que contrasta según determinado comportamiento es solo una forma de usarlo. Creo que hay conceptos alucinantes detrás. Y si no al tiempo. Este mes vienen noticias gordas.

carlosmesan

#100 qué noticias gordas? Gpt-4?

ContinuumST

#19 ¿Interacciones diarias con algún tipo de IA? No sé yo si tengo tantas. La verdad.

D

#90 si te fijas atentamente alucinaras.

ContinuumST

#95 ¿Alguna pista?

D

#96 desde la prediccion del teclado, las recomendaciones de Netflix, la recomendaciones de búsquedas, los anuncios que ves, la aspiradora robot de casa, cualquier cámara que te haya grabado y analizado, el text to speech y viceversa, el asistente de google/Alexa.., cuando llamas a tu operadora para un trámite.. Es un no parar. Y eso es lo que es evidente. Debajo de la superficie hay más. Cada día interaccionas con decenas de Ias, te des cuenta o no.

nilien

#19 ¿Me equivoco? ¿En todo, absolutamente todo lo que he dicho? ¿Me equivoco, por ejemplo, al referirme con aprobación a la autora que definió la IA como una epistemología, y no como una ciencia? ¿En base a qué?

Que tampoco me extraña lo de refutar desde un planteamiento del mundo, y de las reflexiones, en términos reduccionistas de blanco y negro, positivo y negativo, correcto e incorrecto. Porque son esos planteamientos, que no admiten matices ni sutilezas, los que están detrás del ensalzamiento acrítico de las IA, y también de las hipérboles sobre de lo que son capaces, y de lo que van a ser capaces.

A mucha gente le da todo igual y no entra en matices, no ve diferencia entre unas cosas y otras. Pero eso no significa que no la haya, ni que no sea relevante.

Eso, respecto a textos e imágenes, por ejemplo. Pero respecto a tareas más complejas. ¿Una IA puede ocuparse de todo lo que supone cuidar a un anciano? ¿Podrás hacerlo en algún momento? Porque eso es una parte importante de lo que estaba diciendo. ¿También eso está "equivocado"? ¿Cómo puede estar equivocada, de manera absoluta, una reflexión sobre un futuro, posible o imposible, que todavía no se ha realizado?

Pues eso...

D

#1 Es que el artículo no va de lo que podrá o no podrá hacer la IA en general, sino del bombo que se le está dando a los large language models. Es específico de eso.

D

#45 El artículo falla tanto, que ni siquiera sus defensores se han dado cuenta de que falta un párrafo entero, pese a que por el contexto es evidente.

D

#86 En tal caso la traducción. El artículo es bueno.

E

#1 Mira que me cae bien Chomsky, pero firmar un articulo sin haberse tomado la molestia de probar lo que propone es un poco cutre. Se tarda un minuto en comprobar si chatgpt entiende los ejemplos de los que habla.


 

aironman

#97 cutre y erróneo.

Fernando_x

#97 Primera ley de Clarke:

Cuando un científico distinguido pero de edad avanzada afirma que algo es posible, es casi seguro que tiene razón. Cuando afirma que algo es imposible, es muy probable que esté equivocado.

T

#1 No nos engañas. Ese comentario lo ha escrito una IA.

h

#29 No estás diciendo nada que contradiga mi comentario. Tanto en el artículo como en el vídeo lo explican mucho mejor que yo, pero por no ser borde voy a intentar resumirlo bajo mi punto de vista (aunque no sea mi especialidad).

Desde que la IA apareció como campo a mediados del siglo pasado, el mayor objetivo es una AGI. Por otro lado, a Chomsky y sus colegas le interesa el tema del lenguaje y de cual es su relación con el cerebro humano. Pues bien, ellos opinan (con buenos argumentos a mi parecer) que los LLM no van a ayudar a ninguna de estas dos cosas. No se meten en si va a generar negocio o qué. En este caso la inversión es en capital humano, ya que el Deep Learning está acaparando todo el interés en el gremio investigador. Puede que tú no priorices tener una AGI y entender la interacción mente-lenguaje, pero hay gente que sí lo tiene como meta.

Por otro lado tienes a Marcus. Él sí quiere generar negocio con la IA, pero dice que el camino seguido por GPT3 (y GPT4 próximamente) se encuentra o se va a encontrar con un muro, posibilidad que incluso el propio Sam Altman contempla en un artículo que salió por aquí hace no tanto tiempo (OpenAI: Planeando AGI (Inteligencia Artificial General) y más allá. "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo."

Hace 1 año | Por alafia a openai.com
-> "of course our current progress could hit a wall"), ¿por que? porque se lo huele... (en mi opinión, claro), y da sus razones, que también me parecen muy bien fundamentas. Él ve que hay mucho trabajo de ingeniería que hacer en otros campos de la IA, pero ahora mismo todo está focalizado en aprender a usar la API de ChatGPT (por ejemplo, para que me entiendas) y probar prompts a ver si dan con la tecla.

Claro que no hace falta que sea AGI para que tenga sentido y utilidad, coño, es que lo digo en mi "resumiendo". Pero así como tú crees que va a generar un negocio órdenes de magnitud mayor, hay otra gente que cree que no. Sin embargo, esto ya es un tema de inversión y economía, no tiene nada que ver con la IA. Y no está justificado, pero tampoco hace falta que lo esté para que los inversores invierta su dinero, que es a lo que se dedican, a apostar. La crítica es que la apuesta se nos ha ido de las manos... un poco.

thorin

#34 Lo que está haciendo esa página de la wikipedia es una inversión de la carga de la prueba.

Yo no debo demostrar que no es una Inteligencia Artificial, es el creador quien tienen que demostrar mediante el test Turing o lo que sea.

El objetivo último de la homeopatía es curar, ¿Es por ello medicina?
El objetivo último de la alquimia es transformar la materia ¿Es por ello química?

Sus objetivos no son prueba de nada porque la metodología es dudosa.

Chomsky hace lo mismo, señala que la metodología (Basada mayormente en estadística) es dudosa porque señala que la inteligencia funciona de manera diferente.

rojo_separatista

#41, la carga de la prueba es que cualquier programa de ajedrez te puede derrotar. Pero tu seguirás diciendo que no es inteligente porque patatas.

thorin

#93 Limitar la inteligencia a una base de datos de miles de partidas de ajedrez es absurdamente reduccionista.

Yo he ganado partidas de ajedrez usando la lógica y la deducción, no la memoria de las partidas de Karpov de 1993.
Y además, sé hacer mil cosas cosas más útiles e inútiles.
Eso es Inteligencia.

E

#107 #93

Supongo que sabéis que existe AlphaZero. Que este sí está desarrollado con redes neuronales (en esto no hay duda de que sea IA, ¿verdad?) y ha vencido a los algoritmos de ajedrez que juegan con fuerza bruta.

Acido

#41
Creo que #34 NO dijo que "a ciertas prácticas se las denomina IA porque tienen como objetivo último llegar a una inteligencia de un nivel que no sea distinguible de la inteligencia humana".

Es decir, lo que caracteriza o distingue a lo que se llama "Inteligencia Artificial" no es exactamente el objetivo último que tenga, sino que tenga características consideradas en el concepto de "inteligencia". Estas características serían aspectos como el aprendizaje (ej: Machine Learning), el resolver problemas (ej: guiarse automáticamente hasta llegar a una solución... por oposición a probar una a una millones de posibilidades hasta que encuentre una solución, lo cual se denomina "fuerza bruta" y creo que no suele considerarse inteligente). Otra característica que no suele considerarse suficiente para llamarse "inteligente" suele ser la memoria. Tener simplemente memorizados diccionarios, enciclopedias, novelas... Y recitar como un loro frases exactas copiadas de ellos NO es suficiente para considerarlo inteligente.

En los ejemplos de salud, la homeopatía no se considera "medicina", aunque tenga como objetivo la salud. Ahora bien, una persona que diagnostica y sabe cómo curar enfermedades sí creo que se le puede llamar médico de forma coloquial, aunque en sentido legal o formal estricto sólo se le debería llamar eso si tiene la titulación.
No hace falta ni que haya obtenido el Premio Nobel, ni tampoco que sea el mejor en todas las especialidades médicas: el mejor cardiólogo, el mejor traumatólogo, el mejor cirujano, el mejor dermatólogo... Con que haga algunas de las disciplinas o algunas actividades de diagnosticar y curar sería suficiente para llamarlo así.
Del mismo modo, si en lugar de ser una persona fuese una máquina la que diagnostica cuál enfermedad puede tener y según el caso recomienda un tratamiento u otro que da buenos resultados, a esa máquina podríamos llamarla "un médico artificial", ya que realizaría actividades que entran dentro del concepto que llamamos medicina o curar y no sería humano sino artificial.

c

#14 Pues yo creo que lo que dice es acertado.

Con qué no estás de acuerdo exactamente?

Señala un par de cosas

D

#58 Chomsky y otros.

thorin

#14 Teniendo en cuenta cómo ChatGPT es una caja negra, que ya ha sido modificada para dar respuestas Ad hoc (Cada Jailbreak que he probado ha sido corregido a los pocos días), ese test no es prueba de nada. Porque seguro que han leído a Chomsky ¿Quién no asegura que no se ha programado esa respuesta (de nuevo)?

Igual el turco tienen más enanos ajedrecistas dentro de lo que parece.

Tendrían que buscar un ejemplo equivalente al de Chomsky, no hacerle la misma pregunta.

Al-Khwarizmi

#67 Lo han probado no con un solo bot, sino con varios (ChatGPT, Bing, Claude...) y en el mismo día que salió el artículo de Chomsky... y de paso, en el hilo, ya buscan ejemplos equivalentes también.

thorin

#79 Chomsky lleva décadas usando esa frase cómo ejemplo desde hace más de una década:



Igual lo único que hacen es dar una respuesta a partir de textos estudiando a Chomsky.

O igual es cómo la medición de los gases en coches, que los chips detectaban cuando se hacían tests y hacían el truco.

Problemas del código cerrado.

higochungo

#14 Venía a decir lo mismo. He probado el ejemplo que Chomsky decía que fallaría:

- Yo: tengo una manzana en la mano. si abro la mano qué pasará?

- GPT: Si tienes una manzana en la mano y la abres, la manzana se caerá al suelo debido a la fuerza de la gravedad. Cuando abres la mano, reduces la fuerza de sujeción sobre la manzana y ya no puedes sostenerla en su lugar. La manzana caerá al suelo a menos que otro objeto la detenga o la atrape en el camino.

- Yo: y si estoy en una nave espacial sin gravedad?

- GPT: Si estás en una nave espacial en un entorno sin gravedad y abres la mano que sostiene una manzana, lo más probable es que la manzana flote en el aire y se mueva lentamente en la dirección en la que la empujaste al abrir la mano, debido a la inercia. En un entorno sin gravedad, no existe una fuerza constante que actúe sobre la manzana para hacerla caer, por lo que seguirá flotando hasta que otra fuerza la mueva o la detenga. La manzana y otros objetos en la nave espacial flotan libremente, sin sentir la gravedad o la fuerza de resistencia del aire.

Y no, no falla. Y este es GPT-3.5. El 4 ya tal...

#4 Eso es como decir que como ahora mismo no somos capaces de llegar a otras galaxias, a la exploración espacial mejor llamarla de otra manera

#21 Tú estás confundiendo inteligencia artificial, término que te puede gustar más o menos (como le pasa al señor Chomsky con su pataleta) pero que se usa para describir aquellos sistemas con capacidades predictivas y generativas más avanzadas usando aprendizaje automático, con inteligencia artificial general, que sería otro paso más en el que la máquina adquiera una capacidad de raciocinio similar a la mente humana. Obviamente estamos muy lejos de este último punto y no creo que nadie que entienda un poco de qué va esto ponga a ChatGPT como ejemplo de este tipo de inteligencia artificial o como ante sala a ella. Y Chomsky de lo que precisamente está hablando es de este último tipo de inteligencia. Así que por seguir el símil, estamos hablando de exploración espacial y no de viajes interdimensionales.

Por otro lado no sé porque se pone a desprestigiar como pseudociencia la capacidad de predicción de algunos modelos que se usan más en el ámbito de las ciencias, cuando la capacidad de aprendizaje suele estar justificada por todo un desarrollo matemático que se nos atraganta al 99 por ciento de la población. Supongo que lo estará diciendo por el modelo de Google, AlphaFold, que es capaz de predecir el plegamiento de proteínas. Seguro que a la física nuclear también le llamará pseudociencia, porque el modelo de estructura nuclear está basado en meras suposiciones amparadas por datos experimentales, siendo varios los términos correctores que están ahí para simplemente justificar los datos experimentales. De Kepler mejor ni hablamos, que debería haber ardido en la hoguera por intentar explicar el movimiento de los planetas por simple geometría. O le podemos dar la vuelta a su razonamiento y negar directamente el movimiento del péndulo simple porque su ecuación no tiene resolución analítica. A lo mejor lo primero que habría que tener bien clara es la definición de ciencia y cómo ésta se construye y luego ya si eso podemos aventurarnos a criticar la inteligencia artificial

Fernando_x

#4 Es que sí lo es. Es la definición de lo que es la ciencia de la inteligencia artificial

thorin

#12 [citation needed]

thorin

#43 Russell y Norvig definen =|= La ciencia define

Ya se ve en la Wikipedia inglesa cómo todavía no hay consenso: https://en.wikipedia.org/wiki/Artificial_intelligence#Defining_artificial_intelligence

Al-Khwarizmi

#4 Te recomiendo la lectura de esta página de la Wikipedia para que revises tu definición de inteligencia artificial: https://es.wikipedia.org/wiki/Efecto_IA

D

#17 Efectivamente, incluso un programa para jugar al Go es Inteligencia Artificial.

https://en.wikipedia.org/wiki/AlphaGo

thorin

#17 Según ese argumento, cualquier cosa que no supere un test Turing puede ser Inteligencia Artificial.

Macnamara

#27 El Test de Turing es una prueba diseñada para evaluar si una máquina puede exhibir un comportamiento inteligente similar al de un ser humano. El objetivo de la prueba es determinar si un observador humano puede distinguir entre las respuestas de una máquina y las respuestas de un ser humano.

Aunque el Test de Turing es una prueba importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial. Hay muchas otras formas de definir y medir la inteligencia artificial, incluyendo la capacidad de aprendizaje automático, el procesamiento del lenguaje natural, la toma de decisiones y la resolución de problemas.

Además, aunque una máquina que supere el Test de Turing se consideraría una forma de inteligencia artificial, no significa necesariamente que esa máquina tenga una inteligencia o conciencia similar a la de los seres humanos. La capacidad de una máquina para superar el Test de Turing se basa en su capacidad para simular comportamientos humanos, pero no necesariamente en su capacidad para comprender el mundo de la misma manera que lo hacen los seres humanos.

En resumen, si bien superar el Test de Turing es una medida importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial y no necesariamente implica una comprensión completa del mundo y una conciencia similar a la de los seres humanos.

thorin

#54 El Test de Turing sirve para señalar que un sistema de Inteligencia Artificial tiene que ser complejo.

Y a mí me sirve para señalar que la página de la wikipedia que me han presentado es una memez, porque según esa falacia un algoritmo de esos que ponen en los móviles para sacar mejores fotos (Si, esos que anuncian cómo IA) es IA. Cuando solo es un algoritmo. Complejo, pero un algoritmo años luz de incluso ChatGPT 1.0.

Macnamara

#60 ¿Machine learning no es AI?

thorin

#64 Nadie me ha demostrado que lo sea.

Acido

#71
¿Y cuál sería el criterio para distinguir, según tú, si algo es Inteligencia Artificial o si no lo es?

Acido

#54
Ese comentario me dio la sensación de haber sido generado por una Inteligencia Artificial. lol
(También podría ser un humano troleando, imitando la forma de expresarse de la IA, o podrían ser imaginaciones mías)

Pericoelcruel

#4 Bueno, creo que la Scifi de Asimov no es hoy por hoy un buen ejemplo de lo que será la robótica del futuro, lo de las tres reglas es una visión heurística que no tiene nada que ver con lo que serán las IA en el futuro.

Los predictores de texto como ChatGPT son inteligencia artifical, no confundir con lo que familiarmente llamamos inteligencia.

thorin

#37 Lo de las 3 reglas es una propuesta novelística al problema de la Inteligencia Artificial, no una propuesta científica.

Inteligencia Artificial será cuando sean autónomas y tengan sentido crítico.

Pericoelcruel

#46 "Inteligencia Artificial será cuando sean autónomas y tengan sentido crítico." Intgeligencia artificial es un término informático, thorin, no tiene nada que ver con lo que entendemos por inteligencia a nivel de calle. Nadie está diciendo que tiene inteligencia como la nuestra, de hecho los problemas que intenta resolver ChatGpt o cualquier otro sistema que se ha puesto muy de moda en el arte o la música, no es ser inteligente como entendemos, es resolver ciertos problemas que con programación clásica son irresolubles.

El artículo de Chomsky es irrelevante, no está diciendo nada que no se sepa, en el sentido de que ChatGpt es solo un predictor de texto, solo eso, muy cañero como predictor, sí, pero un predictor.

senador

#37 Interesante, aunque no sé si he entendido correctamente el segundo párrafo...

rojo_separatista

#4, qué es la inteligencia? Para mi un programa capaz de jugar al ajedrez mediante fuerza bruta mejor que el campeón del mundo es inteligente, la verdad. No se dónde está escrito que la inteligencia y la conciencia o la intuición tienen que ir de la mano, la verdad.


ChatGPT, con sus fallos es capaz de hacer la mayoría de cosas mejor que la media de los humanos.

guaperas

#4 Chomsky está dolido porque sabe que lo que lleva defendiendo toda su vida frente a la versión evolutiva del aprendizaje del lenguaje de conductismo vuelve a estar en entredicho porque la inteligencia artificial ha aprendido a hablar y razonar con algoritmos evolutivos.

Por mucho que digan que "no una máquina no puede razonar" solo los humanos pueden razonar!!!! y cada vez se sacan mas ases de la manga, que si solo los humanos pueden, que si no tiene moral, que si no tiene cultura...... chatGPT ya hace lo que antes era razonar, y se puede programar para pasar la prueba de Turing en vez de decirte que es una inteligencia artificial.

El pobre de Chomsky que le llegue esto a su edad......

c

#18 Excelente uso de ChatGPT para estructurar una falacia ad-hominem
Felicidades

alexwing

#50 puede ser, pero a Chomsky le ha tenido que sentar como una patada en los huevos estás IAs, no es el primer artículo que escribe en este sentido. Sino tuviera resquemor estaría contento de estos avance es más, dispuesto a entender como han alcanzado algo que sus modelos ni siquiera han soñado.

D

A mi juicio los redactores del artículo pecan de soberbia. Algunas de las explicaciones que dan son muy cuestionables. Además la traducción tiene fallos, como el uso de palabras inventadas o muy poco usadas, y la desaparición de párrafos enteros que hace que las respuestas de ChatGPT parezcan confusas.
Me parece a mí que si la autoridad más conocida en materia de lingüística es incapaz de formular una crítica comprensible a los LLM, quizás es que desde ese ámbito no hay tanto que criticar.

d

Completamente de acuerdo con Chomsky, son estupendas herramientas pero:

- No son capaces de resolver juegos tontos de lógica, ya que no poseen un modelo interno lógico que permita (eso en IA que llamamos meta-aprendizaje) y sin esa parte yo creo que llega a su límite pronto. Y en ese punto es en el que incide Chomsky, él lo comenta por la parte del lenguaje, pero no es solo en ese punto.
- No son de fiar, puesto que su prioridad es sonar razonables, aunque te mientan en la cara (ya he visto compañeros investigadores a los que les han pedido papers que no han escrito porque el ChatGPT se los ha inventado, o inventarse librerías inexistentes para programar). Y eso no me parece correcto, debería de estar más claro ya que habrá usuarios que no lo sepa. Yo espero que creen modelos aprendidos únicamente de fuentes algo más fiables para poder usarlo de forma segura (y a poder ser disponibles de verdad, como Stable Diffusion).

sorrillo

#69 Hay humanos dedicando tiempo a crear máquinas de movimiento perpetuo, eso no permite concluir que los humanos no pueden distinguir lo posible de lo imposible.

Simplemente hay variedad suficiente para que haya de todo.

sorrillo

#61 De forma equiparable a como pueden hacerlo los humanos, sí.

Por eso cuando le pides que te escriba un script que haga algo por lo general ese código no contiene peticiones imposibles al sistema ni a la realidad, en ocasiones puede ocurrir, se le hace notar el error, se disculpa y lo corrige.

c

#65 De forma equiparable a como pueden hacerlo los humanos, sí.

Pues hay extractos de conversaciones que demuestran que no...

Ya buscaré alguna.

Mariele

Estas reflexiones me huelen a antropocentrismo desbocado y creo que van a envejecer muy mal. Yo leo a diario textos escritos por seres humanos de los que se les supone leídos y con dos dedos de frente. A menudo están plagados de errores conceptuales. Se me hace cada vez más dificil saber si están escritos por un ser humano o por GPT3. Veo muy claro que lo que tenemos hoy ya es una revolución de tres pares de cojones comparable a revolución que supuso la invención de los buscadores de internet y el acceso universal al mismo. A mi parecer, el negar que eso va a cambiar radicalmente muchos comportamientos humanos incluída la educación, la forma de trabajar y hasta las relaciones interpersonales es, una de dos, no querer verlo, o no entenderlo. A los románticos humanistas esto les va a costar de tragar, no lo dudo. La cuestión no es que estos algoritmos sean muy humanos o no, sinó que los humanos somos más predecibles y más mecánicos de lo que a muchos les gustaría.

c

#20 Me parece que tu razonamiento hace aguas.

En lugar de hablar del olor de las nubes, que te parece erróneo en la exposición de Chomski?

#20 me quedo con lo último que has dicho. Tengo serias dudas de que los humanos seamos capaces de crear una IA capaz de mejorarse a sí misma (o de crear otra mejor / más inteligente, que viene a ser lo mismo, siempre y cuando no adquieran ese instinto de supervivencia humano). Ahí excluyó los casos de IA específica diseñada para una sola tarea.

Pero sí que me queda claro que casi todos los análisis en contra de la evolución de la Ia IA estan sesgadísimos; muy antropocéntricos, y usando aún conceptos equivalentes, pero más modernos, a el alma o espíritu de hace siglos.

Debe quedar claro que si no conseguimos llegar a una AGI, sería porque no somos lo suficientemente inteligentes, y no porque crear una AGI sea físicamente imposible.

D

#20 a mi me pasa al revés, me cuesta poco esfuerzo detectar una gepetada.

a

Yo creo, que con el tema de la inteligencia artificial, solo están vendiendo humo.

Ka0

#98 Sí, aparenta más de lo que realmente es, pero importa poco su potencial actual, ya se ha encendido la chispa, ahora mismo, añadimos una parte de la IA y la otra parte de una inteligencia humana y en nada han aparecido un sinfín de aplicaciones inimaginables hace un par de años.
Esto será un sinvivir. Una cosa sí tengo muy clara: No puede haber inteligencia artificial independiente del humano.

Metabron

Es triste decirlo pero CharGPT con todos sus errores tiene un nivel de razonamiento y moral bastante superior al del español medio y a la mayoría de sus políticos. Por mi que nos gobierne el algoritmo.

Vegonthe

Las limitaciones de un lenguaje nuevo y el encantamiento de la gente ante la novedad , no significan que no tengan valor como un añadido a una realidad cambiante o que la gente sea idiota por dejarse encandilar.

sorrillo

#56 Pues el tochaco dice cosas interesantes que no se parecen en nada a hacer una selección de líneas interesada.

Cita lo que te parezca interesante y quizá creas que no compartiría y lo comentamos.

c

#57 Bueno, podemos comentar algo de lo que ya leíste...

¿Crees que ChatGPT es capaz de diferenciar lo posible de lo imposible ?

D

Es tan fácil como que los que han escrito el artículo hubieran puesto las capturas de pantalla de ese ejemplo. Si no lo han hecho, igual es por algo. De todas formas, el ejemplo es tan simplón que me extrañaría mucho que la versión de ChatGPT de noviembre pasado lo fallara.

D

¿A qué te refieres con "sentido crítico"?

c

Interesante, como cualquier opinión de chomski.

Me gustaría saber qué opinasorrillosorrillo sobre el tema...lol

sorrillo

#39 Paso de leer el tochaco, entre líneas he visto esto:

Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a los que tienen un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad. Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Sólo negocian con probabilidades que cambian con el tiempo.

Es charlatanería barata. Está hablando del alma aunque no la cite, está diciendo que nosotros tenemos una característica que nos hace especiales y que ChatGPT (y versiones posteriores) no pueden tenerla. Típico discurso en el que se basan las religiones.

Si hay algo en el artículo que tenga más sustancia que lo que he citado indícalo y lo comentamos.

c

#47 Pues el tochaco dice cosas interesantes que no se parecen en nada a hacer una selección de líneas interesada.

Y no. No está hablando del alma, aunque sea tu obsesión. Y si te parece charlatanería, podrás rebatirlo sin problemas. Puedes usar chatGPT para ello....lol

Y desde luego si alguien sabe de lo que habla cuando se trata de lenguaje es Chomski

j

#47 no es charlatanería barata. Una IA con la misma facilidad te puede responder buenos días en chino mandarían que en una base de 1 y 0 o que con jeroglíficos egipcios.

En cuanto a la racionalidad, basta con observar y experimentar por ti mismo de diversas formas para saber que la tierra es redonda. La ia no hará eso, se basa en fuentes en las que busca valores estadísticos para determinar la respuesta, por lo que puede decir que la tierra es plana, hueca, triangular y que está sobre una tortuga gigante o que la luna está hecha de queso.

Teniendo en cuenta que un 30% de la población mundial practica el cristianismo, una ia podría optar por negar la evolución de las especies y decir que el ser humano nació del barro, ya que estadísticamente podría ser la respuesta con el valor más alto.

sorrillo

#70 En cuanto a la racionalidad, basta con observar y experimentar por ti mismo de diversas formas para saber que la tierra es redonda. La ia no hará eso

Hay muchos humanos que no experimentarán para saber si la tierra es redonda, algunos incluso afirmarán que no lo es. Si existen humanos con esas características no veo por qué debemos exigir a la IA que no actúe nunca de esa forma.

A todo ello existen las religiones, en las cuales el ser humano con sus observaciones y experimentaciones aún tiene una ingente cantidad de población que sufre de esos delirios constantemente.

A la IA la entrenamos para que se parezca lo más posible a los humanos en sus respuestas, eso incluye lo anterior. Si pretendemos exigirle la perfección estamos haciendo una comparación deshonesta.

D

#47 Bingo! Sus proposiciones no son falsables, no se pueden comprobar. Ese hombre es un brujo moderno.

D

#39 Es un artículo firmado por Chomsky entre otros autores.

j

Durante muchos años facebook, twitter y otras redes sociales han filtrado la realidad para mucha gente, lo cual no era nuevo, ya que en todos los países parecía que algo sólo pasaba si lo contaban los principales medios.

¿Qué fue de la España de ABC y El país?, dos prismas de la realidad, dos maneras de contar lo que pasa, dando el foco a unos temas sobre otros, así como obviando una gran parte.

Pues las IAs como chatgpt están haciendo eso mismo. Filtran la información existente y generan respuestas adaptándose a lo que hay en internet. ¿Qué pasa si una fuente errónea gana prioridad sobre otra fidedigna? La IA dará información incorrecta, será inútil hasta que el revisor humano detecte el error y alguien lo corrija, probablemente un programador humano. Para algunas personas chatgpt será marxista y para otra puede que facha. ¿Aceptará alguien de derechas que se llame inteligencia artificial a algo que genere información que no sea de su cuerda?

Pese a que el foco está en chatgpt, hay muchos tipos de IAs que están ayudando en muchos campos. Optimizar procesos, encontrar patrones y realizar predicciones en base a modelos son algunas tareas en las que una IA puede ayudar a la humanidad.

Ahora mismo hay dos límites claros que delimitan las capacidades de una IA: las fuentes de datos y la capacidad de procesamiento.

En cuanto a los trabajos "básicos", como cuidar de ancianos o limpiar en residencias, dudo mucho que se pueda encomendar dichas tareas a una IA. Hay demasiadas cosas a tener en cuenta. ¿Cómo funcionaría chatgpt en modo voz con alguien con demencia?, ¿cómo funcionaría un robot con IA en una situación que requiere el uso de la fuerza porque un residente se pone agresivo?, ¿y cómo detectaría una mentira como decir que ya ha tomado una medicación o que no la ha tomado todavía?

Pericoelcruel

Se habría ahorrado un porrón de texto diciendo, "ChapGPT es un predictor de texto", y ya está, lo sabemos todos, es divertido, es útil en algunos aspectos, inspirador, y ya.

D

Primera vez que leo a Chomsky hablando sobre algo relacionado con su campo del saber. Imagino que se habrá dado un golpe en la cabeza y cuando se le pase, volverá a hablar del anticapitalismo hasta el fin de sus días, como viene siendo su tónica habitual.

Por otra parte, su teoría es muy buena. Por qué no prueba a codificarla y se comprueba si es cierta o no? Que pasa, que no es falsable? Si no se puede comprobar, no es ciencia, es ideología... Mmmm

d

#31 A ver, escribe mucho sobre su campo del saber, acabo de consultar, y tiene 193 documentos en revistas científicas, otra cosa es que los que no trabajemos en esos campos no lo leamos. Sobre su teoría, ¿cómo codificas una teoría sobre el aprendizaje humano del lenguaje? Si sabes hacerlo, avisa.

1 2 3