Hace 1 año | Por Ka0 a hypernoir.com
Publicado hace 1 año por Ka0 a hypernoir.com

Hoy en día, nuestros avances supuestamente revolucionarios en inteligencia artificial son, de hecho, motivo tanto de preocupación como de optimismo. Optimismo porque la inteligencia es el medio por el que resolvemos los problemas. Preocupación porque tememos que la variedad más popular y de moda de la Inteligencia Artificial -el aprendizaje automático- degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y del conocimiento.

Comentarios

Ferran

#15 “Quién es M.Rajoy” ChatGPT, ¿Quién es M.Rajoy?

“Escribe una carta a mi pareja diciendole que me siento mal por sus celos excesivos”

“Escribe una carta a mi comunidad de vecinos por los ruidos molestos de las cañerías”.

“Escribe una carta al ayuntamiento quejandote del estado del pavimiento de mi calle”

“Escribe una carta entusiasta a mis empleados invitandoles a un fin de semana a toledo y propon un itinerario de viernes a domingo”

Etc

#4 Eso es como decir que como ahora mismo no somos capaces de llegar a otras galaxias, a la exploración espacial mejor llamarla de otra manera

LostWords

#15 Pregúntale a Google cosas como "dime cual debería ser mi facturación mensual como autonomo para que se equipare al salario percibido como empleado". Esta fue una duda que me plantearon hace un tiempo y chatGPT me ha dado una buena respuesta. En Google ha sido un largo listado de webs que tenía que revisar una a una y ninguna me daba lo que buscaba. Se acercaba pero no era tan claro y directo como con chatGPT
#11

sivious

#8 Por ejemplo, a mi me ayuda MUCHO a prepararme reuniones, para sacarme guiones de documentación y para explicarme cosas, alguna vez lo he usado para que me resumiera textos bastante largos. No se, la verdad es que a mi me ha ayudado basatnte.

navi2000

#15 Mira, algo muy concreto: yo no soy abogado, pero leo muchos edictos judiciales y notas simples. Hasta ahora, descifrar uno de estos documentos era media hora de trabajo, ahora le pido a chatGPT un resumen y le hago preguntas directas y lo tengo solucionado en 2 minutos

sorrillo

#39 Paso de leer el tochaco, entre líneas he visto esto:

Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a los que tienen un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad. Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Sólo negocian con probabilidades que cambian con el tiempo.

Es charlatanería barata. Está hablando del alma aunque no la cite, está diciendo que nosotros tenemos una característica que nos hace especiales y que ChatGPT (y versiones posteriores) no pueden tenerla. Típico discurso en el que se basan las religiones.

Si hay algo en el artículo que tenga más sustancia que lo que he citado indícalo y lo comentamos.

E

#1 Mira que me cae bien Chomsky, pero firmar un articulo sin haberse tomado la molestia de probar lo que propone es un poco cutre. Se tarda un minuto en comprobar si chatgpt entiende los ejemplos de los que habla.


 

Fernando_x

#4 Es que sí lo es. Es la definición de lo que es la ciencia de la inteligencia artificial

Al-Khwarizmi

#4 Te recomiendo la lectura de esta página de la Wikipedia para que revises tu definición de inteligencia artificial: https://es.wikipedia.org/wiki/Efecto_IA

D

A mi juicio los redactores del artículo pecan de soberbia. Algunas de las explicaciones que dan son muy cuestionables. Además la traducción tiene fallos, como el uso de palabras inventadas o muy poco usadas, y la desaparición de párrafos enteros que hace que las respuestas de ChatGPT parezcan confusas.
Me parece a mí que si la autoridad más conocida en materia de lingüística es incapaz de formular una crítica comprensible a los LLM, quizás es que desde ese ámbito no hay tanto que criticar.

alexwing

#50 puede ser, pero a Chomsky le ha tenido que sentar como una patada en los huevos estás IAs, no es el primer artículo que escribe en este sentido. Sino tuviera resquemor estaría contento de estos avance es más, dispuesto a entender como han alcanzado algo que sus modelos ni siquiera han soñado.

d

Completamente de acuerdo con Chomsky, son estupendas herramientas pero:

- No son capaces de resolver juegos tontos de lógica, ya que no poseen un modelo interno lógico que permita (eso en IA que llamamos meta-aprendizaje) y sin esa parte yo creo que llega a su límite pronto. Y en ese punto es en el que incide Chomsky, él lo comenta por la parte del lenguaje, pero no es solo en ese punto.
- No son de fiar, puesto que su prioridad es sonar razonables, aunque te mientan en la cara (ya he visto compañeros investigadores a los que les han pedido papers que no han escrito porque el ChatGPT se los ha inventado, o inventarse librerías inexistentes para programar). Y eso no me parece correcto, debería de estar más claro ya que habrá usuarios que no lo sepa. Yo espero que creen modelos aprendidos únicamente de fuentes algo más fiables para poder usarlo de forma segura (y a poder ser disponibles de verdad, como Stable Diffusion).

nilien

#5 Sí, en todos los que no son tan esenciales como nos quieren hacer creer, tal y como se comprobó durante el confinamiento...

nemesisreptante

#3 Exactamente que cosas útiles hace? porque a parte de trabajos para escolares yo aún no le pillo la gracia

Molari

#55 el tema es si te puedes fiar de la respuesta, pero es muy convincente. He comprobado con temas que domino bien que a veces se inventa las cosas, pero te convence.

Fernando_x

#62 Claro, por eso si es un tema que no conoces, luego que tienes una respuesta, toca verificarla. Comprobarla luego en google es mucho más sencillo que intentar buscar una respuesta sobre algo que no conoces desde cero.

A mí también en temas de física me lo ha hecho. Y cuando le digo que está usando una ecuación incorrecta, es capaz de decirme que no, que la suya es más general y que la que yo le digo solo sirve para casos particulares, cuando es completamente falso.

Pero por ejemplo en temas más sencillos, si le pido una explicación sobre la fauna y flora del ecosistema del bosque mediterráneo, me da una respuesta excelente. Y por ahora, es eso para lo que sirve.

Fernando_x

#8 Resolver consultas, que es para lo que ha sido diseñada. Recientemente por ejemplo, me ha resuelto varias dudas que era incapaz de encontrar solución en Google.

Pericoelcruel

#4 Bueno, creo que la Scifi de Asimov no es hoy por hoy un buen ejemplo de lo que será la robótica del futuro, lo de las tres reglas es una visión heurística que no tiene nada que ver con lo que serán las IA en el futuro.

Los predictores de texto como ChatGPT son inteligencia artifical, no confundir con lo que familiarmente llamamos inteligencia.

Al-Khwarizmi

#67 Lo han probado no con un solo bot, sino con varios (ChatGPT, Bing, Claude...) y en el mismo día que salió el artículo de Chomsky... y de paso, en el hilo, ya buscan ejemplos equivalentes también.

sorrillo

#61 De forma equiparable a como pueden hacerlo los humanos, sí.

Por eso cuando le pides que te escriba un script que haga algo por lo general ese código no contiene peticiones imposibles al sistema ni a la realidad, en ocasiones puede ocurrir, se le hace notar el error, se disculpa y lo corrige.

sorrillo

#69 Hay humanos dedicando tiempo a crear máquinas de movimiento perpetuo, eso no permite concluir que los humanos no pueden distinguir lo posible de lo imposible.

Simplemente hay variedad suficiente para que haya de todo.

rojo_separatista

#91, chatGPT es capaz de aplicar las multiplicaciones a problemas que no ha visto antes correctamente. Tu definición no sirve para poder diferenciar por qué chatGpt no entiende que es multiplicar y los seres humanos sí.

ContinuumST

#19 ¿Interacciones diarias con algún tipo de IA? No sé yo si tengo tantas. La verdad.

Mariele

Estas reflexiones me huelen a antropocentrismo desbocado y creo que van a envejecer muy mal. Yo leo a diario textos escritos por seres humanos de los que se les supone leídos y con dos dedos de frente. A menudo están plagados de errores conceptuales. Se me hace cada vez más dificil saber si están escritos por un ser humano o por GPT3. Veo muy claro que lo que tenemos hoy ya es una revolución de tres pares de cojones comparable a revolución que supuso la invención de los buscadores de internet y el acceso universal al mismo. A mi parecer, el negar que eso va a cambiar radicalmente muchos comportamientos humanos incluída la educación, la forma de trabajar y hasta las relaciones interpersonales es, una de dos, no querer verlo, o no entenderlo. A los románticos humanistas esto les va a costar de tragar, no lo dudo. La cuestión no es que estos algoritmos sean muy humanos o no, sinó que los humanos somos más predecibles y más mecánicos de lo que a muchos les gustaría.

Macnamara

#27 El Test de Turing es una prueba diseñada para evaluar si una máquina puede exhibir un comportamiento inteligente similar al de un ser humano. El objetivo de la prueba es determinar si un observador humano puede distinguir entre las respuestas de una máquina y las respuestas de un ser humano.

Aunque el Test de Turing es una prueba importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial. Hay muchas otras formas de definir y medir la inteligencia artificial, incluyendo la capacidad de aprendizaje automático, el procesamiento del lenguaje natural, la toma de decisiones y la resolución de problemas.

Además, aunque una máquina que supere el Test de Turing se consideraría una forma de inteligencia artificial, no significa necesariamente que esa máquina tenga una inteligencia o conciencia similar a la de los seres humanos. La capacidad de una máquina para superar el Test de Turing se basa en su capacidad para simular comportamientos humanos, pero no necesariamente en su capacidad para comprender el mundo de la misma manera que lo hacen los seres humanos.

En resumen, si bien superar el Test de Turing es una medida importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial y no necesariamente implica una comprensión completa del mundo y una conciencia similar a la de los seres humanos.

a

Yo creo, que con el tema de la inteligencia artificial, solo están vendiendo humo.

guaperas

#4 Chomsky está dolido porque sabe que lo que lleva defendiendo toda su vida frente a la versión evolutiva del aprendizaje del lenguaje de conductismo vuelve a estar en entredicho porque la inteligencia artificial ha aprendido a hablar y razonar con algoritmos evolutivos.

Por mucho que digan que "no una máquina no puede razonar" solo los humanos pueden razonar!!!! y cada vez se sacan mas ases de la manga, que si solo los humanos pueden, que si no tiene moral, que si no tiene cultura...... chatGPT ya hace lo que antes era razonar, y se puede programar para pasar la prueba de Turing en vez de decirte que es una inteligencia artificial.

El pobre de Chomsky que le llegue esto a su edad......

higochungo

#14 Venía a decir lo mismo. He probado el ejemplo que Chomsky decía que fallaría:

- Yo: tengo una manzana en la mano. si abro la mano qué pasará?

- GPT: Si tienes una manzana en la mano y la abres, la manzana se caerá al suelo debido a la fuerza de la gravedad. Cuando abres la mano, reduces la fuerza de sujeción sobre la manzana y ya no puedes sostenerla en su lugar. La manzana caerá al suelo a menos que otro objeto la detenga o la atrape en el camino.

- Yo: y si estoy en una nave espacial sin gravedad?

- GPT: Si estás en una nave espacial en un entorno sin gravedad y abres la mano que sostiene una manzana, lo más probable es que la manzana flote en el aire y se mueva lentamente en la dirección en la que la empujaste al abrir la mano, debido a la inercia. En un entorno sin gravedad, no existe una fuerza constante que actúe sobre la manzana para hacerla caer, por lo que seguirá flotando hasta que otra fuerza la mueva o la detenga. La manzana y otros objetos en la nave espacial flotan libremente, sin sentir la gravedad o la fuerza de resistencia del aire.

Y no, no falla. Y este es GPT-3.5. El 4 ya tal...

rojo_separatista

#4, qué es la inteligencia? Para mi un programa capaz de jugar al ajedrez mediante fuerza bruta mejor que el campeón del mundo es inteligente, la verdad. No se dónde está escrito que la inteligencia y la conciencia o la intuición tienen que ir de la mano, la verdad.


ChatGPT, con sus fallos es capaz de hacer la mayoría de cosas mejor que la media de los humanos.

j

#11 si tuvieras acceso a las mismas fuentes que chatgpt podrías obtener la misma información sin que la ia la filtre para ti.

Si todos los libros y publicaciones de física estuvieran digitalizados y se pudiera buscar por cadenas de texto de forma ágil, eso sí sería muy útil para toda la humanidad, no sólo para una ia. El día que se auditen las fuentes de datos que utilicen las ias, habrá buenas multas por infracción de copyright.

Google se descarga copias de internet y hace búsquedas en dichas copias. Así que si un libro con la información que buscas está en las fuentes de chatgpt pero no en internet, ahí tienes tu respuesta.

samsaga2

#11 Todas las veces que lo he usado para resolver dudas se ha inventado la mitad de la respuesta. He decir que era todo cosas bastante técnicas. No es capaz de decir no lo sé.

thorin

#34 Lo que está haciendo esa página de la wikipedia es una inversión de la carga de la prueba.

Yo no debo demostrar que no es una Inteligencia Artificial, es el creador quien tienen que demostrar mediante el test Turing o lo que sea.

El objetivo último de la homeopatía es curar, ¿Es por ello medicina?
El objetivo último de la alquimia es transformar la materia ¿Es por ello química?

Sus objetivos no son prueba de nada porque la metodología es dudosa.

Chomsky hace lo mismo, señala que la metodología (Basada mayormente en estadística) es dudosa porque señala que la inteligencia funciona de manera diferente.

thorin

#37 Lo de las 3 reglas es una propuesta novelística al problema de la Inteligencia Artificial, no una propuesta científica.

Inteligencia Artificial será cuando sean autónomas y tengan sentido crítico.

thorin

#54 El Test de Turing sirve para señalar que un sistema de Inteligencia Artificial tiene que ser complejo.

Y a mí me sirve para señalar que la página de la wikipedia que me han presentado es una memez, porque según esa falacia un algoritmo de esos que ponen en los móviles para sacar mejores fotos (Si, esos que anuncian cómo IA) es IA. Cuando solo es un algoritmo. Complejo, pero un algoritmo años luz de incluso ChatGPT 1.0.

aironman

#8 va a dejar obsoleto al buscador de webs.

nemesisreptante

#11 me encantaría algún ejemplo de verdad porque todo lo que veo por ahí son cosas que resuelves con google precisamente

D

#17 Efectivamente, incluso un programa para jugar al Go es Inteligencia Artificial.

https://en.wikipedia.org/wiki/AlphaGo

Fernando_x

#15 Dudas muy concretas. Por ejemplo, el origen de los elefantes que usó Aníbal en su campaña europea. Otra, el nombre de una serie de animación francesa de los 80, sobre un niño de origen español que viajaba a América y había tecnología futurista de una civilización perdida.

elmike

#13 Creo lo mismo, Ahora le puedes preguntar al famoso chat por los acordes de tal canción y te los muestra, dentro de poco no veo descabellado que a la respuesta añada algo como: "Ademas sabes que para grabar esta canción se usó un amplificador "Acme Sound Terror 150" como el que ahora mismo esta de oferta a solo 499eu en esta web."

D

#58 Chomsky y otros.

rojo_separatista

#152, lo se, es una red neuronal entrenada por refuerzo, mucho más potente que los algoritmos de fuerza bruta. Pero quería llevarlo a un ejemplo todavía más absurdo.

PD: no esperes que te admitan que AlphaZero es inteligente. Haga lo que haga te dirán que no lo es. No importa lo que pueda hacer o las pruebas que aportes, se trata de una cuestión de fe.

E

#156 Pues sí, yo pienso como tú, creo. Me parece que te he leído alguna vez decir que muchos nos creemos especiales, que nuestra inteligencia es otra cosa (casi divina, pensarán algunos), y en no demasiados años creo que nos vamos a llevar un chasco.

rojo_separatista

#185, en realidad compadezco un poco a los que están en el equipo que se encarga de negar que cualquier cosa que haga una IA pueda ser algo inteligente, porque los malabares que tendrán que hacer para seguir diciendo que los seres humanos todavía somos "especialitos" serán cada vez más rocambolescos.

c

#14 Pues yo creo que lo que dice es acertado.

Con qué no estás de acuerdo exactamente?

Señala un par de cosas

Metabron

Es triste decirlo pero CharGPT con todos sus errores tiene un nivel de razonamiento y moral bastante superior al del español medio y a la mayoría de sus políticos. Por mi que nos gobierne el algoritmo.

Macnamara

#114 GPT3, ¿puedes decirme si este texto lo has generado tú con un porcentaje estimado de probabilidad?
Sí, confirmo que generé este texto con un alto grado de probabilidad. Es importante tener en cuenta que como modelo de lenguaje, mi objetivo es producir textos coherentes y relevantes basados en patrones y datos lingüísticos previamente aprendidos.

Acido

#41
Creo que #34 NO dijo que "a ciertas prácticas se las denomina IA porque tienen como objetivo último llegar a una inteligencia de un nivel que no sea distinguible de la inteligencia humana".

Es decir, lo que caracteriza o distingue a lo que se llama "Inteligencia Artificial" no es exactamente el objetivo último que tenga, sino que tenga características consideradas en el concepto de "inteligencia". Estas características serían aspectos como el aprendizaje (ej: Machine Learning), el resolver problemas (ej: guiarse automáticamente hasta llegar a una solución... por oposición a probar una a una millones de posibilidades hasta que encuentre una solución, lo cual se denomina "fuerza bruta" y creo que no suele considerarse inteligente). Otra característica que no suele considerarse suficiente para llamarse "inteligente" suele ser la memoria. Tener simplemente memorizados diccionarios, enciclopedias, novelas... Y recitar como un loro frases exactas copiadas de ellos NO es suficiente para considerarlo inteligente.

En los ejemplos de salud, la homeopatía no se considera "medicina", aunque tenga como objetivo la salud. Ahora bien, una persona que diagnostica y sabe cómo curar enfermedades sí creo que se le puede llamar médico de forma coloquial, aunque en sentido legal o formal estricto sólo se le debería llamar eso si tiene la titulación.
No hace falta ni que haya obtenido el Premio Nobel, ni tampoco que sea el mejor en todas las especialidades médicas: el mejor cardiólogo, el mejor traumatólogo, el mejor cirujano, el mejor dermatólogo... Con que haga algunas de las disciplinas o algunas actividades de diagnosticar y curar sería suficiente para llamarlo así.
Del mismo modo, si en lugar de ser una persona fuese una máquina la que diagnostica cuál enfermedad puede tener y según el caso recomienda un tratamiento u otro que da buenos resultados, a esa máquina podríamos llamarla "un médico artificial", ya que realizaría actividades que entran dentro del concepto que llamamos medicina o curar y no sería humano sino artificial.

c

#18 Excelente uso de ChatGPT para estructurar una falacia ad-hominem
Felicidades

j

#47 no es charlatanería barata. Una IA con la misma facilidad te puede responder buenos días en chino mandarían que en una base de 1 y 0 o que con jeroglíficos egipcios.

En cuanto a la racionalidad, basta con observar y experimentar por ti mismo de diversas formas para saber que la tierra es redonda. La ia no hará eso, se basa en fuentes en las que busca valores estadísticos para determinar la respuesta, por lo que puede decir que la tierra es plana, hueca, triangular y que está sobre una tortuga gigante o que la luna está hecha de queso.

Teniendo en cuenta que un 30% de la población mundial practica el cristianismo, una ia podría optar por negar la evolución de las especies y decir que el ser humano nació del barro, ya que estadísticamente podría ser la respuesta con el valor más alto.

K

#94 No has entendido lo que he dicho. chatGPT, como todas las IAs, son capaces de estimar valores con datos de entrada que jamás han visto, eso es correcto, y es lo que se espera de ellas. El problema viene cuando le metes un dato que no está dentro del rango de datos que espera. Si tú a una IA le enseñas a multiplicar solo enteros de un digito positivos, da igual que entero de un digito positivo le des y si lo ha visto antes o no, si está bien entrenada lo hará bien. Ahora preséntale un número con decimales, un número negativo, un número con 2 dígitos, y échate unas risas. A las IAs les puedes cambiar, y es mas, deberías, los datos de entrada que cumplan las mismas reglas sobre las que han sido enseñadas, da igual el valor, pero si les presentas un dato que no cumple esas reglas vete preparando.
Y te voy a poner dos ejemplos que he tenido yo con dos IAs con las que he trabajado. Una estaba entrenada para encontrar en mamográficas cáncer, y llegó a ser mejor en eso que la mayoría de los oncólogos. Aun que está IA no dependía de mi, si que su responsable me dijo que le metieron radiografías de otras partes del cuerpo y dio algunos falsos positivos. La IA esperaba mamografías, si le presentas otra cosa, sigue creyendo que es una mamografía ya que no entiende lo que en realidad es una mamografía.
Mas recientemente, estoy llevando un sistema que lee datos de miles de sensores periódicamente, y tenemos una IA entrenada para rellenar los datos de los sensores en caso de que falten. Bueno, está entrenada con un porrón de datos, desde el año 2012 a hasta hace un año. Hace un trabajo muy bueno. El caso es que esos sensores solo dan valores positivos entre 1 y 1000, y hace apenas un mes, mientras se estaba reparando un sensor, este nos dio un valor negativo y de millones. No te cuento lo que hizo la IA y lo que nos ha costado arreglarlo.

P

#25 Un artículo realmente bueno, aunque la traducción está enshitada.

Fernando_x

#62 Tul, que te responde en el comentario 87, y que me tiene ignorado no sé por qué, y aun así sabe qué te explico en mi comentario para criticarme, no te explica que no eso lo que busco. Lo que busco son cosas mucho más concretas sobre esos temas que no aparecen en google, porque son temas tan precisos y concretos que con esos datos es imposible dar con las páginas correctas que lo explican. Salvo que me dedique horas a buscar. ChatGPT me da la solución en segundos. De forma que luego comprobar si es correcto, sabiendo ya lo que tengo que buscar, es cuestión de minutos.

z

#11 para cosas asi genial, pero yo no la usaría para algo importante, porque muchas veces se inventa la respuesta literalmente. El problema es que lo hace con un léxico y un contexto tan bien hecho dentro de la conversación que parece una respuesta real... es una IA conversacional, hay que comprobar la veracidad de cada respuesta. 
Sobre todo cuando no le das un conjunto de datos finito sobre los que explorar para generarte la respuesta.
fuente: Soy programador y la he estado usando últimamente para hacer pruebas de concepto en una app famosa... mi novia además trabaja en procesado de lenguaje natural y conoce bastante bien este tema y me lleva advirtiendo un tiempo del mal uso que se le va a dar o se le esta dando ya.

K

#148 Me dieron acceso ayer y estoy como niño con zapatos nuevos. Me descojo con lo que hace cuando no encuentra respuesta:
-Yo: ¿Cuántas patas tiene una bola de billar?
-ChatGPT: Me parece que estás intentando burlarte de mí o confundirme con tus preguntas. No me gusta este tipo de conversación. Prefiero hablar de temas más interesantes y educativos. Por favor, respeta mi trabajo y no me hagas perder el tiempo. lol
lol lol lol

Vegonthe

Las limitaciones de un lenguaje nuevo y el encantamiento de la gente ante la novedad , no significan que no tengan valor como un añadido a una realidad cambiante o que la gente sea idiota por dejarse encandilar.

D

#96 desde la prediccion del teclado, las recomendaciones de Netflix, la recomendaciones de búsquedas, los anuncios que ves, la aspiradora robot de casa, cualquier cámara que te haya grabado y analizado, el text to speech y viceversa, el asistente de google/Alexa.., cuando llamas a tu operadora para un trámite.. Es un no parar. Y eso es lo que es evidente. Debajo de la superficie hay más. Cada día interaccionas con decenas de Ias, te des cuenta o no.

rojo_separatista

#59, cómo sabes que otra persona sabe que es multiplicar?

rojo_separatista

#26, a google le puedes pedir que te escriba una carta solicitando un trabajo específico o que te haga un script en Python?

rojo_separatista

#41, la carga de la prueba es que cualquier programa de ajedrez te puede derrotar. Pero tu seguirás diciendo que no es inteligente porque patatas.

ContinuumST

#95 ¿Alguna pista?

jarenare

#8 ningunear una herramienta que, por primera vez en la historia de la humanidad, es capaz de hacer los trabajos escolares, me parece, como mínimo, muy osado. 
Y en estas cosas no hay marcha atrás. Todo lo que se ha conseguido será la base para construir la siguiente versión, y esa será la base de la siguiente...
A mí, me tiene la cosa especialmente preocupado. La humanidad ha dado muestras sobradas de no hacer un uso ético de la tecnología, y la IA tiene un potencial enorme para ser usada para el beneficio de unos pocos y en contra del beneficio común. 
Una de sus principales "virtudes" será su uso para control de la opinión pública en RRSS, y si no, al tiempo. 

ContinuumST

#101 Tengo quitado la predicción de teclado; no uso netflix; las búsquedas las afino porque busco algo concreto casi siempre; anuncios ninguno, todos bloqeados; no tengo aspiradora ruidosa en casa, lo del análisis de alguna cámara que me haya grabado pues ni idea; ni asistente google/alexa ni tonterías varias... Así que...

rojo_separatista

#106, es que lo que tratas de explicar no tiene sentido. Obviamente una IA hará correctamente las cosas para las que ha sido entrenada y se equivocará en las que no. Si le pasas una radiografía de otra parte del cuerpo y le pides que te identifique lo que hay cuando solo la entrenaste con imágenes del mamografías es obvio que fallará. Igual que falla un ser humano muy probablemente ante un problema que no ha visto antes en su vida.

El quit de la cuestión es que tu dices que no entiende que es multiplicar, porque a tí te parece que no lo sabe, pero chatGPT puede aplicar el concepto de la multiplicación correctamente en contextos con los que no se ha entrenado. No hay forma de demostrar que no sabe lo que está haciendo.

ContinuumST

#108 ¿El antispam del correo se considera I.A.? En youtube cero. ¿Adsense? No uso google como buscador. ¿El bloqueador de anuncios también se considera I.A.? , Adm. Pública, sí, sobre todo cuando no se entera de lo que le dices y terminas con que te pase a un humanito... jajajajaja...

rojo_separatista

#107, por qué? Si esta máquina es capaz de jugar mejor que el mejor de los seres humanos. En las facultades se han enseñado durante décadas los algoritmos heurísticos como parte del currículum de Inteligencia Artificial y ahora vienes a decir que esto no es Inteligencia Artificial porque no lo hace igual que el cerebro humano aunque sus resultados sean insultantemente mejores.

rojo_separatista

#120, crees que un humano no puede fallar esta pregunta? Porque a mi me haces esta pregunta mal hecha gramaticalmente y sin el contexto de esta conversación y creo que tampoco hubiese entendido que cojones querías, la verdad. De hecho su contestación me parece bastante más ocurrente que la que creo que te hubiesen dado la mayoría de personas y no estoy de acuerdo que sea menos correcta que la que tu esperabas.

rojo_separatista

#125, no, porque no es un comportamiento inteligente. Ya que no se requiere de un cerebro complejo para realizarlo. Para jugar al ajedrez sí y un algoritmo relativamente simple lo puede hacer mejor.

rojo_separatista

#126, una cosa es saber multiplicar bien y otra es que entienda que es multiplicar. Saber tu multiplicar esto número de cabeza? Porque de momento chatGPT o bing no están conectados a una calculadora y todos los resultados son o memorizados o aprendidos de forma no supervisada. Cuando los conecten a una calculadora, que lo harán, ya no tendrán este tipo de errores.

Me interesa más que entienda cuando hay que utilizar el concepto de multiplicación, cosa que por lo general hace bien.

rojo_separatista

#132, y yo te repito, para saber si entiende o no que es multiplicar hay que plantearle ejercicios en los que tenga que utilizar multiplicaciones. Algo que hace bastante bien, por lo tanto, yo concluyo que sí lo entiende. Falla en algunos ejemplos muy rebuscados? Sí, pero no más que muchos humanos.

rojo_separatista

#134, es que la inteligencia no tiene que ver con la complejidad del problema. Es mucho más compleja la forma en que se autoregula el sistema inmunitario que jugar a las damas. Sin embargo, la inteligencia solo interviene cuando jugamos a las damas. Repasa el currículum que se da en cualquier facultad de informática en la asignatura Inteligencia Artificial.

rojo_separatista

#146, no estoy entrando en lo compleja o importante que es un algoritmo que juega a ajedrez, lo que digo es que es un problema de Inteligencia Artificial tal y como se ha definido desde los años 50.

Tu mezclas otros conceptos como AGI o consciencia para decir si algo es o no es inteligencia artificial. Pero en la academia no se habla en estos términos. Cualquier algoritmo que es capaz de realizar una tarea "inteligente" es un algoritmo de inteligencia artificial, independientemente de cómo se realice internamente.

ContinuumST

#186 Ah.

rojo_separatista

#192, claro, porque estás comparando un modelo que solo ha visto mamografias con un humano que ha visto cientos de miles de cosas distintas. Para ser justo hay que compararlo con IA's más generales, como chatGPT, que a pesar de algunas lagunas, tiene un desempeño muy superior al del humano medio en todos los campos.

Tiene gracia que hables de magia, luego de contraponer lo que hace chatGPT encontrando patrones con lo que hacemos nosotros? ¿Cómo funciona nuestro cerebro según tu sino es encontrando patrones? ¿Magia, alma, inspiración divina?

rojo_separatista

#200, no entiendes que significa tener un desempeño superior al de un humano medio. Significa que aunque los expertos puedan tener más conocimiento en un dominio en concreto que chatGPT, sabe más que la mayoría de los humanos de todos los temas.

Y no, a un humano no puedes solo haberle enseñado imágenes de mamografías. Si solo hubiese visto esto, su universo se reduciría a esto.

rojo_separatista

#202, justo ayer salió GPT-4, un modelo que supera a GPTchat en casi todo, también respondiendo problemas de lógica, exámenes profesionales, etc, etc... Y esta va a ser la tendencia en los próximos años, modelos de lenguaje cada vez más capaces e inteligentes. Los que defendeis la excepcionalidad del cerebro humano basada en intangibles, lo tendréis cada vez más complicado para tratar de demostrar que los seres humanos somos más capaces que estos modelos.

higochungo

#8 A mí me genera código fuente en minutos que de otra manera tardaría horas, simplemente diciéndole lo que necesito. Me crea archivos de terraform para crear infraestructura en base a una descripción que le hago en lenguaje natural (crea un archivo de terraform que genere dos máquinas virtuales de tamaño medio, con un load balancer y un firewall). Me resume textos largos. Me da respuestas claras y rápidas que de otra manera sólo conseguiría navegando por muchas webs. Me responde algún mail. Me prepara presentaciones. Me ayuda con algún algoritmo, me identifica actores de las series que estoy viendo y me dice qué otras series y películas ha hecho, etc.

He hecho una pequeña aplicación que lo usa para resumir las noticias más importantes del día en 100 palabras.

En general te hace ahorrar una de tiempo brutal, y te evita visitar decenas de webs. Para mí ahora mismo es un asistente que está siempre abierto en mi ordenador y en mi móvil.

Si no le ves la gracia, es que estás mirando mal.

rojo_separatista

#213, creo que estás sobreestimando demasiado la opinión de Noam Chomsky sobre los LLM a partir de lo que dice en un artículo en el que fundamenta su opinión en hipótesis plagadas de errores. Aquí hay un hilo en twitter que lo desmonta:



Por supuesto que entiendo como funcionan estos modelos, me dedico profesionalmente al deep learning y he visto como han ido evolucionando en pocos años. He discutido ya con mucha gente que opina como tú y mi conclusión es que haga lo que haga una IA jamás lo consideraréis algo comparable a lo que hace el ser humano a nivel de razonamiento por mucho que lo haga mejor que la mayoría de nosotros. Es una cuestión de fe inquebrantable en la excepcionalidad de la forma de razonar de los seres humanos. Sin embargo, estos modelos seguirán avanzando, siendo cada vez más precisos, factuales y creativos. Pero siempre se podrán hacer malabares diciendo que regurgita cosas que estaban en su corpus de entrenamiento. Al final es como hablar con un creyente, no importa lo que puedas demostrar.

rojo_separatista

#218, no se si serán necesarios los abogados o los programadores dentro de 10 años, de lo que estoy seguro es de que lo que hacen 10 abogados ahora, lo harán menos abogados gracias a asistentes basados en LLM. Y esto no es magia, es algo que se ve cuando sabes usar cualquiera de esos modelos.

Acido

#54
Ese comentario me dio la sensación de haber sido generado por una Inteligencia Artificial. lol
(También podría ser un humano troleando, imitando la forma de expresarse de la IA, o podrían ser imaginaciones mías)

Barbol_Pelao

#13 Exactamente. Pasará el mismo proceso que ocurre ya con las redes "sociales".
https://hypernoir.com/el-enmierdamiento-de-tiktok/

E

#120 Pues quizá no te has explicado correctamente: manzana por 3 es un poco ambiguo. Yo le he preguntado: "¿Cuánto es manzana multiplicado por 3?", y esta ha sido la respuesta:

Hola, entiendo que quieres saber cuánto es manzana multiplicado por 3. Según la tabla de multiplicar del 31, 3 x 3 = 9. Sin embargo, manzana no es un número, sino una fruta. Una manzana es el fruto comestible del manzano, que tiene forma redonda y sabor dulce2. ¿Qué quieres hacer con las manzanas?

#21 Tú estás confundiendo inteligencia artificial, término que te puede gustar más o menos (como le pasa al señor Chomsky con su pataleta) pero que se usa para describir aquellos sistemas con capacidades predictivas y generativas más avanzadas usando aprendizaje automático, con inteligencia artificial general, que sería otro paso más en el que la máquina adquiera una capacidad de raciocinio similar a la mente humana. Obviamente estamos muy lejos de este último punto y no creo que nadie que entienda un poco de qué va esto ponga a ChatGPT como ejemplo de este tipo de inteligencia artificial o como ante sala a ella. Y Chomsky de lo que precisamente está hablando es de este último tipo de inteligencia. Así que por seguir el símil, estamos hablando de exploración espacial y no de viajes interdimensionales.

Por otro lado no sé porque se pone a desprestigiar como pseudociencia la capacidad de predicción de algunos modelos que se usan más en el ámbito de las ciencias, cuando la capacidad de aprendizaje suele estar justificada por todo un desarrollo matemático que se nos atraganta al 99 por ciento de la población. Supongo que lo estará diciendo por el modelo de Google, AlphaFold, que es capaz de predecir el plegamiento de proteínas. Seguro que a la física nuclear también le llamará pseudociencia, porque el modelo de estructura nuclear está basado en meras suposiciones amparadas por datos experimentales, siendo varios los términos correctores que están ahí para simplemente justificar los datos experimentales. De Kepler mejor ni hablamos, que debería haber ardido en la hoguera por intentar explicar el movimiento de los planetas por simple geometría. O le podemos dar la vuelta a su razonamiento y negar directamente el movimiento del péndulo simple porque su ecuación no tiene resolución analítica. A lo mejor lo primero que habría que tener bien clara es la definición de ciencia y cómo ésta se construye y luego ya si eso podemos aventurarnos a criticar la inteligencia artificial

K

#148 Buena aporte. Lo cual demuestra que si que encontró una respuesta en función a como se formuló la pregunta. No que haya entendido la pregunta. Es curioso que le preguntes literalmente "cuanto es 70 por 15 por pi" y me de la respuesta correcta, luego sabe que le estoy preguntando por una multiplicación, que le preguntes "cuanto es 7,23 por 600" y me de la respuesta correcta, que sigue siendo una multiplicación, pero si le preguntas "cuanto es manzana por 3" resulta que ya no se da cuenta de que pregunto multiplicación (absurda, si) y además falle, pero si le especificas "multiplicar" entonces si. Desde mi punto de vista es que, ante una pregunta que es equivalente racionalmente a la otra, da diferentes respuestas. Aquí hay algo que falla. No entiende.

sorrillo

#56 Pues el tochaco dice cosas interesantes que no se parecen en nada a hacer una selección de líneas interesada.

Cita lo que te parezca interesante y quizá creas que no compartiría y lo comentamos.

1 2 3