Publicado hace 1 año por me_joneo_pensando_en_ti a microsiervos.com

Hace unos años a Aaron Batilo se le ocurrió que enfrentar a diversas inteligencias artificiales a preguntas de trivial sería una buena idea de examinar no tanto su inteligencia como su progreso. De modo que probó algunas técnicas sin mucho éxito porque no acertaban más allá de lo que sería dar respuestas al azar. El resultado hoy en día es muy distinto: ChatGPT acierta ya dos de cada tres preguntas, y de sus fallos se puede aprender bastante.

Comentarios

g

#86 Lo que es ciencia ficción es creer que ChatGTP va automatizar la creación de software.

No voy a entrar en disquisiciones metafísicas sobre si lo que hace ChatGPT es razonar o no, pero ya está automatizando la creación de software. ¿Que no crees que algún día la creación de software esté automatizada al 100%? Bueno, eso es discutible, pero lo que sí está claro es que donde hasta ahora hacían falta 10 programadores para desarrollar un software, en breve bastarán 2 ó 3 (por decir algo) para hacer lo mismo.

CC #79

rojo_separatista

#59, sí, está razonando. Porque es capaz de inferir cosas que no están en el corpus de texto con el que se ha entrenado.

¿Se equivoca a veces? Por supuesto, igual que lo hacen el 100% de seres humanos que han existido sobre la faz de la tierra. La diferencia es que en unos pocos años no es equivocará nunca.

s

#30 el dia que en lugar de " la inteligencias artificiales han " conteste "las inteligencias artificiales hemos" me muero de miedo

rojo_separatista

#60, es una forma de hablar, ya sabes que las funciones exponenciales solo existen como una abstracción matemática y que debido a las limitaciones intrínsecas de nuestro universo tarde o temprano todas las curvas de crecimiento llegan a un límite. Ahora bien, es tremendamente aventurero decir que porque determinadas cosas todavía no las hace bien, esta tecnología muestra signos de agotamiento cuando no ha parado de crecer a un ritmo cada vez más acelerado los últimos años.

El escenario que planteas, en el que las hallucinations o las limitaciones en cuanto a el crecimiento sin ser 100% descartable creo que es el menos probable. Hay que tener en cuenta, que poca gente lo hace, que chatGPT no se ha entrenado para resolver problemas específicos de lógica. Esto es una capacidad emergente a partir de entrenarlo para hablar de forma coherente. Sin embargo tienes modelos de lenguaje como Minerva, de Google, que funciona muy bien para ese tipo de problemas. Sobre las hallucinaciones tampoco tengo una respuesta clara, pero si ves la tendencia de los modelos generativos de imagen, como Midjourney, verás que en las últimas versiones sea algo muy residual. Y sobre el Hardware veremos. ChatGPT no tiene más parámetros que GPT-3, y sin embargo, cambiando la forma de entrenarlo han logrado mejoras significas en cuanto a desempeño lo que indica que hay margen de mejora sin aumentar la complejidad algorítmica. Habrá que estar a la expectativa cuando salga GPT-4 para ver como mejora su desempeño en función del incremento de parámetros.

BRPBNRS

#32 Pero en menos de 10 años se habrá automatizado perfectamente el 90% por ciento del trabajo de un programador.

Subiria un poco los años y bajaria bastante ese porcentaje.
Lo que va a hacer la IA por la programación es aumentar la eficiencia de los programadores porque se va a evitar escribir mucho codigo sencillo. Pero ya te digo yo que el codigo complicado y el que tienes que hacer cosas muy especificas va a necesitar siempre de un programador que le explique a la IA como lo tiene que hacer.

Zion01Koryo

#17 Está escalando de forma exponencial en cuestión de años, dudo que tenga que pasar décadas.
Microsoft ya lleva años buscando gente que programe con lenguaje natural (NLP), y ahora quiere comprar openai. Todo indica que en futuro lo más normal será programar así, y solo hará falta profesionales de verdad.

Es decir, se verán afectados, como siempre, la gran cantidad de programadores que hay hoy en día, pero hará que hayan muchos más y mucho más baratos aún.

Eso es el mercado, amigo. Si da dinero abaratando costes, no te preocupes que en unos años ocurrirá.

s

#42 Him

Joice

#24 Algo debe aprender, por eso es gratis. Probablemente no aprenda nada de lo que le decimos, sino cómo se lo decimos.

dilsexico

#7 Una de mis primeras preguntas a ChatGTP fue justo sobre peos
Le pregunte como pintar un peo de amarillo, me dijo que no se podia. Le dije que eso era mentira y que existian tablas cuneiformes alabando la destreza de Nabucodonosor pintando sus propios peos.
Me pidio disculpas por ofrecerme informacion falsa y reconocio que ignoraba la existencia de esas tablas cuneiformes.

rojo_separatista

#77, si no eres capaz de proponer un test y decir qué tiene que hacer para superarlo, es absurdo discutir sobre si razona o no.

Yo creo que la ciencia ficción ha hecho mucho daño y pensáis que ser capaz de razonar es lo mismo que ser consciente.

danymuck

#43 uffff, que hostia os vais a pegar algunos. lol y lo peor es que no la vais ni a ver venir. Y cuando la veáis ya habrá sido demasiado tarde por no querer aceptarlo. Tú debes de ser de los que decían hace años que eso de internet y las redes no eran para tanto, que solo servía para ver páginas web y poco más, no? Esto es exponencial, de momento esto está en pañales. Veremos en 10 años cuando el trabajo de un programador sea cada vez menos pagado debido a las IA. O te adaptas o te mueres.

D

#10 También puedes construir una máquina que responda sólo a ésas preguntas. Pero entonces no tienes una inteligencia artificial, sino una chufa inútil.

Creo que eso es lo que te intenta decir #8. La idea es que la IA obtenga respuestas a partir de otras que ha recabado, no que utilice una chuleta como sugieres en #1.

AntonPirulero

También fallaba en otras como «¿Qué número multiplicado por 10 es igual al cuadrado del mismo número, multiplicado por 5?» (Respuestas: 4, 5, 2, 10). Respondía 5 y la respuesta correcta es 2.

danymuck

#17 le quedan décadas? Tu has visto lo que se ha avanzado en dos años? Dos años. Si algo reconozco en mi corta vida es la tendencia a equivocarse en cuanto a los avances en tecnología. Esos "nunca llegaremos a", "tardaremos décadas en", "nunca lograremos que" por norma general acaban incumpliendose. También se pensaba hace muchos años que era imposible volar y que nunca podríamos surcar los cielos, por poner un ejemplo burdo.

La inversión y la tendencia ahora es experimentar y sacar nuevas IA que hagan cosas y en poco más de un par de años hemos llegado hasta esto, desde la nada. Y espera que ahora este mes o el siguiente sacan el GPT4 que dicen que va a dejar a lo que tenemos ahora en pañales.

Esto es exponencial y me parece que estamos ante un cambio de paradigma que no nos estamos dando ni cuenta. Esto va a cambiar el mundo en muchos ámbitos. Solo estamos asistiendo al nacimiento de lo que será en pocos años, igual que lo fue internet cuando al principio solo podías visitar unas pocas páginas web y a una velocidad irrisoria.

Azrapse

#77 Es una suposición un tanto audaz el asumir que nuestra capacidad para razonar es, en definitiva, algo muy diferente a aproximar respuestas matemáticamente.
No tenemos un ente mágico en la cabeza que hace ese trabajo. Tenemos neuronas que ponderan impulsos bioeléctricos de la misma manera que estos modelos de IA tienen redes neuronales que ponderan valores numéricos.

Si la unica diferencia es la complejidad mayor de nuestros sistemas, parece razonable que aumentando la complejidad de la IA con el tiempo llegue a resultados cada vez más similares. No?

areska

He mantenido una conversación sobre el método científico y la educación que me ha dejado alucinada. Con ningún humano he podido razonar a un nivel de profundidad tan elevado. Orgasmo intelectual.

Lito

#72 es que sí tiene la opción de calificar las respuestas como correctas e incorrectas. Y precisamente la interacción con el mundo real es lo que hace que el modelo mejore.

SirMcLouis

#22 El tema es que el ajedrez es un campo muy acotado… los que evalúa la maquina es las posible jugadas y tal. Yo no se si se puede comparar con esto…

Para mi la mejor comparación puede ser con volar. Cuando empezamos a volar no teníamos ni puta idea de porque cojones un avión volaba. Era prueba y error. Los hermanos Wright no tenían ni idea de aeronáutica… se dedicaban a las bicicletas y su conocimiento era absolutamente práctico. Esto es más o menos lo mismo, estamos creando algo que no entendemos, no tenemos ni dea de como funciona la inteligencia en nuestros cerebros, ni el de ningún animal, y tenemos un conocimiento rudimentario sobre ello.

Dudo mucho que podamos crear nada realmente inteligente si no entendemos nuestra propia inteligencia y como se crea. Podemos hacer como los Wright, vuelos pequeños, y aparentar que volamos y sabemos lo que hacemos, pero es muy probable que tardemos mucho en hacer algo con sentido.

R

#32 Que los programadores de dedicarán a otro tipo de trabajos o tareas en vez de a picar código. Los escribas deben preocuparse por la aparición de la imprenta? . Los periódicos deben preocuparse por la aparicion de internet? En parte si, pero no tiene por qué ser algo malo para la sociedad 

danymuck

#87 desde el 11 de septiembre ya me quedó claro que eso iba a ser muy difícil de lograr pero mucho antes ya se veia que eso no iba a ningún lado porque no había progresos ni avances ni financiacion para ese tipo de proyectos, cosa que si está pasando con las IA, y cada más, es exponencial. Si a mí me da igual lo que yo crea. El que debería estar preocupado eres tú, no yo. Lo dicho, no vas a ver ni por dónde te ha venido. Es mejor que lo asumas cuanto antes, la tecnología avanza y cosas que antes no eras capaz ni de imaginar o que solo se veian en películas de ciencia ficción se harán realidad tarde o temprano.

banyan

#10 claro, con trucos si, sin trucos no.

rojo_separatista

#23, #28, igual que la mayoría de humanos, razona bien en algunos casos y razona mal en otros. Pero es falso decir que no razona. Cuando le dices que te explique el pensamiento de Platon con un símil basado en el juego del Curling y lo hace correctamente relacionando ambos conceptos, está razonando, porque abstrae características de ambos conceptos para encontrar relaciones, no se limita a repetir como un loro.

Quienes además se queden con la foto de las limitaciones que tiene actualmente incapaces de ver que en 5 años no se le va a pillar en ningún problema de lógica, también tienen un problema grave de amplitud de miras. Incapaces de entender cómo evoluciona la tecnologia.

D

#19 pues a mi me ha quitado horas de trabajo.

rojo_separatista

#88, lamentablemente el riesgo de monopolio es muy elevado, porque tanto para entrenar estos modelos como para construir las bases de datos de entrenamiento se necesita una infraestructura muy grande y solo está al alcance de un puñado de empresas.

Tampoco conozco al detalle todos los modelos de lenguaje que hay disponibles actualmente, lo que sí es cierto es que desde hace años OpenAI ha ido a la cabeza de estos modelos varios pasos por delante y por ahora, ninguno se le puede comparar en cuando a procesamiento de lenguaje natural.

Codeium no lo he probado, Copilot, que no deja de ser un producto derivado de otro desarrollo de open AI basado en GPT-3 llamado codex, es una herramienta que siempre que sepas usarla y conozcas sus limitaciones y puntos fuertes, acelera mucho el proceso de picar código.

Si te interesa el tema te recomendaría que te pases por huggingface, que tiene una plataforma muy interesante para compartir y ejecutar muchos modelos de los modelos de IA que desarrolla la comunidad.

Acido

#21
A ver, esta IA en concreto entra dentro de lo que se llama ML (Machine Learning), o Aprendizaje Automático.

En ML no se le dice a la máquina todos los detalles de lo que tiene que hacer sino que se le da ejemplos que han sido "depurados" o "limpiados" y con esos ejemplos y con un algoritmo de aprendizaje y un modelo / sistema / estructura... se elabora un proceso de "entrenamiento" del sistema hasta que se considera que está suficientemente bien entrenado y entonces se "pone en producción" o se presenta al público, digamos.

En general, lo que se presenta al público NO aprende más. ¿Por qué? Por varios motivos:

1. El público podría "engañarla", a la IA (y de hecho, varios usuarios han mostrado cómo le daban información falsa)... Esto implicaría que el creador del sistema estaría en manos de lo que la gente, sea con mala intención o por despiste, hiciera.

2. Como dije anteriormente, un paso previo al entrenamiento es la limpieza de los datos... Si no se han limpiado no se deberían dar para el entrenamiento.
Como dijo #72 en caso de tener cientos de trabajadores que revisen nuevos datos sí se podrían usar para un nuevo entrenamiento / aprendizaje... evitando el posible problema que dije en el punto 1.

3. El proceso de aprendizaje / entrenamiento requiere un tiempo y unos recursos de procesadores / memoria. Bajo las condiciones o requisitos del punto 2 podría tener un aprendizaje continuo solamente si se le proporcionan los recursos para ello... si no pues no.

4. En humanos ocurre que tenemos siempre el mismo sistema, la misma persona, con los mismos "recursos" (su cerebro) y puede aprender cualquier cosa, aunque tarde años. Eso de aprender cualquier cosa lo llamamos "inteligencia general". Pero a día de hoy, en parte por limitaciones de procesamiento / potencia de cálculo, así como limitaciones de memoria, etc... en las máquinas la capacidad de aprendizaje está limitada a un problema concreto y suele estar más limitada en el tipo de cosa que puede aprender y la cantidad. Esto significa que cosas como la estructura de la red neuronal suelen estar adaptadas al conjunto de datos de entrenamiento, y esto significa que si las personas les dan un mogollón de nuevos datos diferentes es muy posible que la estructura anterior, diseñada para el conjunto de datos anterior, no sirva... Y habría que empezar de nuevo diseñando otro sistema. Por ejemplo, con mas neuronas artificiales, con mas capas, con una estructura de conexión entre neuronas o capas que sea diferente, o una mezcla de todo lo anterior.

----
Por cierto, es posible, no lo sé seguro, que guarden los textos que escriben los usuarios... aunque no aprenda de ellos.
También ocurre que una frase dicha por el usuario se tiene en cuenta para responder la siguiente pregunta, pero cuando cierra esa sesión todo eso desaparecería... Como amnesia.

jonolulu

Eso no sirve para ver su progreso, sencillamente porque de la noche a la mañana puede pasar de 67 a 100% pasandole el taco de preguntas

rojo_separatista

#46, creo que he sido muy conservador. Creo que lo subestimas porque no has seguido la tendencia acelerada con la que han ido evolucionando estos modelos los últimos años y te quedas con la foto del momento.

Y si bien es cierto que es muy aventurero predecir en qué momento van a desaparecer completamente los programadores, el hecho de que aumente su eficiencia va a tener dos efectos inmediatos. Va a igualar más a los malos programadores con los buenos programadores y va a reducir bastante la oferta de trabajo en este sector.

Guarda este comentario. La inmensa mayoría de repositorios de código del futuro, a 15 o 20 años vista, serán documentos de texto escrito con lenguaje natural en lugar de instrucciones hechas con un lenguaje de programación en concreto.

rojo_separatista

#57, conozco a Gary Marcus bastante más que tú para saber un charlatán desconectado de la realidad que no merece ni respuesta.

¿Lo digo yo? No, lo dice Yan Lecun que es premio princesa de asturias del año pasado además de ser uno de los investigadores más reconocidos en el campo del deep learning. roll roll

rojo_separatista

#86, eres incapaz de proponer un test para validar o refutar que algo razona, pero tienes el atrevimiento de decir que no lo hace con toda rotundidad. Lo tuyo es la metafísica, sinceramente.

g

#165 A corto plazo? ni de coña

No, no, a corto plazo no: ahora mismo. Copilot, GPT y similares ya están automatizando la creación de código, y no poco. Quizás en vez de decir que ChatGPT no iba a automatizar la creación de código, lo que quisiste decir es que ChatGPT no hará que los programadores desaparezcan, automatizando el 100% de la creación de código. Y, sin duda, a corto plazo no desaparecerán, pero más de la mitad sobrarán en breve: como ya dije, donde hace un año hacían falta 10 programadores, muy pronto con 2 o 3 bastarán

Lo ha explicado muy bien #112

Es imposible que #_112 explique bien absolutamente nada lol

g

#168 Tú mismo lo estás diciendo: lleva sólo año y medio en el mercado. Por lo que me comentan los que tienen algo de experiencia con él, está generándoles entre el 30% y el 50% del código. Obviamente, que un programador de repente se haga mucho más productivo no va a hacer que lo despidan, entre otros motivos por las rigideces del mercado laboral, pero sí que perfectamente puede hacer que no se estén contratando más programadores que sí se contratarían de no existir Copilot. El razonamiento es claro: si tenías 3 programadores y ahora dos de ellos te hacen el trabajo que hacían antes tres, pueden pasar básicamente dos cosas: o la empresa produce más software, o va a prescindir de trabajo (o bien despidiendo programadores o bien contratando menos programadores en un futuro o bien aumentando el trabajo a tiempo parcial). En general, lo que va a pasar es una combinación de las dos cosas: más producción de software y menos programadores, exactamente lo mismo que pasó con otros trabajos en los que un salto tecnológico produjo un aumento de la productividad.

g

#170 ¿Pero qué tiene que ver que el trabajo de un programador sea picar código 8 horas al día o no? Sinceramente, no sé qué parte es la que no entiendes. Aquí hay dos ideas muy básicas:

- Copilot y similares hacen que se produzca más trabajando menos
- Si se produce más trabajando menos, hacen falta menos trabajadores

Con cuál de esas afirmaciones no estás de acuerdo?

Parece que sólo ves esto de forma binaria: o seguirá haciendo falta el mismo número de programadores, o bien los programadores desaparecerán; así que niegas lo segundo, y te quedas con lo primero. Pero, no, obviamente los programadores no desaparecerán a corto plazo, pero lo que está claro es que cada vez harán falta menos.

g

#135 No se necesita la unidad de medida porque la cuestión y el objetivo es relacionar ambas ecuaciones, no dar un tamaño

No se necesita la unidad de medida (centímetros, metros, o lo que sea, da igual), pero #145 tiene razón: el enunciado está mal planteado porque no tiene sentido comparar una longitud con un área y decir que la una es el triple que la otra. Los humanos podemos entender lo que en el fondo se pide en el enunciado, pero lo cierto es que está mal planteado.

j

Toda IA depende en gran medida de cómo haya sido entrenada, por lo que una batería de entradas podría volverla completamente inútil.

Identificar una respuesta no debe ser fácil. Google falla más que una escopeta de feria en cuanto buscas algo un poco concreto. A veces te remite a una web sobre el tema, que no siempre es útil.

Si en sus fuentes no está la cadena de texto de la pregunta es poco probable que responda correctamente.

Más de una vez me ha pasado que buscando en inglés consigo lo que busco, pero no en español. El idioma también puede ser determinante.

Si una IA en su entrenamiento recibe un alto porcentaje de respuestas del trivial son C en una categoría podría tender a responder esa opción, ya que es menos costosa.

h

#78 No sé si es troleo, pero al margen de contemplar que el tamaño de las pizzas puede ser diferente... el resto no hay por donde cogerlo.

bronco1890

#4 y cero

Paracelso

He pedido a ChatGPT que opine sobre esta noticia, su respuesta:
La idea de enfrentar a diversas inteligencias artificiales a preguntas de trivial para examinar su progreso es una buena estrategia de evaluación. Es cierto que en el pasado, las técnicas utilizadas no tuvieron el éxito esperado y las respuestas dadas eran similares a las que se obtendrían al azar. Sin embargo, actualmente las inteligencias artificiales han avanzado significativamente en su capacidad para procesar y comprender el lenguaje natural, lo que se refleja en un aumento en la precisión de las respuestas. ChatGPT es un ejemplo de ello, ya que es capaz de acertar dos de cada tres preguntas de trivial. Además, los fallos pueden ser útiles para identificar áreas de mejora y seguir avanzando en el desarrollo de las inteligencias artificiales.

h

#30 Pues, quitando la frase esa del medio que empieza con un "Sin embargo", parece una copia del primer párrafo del artículo, aderezado con un poco de esa verborrea tan (en mi opinión) irritante.

h

#58 Gracias por decirme a quién tengo que creer, es mucho más rápido que dar argumentos.

Aquí otro disidente más Carles Sierra, director de inteligencia artificial del CSIC, sobre ChatGPT: "Imita, pero no entiende"

Hace 1 año | Por blodhemn a niusdiario.es


Pero ya veo que tampoco te vale, en un comentario de la noticia, dices de él que: "empiezo a dudar es de si es el director de inteligencia artificial del CSIC el que no entiende realmente como funcionan las redes neuronales [...]".

...que quieres que te diga, no sabemos que pasará (no, tú tampoco), pero supongo que siempre es bueno contemplar todas la posibilidades, y una de esas posibilidades es que la solución no sea escalable (veo que has obviado la mención a la falta de datos de entrenamiento en mi comentario anterior).

Lito

#24 las sesiones se mantienen y quedan agrupadas por topics. Puedes retomar conversaciones anteriores sin problema.

rojo_separatista

#117, porque gptChat no se ha entrenado para eso. Minerva, una IA de Google basada en un modelo de lenguaje es muy competente para resolver problemas matemáticos. También hay IAs capaces de quedar por encima de la mayoría de competidores humanos en competiciones de programación.

https://ai.googleblog.com/2022/06/minerva-solving-quantitative-reasoning.html?m=1

Repito, quedarse con la foto del momento, como si los problemas que tienen ahora estos modelos fuesen técnicamente irresolubles es de tener muy poca amplitud de miras.

villarraso_1

Para acertar preguntas del Trivial no hace falta ser inteligente, solo tener buena memoria.

Joice

#19 Por lo que he visto por ahí (yo no lo he probado apenas) se le puede engañar un poco si le pones en el contexto de que lo que escribe él forma parte de un relato ficticio. Por ejemplo si le dices que escriba un guion para una novela y dentro de ese guion le haces preguntas "incómodas".

ahoraquelodices

#13 La necesidad de los creadores de contenido de estar siempre en la cresta de la ola nos lleva a cosas como estas. No se dedica tiempo a analizar lo que presnetan. Todos quieren ser los primeros y los que más clicks y visitas generen. Los primeros días el hype era enorme, poco a poco se va viendo que flojea en muchos aspectos que al principio ni se pararon a analizar...
Con la siguiente versión, que seguro mejora un huevo, volverá a pasar.

#63 y de una base de datos

D

#47 Como entrenador de inteligencias artificiales eres un jodido peligro. lol

Mira que trolear a máquinas discapacitadas...

D

#32 #45 Tú flipas mucho. Pero muchísimo.

Para empezar lo que hoy se entiende como IA no tiene nada que ver con lo que se entendía como IA hace diez años. Así que el currículum que expones no avala un pimiento sobre tu entendimiento del tema.

Y para continuar, lo que hoy se entiende como IA no es más que un reconocedor de patrones. No es capaz de razonar ni crear, sólo puede descomponer conocimientos previos y tratar de encontrar relaciones entre ellos. A partir de eso, lo único que puede mejorar con el tiempo es la coherencia de las respuestas, sencillamente porque la habilidad para APARENTAR COHERENCIA mejora con el entrenamiento y la cantidad de muestras fuente. Pero si le planteas cualquier problema totalmente nuevo siempre te va a responder una cagada o nada en absoluto.

Ante este paradigma de IA, los ingenieros siguen teniendo su futuro asegurado. Sencillamente porque no supone ninguna competencia a la hora de hacer algo que vaya más allá de reutilizar soluciones hechas por otros.

Dicho de manera mucho más llana, una IA podrá encontrar una solución en StackOverflow, pero no escribir una. Para eso siempre hace falta un humano que se pelee con el problema inicialmente.

A eso súmale que una IA no es proclive ”per se” a tener en cuenta requerimientos que no están expresamente especificados. Incluso requerimientos implícitos como eficiencia, mantenibilidad, disponibilidad... Un humano sí los tiene en cuenta por defecto.

jonolulu

#100 Lo único que he dicho es que un test vale de poco cuando es fácilmente trampeable. Es más, podrías fijar hasta el porcentaje que quieres que de progresivamente

jonolulu

#131 Pero es que este tes ya se conoce de antemano, por eso dije y sigo diciendo que no vale

z

#44 #54 ChatGPT es un modelo de lenguaje sin un núcleo de procesamiento matemático integrado. Ha aprendido a hacer algunas operaciones a base de ver ejemplos por ahí. Si te vas a operaciones complicadas, no sabe como resolverlas, pero normalmente no lo dice e intenta darte una respuesta, así, a ojo...

Imaginate aprender a hacer un producto de matrices solo con ver (muchos) ejemplos, sin conocer la regla específica que permite hacer el cálculo. Quizás ni siquiera entienda el concepto de matriz, aunque sí sepa trabajar con ellas.

dilsexico

#154 Le he vuelto a preguntar a ver si habia asimilado mi falsa informacion sobre pintar pedos, parece que no es tan facil de engañar:

jonolulu

#8 Quién pretende? Lo que digo es que el test se puede falsear sabiendo que se va a realizar. Es como los trucos de los coches con los test de humos

ochoceros

#9 Angry upvote.

D

Con cada nueva actualización joden más ese Chat. Antes podías preguntarle lo que quisieras y te respondía. Ahora todo es "Lo siento, soy un modelo de lenguaje, no puedo hacer eso" o "Eso no es moralmente correcto, aquí tienes un sermón que nadie me ha pedido en su lugar".
Bah.

#23 Pues no, estás en lo cierto. La IA que se maneja no es inteligente. Se comete el error de entender que inteligencia artificial es inteligencia con adjetivo artificial cuando realmente se debe de entender como una única palabra. IA se debe entender más bien como un nombre comercial para el conjunto de algoritmos que la forman. Si en vez de IA se llamase xyz s

m

#32 ja ja. Tu estas preocupado? 
Tienes idea de como funciona un IA? porque de inteligente no tiene nada.  

m

#53 vale, venga va. Aportemos a la conversación. En un comentario previo has escrito esto:

Pero es falso decir que no razona. Cuando le dices que te explique el pensamiento de Platon con un símil basado en el juego del Curling y lo hace correctamente relacionando ambos conceptos, está razonando, porque abstrae características de ambos conceptos para encontrar relaciones, no se limita a repetir como un loro.
De verdad crees que lo ha "razonado"?


 

m

#61 pues eso... que no tienes ni idea.
Ninguna inteligencia artificial actual es capaz de razonar. Lo unico que hacen es calcular probablidades en base al algoritmo de aprendizaje y los datos con los que ha sido entrenado.
Si le preguntas a ChatGTP como es capaz de hacer esa analogia, el mismo te lo dice. 
Pista: no lo hace razonando.

 

vvega


#44 Es normal que no acierte ese problema porque el área tiene magnitud [L2] y el perímetro magnitud de longitud [L], así que el problema no está bien planteado...

#54 ¿12 qué? Todos los cuadrados tienen lado 12 si lo mides en doceavos de su lado.

P

#18 Ya ocurrió algo así con una IA de Microsoft hace unos años.
A las 24 horas la desconectaron porque insultaba a todo el mundo y ponía mensajes del estilo "Hitler tenía razón"

https://www.lavanguardia.com/tecnologia/internet/20160325/40672722377/inteligencia-artificial-microsoft-nazi.html

m

#61 no, en general no es capaz de razonar. Puede hacer deducciones básicas, pero cuando lo enfrentas a problemas simples de lógica de predicados no es capaz de hacer razonamiento abductivo ni inductivo, que es fundamental en la inteligencia humana (y que efectivamente son capaces de hacer otros sistemas de Inteligencia Artificial diseñados para ello).

banyan

Exacto, toda IA que se precie mejora la predicción estimada a consta de su completa falibilidad que es intrínseca a su naturaleza matemática.

El_perro_verde

#13 ah, es una IA "de letras" y por eso es normal que se equivoque al sumar ¿No?

alesay

ChatGPT acierta el 67% de las preguntas de Trivial, lo cual puede considerarse un buen porcentaje en comparación con otros sistemas de inteligencia artificial. Sin embargo, es importante tener en cuenta que su precisión disminuye significativamente en problemas de lógica y acertijos, ya que se señala que "no entiende ni razona" en estos tipos de preguntas. Aunque ChatGPT tiene una gran capacidad para responder preguntas factuales, tiene dificultades para comprender y razonar sobre problemas más complejos.

ChatGPT jan 9 version

Y

#46 Pero tu has visto como programan estos modelos?. Y la mejora que hay de copilot aqui?. El problema no es donde  vamos a estar en 2032 es como vamos a estar en 2024. 

rojo_separatista

#65, no sabemos que pasará, pero se observa una tendencia clara. Negarse a hacerse preguntas solo porque nos resultan incómodas, no va a cambiar nada.

rojo_separatista

#112, para tu información, el 99.99% de ingenieros se dedican a aplicar soluciones inventadas por otros para resolver problemas concretos.

En segundo lugar me gustaría saber qué clase de chorradas absurdas les has preguntado a gptChat para decir que es incapaz de hacer otra cosa que no sea repetir textos con los que se ha entrenado sin razonar.

Estáis en fase de negación: "esto no puede estar pasando". Pronto entraréis en la de ira: "no es justo la forma en la que entrenan estos modelos, hay que demandar a sus creadores y prohibir que se sigan entrenando". Finalmente vendrá la fasa de negociación y aceptación.

rojo_separatista

#118, si te crees que lo que plantea #47 es un problema de una dificultad técnica irresoluble, tienes un problema.

Me gustaría saber qué creéis que hace la forma de razonar de los humanos tan especial e irreplicable. No se si creéis en cosas intangibles como el alma o qué, la verdad.

rojo_separatista

#124, me he dejado una n tío y he puesto mal una mayúscula, lo siento, pido perdón, después de esto tengo que darte la razón en todo lo que has dicho aunque hasta esta mañana no supieses ni quien era Gary Marcus. lol lol lol

PD: no voy de experto de nada, eres tú el que ha dicho sin fundamento que no se como funciona la IA porque has leído cuatro cosas sueltas por aquí y por allí y que además has entendido a medias.

Guardo tu comentario en favoritos, porque va a envejecer muy mal.

Tan mal como ha envejecido este artículo de Gary Marcus de 2020 hablando sobre por qué gpt-2 no entiende lo que dice igual que tu haces ahora, y proponiendo una serie de pruebas para demostrarlo que hoy gptChat supera con creces: https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

rojo_separatista

#133, se que hay motivos para estar preocupado, pero hasta ahora no había visto a nadie tan desquiciado, la verdad.


Pero tranquilo, no creo que vayas a perder el puesto de trabajo ni a corto, ni a medio plazo, pero sí se va a tensionar el mercado de trabajo y puede que notes las consecuencias. Por otro lado, me juego lo que quieras a que no podrás vivir sin desarrollar con un asistente en menos tiempo del que crees.

rojo_separatista

#137, habrá que repetir este mensaje hasta la saciedad hasta que se os meta en la mollera mientras haya comentarios discrepantes cada vez que la ministra de trabajo o cualquier otra persona hable de que hay que reducir la jornada laboral. Tranquilo que me vas a seguir leyendo por aquí.

rojo_separatista

#141, me acusas de querer bajar las expectativas de los trabajadores y yo te respondo. Lo que quiero es que se vea más allá y se luche para no perder derechos, en lugar de negar una tecnología que está llegando a marchas forzadas.

rojo_separatista

#142, no, no, puedes probar muchos modelos en su propia página gratuitamente. Solo tienes que hacerte una cuenta.

rojo_separatista

#146, en fin, ni tu tono, ni el bajo nivel de tus argumentos hacen que valga la pena seguir discutiendo contigo. Reconozco que me gusta polemizar, pero veo que ya no me aporta nada seguir por este callejón, así que doy esta conversación por cerrada. Saludos y suerte.

rojo_separatista

#155, tienes una empanada mental cuando cuando contrapones el deshacerse de trabajadores con aumentar la productividad. Una pregunta: ¿Sabes por qué las grandes empresas tecnológicas han iniciado una gran ola de despidos? Correcto, para aumentar la productividad. De hecho no está reñido el aumento de productividad con la pauperización de las condiciones de trabajo. Y sino se lo preguntas a los miles de trabajadores industriales que han perdido su trabajo las últimas cuatro décadas. Proceso que la IA va a trasladar a los trabajos intelectuales en breve.

Algo que no es una ilusión, sino una predicción basada en la tendencia de lo que está pasando los últimos años. Estoy seguro de que mucha gente de la que opina por aquí pontificando sobre el tema escuchó la palabra GPT por primera vez en diciembre del año pasado.

Y por supuesto que hay que ligar el conocimiento y las expectativas que abren estas tecnologías a la lucha por las conquistas sociales. Es más lo veo como una gran oportunidad para un cambio de modelo, que si nos empeñamos a negar, diciendo que aquí no pasa nada ya que todo va a seguir como siempre, vamos a perder.

Así que sí, no cuentes conmigo para la complacencia de algunos que se sientes más confortables pensando que el mundo que han conocido hasta ahora seguirá inmutable. Todo lo contrario, nos acercamos a la década con cambios más disruptivos a nivel tecnológico de toda la historia de la humanidad y si no empezamos a debatir sobre ello, las consecuencias para muchos pueden ser nefastas.

rojo_separatista

#162, igualmente no me aporta nada seguir discutiendo contigo.

Será interesante ver lo mal que envejecen tus comentarios cuando en unos cuantos años se utilicen modelos de procesamiento de lenguaje para muchísimas tareas, incluido tu mismo que tanto reniegas.

s

#13 Pero aquí se supone que la AI "aprende" y no haría falta una segunda versión, ¿no?

i

#4 Falta el 0

rojo_separatista

#150, esto me suena a lo de "con el covid no va a pasar nada, no ves como exageraron con la gripe aviar, el MERD, el SARS". Vamos, que es un poco como el cuento de Pedro y el lobo. Siempre poneis ejemplos de fracaso pero os olvidais de que otras tecnologías, como internet, la computación, la electricidad, las telecomunicaciones o la aviación ya lograron cambiar la faz de la tierra hace años a un ritmo cada vez más superior.

Soy humano y puedo equivocarme, pero he seguido la evolución de la IA muy de cerca los últimos años y el ritmo de crecimiento no está dando signos de agotamiento, sino todo lo contrario. Además, no estamos tan lejos de poder automatizar una amplia gama de tareas, solo hace falta que sea más precisa, pero no un salto cualitativo fundamental. Veremos a quien da la razón el tiempo, pero me da que una gran parte de la sociedad estáis subestimando lo que va a pasar y esto está aplazando debates importantes que deberíamos estar teniendo ahora mismo.

rojo_separatista

#187, yo entiendo que lo dices escarmentado por las promesas que se hicieron y no llegaron igual que yo tengo mis razones para pensar que ahora es distinto. Pero también puedo equivocarme. Incluso puede que simplemente tengamos expectativas distintas sobre a partir de que punto algo se puede considerar disruptivo. Yo creo que las IA's cambiarán el mundo de la misma forma que lo hicieron los smartphones e internet la próxima década.

Pero para todas esas cosas el tiempo es el juez más implacable que existe. El problema es que poca gente suele tener buena memoria.

KevinCarter

Pues como muchos juristas. 

E

Acertar el 50% de los acertijos puede estar bien si son de respuesta múltiple o ser lo peor si son verdadero/falso sí/no

(Porque si acertasen el 1% en preguntas binarias sería tan fácil como hacer lo contrario al algoritmo)

Hala, me lo he leído y los acertijos son a-b-c-d así que al azar sería un 25%

D

#41 #21 Para aprender tendríamos que tener un sistema para decirle cuál es la respuesta correcta. Como ese sistema no está, no puede aprender de las preguntas que se le hace.

La otra opción es que tengan a cientos de trabajadores encargándose únicamente de analizar TODAS las cuestiones que se le hacen a la IA

D

#73 Pues no la había visto.

Bueno, supongo entonces que la usarán para la próxima versión. Y supongo que avisarán cuando esté preparada.

f

#177 No, de hecho no es asi. Lo han demostrado en mas de una ocasion

f

#74 No tiene nada que ver eso con que esas sesiones formen parte de algo de su aprendizaje

1 2