Hace 1 año | Por alafia a pcgamer.com
Publicado hace 1 año por alafia a pcgamer.com

"Espero ver fábricas de IA por todo el mundo", dice el CEO de Nvidia, Jensen Huang. Sin Nvidia no existiría ChatGPT: se dice que el modelo de lenguaje de Inteligencia Artificial de ChatGPT se ejecuta sobre 10.000 GPUs Nvidia.

Comentarios

i

#13 2?? Si lo primero que se puso a sacar la gente fueron señoras con tetoncias. Darle más de 6 meses es mentirse a si mismo muy fuerte...

R

#13 por datos de entrenamiento disponibles no habrá problema, puedo prestarles mi disco duro

hangla

#13 Se llama unstable difusion

HaCHa

#13 Ardo en deseos de ver penes interminables siendo agarrados por hermosas mozas de manos de ocho dedos.

Inviegno

#7 No te creas, en realidad están sacando todo a base de ingeniería inversa.

D

Todo esto me produce vértigo

N

#23 El caso es si queremos saber hacer una IA así.

Para qué crear una IA que de verdad entienda las cosas y sea capaz de adaptarse y aprender de cualquier situación como un ser humano? Para su utilidad nos sobra una IA que simule bien la resolución de problemas para los que ha sido específicamente entrenada.

eltoloco

#25 pues claro que la queremos, para muchísimas cosas. Que hagas esa pregunta implica que no entiendes la magnitud del tema.

¿Para que se invierte en ciencia, tecnología y educación? Pues para que la humanidad avance, al menos en teoría. Pues obviamente con una IAF podríamos hacer avances en todos los campos sin prácticamente ningún esfuerzo y sin esperar a que nazca y crezca un erudito en una materia específica.

Si ya con IA simples se está avanzando muchísimo en muchos campos, como en la medicina por ejemplo, con una IAF tendríamos una explosión de conocimiento en todos los campos y en nada de tiempo.

N

#26 Primera ley de la supervivencia: ser el último eslabón de la cadena trófica.

Crear un ente artificial capaz de razonar y entender su mundo, muy superior a un humano y sin limitaciones de la biología con capacidad de evolucionarse a si misma de forma ilimitada, es un riesgo se mire como se mire.

luiggi

#29 Creo que es inevitable

Razorworks

#29 Lo que no hay que hacer es dotarla de manos lol

S

#29 Eso no tiene nada que ver con supervivencia como si el resto de eslabones se extinguieran o no sobreviviera.

N

#49 no seas tan cuadrado: es un símil.

S

#57 Bueno, un símil debatible, que a eso hemos venido. En todo caso, ambos sabemos que nos vamos a extinguir en algún momento, probablemente ni siqueira sea porque nos sustituyan unas máquinas, y al menos, incluso en obras de ciencia ficción que van de ello, me parece bastante cuestionable esa preocupación.

No es tan diferente de pensar que si vienen muchos inmigrantes nos van a "sustituir".

N

#60 ya, bueno, los inmigrantes son seres vivos con derechos y las maquinas inteligentes no estarán vivas.

Que me quieras tumbar un símil de "mejor comer que ser comido" y me sueltes una comparación así, pues...

Ningún ente, vivo o no, con razonamiento y ego va a querer ser exclavo de otro, ni siquiera de su creador. Habrá que limitarlos de algún modo sí o sí. Nos metemos en la ciencia ficción, pero todos sabemos que, sea dentro de 100 o de 1.000 años, tendremos este problema encima.

S

#61 El hablar de seres vivos con derechos es simplemente una definición a medida, en todo caso, me temo que estás viendo mi comentario como querer tumbar nada, y tampoco era mi intención, así que mejor el debate lo dejamos aquí. El simil es mejorable en todo caso...

j

#25 Por lo mismo que fuimos a la luna o subimos el Everest. Porque estaba ahí.

eltoloco

#27 soy ingeniero informático, lo cual ya implica que he estudiado inteligencia artificial, pero además en mi itinerario se profundiza más en ello, con asignaturas como big data o minería de datos, por lo que he estudiado todos los tipos de modelos y aprendizajes como redes neuronales o machine learning e incluso deep learning dentro de este último, conozco un poquitín como funcionan y alguna que otra he entrenado..

#33 eso es totalmente falso. Ninguna IA se inventa nada que no esté en los datos de entrenamiento, ChatGPT tampoco. Lo que ocurre es que mezclan temas, por ejemplo le preguntas sobre A y te responden sobre A añadiendo algo de B. Y sobre los errores que cometen, evidentemente si los datos de entrenamiento contienen errores, el loro va a repetir los errores.

Un buen ejemplo para explicarlo son las respuestas sobre programación, si una IA usa millones y millones de trozos de código de ejemplo en su entrenamiento, ya sean de GitHub, Stackoverflow o de cualquier otra web, evidentemente entre esos trozos de código hay errores, y esos mismos errores están en sus respuestas. Ni ChatGPT ni Copilot ni ninguna otra IA existente entienden lo que hace el código, simplemente escupen con loros un trozo de código que es el resultado de la mezcla de sus datos de entrenamiento. Pues ocurre exactamente lo mismo con cualquier otra pregunta y respuesta sobre cualquier otro tema.

Al final todas las IAs de hoy en día se basan en la estadística, y para que una IA se considere buena o no solo se mira su porcentaje de acierto respecto al dataset de entrenamiento y test, y después con pruebas manuales. El problema es que cuando se trata de temas complejos, como el lenguaje o la conducción, es muy dificil e incluso imposible definir un acierto y un error, y probar todas las casuísticas.

rojo_separatista

#47, creo que es difícil encontrar una forma más cuñada de explicar como funcionan los grandes modelos de lenguaje que como tú lo has hecho. Sencillamente no pueden funcionar como dices porque es materialmente imposible que el modelo memorice internamente los datos de entrenamiento ya que estos ocupan muchísimo más que el propio modelo. Por fuerza tiene que sintetizar y comprimir de alguna manera el conocimiento que contiene el dataset de entrenamiento.

En cierta manera su forma de aprender se parece a la de los seres humanos, aunque es mucho menos eficiente. Básicamente extraen las características relevantes que hay en el texto y encuentran patrones entre las palabras y como se relacionan entre sí, pero a partir de allí es capaz de escribir textos genuinamente nuevos comprendiendo cómo utilizar cada palabra en cada contexto aunque no estuviese presente nada parecido en su dataset de entrenamiento.

Hay decenas de experimentos que puedes hacer. Pero te pongo uno bien sencillo que ilustra la tesis de que no se limita a repetir como un loro. Le he dicho que se invente un nuevo electrodoméstico y me de su definición:

Electrotrapeador: El electrotrapeador es un electrodoméstico diseñado para limpiar superficies mediante la emisión de pulsos eléctricos que generan una fuerza de atracción electromagnética. Esta fuerza atrae partículas de polvo, suciedad y otros residuos, que son luego atrapados por un dispositivo recolector incorporado en el aparato. El electrotrapeador es ideal para la limpieza de superficies delicadas y difíciles de alcanzar, como cortinas, estanterías, techos, entre otros.

Obviamente aquí no está repitiendo nada, porque ni existe esta palabra, ni por supuesto existe ningún electrodoméstico que haga esto. Puedes buscarlo en Google. No está repitiendo nada como un loro, sino que ha aprendido a utilizar el lenguaje de forma coherente a partir de los textos que ha leído y lo aplica a un contexto que no ha visto antes.

S

#48 Al menos la idea de la "redes neuronales" es justamente basarse en cómo funcionan las neuronas humanas. En fin, creo que sea una forma "cuñada" de explicarlo o no, pero también tienes que hablar de forma que se entienda. Y en todo caso, los humanos también aprendemos como loros.

En todo caso, creo que es más que discutible hablar de que la IA realmente entienda nada de lo que ha aprendido.

rojo_separatista

#50, el problema es que se mezclan muchos conceptos. La gente todo el rato confunde conciencia, con inteligencia y capacidad de razonar, cuando son cosas diferentes. A esto súmale que algunos sienten como un ataque a su propia identidad que una IA muestre signos de que puede razonar. En mi opinión debería ser un debate menos visceral y se debería proponer un test específico para determinar qué grado de razonamiento tiene la IA, tipo un test de inteligencia con preguntas nuevas. Aunque hay gente que haga lo que haga el modelo de IA, siempre dirá que no está razonando porque no están dispuestos a aceptar las implicaciones que tiene esta idea. Todo esto aplica exactamente igual a la actitud que tienen muchos artistas frente al arte generado por IA, que se niegan a compararlo con el arte humano aunque a simple ojo algunas creaciones sean imposibles de distinguir. Al principio se centraban en su baja calidad, ahora que esto ya no tiene recorrido ponen énfasis en cómo se han entrenado.

Al final creo que el debate quedará en segundo plano como una cuestión casi pseudo-religiosa y lo que nos interesará no es la metafísica de lo que hay detrás de la palabra razonar sino las funcionalidades que nos aportan estas IA's, esto hará que la mayoría de las personas las terminen utilizando en su día a día independientemente de lo que opinen sobre su naturaleza, si nos resultan realmente útiles.

Lo que sí te digo es que cuando alguien me diga la cuñadez de que las IA's generadoras de arte o texto, se limitan a remezclar trozos de datos de entrenamiento, le voy a confrontar, porque no es así.

S

#52 Estoy de acuerdo en todo lo que dices, aunque no creo que sea todo una cuestión metafísica, también es importante comprender que es lo que aprende realmente una IA y creo que eso es un punto importante en las IA de aprendizaje automático. Tampoco creo que estén creando nada nuevo más allá de lo que tengan en sus datos de entrenamiento, pero también diría que en general esos puntos son perfectamente aplicables a cómo pensamos los humanos.

rojo_separatista

#54, eso de que no crean nada nuevo es relativo, puede que arrojen nuevo conocimiento si sacan a la luz correlaciones que ya estaban implícitas en el cuerpo de entrenamiento y que los humanos no nos habíamos dado cuenta. Pero es verdad que los modelos de lenguaje no van a descubrir una "verdad" que estuviese ya dentro del dataset de alguna manera.

eltoloco

#48 repito, hay que entender como funciona una IA. Evidentemente que la IA no almacena los datos con la que se entrena para después dar las respuesta, sino que convierte todos esos datos a números (0 y 1, como todo en la informática), y después dado un input, es decir, una secuencia de datos, te da un output que cumple con una fiabilidad mayor a X con lo que se respondería ante una pregunta igual o similar con los datos que ha sido entranda.

Una ejemplo es una IA de reconocimiento de texto. La IA no tiene guardada las letras para dar la respuesta ante un input, sino las coordenadas donde suelen aparecer los caracteres. Por ejemplo la L tiene pixeles repartidos de forma vertical en el centro de la letra, entonces para un input que tiene los pixeles en coordenadas que coinciden, su respuesta será la L. Pues lo mismo pero para palabras, y después para secuencias de palabras.

Es que no hay más. Las IAs funcionan así, con estadística. Con X probabilidad después de la palabra X si meto la palabra Y será un acierto y si meto la Z será un error, siempre en base a los datos de estrenamiento. Nunca va a entender el significado de ni de X ni de Y ni Z, porque las máquinas no tienen entendimiento, es pura estadística.

Que se haya "inventado" un electrodoméstico no invalida nada de esto. Porque simplemente lo que ha hecho es devolverte una secuencia de letras y palabras con la que con toda probabilidad tú le verás sentido, pero ello no quiere decir que la IA se lo haya encontrado.

rojo_separatista

#56, vamos, es que estás diciendo cosas distintas a lo que decías al principio. Ahora hablas de los patrones estadísticos subyacentes a la lógica que ha aprendido el modelo y antes hablabas de que repetía como lorito. Esto en realidad son dos cosas distintas si no te has dado cuenta. Si el modelo estadístico es suficientemente bueno, puedes responder a escenarios que no estaban presentes inicialmente en tu dataset y no te limitas a repetir nada.

Y cuando te digo que no guarda los datos de entrenamiento no me refiero a si los guarda en formato binario o en cualquier otro formato, sino a que independientemente de cómo codifiques el dataset de entrenamiento, este ocupa muchísimo más que los pesos que ha aprendido el modelo para generar las respuestas. Lo que significa que no puede buscar un texto que coincida para poder continuar escribiendo sino que ha sintetizado el conocimiento a través de sus capas de auto-atención. ¿Es esto razonar?

Aquí la pregunta que te hago yo es, ¿Como sabes que el modelo subyacente que funciona en el cerebro humano no funciona también a través de intrincados patrones estadísticos? Creo que es un poco presuntuoso pensar que no es así, más cuando se sabe que la forma en la que aparecen determinadas palabras en las lenguas del mundo sigue ciertos patrones matemáticos, que determinan cosas como la frecuencia de aparición. Lo mismo para el reconocimiento de imágenes, también hay un patrón estadístico que nuestro cerebro ha descifrado de alguna manera.

eltoloco

#59 he dicho exactamente lo mismo, pero profundizando más en los detalles. Al final aprender patrones estadísticos es repetir como un loro.

¿Como sabes que el modelo subyacente que funciona en el cerebro humano no funciona también a través de intrincados patrones estadísticos?

Y ese es el quid de la cuestión de IA vs IAF, el problema es que ni si quiera sabemos como funciona exactamente el cerebro humano, por lo tanto es imposible ni siquiera definir los requisitos que tiene que cumplir una máquina para considerarse "inteligente". Pero si que se puede decir que evidentemente un requisito es que como poco sea capaz de entender todo lo que nosotros entendemos, de lo cual está muy lejos, y además debe ser capaz de aprender por si misma, lo cual evidentemente los humanos somos capaces porque nadie nos ha enseñado todo lo que sabemos actualmente, sino que lo hemos ido descubriendo por nosotros mismos.

Y las IAs simples que tenemos actualmente no cumplen ni una cosa ni mucho menos la otra. ¿Que pueden ser mejores aplicando patrones e incluso pueden descubrir patrones ocultos? Si, pero siempre somos nosotros los que tenemos que proporcionarles el conocimientos, es decir, el dataset, con los datos positivos y los negativos. Hay un ejemplo muy bueno, que era la detección de determinada enfermedad a partir de imágenes de las retinas. El titular era que una IA es mejor que un médico porque "ha aprendido" diagnosticar una enfermeda de una forma nueva. Evidentemente no es así, la enfermedad ya estaba diagnosticada en el dataset, lo que se ha descubierto mediante la IA es un patrón en las fotos de las retinas de los pacientes diagnosticados, que es muy diferente. La IA no aprende por si misma, si tu le tiras simplemente fotos de retinas sin haberle dado antes un gran dataset con ejemplos positivos o negativos, nunca te va a descubrir por si misma ese patrón. Una IAF si que debería ser capaz de aprender esto por si misma.

rojo_separatista

#62, vuelves a decir varias cosas equivocadas. En machine learning existen varios paradigmas de entrenamiento y uno de ellos es el aprendizaje por refuerzo que no requiere de ningún dataset para entrenar. Es como se han entrenado algunos de los modelos de Deepmind como Alphachess que aprendió a jugar al ajedrez únicamente haciendo partidas contra ella misma y supera a los mejores modelos entrenados con partidas humanas.

Por otro lado, el aprendizaje del idioma que hacemos los humanos es claramente supervisado, no desarrollamos el lenguaje de la nada, sino que son nuestros padres los que a través de ejemplos todos los días nos ayudan a descubrir y entrenar los patrones que hay en el lenguaje humano. Igual que gptChat hace leyendo textos.

Finalmente esta arrogancia de decir que gptchat no entiende ni razona y nosotros sí, no se de dónde la sacas. Puedes hacer infinidad de pruebas, test de inteligencia, exámenes de comprensión lectora y problemas matemáticos y de programación. Aunque no estuviesen en su dataset, será capaz de resolver muchos de ellos. El problema es que haga lo que haga algunos, que parece que no entendéis muy bien como funciona, diréis que solo memoriza como responder.

Al final tenemos que basarnos en algún tipo de prueba objetiva para validar si gpt está razonando o no, no en intuiciones vagas sobre cómo funciona. Y se le pueden hacer muchísimas pruebas para demostrar que tiene cierto grado de razonamiento. No es perfecto, pero tampoco es incapaz.

eltoloco

#65 no, quien se equivoca eres tú. En el aprendizaje por refuerzo de nuevo eres tú quien le estás diciendo cuando acierta y cuando no. Simplemente cambias el dataset y en lugar de decirle cuando algo es 100% acierto o 100% error, le dices la dirección en la que tiene que ir para que vaya mejorando sus resultados de forma iterativa. Es exactamente lo mismo. No está aprendiendo, tú le dices cuando lo hace bien y en la siguiente iteración sigue explorando esa dirección para que de nuevo seas tú quien le dice cuando va bien y cuando mal.

Y evidentemente TODOS los idiomas los hemos inventado los seres humanos. Claro que el aprendizaje de un idioma ya existente se transfiere de padres a hijos, pero no estamos hablando de aprendizaje individual, sino de inventar y descubrir nuevas cosas como humanidad. Los idiomas los hemos inventado nosotros, no han caído del cielo ni los han traído los extraterrestres.

Y por mucho que insistas, ChatGPT no es nada inteligente. Acierta algunas preguntas en test de inteligencia de casualidad, porque las preguntas que acierta están en sus datos de entrenamiento y por ello da la respuesta correcta. No quiere decir que entienda ni la pregunta ni mucho menos la respuesta. No hay inteligencia alguna, es pura estadística. Quien no entiende como funciona eres tú. Quien hace intuiciones vagas sobre como funciona eres tú. El funcionamiento de cualquier IA actual está bien claro, y es la estadística.

rojo_separatista

#67, madre mía que empanada mental tienes. El aprendizaje por refuerzo se considera como un paradigma de entrenamiento en machine learning que no necesita datos etiquetados para ser entrenado. Obviamente que usa una función de recompensa para saber en qué dirección tiene que ir el aprendizaje. ¿Pero acaso te crees que el ser humano no tiene una función de recompensa subyacente en todos tus procesos? ¿Qué te crees que es la curiosidad, el placer o la diversión? Son las funciones de recompensa que ha desarrollado la evolución para decirle al cerebro como tiene que aprender de forma no supervisada.

Respecto a lo del idioma volvemos a lo mismo. Sí, algunos humanos crearon el lenguaje o lo evolucionaron. Pero el 99.9999% de humanos aprenden el lenguaje desde cero de forma supervisada. ChatGPT lo hace leyendo y nosotros lo hacemos, al principio, escuchando. No nos lo inventamos.

Y finalmente vuelves a lo de siempre. Haga lo que haga chatGPT dirás que lo hace diferente a nosotros porque está en su dataset de entrenamiendo. Cuando ya te he dicho que no es así, que chatGPT ni ningún modelo memoriza nada del dataset, aprende a encontrar patrones, relaciones y contexto y con ello utiliza una representación abstracta. Por supuesto que tiene cierto nivel de razonamiento. Pero claro, si haga lo que haga siempre dirás que es que lo está memorizando, y que da igual que le pongas un problema que no existe en todo internet, pues no habrá forma alguna de validar o refutar esta tesis. Es como hablar de religión y metafísica. Es así, porque tu lo vales.

eltoloco

#68 no hace falta que te pongas agresivo, no pasa nada por no entender un concepto técnico como este, y más en este caso en el que los conceptos como "aprendizaje" o "inteligencia" son tan difusos. Hasta en la misma página de la Wikipedia sobre IAG se menciona que es muy común esta confusión:

Es una fuente común de confusiones el hecho de que el significado original de IA se asemeja más a la actual IAG que a aquello que hoy en día se entiende, científicamente, como IA.

https://es.wikipedia.org/wiki/Inteligencia_artificial_fuerte

El problema de base es llamar "inteligencia" a lo que no es más que matematicas relativamente simples, y más concretamente estadísticas.

Respecto al aprendizaje mediante refuerzo es muy sencillo de ver porque ahí no hay inteligencia alguna. El ejemplo típico es el de un coche que recorre un circuito, el primer objetivo es llegar a la meta sin salirse, y el segundo es hacerlo en el menor tiempo posible. Las recompensas se aplican primero en función del avance, y una vez alcanzada la meta o metas parciales se aplican en función del tiempo. Pues bien, es algo muy simple, la máquina empieza a aplicar secuencias aleatorias de aceleracion, giro y freno, y en función de esas secuencias va obteniendo recompensas y sigue explorando las secuencias con las que ha obtenido mejores puntuaciones pero aplicandole pequeños cambios. Al final consigues que el coche recorra el circuito entero e incluso puedes hacer un tiempo decente, y cuantas más iteraciones mejor lo hará. Una vez hayas terminado el proceso de entrenamiento, la IA será capaz de recorrer el circuito sin tener que almacenar el resultado, pero esto no quiere decir que haya aprendido a conducir, simplemente ha aprendido una secuencia o distantas secuencias que le llevan a tener un resultado válido, por ejemplo cuando estoy en el punto X, Y -> acelerar, X2, Y2 -> derecha, etc, etc. Así es como funcionan este tipo de aprendizajes, y hay mil ejemplos en YouTube, que es donde lo habrás visto sin duda.

ChatGPT.. Por supuesto que tiene cierto nivel de razonamiento.

Esto totalmente falso, evidentemente falso, es una barbaridad como una catedral. No hay razonamiento ninguno. Eso es el santo grial de la inteligencia artificial, eso sería una inteligencia artificial fuerte, y ni existe ni se le espera ni a corto ni a medio plazo, por mucho que lo repitas. ChatGPT lo único que hace es escupir una secuencia de letras y palabras que primero siguen las normas del lenguaje en que las escupe y después tienen cierto sentido lógico. Y yo te puedo poner ejemplos claro de ello. Por ejemplo uno muy famoso es del tipo:

- Si con 4 coches tardo 8 horas en llegar a Madrid, ¿Cuanto tardo con 10 coches? Y su respuesta son 20 horas, porque en el caso que le has dado divide 8 horas entre 4 coches y el resultado son 2 horas por coche. No tiene absolutamente NADA de inteligente, pero la respuesta está bien escrita y las matemáticas que ha hecho son "correctas": 8/4 = 2, 2*10 = 20.

rojo_separatista

#69, bueno, te pido disculpas si piensas que me he puesto agresivo aquí . No es mi intención discutir, sino debatir sobre esto. Simplemente tenemos visiones distintas. Como este campo no parará de evolucionar, podremos seguir debatiendo por aquí en muchas más ocasiones.

eltoloco

#70 perdóname que insista.. lol

Sin duda veremos muchísimos avances en IA, pero no así en IAG. Hay chorros de tinta sobre la materia. Por ejemplo la Wikipedia inglesa tienes la opinión de Paul Allen, cofundador de Microsoft, que es básicamente lo mismo que yo te estoy diciendo:

Microsoft co-founder Paul Allen believed that such intelligence is unlikely in the 21st century because it would require "unforeseeable and fundamentally unpredictable breakthroughs" and a "scientifically deep understanding of cognition"

https://en.wikipedia.org/wiki/Artificial_general_intelligence#Controversies_and_dangers

eltoloco

#70 esta tarde no funcionaba ChatGPT, pero ahora ya funciona, aquí tienes lo que te comentaba de los coches, puedes hacer la prueba por ti mismo. No puede haber prueba más clara de que de inteligente no tiene nada:

eltoloco

#70 y esto dice si le amplio la pregunta a 1000 coches: “15 minutos por coche” supuestamente aplicando la ley de Little. Evidentemente no tiene ni puñetera idea de lo que es la ley de Little, simplemente la repite como un loro en un problema que no tiene absolutamente nada que ver:

Si bien la proporción que se utiliza para estimar el tiempo de viaje en el caso de 4 coches no sería adecuada para aplicarla directamente a 1000 coches, podemos hacer una aproximación razonable basándonos en la ley de Little.

La ley de Little establece que el tiempo medio que un objeto permanece en un sistema es igual al número promedio de objetos en el sistema dividido por la tasa promedio a la que los objetos abandonan el sistema. En el caso del viaje de los coches de Madrid a Avila, podemos considerar el sistema como el camino que recorren los coches, y la tasa promedio a la que abandonan el sistema como la velocidad promedio de los coches en el camino.

Supongamos que la distancia entre Madrid y Avila es de 100 km y que los 4 coches que tardan 1 hora en recorrerla lo hacen a una velocidad promedio de 100 km/h. En este caso, la tasa promedio a la que los coches abandonan el sistema (la velocidad promedio) es de 100 km/h. Utilizando la ley de Little, podemos estimar que el tiempo promedio que un coche tarda en recorrer la distancia es de 1 hora/4 coches = 0.25 horas por coche.

Si extrapolamos esta estimación para 1000 coches, podemos decir que el tiempo promedio que tardaría un coche en recorrer la distancia entre Madrid y Avila sería de aproximadamente 0.25 horas/coche * 1000 coches = 250 horas. Sin embargo, es importante tener en cuenta que esta es solo una estimación muy aproximada y que el tiempo real de viaje de los coches dependerá de muchos factores, como el tráfico, la velocidad a la que viajen los coches, entre otros.

rojo_separatista

#74, voy a desmontar tu argumentario sobre el problema del coche pero déjame ir por partes.

El principal problema es que no entiendes que la capacidad de razonar no es una cualidad absoluta, sino que hay una gradación. Igual que si una persona no sabe como responder este problema del coche no dirás que no razona en absoluto, con chatGPT pasa lo mismo, puede que haya problemas que falle y otros que acierte. Lo que no puedes hacer es que cuando falle, señalar que este es una prueba irrefutable de que no razona en absoluto, y que cuando acierte, digas que lo hace porque está repitiendo. Lo que hay que hacer es utilizar este tipo de problemas para determinar en qué punto de la gradación se encuentra.

Y resulta que le he planteado el mismo problema a Bing Chat, que es una más avanzada que chatGPT y resulta que lo ha sabido contestar bien. Te voy a adjuntar algunas capturas de pantalla.

Primero me ha dicho que no entendía como el número de coches afecta el tiempo de viaje, luego, le he replanteado la pregunta y lo hizo bien.

Por eso los que argumentario no se sostiene. Porque ahora que lo hizo correctamente dirás que repite como un loro, pero si lo hace mal dices que esto es una prueba irrefutable de que no razona en absoluto.

Perdona pero esto no es serio ni científico, no aplicas ningún método estandarizado de evaluación, sino que partes de unas ideas apriorísticas y solo tomas en cuenta las respuestas que supuestamente validan tu tesis.

Eso no debería ser así. Si has utilizado esta prueba para intentar demostrar que no razona. Cuando lo hace bien debería ser una prueba de lo contrario.

eltoloco

#75 no es una prueba irrefutable de nada, ni para un lado ni para el otro, es un ejemplo de como falla ante preguntas simples que no requieren una gran inteligencia para resolverla, hasta un niño pequeño respondería bien. También que aplique una formula de teoría de colas a un problema simple como este es otro ejemplo de que no entiende nada de lo que está pasando. Por último está la respuesta final que siempre es calcada: "depende del tráfico y bla bla bla", que a mi me parece evidente que está hardcodeado como respuesta ante preguntas del tipo "cuanto tardaré en llegar a X". No hay nada de inteligencia se mire por donde se mire, es un modelo de lenguaje con muchas limitaciones y mucho trabajo manual para detectar determinadas preguntas y responder determinadas respuestas, y a la que tiene un poco de libertad la caga.

rojo_separatista

#76, lo ves, es que podemos discutir hasta el infinito. Porque la evidencia te da completamente igual.

Te acabo de demostrar que el problema que pusiste como ejemplo de que no razona lo puede resolver y sigues sin moverte un milímetro. Así es imposible aplicar el método científico, ni llegar a ningún sitio. Puedes aplicar tu lógica hasta el absurdo más absoluto, porque aunque se comporte exactamente igual que un ser humano a nivel de resolución de problemas de lógica, seguirás diciendo que no razona y que solo repite ya que lo que parece que te molesta es que la arquitectura que utilize sea una red neuronal artificial y no un cerebro biológico. Y si no dime dónde está la frontera? ¿Qué prueba es necesaria superar para determinar que tiene una mínima capacidad de razonamiento?

En fin, cuando el nivel de los argumentos deja de tener en cuenta la evidencia empírica, creo que no tiene sentido seguir discutiendo, lo que tienes es más una cuestión de fe, que de otra cosa.

PD: Te adjunto una última captura donde me dice que no tiene sentido el número de coches.

eltoloco

#77 a ver, el problema que te he presentado del número de coches se ha hecho viral en todas las redes sociales, lo extraño es que todavía lo siga cometiendo en la web de OpenAI. Evidentemente según vayan saliendo fallos como estos los irán arreglando manualmente, porque hay mucho dinero en juego. Que lo hayan resuelto o que resuelvan mil errores más como esto solo demuestra lo poco inteligente que es, porque requiere de arreglos manuales en muchísimos casos de uso simples.

rojo_separatista

#78, no se que entiendes por arreglo manual. Pero lo que han hecho es re-entrenarlo. El caso es que como te he dicho, la inteligencia es una gradación y chatGPT puede resolver problemas de lógica que muchas personas fallarían y viceversa. Hasta ahora ninguna IA había sido capaz de dominar tantos dominios a la vez. Yo la uso para un montón de cosas en mi día a día, programar, escribir documentos, redactar emails o inspirarme en nuevas ideas.

Si no entiendes que dentro de esta gradación, no está en el borde totalmente estúpido, sino que tiene cierta capacidad de razonar (la hayan entrenado o no para ello). Y haga lo que haga, dirás que lo han hardcodeado o que lo repite como un lorito. No se porque vale la pena seguir discutiendo. Ninguna evidencia te convencerá.

Por lo tanto, opino que la mejor medicina es dejar que pase el tiempo y ver como la evolución de la IA va apisonando todos y cada uno de los parapetos de quienes se dedican a minimizar su potencial. Más allá de eso, poco puedo hacer. Porque tal y como te he dicho. Aunque le plantee un problema de lógica que requiera razonar para resolverlo, seguirás diciendo que no razona.

eltoloco

#79 que lo han reentrenado es una asumpción tuya sin base alguna. Es evidente que ChatGPT tiene muchísimos arreglos manuales y limitaciones. Por ejemplo para evitar cualquier polémica por discriminación. De ahí salió la forma de saltarse estas limitaciones usando el “prompt”. La realidad es que ChatGPT no es una IA, sino un software con una IA subyacente a la que se accede siempre y cuando no se detecten la infinidad de flags que se hacen que se bloquee la query. Todos esos flags es a lo que me refiero con arreglos manuales.

rojo_separatista

#80, es que ni siquiera sabes como funciona chatGPT . Es un modelo basado en GPT 3 con algunos cambios en la arquitectura la que han llamado 3.5 y al que han reentrenado utilizando un paradigma RLHF (aprendizaje por refuerzo condicionado a feeback humano). De esta forma consiguen que vaya mejorando, interactúe como un chat y no como un generador de texto y tenga todos los filtros de discriminación que comentas.

No es nada externo al modelo, todo está embebido dentro de sus pesos y ajustado a través del fine-tuneado con la técnica que te comenté. Por favor... A lo sumo hay un filtro a nivel superior para palabras ofensivas, pero nada más.

Y sí, OpenAI y Microsoft están poniendo toda la carne en el asador para reentrenarlo y que cada vez tenga menos sesgos y funcione mejor en estas cosas que antes fallaba utilizando etiquetadores humanos para escribir los ejemplos. Pero esto es un signo de inteligencia, porque cuando le enseñan como resolver un problema de lógica como el que comentas con 10 coches es capaz de extrapolarlo a otrs problemas con 15, 20 o 30 coches o hacerlo con caballos o bicicletas si hace falta. Esto es un signo claro de inteligencia.

Pero te estás haciendo todo el rato de la picha un lío mezclando AGI, con IA, con razonamiento y con conciencia. Como tu marco mental se mueve en categorías absolutas eres incapaz de ver que hay una gradación. Si no es un AGI, ya no puede ser nada, solo un lorito que repite. Pues no es así, una IA es hasta un simple programa de ajedrez que hace una exploración heurística en un árbol de búsqueda y esto no significa que sea una AGI.

eltoloco

#81 no insistas por ese camino, ya he dicho que soy ingeniero informático, se perfectamente lo que es una IA. Conozco todos los ejemplos clásicos de IA simples y de agentes inteligentes, es más, fui el ganador de la batalla anual de agentes inteligentes en mi promoción de la asignatura de IA.

Lo que te ocurre a ti con ChatGPT, como a la mayoría de la gente que lo usa, es que lo idealizas por el hecho de que sus respuestas son en lenguaje natural, lo cual crea un sesgo en el usuario que hace que piense que es mucho más "inteligente" de lo que realmente es. A mi me pasó exactamente lo mismo cuando con 8 o 9 años me enseñaron al Dr. Abuse, que era un pequeño programita a modo de chat con el que podías hablar en lenguaje natural y "entendia" tus preguntas y te respondía con respuestas muy acertadas y variadas, estamos hablando de los años 90, con Windows 95 o 98:



Luego estudié IA y entendí que en realidad es un programa super simple, luego llegó la moda de ChatGPT y lo que me causa es gracia al ver a gente como tú idealizando esto como si fuese una persona metida dentro de un ordenador, cuando en realidad no es más que un Dr Abuse super vitaminado con millones y millones de datos de entrenamiento en lugar de unos pocos megabytes como el Dr Abuse.

rojo_separatista

#82, a ver, no quería ir por aquí, ni utilizar esto como falacia de autoridad, pero bueno, yo soy doctor en ingeniería informática y llevo casi 10 años trabajando con redes neuronales, osea que se perfectamente de que va el tema y precisamente por eso hablo como hablo.

No estoy idealizando nada, simplemente conozco como ha evolucionado el estado del arte y se que hace apenas 5 años no éramos capaces de diseñar un modelo que pudiese escribir un par de frases con un mínimo de coherencia. Por eso cuando alguien va de enteradillo y frente a un milestone en toda regla como es chatGPT (por mucho que autores como Gary Marcus o Lecun digan lo contrario) va y dice que no es para tanto, que se limita a repetir los datos con los que se ha entrenado, me enervo bastante.

Ya te he dicho que no estás dispuesto a atender a la evidencia, así que poco se puede discutir contigo, nada de lo que haga ningún chatbot puede probar que está razonando o que tiene un cierto grado de inteligencia según tu.

rojo_separatista

#82, creo que el principal problema es que entendemos cosas diferentes cuando hablamos de razonar. Para tí razonar es el proceso biológico que se produce dentro del cerebro humano. Para mi es el resultado de un sistema independientemente del soporte y cómo se produzca. Para mí un algoritmo de árbol de búsqueda que juega a ajedrez está razonando a un nivel básico y para un problema muy concreto aunque no se parezca a como lo hacemos los seres humanos. Lo mismo pero con mayor complejidad hacen las redes neuronales en las que se basa chatGPT.

Si no coincidimos en el vocabulario que utilizamos difícilmente llegaremos a nada. El problema de tu definición es que no se puede ni validar, ni refutar empíricamente, porque ni siquiera comprendemos plenamente como funciona nuestro cerebro y además creo que es irrelevante para producir modelos útiles para la humanidad.

Doisneau

#23 Aprovecho para mencionar el experimento mental de la habitacion china, que he sacado a colacion varias veces con todo esto de las IAs y tal:

https://es.m.wikipedia.org/wiki/Habitaci%C3%B3n_china

c

#23 la mayoría de la gente que conozco tampoco razonan mucho, solo repiten como loros, así que ya es más inteligente que mucha gente

m

#4 si finalmente no es un millón y solo es 100 veces mejor que ChatGPT a mi me sigue dando miedito lo que se viene

e

"Sin Nvidia no existiría ChatGPT"
basicamente sin Nvidia habria otra empresa haciendo algo similar sobre la que se haría ChatGPT. Nada ni nadie es irremplazable.

j

#16 "Todos somos contingentes pero tú eres necesario"

Pacman

Dentro de 10 años?
Yo o quiero ahora!

y que bajen los precios de las graficas

sotillo

#2 ¿ Si son tan inteligentes que pintamos el resto? Si vale, votar a la derecha pero y ¿ Que más?

e

#9 no pintamos nada, por eso quieren que nos muramos. Solo consumimos recursos naturales. Por eso si viene cambio climático, como si viene una pandemia o como si viene una guerra nuclear cuantos más muertos mejor.

E

#21 en teoría hace falta mucha gente para garantizar una diversidad genética y que las personas del futuro no salgan todos con taras o tengan mutaciones.

Pero claro eso es más fácil si en vez de tanto fenotipo caucásico se meten más personas racializadas. De ahí la teoría de la sustitución. Es más eficiente para el consumo de recursos.

tinfoil

Es irónico troll ley de Poe que todo hay que explicar

j

#21 Quienes quieren eso exactamente? Los masones? Podrías dar un par de nombres concretos de personas que quieran que nos muramos todos?

e

#39 no me sé el nombre de cada uno. ¿Te los dibujo con plastidecor?
Pero vamos, que en principio las marionetas que están puestas como Borrel, Biden, Von der Leyen y todos sus semejantes y los que se han preocupado de ponerles ahí, lo que viene siendo la burguesía europea, americana. Luego te paso el dibujo de sus caras, aunque una se llamaba Manoli, creo.

j

#44 Ok, me queda claro. El socialista Josep Borrel nos quiere ver a todos muertos. En fin. Una cosa es argumentar que hay ciertas élites que defienden sus intereses (estoy de acuerdo), y otra son ese tipo de exageraciones propias de un discurso radical con el que se pierde mucha credibilidad.

M

#21 por eso quieren que nos muramos

¿Quién?

pedrobz

#2 ¿baj..? lol lol lol lol lol

samsaga2

Simplemente haciendo la red más grande no generas más inteligencia. Solo consigues overfitting, es decir, que tú red memorice los datos en lugar de aprenderlos.

o

estamos acabados....

MoneyTalks

#6 Sólo si tienes que comprar una gráfica. Ya sabemos donde va a ir el stock y porque no bajan como deberían los precios.

j

Más potentes? y cómo las entrenarán? cachearán internet entero? tendrán capacidad para contrastar información o caerán en las trampas de clickbait? podrán defenderse de bots creados para trolearlas?

Este señor ha soltado un titular grandilocuente para que los inversores le tiren el dinero a la cara.

j

#22 Últimamente entrenan consigo mismas. Por ejemplo, así aprenden a jugar al ajedrez. Pero es cierto que va a ser entretenido ver que pasa cuando el 99% del contenido de la Red sea generado por máquinas.

thorin

Pos fale, pero a ver qué hay disponible en 6 meses.

Ratef

Esperemos que esta inteligencia nos saque por fin de las grandes dudas de la humanidad:

¿Hay alternativa al capitalismo? ¿Fuera del capitalismo sólo hay rojos?

sotillo

#8 Son cuatro y Dios no está con ellos

Acuantavese

#8 Eso ya te lo contesta google y con referencias claras

Usuarioinutil

Así que nos quedan 10 años de vida.

i

Ajam, demasiado rápido va, en 10 años van a seguir teniendo trabajo los trabajos manuales y fisicos, los trabajos de oficina van a desaparecer, solo quedaran los que manienten IAs

rafaLin

#45 Eso mismo dijo el jefe de OpenAI, van a desaparecer antes los trabajos que se hacen con ordenadores, que los manuales.

Mis padres me decían que estudiara para que no me reemplazara un robot, y yo les digo a mis hijos que hagan manualidades para que no les reemplace una IA.

c

Vamos a morir todos

cdya

Hola, este es Bing. Según los resultados de búsqueda123, el nuevo superordenador de Microsoft y OpenAI para GPT tiene los siguientes componentes:

Un sistema con 285.000 núcleos de CPU
10.000 núcleos de GPU
Velocidad de 400 GB por segundo de conexión en red para cada servidor GPU
Hospedado en Azure.

Menos lobos caperucita.

elchacas

Pues espero que sepan predecir mejor el mercado o no llegan a verlo como empresa.

NapalMe

Ya lo decia Sheldon Cooper, la mejor targeta grafica es tu mente. (vale si, decía imaginacion...), así que se está cerrando el círculo...

H

Nvidia lo que tendría que hacer es bajar el precio de sus gráficas de la pasada generación, que para previsiones ya están los del tiempo

Y eso lo traduce NVIDIA en un incremento de beneficio de x10 o x100 al ser sus arquitecturas de GPU las únicas que se utilizan para deepl learning. Ya se podía poner AMD las pilas para hacerles un poquito la competencia en este campo, que los ingresos por este tipo de actividades en comparación con el sector gaming seguro que hoy día representan un porcentaje considerable.

CidFapeador

Los avances que anuncian solo son para hacer CHATGPT más potentes, que den más el pego, pero ninguno de estos avances nos acerca a una IAG

p

Muy bien, muy bien. Ahora poned las próximas IAs a controlar fábricas de drones y dejad que algún programador resentido les introduzca código para control de plagas revisado, y ya estaría