La comunidad de programadores de código abierto ha puesto manos a la obra para modificar y mejorar modelos de lenguaje similares a ChatGPT. Esto puede tener efectos enormes, para bien y para mal, en el desarrollo de la inteligencia artificial.
#5:
Yo visto el comunicado ese de una frase firmado por las grandes compañías para meter miedo hablando de "riesgo de extinción", tengo más claro que nunca que lo que hay que hacer es quitárselo de las manos. No se puede dejar en manos de cuatro empresas esta tecnología, ni que decidan lo que se permita y no se permita hacer, que es lo que les gustaría.
Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
#11:
#7 nada más lejos de la realidad, la IA es una tecnología que tiene más de 80 años, y su uso lo tenemos incorporado en nuestro día a día desde hace fácilmente más de 20 años.
Las redes neuronales, que son el mismo tipo de IA que usa ChatGPT o DALL-E, se describieron de forma teórica en 1943 y se aplicó de forma práctica y exitosa en 1958:
Con un “simple” perceptron se pueden hacer cosas muy importantes, y los usamos en el día a día desde hace mucho tiempo sin darnos cuenta, por ejemplo entrando a un parking con la cámara que “lee” la matrícula o hablando con un contestador automático que toma decisiones “escuchando” tus respuestas.
Si hablamos de machine learning se empezó a desarrollar en los años 60, y por último el deep learning se empezó a desarrollar en los 70 y se popularizó en los 80:
Lo único que ha pasado en los últimos años es que, gracias a la perfección de la técnica y el aumento exponencial del número de datos y la potencia de cálculo, han salido proyectos muy interesantes que generan predicciones realmente sorprendentes, tan buenas que parecen creaciones humanas. Pero de ahí a decir que la IA está en sus albores es no saber de lo que se habla.
#10:
#6 Creo que se trata de un cambio completo de paradigma, no de modelos. Como dice #4 esta tecnología en sí es disruptiva. ChatGPT y esa clase de modelos de lenguaje o de creación de imágenes son juguetitos sin apenas valor. Lo interesante del tema es la capacidad de "aprender" de manera automatizada. El conocimiento que a 1000 cientíticos les llevaría décadas, una buena IA te lo desarrolla en unos pocos días. Es una de esas ocasiones en las que los árboles no nos dejan ver el bosque.
#7:
Yo lo veo como las máquinas voladoras más pesadas que el aire.
Los hermanos Wright empezaron con una máquina que apenas volaba a 3 metros de altura en saltos de entre 30 y 90 metros sin direccion lateral… y solo 10 años más tarde tenemos los ases de la aviación de la primera guerra mundial.
Ahora estamos viendo lo mismo con la IA… y como entonces mucha gente no se lo tomó en serio.
#26:
#2 Es que la humanidad tiene 2 motores, el animo de robarle los recursos a otro y el sexo, la bomba y todo el aparato militar vale para lo primero, pero otros muchos inventos como la fotografía, el cine o internet triunfaron gracias a lo segundo
¿Qué os pensáis que quieren decir Sam Altman, Musk y los gigantes IT cuando piden a los gobiernos que regulen? Están pidiendo precisamente que solo empresas puedan operar y desarrollar dichos modelos.
Están preparadísimos para asegurarse que se quedan ellos con el pastel (lo cual tiene sentido en parte, ya que son ellos los que están arriesgando capital durante décadas para que llegue al punto en el que está).
#19:
#5 El comunicado al que haces referencia está firmado también por muchos académicos, y por gente como Geoff Hinton que dejó Google precisamente por sus preocupaciones al respecto.
Es un poco frustrante que Musk y Altman firmen todas estas cosas, y la gente sólo se quede con que las han firmado ellos (que sí, no me cabe duda de que lo hacen por puro interés) y no con todas las otras firmas que también muestran su preocupación por el tema.
#15:
#5 no son cuatro empresas, son personas, científicos, muchos padres fundadores de la disciplina
Yo visto el comunicado ese de una frase firmado por las grandes compañías para meter miedo hablando de "riesgo de extinción", tengo más claro que nunca que lo que hay que hacer es quitárselo de las manos. No se puede dejar en manos de cuatro empresas esta tecnología, ni que decidan lo que se permita y no se permita hacer, que es lo que les gustaría.
Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
#5 Y si se crean IA que hacen innecesarios miles y miles de puestos de trabajo pues se les paga un subsidio a cuenta de nuestros impuestos y listo. O que se mueran de hambre mejor. Que no hubieran estudiado diseño gráfico, traducción, programación, etc.
El peligro no es Skynet, el peligro es un cambio en el mercado de trabajo, y en la economía en conjunto, demasiado brusco.
#9 Los traductores deben revisar los resultados. Lo mismo en diseño y programación.
Con las IAs lo único que vas a conseguir son churros como Visual Basic y sus chorriprogramas pero en la era de Internet. Fuente de vulnerabilidades y futuros ataques por ahorrarse unas perras.
#16 esas mismas vulnerabilidades y ataques lo puede prever justamente la IA... Para mí, dicho muy de manera simplificada, cualquier cosa que un humano podría hacer y tardar mucho tiempo la IA va a estar ahí. En mi opinión, claro.
#16 Creo que estás sobreestimando a los humanos. 😂 Nadie dice que no hagan falta programados o traductores pero harán falta muchos menos, y esto pasará en muchísimos campos, eso son solo los ejemplos que se me han ocurrido como más obvios.
Va a haber mucho más paro por el aumento de la productividad bestial.
#16 Parece que algunos pensáis que esto de la IA se va a estancar en lo que hay ahora y ya. Que nunca jamás se va a sobrepasar las limitaciones de ahora y que por siempre harán falta seres humanos.
#16 Cualquiera de nosotros puede ejecutar un sistema GPT o LlaMa en su ordenador con GPT4All (https://gpt4all.io/index.html). Hay decenas de modelos de lenguajes disponibles y instalarlo es mas fácil que instalar el MS Office. Lo que pueden hacer las empresas con ordenadores de 100 millones de €, o nosotros cuando salgan las IA que corran sobre GPU (en lugar de CPU) es puramente magia.
#9 El mercado de trabajo es un medio para conseguir un fin, la generación de recursos, no un fin en sí mismo. Si los recursos se generan igual el problema no es del mecanismo que los genera; si el sistema económico no es capaz de adaptarse a la nueva realidad, a lo mejor lo que hay que cambiar es el modelo económico.
#9 Lo acojonante es que estamos alcanzando algo que parecía utópico, que las máquinas puedan trabajar por nosotros, y en lugar de alegrarnos tenemos que ir con miedo. El problema no es la IA, el problema es el sistema.
#40 Claro. Lo peligroso es la combinación de la IA con el capitalismo. El aumento de la productividad lleva a que los trabajadores en paro se mueran de hambre, a que se les mantenga con subsidios, o a un neocomunismo en el que simplemente todos los beneficios de la IA y la robótica sean para todos.
#9 tienes razón, ojala nunca hubieran descubierto el fuego, fue un cambio demasiado brusco.
De un día para otro se pudo cocinar los alimentos. Los hombres de verdad los toman crudos.
#9 Cierto pero... Estos cambios sociales solo perjudican a los de abajo, los proletarios y a los dirigentes (dirigentes totalmente irrelevantes). A la empresa y sobre todo al Gran Capital esta revolución social les beneficia radicalmente. Los permitirá bajar los costes en personal a medio plazo al 90%, y siendo el capital quien controlan el sistema, no hay manera de pararlo.
#66 Pienso que te equivocas. Si mejora la productividad de un sector, o de todos pero de forma moderada pues bien, pero si es una mejora global drástica entonces no hay manera de encajarlo en el capitalismo. El capitalismo no solo necesita producir, también necesita que alguien consuma aquello que se produce. Necesita clientes con una nómina. Si de pronto produces lo mismo con un 20% de la plantilla, el paro sube al 80% y a ver quién consume.
#82 Ciertamente estamos en un punto de inflexión en la historia de la humanidad.
Los dueños siempre preferirán tener 10 trabajadores y facturar 10 millones que tener 1.000 trabajadores y facturar 1.000 millones (donde casi todo se va a pagar sueldos).
Sam Altman: “Con la IA habrá empresas de 1.000 millones de dólares llevadas por una sola persona”
Ciertamente esto provocará el fin del capitalismo tal y como lo conocemos, porque tanta gente en el paro querrá comer si o si .
#15 Los fundadores? Me fío más de la gente de Scheme/Common Lisp que lleva 40 años y más en esto, que de los "padres fundadores".
De hecho con el lenguaje Common LIsp escribirte un chatbot que reconozca algo el lenguaje o una calculadora que simplifique ecuaciones y expresones está tirado, forma parte de un libro relacionado sobre inteligencia artificial y CL, cualquier bachiller lo acabaría sin problema.
#17, hostia, me has hecho acordarme de los koans de la IA
One day a student came to David Moon and said: “I understand how to make a better garbage collector. We must keep a reference count of the pointers to each cons.”
Moon patiently told the student the following story:
“One day a student came to Moon and said: ‘I understand how to make a better garbage collector...
#15, los seres humanos somos románticos por naturaleza y tendemos siempre a buscar una cara oscura en la lucha de poder entre las fuerzas dominantes y poderosas y los rebeldes con menor potencial pero mejores intenciones. Como siempre, la realidad suele ser mucho más aburrida y evidente.
Como bien dices, no solo se trata de grandes empresas, hay muchos científicos y expertos que van en esa línea.
#5 El comunicado al que haces referencia está firmado también por muchos académicos, y por gente como Geoff Hinton que dejó Google precisamente por sus preocupaciones al respecto.
Es un poco frustrante que Musk y Altman firmen todas estas cosas, y la gente sólo se quede con que las han firmado ellos (que sí, no me cabe duda de que lo hacen por puro interés) y no con todas las otras firmas que también muestran su preocupación por el tema.
#5, independientemente de los intereses que puedan tener las grandes empresas, tu discurso me parece peligrosamente parecido al de los miembros de la Asociación Nacional del Rifle cuando se habla sobre el control de armas.
#5 El problema del software libre es que alguien podría cambiar la constante "MatarATodosLosHumanos" de false a true, y acabamos con un Bender Rodríguez.
Yo lo veo como las máquinas voladoras más pesadas que el aire.
Los hermanos Wright empezaron con una máquina que apenas volaba a 3 metros de altura en saltos de entre 30 y 90 metros sin direccion lateral… y solo 10 años más tarde tenemos los ases de la aviación de la primera guerra mundial.
Ahora estamos viendo lo mismo con la IA… y como entonces mucha gente no se lo tomó en serio.
#7 nada más lejos de la realidad, la IA es una tecnología que tiene más de 80 años, y su uso lo tenemos incorporado en nuestro día a día desde hace fácilmente más de 20 años.
Las redes neuronales, que son el mismo tipo de IA que usa ChatGPT o DALL-E, se describieron de forma teórica en 1943 y se aplicó de forma práctica y exitosa en 1958:
Con un “simple” perceptron se pueden hacer cosas muy importantes, y los usamos en el día a día desde hace mucho tiempo sin darnos cuenta, por ejemplo entrando a un parking con la cámara que “lee” la matrícula o hablando con un contestador automático que toma decisiones “escuchando” tus respuestas.
Si hablamos de machine learning se empezó a desarrollar en los años 60, y por último el deep learning se empezó a desarrollar en los 70 y se popularizó en los 80:
Lo único que ha pasado en los últimos años es que, gracias a la perfección de la técnica y el aumento exponencial del número de datos y la potencia de cálculo, han salido proyectos muy interesantes que generan predicciones realmente sorprendentes, tan buenas que parecen creaciones humanas. Pero de ahí a decir que la IA está en sus albores es no saber de lo que se habla.
#11 yo programé un ordenador neuronal de IBM a mediados de los 90, y los gliders existían en el siglo XIX…
Pero ha sido desde 2005 en adelante que la potencia de cálculo se ha disparado y permite hacer sencillamente en ordenadores de casa lo que antes haciamos de forma complicada en el Cry5 de la UPC con quotas de uso limitado.
#12 Common Lisp y sus gentes hacían virguerías (y siguen haciendo) gracias al propio LISP y su homoiconocidad. Y si lo juntas con Emacs ni te digo, como ajo y aceite.
#11, es cierto que las bases teóricas de la IA moderna se desarrollaron hace varias décadas. Pero no ha sido hasta la última década que los datos disponibles y la potencia de cálculo han permitido empezar a desarrollar modelos realmente interesantes. El ejemplo que pones de leer una matrícula, no lo hace un perceptrón sino cientos de ellos.
Por otro lado me parece muy pertinente el ejemplo de #7, de que lo que vemos hoy en día no tiene nada que ver con lo que veremos en una o dos décadas y que la sociedad no está del todo preparada para ello.
#33 el problema de la analogía que ha hecho #7 es que está comparando puntos diferentes del desarrollo de ambas tecnologías.
En la IA no estamos dando los primeros saltos ni muchísimo menos, si tenemos que compararlo con la aeronáutica ahora mismo estariamos en la década del boom de la aviación comercial en los 70 u 80, con la popularización de los primeros modelos de aviones comerciales modernos como el primer 737 y con el desarrollo de tecnología punta como el Concorde.
Los primeros saltos de la IA es lo que he comentado en #11 con algunos ejemplos simples y que usamos a diario. Ahora mismo estamos en pleno boom de la IA, y lo que veremos a partir de ahora es la maduración de la tecnología. El salto tecnológico de un hélice biplano a un avion comercial a reacción ya lo hemos dado.
Y en ningún momento he dicho que se use un solo perceptron, relee mi comentario, estoy hablando de tecnologías y me refiero al perceptron como ello.
#61, creo que el problema es que los ritmos de desarrollo han sido muy distintos en ambos casos, por eso hacer cualquier analogía es complicado. La aviación se desarrolló a un ritmo constante durante las primeras décadas después de su invención. No así la IA que ha vivido un invierno de varias décadas. Por eso creo que ambos tenéis parte de razón.
#33 Más tiempo, en la AEAT hace 25 años ya estaban usando una red neuronal para cazar defraudadores, y funcionaba muy bien (el aprendizaje tardaba 2 meses en un maquinón de 80 procesadores).
#74, me apostaría cualquier cosa a que
si era hace 25 años, usaban una SVM y no una red neuronal, pero da igual, aunque a simple vista no lo pueda parecer, el problema que describes es infinitamente menos complejo que reconocer un dígito en una imagen o escribir una frase de 10 palabras que suene coherente. El error de base es pensar que lo que es difícil para los humanos lo es para una máquina y al revés. El salto que se ha dado la última década ha sido exponencial.
¿Qué os pensáis que quieren decir Sam Altman, Musk y los gigantes IT cuando piden a los gobiernos que regulen? Están pidiendo precisamente que solo empresas puedan operar y desarrollar dichos modelos.
Están preparadísimos para asegurarse que se quedan ellos con el pastel (lo cual tiene sentido en parte, ya que son ellos los que están arriesgando capital durante décadas para que llegue al punto en el que está).
#34 yo también creo que son peticiones oportunistas. Y que las regulaciones pueden limitar precisamente las iniciativas de código abierto o de pequeñas empresas. Las grandes tienen toneladas de abogados para justificar todo lo que hacen.
#30 me parece tan absurdo como regular los compiladores de c++.
Cualquier uso pernicioso ya debería estar recogido en la legislación. Como generar información falsa, discriminar personas, la privacidad de los datos personales...
Estamos hablando de su es bueno o malo como si pudiéramos controlarlo, y no. Es como el cambio climático: no podemos controlarlo. No porque no dependa de nosotros, sino porque no podemos controlarnos a nosotros mismos.
#21 la tecnología es solo una herramienta. Y no creo que se le puedan poner puertas al campo. Al contrario, creo que ya el genio ha salido de la lámpara. De poco valen las regulaciones.
#28, exacto, igual que las armas, solo son una herramienta y eso no quita que en las manos equivocadas puedan ser muy peligrosas, por eso hay que regular su uso. No digo que la IA no tenga muchos aspectos maravillosos de cara al futuro, lo que digo es que hay que desarrollarla de forma controlada.
#30 "Las armas son herramientas". Pues no me pondría yo a clavar clavos con una escopeta, la verdad.
Vaya falacia de falsa equivalencia "Es lo mismo una IA que una bomba atómica".
#43, entonces es que no te conoces demasiado bien el significado de la palabra herramienta. Un diccionario también es un herramienta y no está pensado para poner clavos.
#30 define de forma controlada. Porque si se trata de perseguir a los modelos open source creo que estamos yendo precisamente en la dirección contraria de cómo se deberían hacer las cosas.
Las ventajas no superan ni de lejos los problemas que va a traer esto.
Mas tecnología en manos de unos pocos, las empresas lo usarán para rebajar costes, a costa de un empleo que ya no se compensará con un crecimiento imposible.
Pero lo peor son los grandes problemas de seguridad, es cuestión de tiempo el que sea incontrolable.
#2 Es que la humanidad tiene 2 motores, el animo de robarle los recursos a otro y el sexo, la bomba y todo el aparato militar vale para lo primero, pero otros muchos inventos como la fotografía, el cine o internet triunfaron gracias a lo segundo
#1#2 Incluso ese ejemplo tiene su lado positivo, si la amenaza de una guerra nuclear como poco es discutible que seguramente no viviriamos una paz de fachadas como la que tenemos ahora.
#1 yo solo veo oportunidades de hacer cosas increíbles.
Y solo se habla de los llms y de los modelos generativos. Pero algún día empezaremos a tener noticias sobre modelos aplicados a diagnóstico y tratamiento de enfermedades, u otros usos bestias de la IA, qué se van a ver potenciados por este boom
#3 Ese dia ya ha llegado. Todas las semanas vemos algo en esa direccion. Desde vacunas mucho mas efectivas a personas que han vuelto a poder caminar gracias a la AI. Estamos ante una nueva revolucion tecnologica.
#6 Creo que se trata de un cambio completo de paradigma, no de modelos. Como dice #4 esta tecnología en sí es disruptiva. ChatGPT y esa clase de modelos de lenguaje o de creación de imágenes son juguetitos sin apenas valor. Lo interesante del tema es la capacidad de "aprender" de manera automatizada. El conocimiento que a 1000 cientíticos les llevaría décadas, una buena IA te lo desarrolla en unos pocos días. Es una de esas ocasiones en las que los árboles no nos dejan ver el bosque.
#10 no sé dónde veces un cambio de paradigma, ni a qué llamas paradigma. Realmente el cambio que se está produciendo es de aplicación de nuevos modelos, y sobre todo de escala.
#3, pues suerte que los padres de la IA moderna como Geoffrey Hinton o Yoshua Bengio, lo ven como tú, ni siquiera el propio Sam Altman dice que el desarrollo de la IA esté exento de peligros. Creo que los LLM en pocos años pueden ser una herramienta demasiado poderosa en determinadas manos como para no empezar a pensar en mecanismos de control, lo contrario me parece de una miopía terrible.
#3 Uno de los primeros proyectos de Inteligencia Artificial (o su precursor, los sistemas expertos) fue el Mycin, para diagnosticar enfermedades. Hace décadas, en los 70 u 80.
No era realmente IA, no se adaptaba, solo era poco más que un árbol de decisiones... pero parecía bastante listo, acertaba más que la mayoría de los médicos de familia pero menos que los especialistas.
#70 lo sé. Pero las capacidades de los sistenas expertos eran muy limitados. Esa línea de inferencia basada en proposiciones lógicas era una vía muerta.
Los políticos creerán que es crear un carnet o permiso para poder desarrollar en IA y que habrá un grupo de expertos revisando los trabajos si son peligrosos o no. Políticos felices por crear un nuevo impuesto y un chiringuito para recibir dinero fácil. Si llega a suceder eso, yo como desarrollador simplemente evito usar los términos de inteligencia artificial, aprendizaje de máquinas, etc.. y sigo trabajando en el tema, nadie podrá acusarme de trabajar en IA: ¿Yo trabajo en IA? Para nada, lo mío es matemática y estadística avanzadas.
Por otro lado, regular la IA con el clima geopolítico actual es una pérdida de tiempo. ¿Creen que desarrolladores, ingenieros y científicos rusos, chinos, iraníes, etc van a seguir las regulaciones emanadas de Europa o USA? Ni de coña, se limpiarán el trasero con eso, y USA no se dejará enlentecer por regulaciones sabiendo que sus enemigos trabajan sin limitaciones.
https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
la licencia "open source":
To maintain integrity and prevent misuse, we are releasing our model under a noncommercial license focused on research use cases. Access to the model will be granted on a case-by-case basis to academic researchers; those affiliated with organizations in government, civil society, and academia; and industry research laboratories around the world. People interested in applying for access can find the link to the application in our research paper.
Comentarios
Yo visto el comunicado ese de una frase firmado por las grandes compañías para meter miedo hablando de "riesgo de extinción", tengo más claro que nunca que lo que hay que hacer es quitárselo de las manos. No se puede dejar en manos de cuatro empresas esta tecnología, ni que decidan lo que se permita y no se permita hacer, que es lo que les gustaría.
Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
#5 Y si se crean IA que hacen innecesarios miles y miles de puestos de trabajo pues se les paga un subsidio a cuenta de nuestros impuestos y listo. O que se mueran de hambre mejor. Que no hubieran estudiado diseño gráfico, traducción, programación, etc.
El peligro no es Skynet, el peligro es un cambio en el mercado de trabajo, y en la economía en conjunto, demasiado brusco.
#9 Los traductores deben revisar los resultados. Lo mismo en diseño y programación.
Con las IAs lo único que vas a conseguir son churros como Visual Basic y sus chorriprogramas pero en la era de Internet. Fuente de vulnerabilidades y futuros ataques por ahorrarse unas perras.
#16 esas mismas vulnerabilidades y ataques lo puede prever justamente la IA... Para mí, dicho muy de manera simplificada, cualquier cosa que un humano podría hacer y tardar mucho tiempo la IA va a estar ahí. En mi opinión, claro.
#31 Primero va a estar el dinero antes que la seguridad.
#16 Creo que estás sobreestimando a los humanos. 😂 Nadie dice que no hagan falta programados o traductores pero harán falta muchos menos, y esto pasará en muchísimos campos, eso son solo los ejemplos que se me han ocurrido como más obvios.
Va a haber mucho más paro por el aumento de la productividad bestial.
#16 Parece que algunos pensáis que esto de la IA se va a estancar en lo que hay ahora y ya. Que nunca jamás se va a sobrepasar las limitaciones de ahora y que por siempre harán falta seres humanos.
#16 Cualquiera de nosotros puede ejecutar un sistema GPT o LlaMa en su ordenador con GPT4All (https://gpt4all.io/index.html). Hay decenas de modelos de lenguajes disponibles y instalarlo es mas fácil que instalar el MS Office. Lo que pueden hacer las empresas con ordenadores de 100 millones de €, o nosotros cuando salgan las IA que corran sobre GPU (en lugar de CPU) es puramente magia.
#9 El mercado de trabajo es un medio para conseguir un fin, la generación de recursos, no un fin en sí mismo. Si los recursos se generan igual el problema no es del mecanismo que los genera; si el sistema económico no es capaz de adaptarse a la nueva realidad, a lo mejor lo que hay que cambiar es el modelo económico.
#37 Exacto
#9 Lo acojonante es que estamos alcanzando algo que parecía utópico, que las máquinas puedan trabajar por nosotros, y en lugar de alegrarnos tenemos que ir con miedo. El problema no es la IA, el problema es el sistema.
#40 Claro. Lo peligroso es la combinación de la IA con el capitalismo. El aumento de la productividad lleva a que los trabajadores en paro se mueran de hambre, a que se les mantenga con subsidios, o a un neocomunismo en el que simplemente todos los beneficios de la IA y la robótica sean para todos.
#40 ¿Eres un viajero del tiempo y comentas desde la epoca de los albores de la revolución industrial?
#9 tienes razón, ojala nunca hubieran descubierto el fuego, fue un cambio demasiado brusco.
De un día para otro se pudo cocinar los alimentos. Los hombres de verdad los toman crudos.
#44 Sí, se desmoronó el capitalismo, con lo sólido que dijeron que era el FMI y el foro de Davos
#9 Cierto pero... Estos cambios sociales solo perjudican a los de abajo, los proletarios y a los dirigentes (dirigentes totalmente irrelevantes). A la empresa y sobre todo al Gran Capital esta revolución social les beneficia radicalmente. Los permitirá bajar los costes en personal a medio plazo al 90%, y siendo el capital quien controlan el sistema, no hay manera de pararlo.
#66 Pienso que te equivocas. Si mejora la productividad de un sector, o de todos pero de forma moderada pues bien, pero si es una mejora global drástica entonces no hay manera de encajarlo en el capitalismo. El capitalismo no solo necesita producir, también necesita que alguien consuma aquello que se produce. Necesita clientes con una nómina. Si de pronto produces lo mismo con un 20% de la plantilla, el paro sube al 80% y a ver quién consume.
#82 Ciertamente estamos en un punto de inflexión en la historia de la humanidad.
Los dueños siempre preferirán tener 10 trabajadores y facturar 10 millones que tener 1.000 trabajadores y facturar 1.000 millones (donde casi todo se va a pagar sueldos).
Sam Altman: “Con la IA habrá empresas de 1.000 millones de dólares llevadas por una sola persona”
Ciertamente esto provocará el fin del capitalismo tal y como lo conocemos, porque tanta gente en el paro querrá comer si o si .
#5 no son cuatro empresas, son personas, científicos, muchos padres fundadores de la disciplina
#15 Los fundadores? Me fío más de la gente de Scheme/Common Lisp que lleva 40 años y más en esto, que de los "padres fundadores".
De hecho con el lenguaje Common LIsp escribirte un chatbot que reconozca algo el lenguaje o una calculadora que simplifique ecuaciones y expresones está tirado, forma parte de un libro relacionado sobre inteligencia artificial y CL, cualquier bachiller lo acabaría sin problema.
#17 si, los fundadores. Stuart Russell, John J Hopfield, uno de los inventores de las redes neuronales. Entre otros.
#23 Como digo la gente que estuvo en LISP estuvo tanto o más implicada que los fundadores, sobre todo los de Common Lisp.
#38 si, deben estar por ahí entre los firmantes, como "la gente que estuvo en lisp"
#17, hostia, me has hecho acordarme de los koans de la IA
One day a student came to David Moon and said: “I understand how to make a better garbage collector. We must keep a reference count of the pointers to each cons.”
Moon patiently told the student the following story:
“One day a student came to Moon and said: ‘I understand how to make a better garbage collector...
#15, los seres humanos somos románticos por naturaleza y tendemos siempre a buscar una cara oscura en la lucha de poder entre las fuerzas dominantes y poderosas y los rebeldes con menor potencial pero mejores intenciones. Como siempre, la realidad suele ser mucho más aburrida y evidente.
Como bien dices, no solo se trata de grandes empresas, hay muchos científicos y expertos que van en esa línea.
#15 Científicos a sueldo de 4 empresas.
#5 El comunicado al que haces referencia está firmado también por muchos académicos, y por gente como Geoff Hinton que dejó Google precisamente por sus preocupaciones al respecto.
Es un poco frustrante que Musk y Altman firmen todas estas cosas, y la gente sólo se quede con que las han firmado ellos (que sí, no me cabe duda de que lo hacen por puro interés) y no con todas las otras firmas que también muestran su preocupación por el tema.
#5, independientemente de los intereses que puedan tener las grandes empresas, tu discurso me parece peligrosamente parecido al de los miembros de la Asociación Nacional del Rifle cuando se habla sobre el control de armas.
#22 Ala, otra falacia de falsa equivalencia...
#5 El problema del software libre es que alguien podría cambiar la constante "MatarATodosLosHumanos" de false a true, y acabamos con un Bender Rodríguez.
#5 lo que están pidiendo google y amigos es lko contrario "regulaciones por el peligro" para mantener su monopolio
Yo lo veo como las máquinas voladoras más pesadas que el aire.
Los hermanos Wright empezaron con una máquina que apenas volaba a 3 metros de altura en saltos de entre 30 y 90 metros sin direccion lateral… y solo 10 años más tarde tenemos los ases de la aviación de la primera guerra mundial.
Ahora estamos viendo lo mismo con la IA… y como entonces mucha gente no se lo tomó en serio.
#7 nada más lejos de la realidad, la IA es una tecnología que tiene más de 80 años, y su uso lo tenemos incorporado en nuestro día a día desde hace fácilmente más de 20 años.
Las redes neuronales, que son el mismo tipo de IA que usa ChatGPT o DALL-E, se describieron de forma teórica en 1943 y se aplicó de forma práctica y exitosa en 1958:
https://en.wikipedia.org/wiki/Perceptron
Con un “simple” perceptron se pueden hacer cosas muy importantes, y los usamos en el día a día desde hace mucho tiempo sin darnos cuenta, por ejemplo entrando a un parking con la cámara que “lee” la matrícula o hablando con un contestador automático que toma decisiones “escuchando” tus respuestas.
Si hablamos de machine learning se empezó a desarrollar en los años 60, y por último el deep learning se empezó a desarrollar en los 70 y se popularizó en los 80:
https://en.wikipedia.org/wiki/Deep_learning
Lo único que ha pasado en los últimos años es que, gracias a la perfección de la técnica y el aumento exponencial del número de datos y la potencia de cálculo, han salido proyectos muy interesantes que generan predicciones realmente sorprendentes, tan buenas que parecen creaciones humanas. Pero de ahí a decir que la IA está en sus albores es no saber de lo que se habla.
#11 yo programé un ordenador neuronal de IBM a mediados de los 90, y los gliders existían en el siglo XIX…
Pero ha sido desde 2005 en adelante que la potencia de cálculo se ha disparado y permite hacer sencillamente en ordenadores de casa lo que antes haciamos de forma complicada en el Cry5 de la UPC con quotas de uso limitado.
#12 Common Lisp y sus gentes hacían virguerías (y siguen haciendo) gracias al propio LISP y su homoiconocidad. Y si lo juntas con Emacs ni te digo, como ajo y aceite.
#12 Poco habrás hecho con un Cray si lo llamas Cry.
Es que algunos lo dejáis a huevo.
#77 Yo lo usaba, no lo deletreaba... y fue hace unos 30 años.
#92 Pues debimos vernos bajo el A2, antes de que construyeran el Nexus.
Pero yo sí sabía deletrearlo.
#93 Creo que en esa época yo también... pero hace 6 lustros...
Que tiempos el sotano del A2... y la puerta secreta que no ví que existía hasta que jugué a la versión del Wolfstein 3D ambientada en el campus nord!
#95 Tú y yo hemos coincidido por allá seguro.
¿Te suena el nombre ”Ojetes Azules”?
#96 mmm... nop.
Yo salí de allí en el 94.
#97 Yo llegué allá por el 91. Era bastante asiduo de las salas de terminales de VMS y PC, así que seguro debimos coincidir.
#98 Seguro!
#99 Qué tiempos aquellos en los que un host VMS se diferenciaba de un host Unix según tuviera nombre de divinidad egipcia o de divinidad griega.
#100 Isis, Horus, Neftis, Osiris... siempre encontré a faltar a Seth!
De los otros solo recuerdo a Thalia...
#11, es cierto que las bases teóricas de la IA moderna se desarrollaron hace varias décadas. Pero no ha sido hasta la última década que los datos disponibles y la potencia de cálculo han permitido empezar a desarrollar modelos realmente interesantes. El ejemplo que pones de leer una matrícula, no lo hace un perceptrón sino cientos de ellos.
Por otro lado me parece muy pertinente el ejemplo de #7, de que lo que vemos hoy en día no tiene nada que ver con lo que veremos en una o dos décadas y que la sociedad no está del todo preparada para ello.
#33 el problema de la analogía que ha hecho #7 es que está comparando puntos diferentes del desarrollo de ambas tecnologías.
En la IA no estamos dando los primeros saltos ni muchísimo menos, si tenemos que compararlo con la aeronáutica ahora mismo estariamos en la década del boom de la aviación comercial en los 70 u 80, con la popularización de los primeros modelos de aviones comerciales modernos como el primer 737 y con el desarrollo de tecnología punta como el Concorde.
Los primeros saltos de la IA es lo que he comentado en #11 con algunos ejemplos simples y que usamos a diario. Ahora mismo estamos en pleno boom de la IA, y lo que veremos a partir de ahora es la maduración de la tecnología. El salto tecnológico de un hélice biplano a un avion comercial a reacción ya lo hemos dado.
Y en ningún momento he dicho que se use un solo perceptron, relee mi comentario, estoy hablando de tecnologías y me refiero al perceptron como ello.
#61, creo que el problema es que los ritmos de desarrollo han sido muy distintos en ambos casos, por eso hacer cualquier analogía es complicado. La aviación se desarrolló a un ritmo constante durante las primeras décadas después de su invención. No así la IA que ha vivido un invierno de varias décadas. Por eso creo que ambos tenéis parte de razón.
#33 Más tiempo, en la AEAT hace 25 años ya estaban usando una red neuronal para cazar defraudadores, y funcionaba muy bien (el aprendizaje tardaba 2 meses en un maquinón de 80 procesadores).
#74, me apostaría cualquier cosa a que
si era hace 25 años, usaban una SVM y no una red neuronal, pero da igual, aunque a simple vista no lo pueda parecer, el problema que describes es infinitamente menos complejo que reconocer un dígito en una imagen o escribir una frase de 10 palabras que suene coherente. El error de base es pensar que lo que es difícil para los humanos lo es para una máquina y al revés. El salto que se ha dado la última década ha sido exponencial.
#7 Los hermanos Wright... como si ellos fueran los primeros que volaron con máquinas más pesadas que el aire... ya hacía décadas que se volaba...
Fueron los, supuestamente, primeros que volaron con una máquina motorizada... y "supuestamente" porque algunos dicen que fué Santos-Dumont...
Y como dice #11 hace décadas que existe la IA... incluso la implementación de las IA...
#11 bueno el perceptron y los transformers es como comparar un triciclo y un ferrari
#84 claro, exactamente igual que comparar un avion biplano de hélice de la primera guerra mundial con un Boing 737
¿Que no están preparados?
¿Qué os pensáis que quieren decir Sam Altman, Musk y los gigantes IT cuando piden a los gobiernos que regulen? Están pidiendo precisamente que solo empresas puedan operar y desarrollar dichos modelos.
Están preparadísimos para asegurarse que se quedan ellos con el pastel (lo cual tiene sentido en parte, ya que son ellos los que están arriesgando capital durante décadas para que llegue al punto en el que está).
#34 yo también creo que son peticiones oportunistas. Y que las regulaciones pueden limitar precisamente las iniciativas de código abierto o de pequeñas empresas. Las grandes tienen toneladas de abogados para justificar todo lo que hacen.
Algunos tampoco veían el potencial del ordenador en sus inicios. Y mucho menos que sería omnipresente.
Va todo demasiado rápido, sin tiempo para asimilarlo e implementarlo. Tanto en este como en otros campos.
#13 No te preocupes abuelo, la cámara de fotos no te roba el alma.
#30 me parece tan absurdo como regular los compiladores de c++.
Cualquier uso pernicioso ya debería estar recogido en la legislación. Como generar información falsa, discriminar personas, la privacidad de los datos personales...
Estamos hablando de su es bueno o malo como si pudiéramos controlarlo, y no. Es como el cambio climático: no podemos controlarlo. No porque no dependa de nosotros, sino porque no podemos controlarnos a nosotros mismos.
#21 la tecnología es solo una herramienta. Y no creo que se le puedan poner puertas al campo. Al contrario, creo que ya el genio ha salido de la lámpara. De poco valen las regulaciones.
Hay opiniones para todos los gustos.
#28, exacto, igual que las armas, solo son una herramienta y eso no quita que en las manos equivocadas puedan ser muy peligrosas, por eso hay que regular su uso. No digo que la IA no tenga muchos aspectos maravillosos de cara al futuro, lo que digo es que hay que desarrollarla de forma controlada.
#30 "Las armas son herramientas". Pues no me pondría yo a clavar clavos con una escopeta, la verdad.
Vaya falacia de falsa equivalencia "Es lo mismo una IA que una bomba atómica".
#43, entonces es que no te conoces demasiado bien el significado de la palabra herramienta. Un diccionario también es un herramienta y no está pensado para poner clavos.
https://dle.rae.es/herramienta
#56 En serio, lee lo que es la falacia de falsa equivalencia porque no me creo que me contestes con otra vez la misma falacia.
#43
#30 define de forma controlada. Porque si se trata de perseguir a los modelos open source creo que estamos yendo precisamente en la dirección contraria de cómo se deberían hacer las cosas.
#64, pues no lo tengo claro, la verdad
Las ventajas no superan ni de lejos los problemas que va a traer esto.
Mas tecnología en manos de unos pocos, las empresas lo usarán para rebajar costes, a costa de un empleo que ya no se compensará con un crecimiento imposible.
Pero lo peor son los grandes problemas de seguridad, es cuestión de tiempo el que sea incontrolable.
#21 a altman lo que le da miedo es que vengan ahora otras desarrollos y le roben su queso, por eso pedia regulacion
#41, sí, pero los dos primeros no. Son reputados académicos y Hinton incluso dejó su puesto en Google para poder lanzar críticas libremente.
Esto pinta bien... pero puede salir muy mal. Creo que en los albores de la fisión nuclear debieron de sentirse igual que ahora.
#1 ¿? En cuanto vieron que era teóricamente posible, se pusieron a crear la bomba.
#2 Es que la humanidad tiene 2 motores, el animo de robarle los recursos a otro y el sexo, la bomba y todo el aparato militar vale para lo primero, pero otros muchos inventos como la fotografía, el cine o internet triunfaron gracias a lo segundo
#2 lo primero fue crear la reacción controlada de fisión en un reactor experimental. Enrico Fermi.
#27 No, lo primero fue crear el Proyecto Manhattan para crear la bomba, ese reactor y ese experimento son parte de ese proyecto. https://es.wikipedia.org/wiki/Chicago_Pile-1
#35 Cronológicamente hablando, el reactor vino primero.
#60 ¿Primero que qué? ¿Qué la idea de fabricar una bomba de fisión? ¿Qué el proyecto de crear dicha bomba?
#75 La idea era comprobar que éramos capaces de controlar una reacción de fisión usando Cadmio. En definitiva, saber más sobre dicho proceso.
#1 #2 Incluso ese ejemplo tiene su lado positivo, si la amenaza de una guerra nuclear como poco es discutible que seguramente no viviriamos una paz de fachadas como la que tenemos ahora.
#69 ¿Paz de fachadas?
#1 yo solo veo oportunidades de hacer cosas increíbles.
Y solo se habla de los llms y de los modelos generativos. Pero algún día empezaremos a tener noticias sobre modelos aplicados a diagnóstico y tratamiento de enfermedades, u otros usos bestias de la IA, qué se van a ver potenciados por este boom
#3 Ese dia ya ha llegado. Todas las semanas vemos algo en esa direccion. Desde vacunas mucho mas efectivas a personas que han vuelto a poder caminar gracias a la AI. Estamos ante una nueva revolucion tecnologica.
#4 ojalá, pero yo creo que falta todavía un poquito para que haya modelos realmente disruptivos. Pero lo veremos, pronto.
#6 Creo que se trata de un cambio completo de paradigma, no de modelos. Como dice #4 esta tecnología en sí es disruptiva. ChatGPT y esa clase de modelos de lenguaje o de creación de imágenes son juguetitos sin apenas valor. Lo interesante del tema es la capacidad de "aprender" de manera automatizada. El conocimiento que a 1000 cientíticos les llevaría décadas, una buena IA te lo desarrolla en unos pocos días. Es una de esas ocasiones en las que los árboles no nos dejan ver el bosque.
#10 no sé dónde veces un cambio de paradigma, ni a qué llamas paradigma. Realmente el cambio que se está produciendo es de aplicación de nuevos modelos, y sobre todo de escala.
#10 Igual te has flipado un poco con el bosque que imaginas ver.
#3, pues suerte que los padres de la IA moderna como Geoffrey Hinton o Yoshua Bengio, lo ven como tú, ni siquiera el propio Sam Altman dice que el desarrollo de la IA esté exento de peligros. Creo que los LLM en pocos años pueden ser una herramienta demasiado poderosa en determinadas manos como para no empezar a pensar en mecanismos de control, lo contrario me parece de una miopía terrible.
#21, quería decir que no lo ven como tú.
#21 No lo has entendido, no hay posibilidad de control por la baja/barata tecnología que se requiere para su explotación/desarrollo.
#3 Uno de los primeros proyectos de Inteligencia Artificial (o su precursor, los sistemas expertos) fue el Mycin, para diagnosticar enfermedades. Hace décadas, en los 70 u 80.
No era realmente IA, no se adaptaba, solo era poco más que un árbol de decisiones... pero parecía bastante listo, acertaba más que la mayoría de los médicos de familia pero menos que los especialistas.
#70 lo sé. Pero las capacidades de los sistenas expertos eran muy limitados. Esa línea de inferencia basada en proposiciones lógicas era una vía muerta.
Hablamos de impactos mucho más rotundos.
Malditas neveras, que va a ser de los vendedores de hielo
#32 El año pasado los vendedores de hielo hicieron su agosto ....
#48 Sí. La biblia católica naranja.
¿Llegará el momento en el que sea una ley "no crearás máquinas a semejanza del hombre"?
#24 Suena más a religión que a ley.
Los políticos creerán que es crear un carnet o permiso para poder desarrollar en IA y que habrá un grupo de expertos revisando los trabajos si son peligrosos o no. Políticos felices por crear un nuevo impuesto y un chiringuito para recibir dinero fácil. Si llega a suceder eso, yo como desarrollador simplemente evito usar los términos de inteligencia artificial, aprendizaje de máquinas, etc.. y sigo trabajando en el tema, nadie podrá acusarme de trabajar en IA: ¿Yo trabajo en IA? Para nada, lo mío es matemática y estadística avanzadas.
Por otro lado, regular la IA con el clima geopolítico actual es una pérdida de tiempo. ¿Creen que desarrolladores, ingenieros y científicos rusos, chinos, iraníes, etc van a seguir las regulaciones emanadas de Europa o USA? Ni de coña, se limpiarán el trasero con eso, y USA no se dejará enlentecer por regulaciones sabiendo que sus enemigos trabajan sin limitaciones.
https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
la licencia "open source":
To maintain integrity and prevent misuse, we are releasing our model under a noncommercial license focused on research use cases. Access to the model will be granted on a case-by-case basis to academic researchers; those affiliated with organizations in government, civil society, and academia; and industry research laboratories around the world. People interested in applying for access can find the link to the application in our research paper.
se basan en conjuntos de datos masivos, medidos en decenas de miles de millones de bytes
También conocidos como gigabytes