Hace 10 meses | Por Andaui a letraslibres.com
Publicado hace 10 meses por Andaui a letraslibres.com

La comunidad de programadores de código abierto ha puesto manos a la obra para modificar y mejorar modelos de lenguaje similares a ChatGPT. Esto puede tener efectos enormes, para bien y para mal, en el desarrollo de la inteligencia artificial.

Comentarios

e

#5 Y si se crean IA que hacen innecesarios miles y miles de puestos de trabajo pues se les paga un subsidio a cuenta de nuestros impuestos y listo. O que se mueran de hambre mejor. Que no hubieran estudiado diseño gráfico, traducción, programación, etc.

El peligro no es Skynet, el peligro es un cambio en el mercado de trabajo, y en la economía en conjunto, demasiado brusco.

D

#9 Los traductores deben revisar los resultados. Lo mismo en diseño y programación.
Con las IAs lo único que vas a conseguir son churros como Visual Basic y sus chorriprogramas pero en la era de Internet. Fuente de vulnerabilidades y futuros ataques por ahorrarse unas perras.

n

#16 esas mismas vulnerabilidades y ataques lo puede prever justamente la IA... Para mí, dicho muy de manera simplificada, cualquier cosa que un humano podría hacer y tardar mucho tiempo la IA va a estar ahí. En mi opinión, claro.

D

#31 Primero va a estar el dinero antes que la seguridad.

e

#16 Creo que estás sobreestimando a los humanos. 😂 Nadie dice que no hagan falta programados o traductores pero harán falta muchos menos, y esto pasará en muchísimos campos, eso son solo los ejemplos que se me han ocurrido como más obvios.

Va a haber mucho más paro por el aumento de la productividad bestial.

D

#16 Parece que algunos pensáis que esto de la IA se va a estancar en lo que hay ahora y ya. Que nunca jamás se va a sobrepasar las limitaciones de ahora y que por siempre harán falta seres humanos.

Dectacubitus

#16 Cualquiera de nosotros puede ejecutar un sistema GPT o LlaMa en su ordenador con GPT4All (https://gpt4all.io/index.html). Hay decenas de modelos de lenguajes disponibles y instalarlo es mas fácil que instalar el MS Office. Lo que pueden hacer las empresas con ordenadores de 100 millones de €, o nosotros cuando salgan las IA que corran sobre GPU (en lugar de CPU) es puramente magia.

EdmundoDantes

#9 El mercado de trabajo es un medio para conseguir un fin, la generación de recursos, no un fin en sí mismo. Si los recursos se generan igual el problema no es del mecanismo que los genera; si el sistema económico no es capaz de adaptarse a la nueva realidad, a lo mejor lo que hay que cambiar es el modelo económico.

e

#37 Exacto

Gersio91

#9 Lo acojonante es que estamos alcanzando algo que parecía utópico, que las máquinas puedan trabajar por nosotros, y en lugar de alegrarnos tenemos que ir con miedo. El problema no es la IA, el problema es el sistema.

e

#40 Claro. Lo peligroso es la combinación de la IA con el capitalismo. El aumento de la productividad lleva a que los trabajadores en paro se mueran de hambre, a que se les mantenga con subsidios, o a un neocomunismo en el que simplemente todos los beneficios de la IA y la robótica sean para todos.

ChukNorris

#40 ¿Eres un viajero del tiempo y comentas desde la epoca de los albores de la revolución industrial?

D

#9 tienes razón, ojala nunca hubieran descubierto el fuego, fue un cambio demasiado brusco.
De un día para otro se pudo cocinar los alimentos. Los hombres de verdad los toman crudos.

e

#44 Sí, se desmoronó el capitalismo, con lo sólido que dijeron que era el FMI y el foro de Davos

Dectacubitus

#9 Cierto pero... Estos cambios sociales solo perjudican a los de abajo, los proletarios y a los dirigentes (dirigentes totalmente irrelevantes). A la empresa y sobre todo al Gran Capital esta revolución social les beneficia radicalmente. Los permitirá bajar los costes en personal a medio plazo al 90%, y siendo el capital quien controlan el sistema, no hay manera de pararlo.

e

#66 Pienso que te equivocas. Si mejora la productividad de un sector, o de todos pero de forma moderada pues bien, pero si es una mejora global drástica entonces no hay manera de encajarlo en el capitalismo. El capitalismo no solo necesita producir, también necesita que alguien consuma aquello que se produce. Necesita clientes con una nómina. Si de pronto produces lo mismo con un 20% de la plantilla, el paro sube al 80% y a ver quién consume.

Dectacubitus

#82 Ciertamente estamos en un punto de inflexión en la historia de la humanidad.

Los dueños siempre preferirán tener 10 trabajadores y facturar 10 millones que tener 1.000 trabajadores y facturar 1.000 millones (donde casi todo se va a pagar sueldos).

Sam Altman: “Con la IA habrá empresas de 1.000 millones de dólares llevadas por una sola persona”

Ciertamente esto provocará el fin del capitalismo tal y como lo conocemos, porque tanta gente en el paro querrá comer si o si .

D

#15 Los fundadores? Me fío más de la gente de Scheme/Common Lisp que lleva 40 años y más en esto, que de los "padres fundadores".
De hecho con el lenguaje Common LIsp escribirte un chatbot que reconozca algo el lenguaje o una calculadora que simplifique ecuaciones y expresones está tirado, forma parte de un libro relacionado sobre inteligencia artificial y CL, cualquier bachiller lo acabaría sin problema.

Ransa

#17 si, los fundadores. Stuart Russell, John J Hopfield, uno de los inventores de las redes neuronales. Entre otros.

D

#23 Como digo la gente que estuvo en LISP estuvo tanto o más implicada que los fundadores, sobre todo los de Common Lisp.

Ransa

#38 si, deben estar por ahí entre los firmantes, como "la gente que estuvo en lisp"

Adson

#17, hostia, me has hecho acordarme de los koans de la IA lol

One day a student came to David Moon and said: “I understand how to make a better garbage collector. We must keep a reference count of the pointers to each cons.”

Moon patiently told the student the following story:

“One day a student came to Moon and said: ‘I understand how to make a better garbage collector...

rojo_separatista

#15, los seres humanos somos románticos por naturaleza y tendemos siempre a buscar una cara oscura en la lucha de poder entre las fuerzas dominantes y poderosas y los rebeldes con menor potencial pero mejores intenciones. Como siempre, la realidad suele ser mucho más aburrida y evidente.

Como bien dices, no solo se trata de grandes empresas, hay muchos científicos y expertos que van en esa línea.

Dectacubitus

#15 Científicos a sueldo de 4 empresas.

rojo_separatista

#5, independientemente de los intereses que puedan tener las grandes empresas, tu discurso me parece peligrosamente parecido al de los miembros de la Asociación Nacional del Rifle cuando se habla sobre el control de armas.

D

#22 Ala, otra falacia de falsa equivalencia...

rafaLin

#5 El problema del software libre es que alguien podría cambiar la constante "MatarATodosLosHumanos" de false a true, y acabamos con un Bender Rodríguez.

snowdenknows

#5 lo que están pidiendo google y amigos es lko contrario "regulaciones por el peligro" para mantener su monopolio

Robus

#11 yo programé un ordenador neuronal de IBM a mediados de los 90, y los gliders existían en el siglo XIX…

Pero ha sido desde 2005 en adelante que la potencia de cálculo se ha disparado y permite hacer sencillamente en ordenadores de casa lo que antes haciamos de forma complicada en el Cry5 de la UPC con quotas de uso limitado.

D

#12 Common Lisp y sus gentes hacían virguerías (y siguen haciendo) gracias al propio LISP y su homoiconocidad. Y si lo juntas con Emacs ni te digo, como ajo y aceite.

D

#12 Poco habrás hecho con un Cray si lo llamas Cry.

Es que algunos lo dejáis a huevo.

Robus

#77 Yo lo usaba, no lo deletreaba... y fue hace unos 30 años.

D

#92 Pues debimos vernos bajo el A2, antes de que construyeran el Nexus.

Pero yo sí sabía deletrearlo.

Robus

#93 Creo que en esa época yo también... pero hace 6 lustros...

Que tiempos el sotano del A2... y la puerta secreta que no ví que existía hasta que jugué a la versión del Wolfstein 3D ambientada en el campus nord!

D

#95 Tú y yo hemos coincidido por allá seguro.

¿Te suena el nombre ”Ojetes Azules”?

Robus

#96 mmm... nop.

Yo salí de allí en el 94.

D

#97 Yo llegué allá por el 91. Era bastante asiduo de las salas de terminales de VMS y PC, así que seguro debimos coincidir.

Robus

#98 Seguro!

D

#99 Qué tiempos aquellos en los que un host VMS se diferenciaba de un host Unix según tuviera nombre de divinidad egipcia o de divinidad griega.

Robus

#100 Isis, Horus, Neftis, Osiris... siempre encontré a faltar a Seth!

De los otros solo recuerdo a Thalia...

rojo_separatista

#11, es cierto que las bases teóricas de la IA moderna se desarrollaron hace varias décadas. Pero no ha sido hasta la última década que los datos disponibles y la potencia de cálculo han permitido empezar a desarrollar modelos realmente interesantes. El ejemplo que pones de leer una matrícula, no lo hace un perceptrón sino cientos de ellos.

Por otro lado me parece muy pertinente el ejemplo de #7, de que lo que vemos hoy en día no tiene nada que ver con lo que veremos en una o dos décadas y que la sociedad no está del todo preparada para ello.

eltoloco

#33 el problema de la analogía que ha hecho #7 es que está comparando puntos diferentes del desarrollo de ambas tecnologías.

En la IA no estamos dando los primeros saltos ni muchísimo menos, si tenemos que compararlo con la aeronáutica ahora mismo estariamos en la década del boom de la aviación comercial en los 70 u 80, con la popularización de los primeros modelos de aviones comerciales modernos como el primer 737 y con el desarrollo de tecnología punta como el Concorde.

Los primeros saltos de la IA es lo que he comentado en #11 con algunos ejemplos simples y que usamos a diario. Ahora mismo estamos en pleno boom de la IA, y lo que veremos a partir de ahora es la maduración de la tecnología. El salto tecnológico de un hélice biplano a un avion comercial a reacción ya lo hemos dado.

Y en ningún momento he dicho que se use un solo perceptron, relee mi comentario, estoy hablando de tecnologías y me refiero al perceptron como ello.

rojo_separatista

#61, creo que el problema es que los ritmos de desarrollo han sido muy distintos en ambos casos, por eso hacer cualquier analogía es complicado. La aviación se desarrolló a un ritmo constante durante las primeras décadas después de su invención. No así la IA que ha vivido un invierno de varias décadas. Por eso creo que ambos tenéis parte de razón.

rafaLin

#33 Más tiempo, en la AEAT hace 25 años ya estaban usando una red neuronal para cazar defraudadores, y funcionaba muy bien (el aprendizaje tardaba 2 meses en un maquinón de 80 procesadores).

rojo_separatista

#74, me apostaría cualquier cosa a que
si era hace 25 años, usaban una SVM y no una red neuronal, pero da igual, aunque a simple vista no lo pueda parecer, el problema que describes es infinitamente menos complejo que reconocer un dígito en una imagen o escribir una frase de 10 palabras que suene coherente. El error de base es pensar que lo que es difícil para los humanos lo es para una máquina y al revés. El salto que se ha dado la última década ha sido exponencial.

r

#7 Los hermanos Wright... como si ellos fueran los primeros que volaron con máquinas más pesadas que el aire... ya hacía décadas que se volaba...

Fueron los, supuestamente, primeros que volaron con una máquina motorizada... y "supuestamente" porque algunos dicen que fué Santos-Dumont...

Y como dice #11 hace décadas que existe la IA... incluso la implementación de las IA...

snowdenknows

#11 bueno el perceptron y los transformers es como comparar un triciclo y un ferrari

eltoloco

#84 claro, exactamente igual que comparar un avion biplano de hélice de la primera guerra mundial con un Boing 737

D

#34 yo también creo que son peticiones oportunistas. Y que las regulaciones pueden limitar precisamente las iniciativas de código abierto o de pequeñas empresas. Las grandes tienen toneladas de abogados para justificar todo lo que hacen.

D

Algunos tampoco veían el potencial del ordenador en sus inicios. Y mucho menos que sería omnipresente.

Elnuberu

Va todo demasiado rápido, sin tiempo para asimilarlo e implementarlo. Tanto en este como en otros campos.

ChukNorris

#13 No te preocupes abuelo, la cámara de fotos no te roba el alma.

D

#30 me parece tan absurdo como regular los compiladores de c++.

Cualquier uso pernicioso ya debería estar recogido en la legislación. Como generar información falsa, discriminar personas, la privacidad de los datos personales...

sieteymedio

Estamos hablando de su es bueno o malo como si pudiéramos controlarlo, y no. Es como el cambio climático: no podemos controlarlo. No porque no dependa de nosotros, sino porque no podemos controlarnos a nosotros mismos.

D

#21 la tecnología es solo una herramienta. Y no creo que se le puedan poner puertas al campo. Al contrario, creo que ya el genio ha salido de la lámpara. De poco valen las regulaciones.

Hay opiniones para todos los gustos.

rojo_separatista

#28, exacto, igual que las armas, solo son una herramienta y eso no quita que en las manos equivocadas puedan ser muy peligrosas, por eso hay que regular su uso. No digo que la IA no tenga muchos aspectos maravillosos de cara al futuro, lo que digo es que hay que desarrollarla de forma controlada.

D

#30 "Las armas son herramientas". Pues no me pondría yo a clavar clavos con una escopeta, la verdad.
Vaya falacia de falsa equivalencia "Es lo mismo una IA que una bomba atómica".

rojo_separatista

#43, entonces es que no te conoces demasiado bien el significado de la palabra herramienta. Un diccionario también es un herramienta y no está pensado para poner clavos.

https://dle.rae.es/herramienta

D

#56 En serio, lee lo que es la falacia de falsa equivalencia porque no me creo que me contestes con otra vez la misma falacia.

amanidadepollastre

#43

#30 define de forma controlada. Porque si se trata de perseguir a los modelos open source creo que estamos yendo precisamente en la dirección contraria de cómo se deberían hacer las cosas.

rojo_separatista

#64, pues no lo tengo claro, la verdad

powernergia

Las ventajas no superan ni de lejos los problemas que va a traer esto.

Mas tecnología en manos de unos pocos, las empresas lo usarán para rebajar costes, a costa de un empleo que ya no se compensará con un crecimiento imposible.

Pero lo peor son los grandes problemas de seguridad, es cuestión de tiempo el que sea incontrolable.

tul

#21 a altman lo que le da miedo es que vengan ahora otras desarrollos y le roben su queso, por eso pedia regulacion

rojo_separatista

#41, sí, pero los dos primeros no. Son reputados académicos y Hinton incluso dejó su puesto en Google para poder lanzar críticas libremente.

Leconnoisseur

Esto pinta bien... pero puede salir muy mal. Creo que en los albores de la fisión nuclear debieron de sentirse igual que ahora.

ChukNorris

#1 ¿? En cuanto vieron que era teóricamente posible, se pusieron a crear la bomba.

aironman

#2 lo primero fue crear la reacción controlada de fisión en un reactor experimental. Enrico Fermi.

ChukNorris

#27 No, lo primero fue crear el Proyecto Manhattan para crear la bomba, ese reactor y ese experimento son parte de ese proyecto. https://es.wikipedia.org/wiki/Chicago_Pile-1

aironman

#35 Cronológicamente hablando, el reactor vino primero.

ChukNorris

#60 ¿Primero que qué? ¿Qué la idea de fabricar una bomba de fisión? ¿Qué el proyecto de crear dicha bomba?

aironman

#75 La idea era comprobar que éramos capaces de controlar una reacción de fisión usando Cadmio. En definitiva, saber más sobre dicho proceso.

S

#1 #2 Incluso ese ejemplo tiene su lado positivo, si la amenaza de una guerra nuclear como poco es discutible que seguramente no viviriamos una paz de fachadas como la que tenemos ahora.

ChukNorris

#69 ¿Paz de fachadas?

D

#1 yo solo veo oportunidades de hacer cosas increíbles.

Y solo se habla de los llms y de los modelos generativos. Pero algún día empezaremos a tener noticias sobre modelos aplicados a diagnóstico y tratamiento de enfermedades, u otros usos bestias de la IA, qué se van a ver potenciados por este boom

JungSpinoza

#3 Ese dia ya ha llegado. Todas las semanas vemos algo en esa direccion. Desde vacunas mucho mas efectivas a personas que han vuelto a poder caminar gracias a la AI. Estamos ante una nueva revolucion tecnologica.

D

#4 ojalá, pero yo creo que falta todavía un poquito para que haya modelos realmente disruptivos. Pero lo veremos, pronto.

D

#10 no sé dónde veces un cambio de paradigma, ni a qué llamas paradigma. Realmente el cambio que se está produciendo es de aplicación de nuevos modelos, y sobre todo de escala.

ChukNorris

#10 Igual te has flipado un poco con el bosque que imaginas ver.

rojo_separatista

#3, pues suerte que los padres de la IA moderna como Geoffrey Hinton o Yoshua Bengio, lo ven como tú, ni siquiera el propio Sam Altman dice que el desarrollo de la IA esté exento de peligros. Creo que los LLM en pocos años pueden ser una herramienta demasiado poderosa en determinadas manos como para no empezar a pensar en mecanismos de control, lo contrario me parece de una miopía terrible.

rojo_separatista

#21, quería decir que no lo ven como tú.

ChukNorris

#21 No lo has entendido, no hay posibilidad de control por la baja/barata tecnología que se requiere para su explotación/desarrollo.

rafaLin

#3 Uno de los primeros proyectos de Inteligencia Artificial (o su precursor, los sistemas expertos) fue el Mycin, para diagnosticar enfermedades. Hace décadas, en los 70 u 80.

No era realmente IA, no se adaptaba, solo era poco más que un árbol de decisiones... pero parecía bastante listo, acertaba más que la mayoría de los médicos de familia pero menos que los especialistas.

D

#70 lo sé. Pero las capacidades de los sistenas expertos eran muy limitados. Esa línea de inferencia basada en proposiciones lógicas era una vía muerta.

Hablamos de impactos mucho más rotundos.

orangutan

Malditas neveras, que va a ser de los vendedores de hielo

ChukNorris

#32 El año pasado los vendedores de hielo hicieron su agosto ....

tollendo

#48 Sí. La biblia católica naranja.

tollendo

¿Llegará el momento en el que sea una ley "no crearás máquinas a semejanza del hombre"?

D

#24 Suena más a religión que a ley.

C

Los políticos creerán que es crear un carnet o permiso para poder desarrollar en IA y que habrá un grupo de expertos revisando los trabajos si son peligrosos o no. Políticos felices por crear un nuevo impuesto y un chiringuito para recibir dinero fácil. Si llega a suceder eso, yo como desarrollador simplemente evito usar los términos de inteligencia artificial, aprendizaje de máquinas, etc.. y sigo trabajando en el tema, nadie podrá acusarme de trabajar en IA: ¿Yo trabajo en IA? Para nada, lo mío es matemática y estadística avanzadas.

C

Por otro lado, regular la IA con el clima geopolítico actual es una pérdida de tiempo. ¿Creen que desarrolladores, ingenieros y científicos rusos, chinos, iraníes, etc van a seguir las regulaciones emanadas de Europa o USA? Ni de coña, se limpiarán el trasero con eso, y USA no se dejará enlentecer por regulaciones sabiendo que sus enemigos trabajan sin limitaciones.

D

https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
la licencia "open source":
To maintain integrity and prevent misuse, we are releasing our model under a noncommercial license focused on research use cases. Access to the model will be granted on a case-by-case basis to academic researchers; those affiliated with organizations in government, civil society, and academia; and industry research laboratories around the world. People interested in applying for access can find the link to the application in our research paper.

LaPoliticaNoVaDePartidos

se basan en conjuntos de datos masivos, medidos en decenas de miles de millones de bytes
También conocidos como gigabytes lol

1 2