Publicado hace 1 año por rojo_separatista a 20minutos.es

Las entidades internacionales reconocen los beneficios que estas herramientas pueden tener en el futuro, pero señalan que, antes, se debe establecer una regulación.

Comentarios

C

Una jugada maestra de las mega empresas:
Hay que regular "ponga aquí la chachi tecnología revolucionaria que va a dar mucha pasta" por el bien de la humanidad.

Y curiosamente, salen estas voces de regulación cuando las mega empresas han tenido barra libre para investigarlas a su antojo y sin restricciones, pero cuando ya tienen algo entonces buscan boicotear la competencia (empresas pequeñas) con voces alarmistas de que hay que regular. Acatar cualquier regulación cuesta mucho dinero y mucho tiempo, porque no faltará el que monte el chiringuito de "revisiones de IA regulada" y toque pagar mucho para recibir la "visita del inspector de IA" y además perder tiempo por las "preguntas chorrada del inspector de IA para justificar el sueldo"

D

#33 Exacto. Por eso la FSF está en contra de estas payasadas. El software libre es para cualquier propósito. Si una IA dice que hay que exterminar al 90% de los humanos, la culpa no es de la IA, si no del que lo ejecuta. La IA es un software, es tan "regulable" para el uso como un martillo, una regla o una calculadora. Cero.

blockchain

Puertas al campo

Lerena

No hay que regular nada. Lo ideal es que hayan varias IA, en varios países, y que cada uno use el que más le guste. (Como pasa con los servidores de Email o los buscadores). Y si alguien da información falsa a la IA allá el.

O

Y es normal que se quiera regular. Cuando se pierde el control sobre algo lo primero que hay que hacer es frenar. Y el boom que está habiendo en la IA es un despiporre.

eldarel

#12 El peligro es que por abusos, se quede en otro bluf y no se quiera emplear para temas serios.

No es la primera vez que se intenta usar la Inteligencia Artificial.

MaKaNaS

#53 Igualito es lo que se hacía en los 2000 con lo que son capaces de hacer las IA actualmente, igualito.

Sinceramente, después de ver lo del asunto de Cambridge Analytica, la manipulación en redes sociales, los bots astroturfers en cada elección alrededor del mundo, no ver que una tecnología como las IA sin control pueden suponer un riesgo, es de estar muy muy ciego.

D

#54 La manipulación va a existir antes con IA y sin IA. Y no hablo de IA's, hablo de edición de vídeos en los 2000, chorradas de montaje realizables en segundos.
Me es irrelevante lo que hagan las IA's, la TV hacía lo mismo en los 90
y nadie habló de regular nada. Es más, la TV está de capa caída hoy.
Las RRSS, por su aceleracionismo, acabarán siendo desplazadas por otras según la convenciencia de la gente, como pasó con las TVs y gente harta de escuchar gilipolleces una y otra vez.
La gente no dejará de ser imbécil, tenga o no redes sociales. Si no son manipuladas en internet, lo serán en prensa, libros o hasta en el boca a boca.
Lo mejor es pasar de la masa, no sirve de nada tratar de aleccionar a nadie. Me basta con una minoría medioilustrada que haga mediofuncionar las cosas por encima de lobbies y populistas.

c

#54 Esas cosas se pueden hacer desde hace eones

Solo era cuestión de dinero, tiempo e interés.

Enésimo_strike

Regular significa regular o se refieren a no dar gratis la gallina de los huevos de horo y ponerle un precio adecuado ? roll

sorrillo

#3 imaginate que a una inteligencia artifical solo la dejas entrenarse con articulos de "El Mundo" y "Ok Diario"...

Hay personas que principalmente consumen eso que citas, no veo problema en que se entrene una IA con ello.

Si vas a prohibir las IAs entrenadas con ello también deberías prohibir a las personas que consuman esos medios.

MaKaNaS

#7 Eso es una falsa equivalencia, estás poniendo las IA en el mismo plano que los seres humanos...

Por otra parte #3 dice que no debería permitirse que las IA sean entrenadas con una visión sesgada, cuando no directamente con fake news,no veo el problema ahí...

sorrillo

#8 Eso es una falsa equivalencia, estás poniendo las IA en el mismo plano que los seres humanos...

Son una herramienta para los humanos, no veo justificación a que unos humanos sea legal que las tengan y otros no. Y el criterio de entrenamiento corresponde a quien la crea.

dice que no debería permitirse que las IA sean entrenadas con una visión sesgada, cuando no directamente con fake news,no veo el problema ahí...

El problema es la realidad.

Lo que para ti es una visión sesgada para otro no lo es, lo que para ti es una verdad objetiva para otros es una visión sesgada. Lo realista es reconocer esa realidad, que el sesgo es transversal y aceptar que todos lo tenemos. Tu propuesta es imponer tus valores a otros, imponer tu "verdad" a terceros, lo cual es en sí mismo una fuente de conflicto.

Yo no quiero que las únicas IAs legales sean las que hayan decidido los estadounidenses con sus valores, ni tampoco las que hayan decidido los chinos con los suyos ni los de Arabia Saudí. Si yo no quiero que me impongan eso lo lógico es que respete que no se impongan los valores de España o de la UE al resto del planeta y ni siquiera al conjunto de habitantes de España o de la UE.

rojo_separatista

#9, representa que las IAs deben hacer del mundo un lugar mejor, no replicar nuestras miserias.

sorrillo

#18 Son una herramienta y como tal representan lo que cada cual quiere que representen. Pretender imponer a otros lo que tienen que representar es una fuente de conflicto y es no reconocer la complejidad de la realidad.

Pretender que las IA sean la solución a que existan distintas visiones del mundo, distintos valores, distintas culturas, etc. no es realista y forzarlo no hará otra cosa que limitar artificialmente el potencial de esa herramienta.

MaKaNaS

#9 Según tu criterio, estaria correcto entrenar a las IA en terraplanismo, creacionismo y demás magufadas por el estilo, o con un sesgo alt-right a tope.

Lo que dices no tiene ningún sentido, una IA entrenada de esa manera es poco más que inútil.

Pd. Ojo tampoco le vería ninguna utilidad a una IA entrenada únicamente con un sesgo izquierdista.

sorrillo

#19 Según tu criterio, estaria correcto entrenar a las IA en terraplanismo, creacionismo y demás magufadas por el estilo, o con un sesgo alt-right a tope.

Si alguien quiere hacerlo creo que no somos nadie para impedírselo.

Lo que dices no tiene ningún sentido, una IA entrenada de esa manera es poco más que inútil.

Entonces no deberías tener absolutamente ningún problema en que se permita ya que según tu criterio nadie lo haría y/o lo usaría por ser "inútil".

D

#19 Lee a Richard Stallman. El software debe de ser libre para cualquier propósito. Para el resto está la ley, la cual no está en contra de generar algoritmos que generen resultados.
Es como prohibir las matemáticas porque sirven para balística, absurdo.

MaKaNaS

#25 El software nunca va a ser libre porque pertenece a sus creadores (empresas), creadores que tienen intereses que no tienen porque estar alineados con los del resto de la sociedad.

Nadie está hablando de prohibir las IA, pero si regular su propósito y la forma de entrenarlas (que no tiene nada que ver con software sino con información veraz o no).

D

#26 Yo estoy en contra de regular los algoritmos. Es profundamente reaccionario.

D

#26 >(empresas)

Sí, en 1970 y 1980, quizás.

No han cambiado nada las cosas de 1991 y un loco finlandés creando Linux y la FSF uniendo su kit de programas a Linux. Nada, apenas.

Por eso quiero una IA de código libre, que la puedas usar en casa y no como los de OpenAI quieran que se use. Sin restricciones.

Tratar de regular IA's va contra el espíritu de la informática y la ciencia misma. La responsabilidad de lo que le introduzcas es tuya, no del programa. Fin.

MaKaNaS

#29 No se para que se reguló internet entonces, pobres traficantes de órganos/personas/drogas/introduzcaaquisucosailegalfavorita , les quitaron una gran oportunidad de negocio.

Tampoco entiendo porque se legisla en contra de clonar seres humanos, la ausencia total de regulaciones no es libertad, sino todo lo contrario, la ley de la selva.

Pd. Si dejan IA abiertas, veremos cuánto tarda en entrenarse alguna con el libro de cocina del anarquista, o como hacer bombas caseras y difundirla por todo internet, unabomber estaría orgullosísimo...

D

#31
1) No estás regulando la informática, si no la vida real. Punto importante.
2) Esa chorrada que dices también sirve sin IA. Ese libro ha sido difundido por incontables sitios. No estamos en 1994.

MaKaNaS

#35 Pues nada, entrenemos a las IA sin control y no regulemos nada respecto a las mismas, todo por la ciencia

Seguro que esta vez la naturaleza humana no le dará un uso inadecuado o delictivo a las IA, todas las otras veces anteriores donde ocurrió con otros avances fueron un accidente roll

Yo tengo ganas de aprender cómo se fabrica una bomba de gas nervioso por las risas

D

#37 Tienes mucha información sobre esas cosas sin IA's sabiendo buscar.
En serio, deja de ser la nueva inquisición. Al final, izquierdas y derechas sois iguales en dictarle a la gente lo que tiene que aprender o no con la excusa de la ética.

MaKaNaS

#38 Ajá, ahora estar a favor de regular una tecnología nueva, disruptiva y potencialmente peligrosa es ser la nueva inquisición.

Me queda claro, buenas tardes.

Pd. Tienes una visión idealizada, romántica y profundamente infantil de cómo funciona el mundo por cierto.

D

#39 El que no tiene ni idea del software libre o la informática pareces ser tú. Yo estoy en contra de regular algoritmos.
Si tanto te jode el que exista una tecnología cual ludita, empieza por las matemáticas y la física desde el XVIII, que han sido decisivas para constuir armas más mortales que nada en el mundo.

Infantiles son el 90% de la gente de letras incapaces de entender nada.
Solo saben prohibir aparatos que no pueden entender, como siempre.

Ya estoy harto de la tontería de gente que dice que somos infantiles cuando no hay más que analfabetismo tecnológico e ignorancia salida del XIX.

MaKaNaS

#40 No necesito saber de software o matemáticas para entender que una herramienta como las IA en malas manos y sin regulaciones suponen un peligro para la sociedad y la democracia.

Ludita dice, igual el que está cegado por su suma sapiencia y soberbia eres tú amigo.

D

#41 Me importan tres cojones tu sociedad y tu democracia. También un libro de química de primero o segundo de carrera en malas manos puede crear un pifostio de cojones y no veo que lo prohíbas.

Tú si que estás cegado.

Solo prohíbes lo que no entiendes.

MaKaNaS

#42 En ningún momento he hablado de prohibición, los de letras tienen comprensión lectora al menos, se ve que a ti te falta a paladas.

D

#43 Tu propuesta es tan inútil como secar el mediterráneo a cucharadas.
Si es por material para realizar explosivos, ya existe porque otros ya lo han hecho antes.
Sin IA. No lo entiendes? La IA da resultados, pero ya existen cientos de ejemplos factibles para realizar componentes peligrosos, explosivos e incluso suites como Metasploit en informática para automatizar el 90% de un ataque.
Lo que dices es como intentar regular los libros de las ingeniería de las bibliotecas.
Ya existen dichos libros para crear explosivos y de forma totalmente legal si me apuras.
El editor solo tiene que plasmar "con fines educativos" y que cada palo aguante su vela.

MaKaNaS

#44 No tiene mucho sentido seguir debatiendo la verdad, y menos en los términos despectivos y faltones en los que te mueves.

Tus anhelos me recuerdan mucho a los que claman por la desregulación total de los asuntos económicos, cada cual con su parcela para poder hacer lo que les salga de los huevos sin importarles una mierda como afecten sus actos al resto de la sociedad.

D

#46 Bonita falacia de la pendiente resbaladiza.

Aquí el que habla de economía eres tu, cosa que estoy en contra del liberalismo y a favor de los impuestos.
Pero también estoy en contra de izquierdas y derechas metiéndo las narices donde no les llaman. Los aprendices de Stalin, Hitler y el Papa que se queden en casa dando por culo.

D

#43 Para tu información, cada célula terrorista ya tiene su manual para crear armas y explosivos "para tontos", para que el militante más idiota se lo monte en casa. Si me apuras llegas como 40 años tarde, de cuando había escritos hechos a máquina y dbujos fotocopiados en blanco y negro.
Regular la IA servirá cero para evitar estas cosas.

MaKaNaS

#45 Tampoco regulemos los deepfake, o las IA que cambian los audios, cuando salga perro sanxe diciendo que disfruta degustando bebés nos echaremos unas risas.

D

#48 Eso son datos, no software. Los datos tienen copyright. El software libre se rige por otras licencias. Y por supuesto la GPL se diseñó para usarla para cualquier propósito, aunque a tí no te guste.
El software no es responsable de los datos que le viertan. Por ello no hay que regularlo.

MaKaNaS

#49 Es que es de lo que estoy hablando en todo momento, de cómo se utilizan y con qué fin esas IA, no de prohibirlas, a mi me parecen un avance cojonudo que supondrán un salto cualitativo y cuantitativo en prácticamente todas las disciplinas científicas, lo cual no significa que no piense que deben ser reguladas.

D

#50 Regularlas va en contra de la GPL. Yo caseramente puedo montar lo que quiera, como por ejemplo un vídeo porno entre Sanchez y Ayuso, pero legalmente me puedo meter en un lío si lo difundo por los derechos de imagen.
Leyes nuevas que hemos añadido al código penal: cero.
Ves? No hace falta regular nada. Ya existen leyes contra el uso ilegal de la imagen.
Next.

MaKaNaS

#51 Claro, es totalmente imposible crear un vídeo falso de perro sanxe follandose un cerdo, y distribuirlo de forma que no te relacionen con el mismo.

Como no se me había ocurrido...

D

#52 Y? Cualquier programa de edición de vídeo como Cinelerra-CV podía hacer algo similar con poco esfuerzo desde los 2000, anda que no había tutoriales para montarse algo con movimientos de karate realizando ataques a lo Bola de Dragón o un sable láser con Star Wars...

Sobre los metadatos del fichero que te relacionan, borrar eso es trivial.

La IA lo único que hace es ganar tiempo, nada más.

c

#48 No confundas un delito con las herramientas usadas para cometerlos.

El culpable es el que comete el delito, no la herramienta. Hay que regular los comportamientos de las personas, no las herramientas.

MaKaNaS

#61 Claro que se deben regular las herramientas, el como y para qué se utilizan, los explosivos son una herramienta que se utiliza ampliamente en minería y están sujetos a una estricta regulación...

c

#41 Eso es una estupidez.

Cualquier cosa en malas manos es un peligro.

Prohibimos los martillos?

MaKaNaS

#60 Porque no hay regulación para utilizar una retroexcavadora, cualquiera puede usarla, lo mismo que las armas de fuego, o las navajas, ue puedes llevar una faca de 20 cm por la calle y nadie te va a decir nada...

Y soy yo quien dice estupideces

D

#64 ChatGPT no es un arma. Solo es una calculadora avanzada con un chatbot con gran capacidad semántica.

Si prohíbes ChatGPT, prohíbe el Dr. Abuse. que corre en Windows 98. O Eliza.

MaKaNaS

#65 Y dale con prohibir, es curioso como asimilas regular con prohibir...

D

#67 El software libre no entiende de "regulaciones". Es y se usa. Las responsabilidades caen en quien haga uso del software, no del software en sí. Nadie habla de regular martillos, calculadoras o enciclopedias. Sería como tratar de empurar a Salvat o a una editorial universitaria porque alguien ha usado su enciclopedia o libros de texto para crear un explosivo casero.

MaKaNaS

#68 Si Salvat hace una enciclopedia diciendo que la tierra es plana, que Hitler fue un heroe del pueblo alemán o que el hombre nunca llegó a la luna ya te digo yo que si que la empuran...

D

#69 No. Salvat no ha hecho nada. El equivalente sería que alguien escribe un libro usando la Salvat como referencia para crear historias distópicas.

D

#69 Por cierto, mis ideas vienen de https://stallman.org/#politics ,

persona poco sospechosa de ser neocon o facha.

MaKaNaS

#71 De verdad, creo que no estás entendiendo mi punto de vista, ni niego las posibilidades y beneficios de la implantación y aplicación de las IA en múltiples campos(prácticamente todos), ni estoy en contra de que esa tecnología este al alcance de la gente, tampoco abogo por prohibir nada, mi punto no es regular el algoritmo sino su uso (o mal uso) del mismo, pienso que las IA tienen el potencial de sacar lo mejor de cada persona, pero también el potencial de sacar lo peor, por eso pienso que debe regularse su uso.

Nada más y nada menos.

Pd. Conozco a Richard Stallman y lo considero una referencia y una eminencia, y en la mayoría de cosas que dice estoy totalmente de acuerdo , pero respecto a las IA difiero en la desregulación total, para mí sería el equivalente del homúnculo de Full metal Alchemist (no se si conoces el anime) capaz de lo mejor y lo peor.
Es el genio en una botella, y los deseos pueden ser buenos o malos...

D

#72 Si conoces a RMS, mejor que leas tu obra. Regular el algoritmo es algo idiotesco, No se puede. Y ya está regulado el mal uso de cualquier cosa, concretamente el acto perjudicando a terceros, no la tecnología.
Sobre anime, prefiero GITS.

c

#26 Define "información veraz".

Una regulación así solo sirve para favorecer la manipulación

c

#19 No sería ni correcto ni incorrecto. Sería estúpido.

Y daría lugar a una IA estúpida e inútil

zentropia

#8 La gente va a querer IAs entrenadas en funcion de sus sesgos. Pagarán por ello. La gente quiere fake news.

c

#13 De lo que hablan aquí es de prohibir los sesgos ajenos... lol lol

LoboAsustado

#8 Correcto , ese es el tema , que las IA sean entrenadas con hechos. Y si se las entrena tambien con opiniones , al menos que sean diversas , no todas de la misma tendencia.

c

#8 Y tu también deberías.

No tiene por qué ser más fiable una IA que una persona. Y deberías fiarte de ellas lo mismo o menos

LoboAsustado

#7 Personas que aunque no quieran , tienen contacto con el mundo real , y han adquirido inteligencia antes de consumir esa "informacion" , con lo que se les presupone cierto potencial de espíritu critico.
Una IA no tiene espíritu critico inicial , como mucho algunas heuristicas, no tiene forma real de contrastar informaciones si limitas su acceso a información.
Por otro lado , solo señalar que lo que ha publicado OpenAI NO es realmente una IA , es un LLM. La diferencia es sutil , pero importante.

sorrillo

#14 lo que ha publicado OpenAI NO es realmente una IA , es un LLM

Hablando de sesgos y de verdades ...

rogerius

#7 Ya veo al PP prohibir a los catalanes desarrollar IA's por miedo a que las adoctrinen.

Enésimo_strike

#3 si usa sus datos estaría buscando la mochila de Vallecas en Venezuela

rakinmez

#3 salen votantes mononeuroales

R

#3 pues que los usuarios no son tontos y no la usarán.

C

China aprueba está gran iniciativa..... para Occidente porque eso significa enlentecer a su rival USA. China se pasará estas regulaciones por el trasero. USA hará lo mismo pero mantendrá en secreto las investigaciones de IA. Sólo empresas gilipollas les tocará agachar cabeza.

D

#17 Como la FSF monte una IA libre olvídate de restricciones, no tendrán sentido. Lo intentaron en su día con deCSS/Libdvdcss, para evitar piratear DVD's, pero claro, la misma parte de código se podía usar para ver DVD's legalmente comprados en la tienda en tu reproductor favorito.

LoboAsustado

En la guerra entre la inteligencia artificial y la estupidez natural solo puede haber un vencedor.

obmultimedia

#1 Tienen miedo a que una IA diga que haya que regular lo que ganan los ricos como Musk para equilibrar la vida de los de mas abajo.

c

#1 La estupidez siempre lleva las de ganar

La IA diciendo "es que sois unos zipotes"...calla calla a ver si no nos corren a gorrazos

M

Musk ese conocido amante de las regulaciones y contrario al liberalismo.

D

Mejor software libre para una sociedad libre, sobran las ranciedades alarmistas. Para mí esto es una versión hipermegavanzada de Eliza o Doctor en Emacs, pero en código propietario. Mejor una IA libre para cualquier que pueda usarla en casa.