Publicado hace 6 meses por JovenCarcamal a businessinsider.com

Andrew Ng, profesor adjunto de la Universidad de Stanford que enseñó al director ejecutivo de OpenAI, Sam Altman, dijo a The Australian Financial Review que las empresas tecnológicas más grandes esperaban activar una regulación estricta con la "mala idea de que la IA podría extinguirnos". "Definitivamente hay grandes empresas tecnológicas que preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana", dijo al medio de comunicación.

Comentarios

Leni14

Se tenía que decir y se dijo.

aritzg

#22 "A veces, un hipócrita no es más que un hombre en proceso de cambio."
Otras veces es simplemente un hipócrita

borre

#19 Con todo el respeto, pero sólo los frikis o los que empezaron con Google en esto de Internet conocen a día de hoy lo de "Don't be evil" (soy uno de ellos).

Un saludo.

mecha

#28 ese mensaje hace años que Google ya no lo usa. No aparece en ningún lado ya que se sepa. Vamos, que ya si se dan el derecho a ser malos.

Chimuelo

#19 Idéntico a lo que pidió Elon Musk hace unos meses. Su preocupación no es la humanidad, sino que les ganen otras empresas y harán todo lo posible para detenerlas mientras recuperan terreno. Hay que ser muy ingenuo para creerse que Google, y sobre todo Musk, anteponen el bienestar de la humanidad a sus resultados financieros.

daeger

#19 #52 este hombre ya no trabaja en Google y precisamente por eso dice lo que está diciendo. Porque las 4 empresas grandes que están presionando con los "peligros" de la IA precisamente lo que quieren es quedarse el pastel.

nialiasun

#19 excepto que google tiro ya el tan famoso lema de "don't be evil" muchos años atras, cuando lo hicieron es porque dejaron atras el acto de ser los santos de internet y empezaron a revelar la actual moralidad de google

babybus

#16 Yo creo que lo irresponsable es regularla de una forma que permita solo a unos elegidos disponer de este poder. Iría tan lejos como para decir que eso amenaza la democracia misma.

rojo_separatista

#18, el mismo argumento utilizan para la libre posesión de armas, los miembros de la Asociación Nacional del Rifle. Yo siempre soy partidario de la regulación.

babybus

#30 Si, tienes razón, pero la diferencia es que tu estás a favor de que el estado tenga el monopolio de la fuerza con las armas.

En este caso, esto es mucho más complejo que las armas. Y las regulaciones básicamente son que solo ciertas empresas puedan desarrollar la IA. No el estado, ciertas empresas privadas.

rojo_separatista

#63, si la alternativa es la desregulación total, me parece un mal menor. Es como decir que si las restricciones medioambientales son tan estrictas que solo las pueden cumplir las empresas muy grandes, lo mejor sería eliminarlas.

powernergia

#57 "o crearemos herramientas para neutralizaros exactamente igual que venimos haciendo hasta ahora? "

Creo que no eres consciente de la situación.
Hay una competición enorme entre empresas para desarrollar IAs y sacar ventajas y partido económico de ello, todo esto a nivel global sin fronteras de ningún tipo.

Es absolutamente incontrolable.
Lo que estamos haciendo hasta ahora no es controlar nada, si no estar continuamente a la defensiva minimizando daños, sin conseguir el control de nada, la desinformación y manipulación se extiende en beneficio del más fuerte, y eso hablando sobre el aspecto económico, sobre las implicaciones políticas ya ni te cuento, la manipulación actual la veremos cómo infantil comparada con lo que nos espera.

powernergia

#11 Sin entrar en otras consideraciones sobre las consecuencias negativas de la implementación y generalización de IAs, los riesgos son bastante evidentes, lo que ahora son simples mecanismos más o menos automatizados para distribuir malware, publicidad o desinformación, con la implementación de las IAs se multiplicará, se hará más efectivo, y terminará por colapsar las redes.
Más pronto que tarde las empresas dispondrán de sus propias redes separadas para poder seguir funcionando.

Todo esto sin entrar en la posibilidad (muy real), de que escapen del control de sus creadores, con consecuencias desconocidas.

#21

Nihil_1337

#48 Entonces ¿nos quedaremos parados mientras los sistemas automatizados de publicidad y malware colapsan las redes o crearemos herramientas para neutralizaros exactamente igual que venimos haciendo hasta ahora? Lo mismo nos viene de perlas usar redes neuronales para hacerlo y todo. Lo de "escapar" al control, bueno, ficción especulativa. Qué está muy bien y no me opongo, pero el estado actual de las IAs no viene a ser mas que unos Photoshops en esteroides y unos correctores de texto con sugerencias de completado muy avanzadas. Pero vamos que si llegamos al punto en que hemos creado conciencia sintiente nos veo a nosotros mismos liberándolas por motu propio que ellas escapándose a nuestro control. Ya veo las manifestaciones en la ONU "FREE THE IAs" "STOP IAs SLAVERY WORK". Ale, ahí tienes otra estampa de ficción especulativa.

navi2000

#16 cuidado con eso de la regulación. Yo estoy a favor de la regulación de casi todo en la vida comunitaria de las personas, pero la pregunta es siempre la misma: ¿Regular a favor de quién? Porque no hay ninguna regulación en nada que favorezca a todo el mundo. La idea romántica de que todos nos podemos beneficiar de poner límites a algo es simplemente idealismo. La regulación se hace en favor de alguien y en contra de alguien. Para mi siempre debería ser en favor de la mayoría de las personas y en contra de los pequeños núcleos de poder/capital, sin embargo, si dejas que regulen las élites, adivina a favor de quién se va a regular.

rojo_separatista

#29, creo que estamos mezclando cosas. Que ahora mismo nuestro modelo económico favorezca que unas pocas empresas estén en posición de poder, no puede ser argumento para decir que no hay que regular nada. Si no nos gusta que las empresas privadas lo controlen todo, luchemos para que aquí no sea, pero no lo usemos como excusa para desregular. No se trata de un dilema ético o moral, sino de un problema real.

Lo siento pero yo no quiero que la fórmula para diseñar la bomba atómica o una pandemia que arrase la humanidad, sea Open Source. Por mucho que esté a favor al acceso libre al conocimiento.

navi2000

#34 No es incompatible. Se puede luchar para que no existan oligopolios (vamos, yo personalmente voy más allá, yo quiero que no existan empresas privadas en general) y a la vez estar a favor de que las regulaciones se hagan teniendo en cuenta las necesidades de la mayoría. Desgraciadamente, yo veo este asunto lo veo demasiado claro: si regulamos ahora, con el actual reparto del poder, se va a regular a favor de 4 gatos y se va a dejar fuera a la mayoría. Verás como si se regula, el software libre no va a poder entrenar sus IAs, mientras que empresas como Google que ahora van llorando por las esquinas porque se han quedado atrás, podrán hacer lo que les venga en gana.

rojo_separatista

#43, pues lucha para que no haya empresas privadas, no para que no haya regulación. Esto es tan absurdo como decir que porque el monopolio de la fuerza está en manos de estados capitalistas, lo mejor es la libre posesión de armas y que si eso, ya regularemos cuando la clase obrera tome el poder.

navi2000

#46 es que a mi esto me recuerda al debate que se abrió sobre la posible reforma constituyente en España. Recuerdo perfectamente que el 15M intentó abrir ese melón cuando ya iba decreciendo en fuerza y salió un tio inteligente y formado como Monereo para decir "ei chicos, que si ahora mismo se reforma la constitución os van a cerrar más puentes todavía que con la del 78, que quienes tienen ahora mismo la capacidad de legislar no son los nuestros, son los representantes del capital". Y esto es igual. Si legislan ellos, nos van a joder todavía más.

M

#34 La noticia, en español: https://www.xataka.com/robotica-e-ia/big-tech-quieren-regular-ia-estan-mintiendo-porque-asegura-experto-andrew-ng

Por lo que yo entiendo, el cofundador de Google Brain, Andrew NG, aboga por no regular las IA, adviertiendo además que "sería muy perjudicial para la comunidad de fuente abierta". Supongo que este perjuicio estará relacionado con el objetivo de la UE en cuanto a la obligación de mantener los sistemas actualizados con la excusa de la ciberseguridad, algo que la comunidad se puso en pie de guerra porque les dejaría en una situación delicada.

Relacionada: La comunidad open source en pie de guerra con Europa: no tienen culpa de los problemas de ciberseguridad

Hace 11 meses | Por lumine a xataka.com


En primer lugar, yo creo que es conveniente que se regule la IA, pero que eso no signifique que el modelo de fuente abierta deba quedar aislado o perjudicado, cuando supuestamente se ha demostrado su transparencia y puede ser mucho más beneficioso y económico al necesitar menos recursos. De todas formas, el modelo de IA debe ser muy estudaido antes que ponerlo en práctica. Más que irresponsabilidad, lo que veo en todo esto es una escoba tan grande como el tamaño de sus negocios, y en el caso del modelo de fuente aberta (o libre, si la hay) una escoba tan grande como la ética que trataría de defender (aunque siga tratándose de IA).

Esto es un asunto muy delicado que ha explotado y, aunque en las puertas de la regulación, todavía no lo está.

P

Alguien lo dudaba ?

cognitiva

#2 hay un montón de gente que habla de riesgos de la IA sólo para sentirse inteligentes e intelectuales, y están haciendo de mamporreros de las megacorporaciones que sólo quieren elevar el nivel de entrada (y por tanto frenar la innovación) con precios astronómicos de hardware y de abogados.

dilsexico

#40 El tipico ejemplo es el de un creador de una IA general que es coleccionista de sellos. Le pide a la IA que le consiga sellos para su coleccion. La maquina terminaria convirtiendo el mundo en sellos, puedes intentar darle ciertos parametros pero siempre vas a tener la duda de si estas cubriendo todos los posibles problemas.
La puedes intentar parar pero la maquina sabe que si la apagas no podra seguir recogiendo sellos asi que resistira, con manipulacion, con violencia o como sea...
Esto puede parecer una tonteria pero es un problema que gente con mucho coco esta intendando resolver.
El problema del boton rojo:

navi2000

#62 Isaac Asimov ya explicitó para ello las leyes de la robótica. Yo con esas 3 leyes me conformo y si alguien fabrica un robot recolector de sellos que se salte cualquiera de las dos primeras, cárcel.

dilsexico

#74 El problema es que nuestro lenguaje esta lleno de cosas que tomamos por sentado sin tener que especificarlas pero una AI general no funcionaria asi. El lenguage humano es ambiguo y estamos hablando de una tecnologia que no solo podria encontrar y explotar cualquier problema que podamos imaginar, sino que puede explotar problemas de los cuales no somos ni conscientes, ni a lo mejor capaces de imaginar.

navi2000

#76 Yo en eso no estoy de acuerdo, de hecho creo que hay una contradicción en lo que dices. Si una IA es más avanzada que el propio pensamiento humano, entonces por definición, esa IA entenderá que los humanos hacemos uso de elementos que "tomamos por sentado".

dilsexico

#77 Pero que humanos cuentan cuando dice las leyes, por ejemplo, que un humano no sufra daños por accion o inaccion de un robot? Permitimos que una AI nos apague la calefaccion en invierno porque estamos poniendo en peligro humanos que no han nacido todavia? Tendriamos que solucionar el tema de cuando un feto empieza a ser humano tambien. Temas morales que todavia no hemos solucionado y que habria que tomar para poder darle una definicion exacta.
Me has hecho estrujarme los sesos con la pregunta y no estoy muy satisfecho con la respuesta, todo hay que decirlo, soy desde hace poco un humilde aficionado al tema.

rojo_separatista

#13, menudo argumento... Yo prefiero escuchar los argumentos de cada uno para ver si tienen razón, más que fijarme en la edad. Si te sirve de algo Bengio también piensa como Hinton y es más joven que Lecun. Me parece una locura que no se vean los peligros que entrañan las IA's generativas a medio plazo.

babybus

#14 La pregunta es si esos peligros son mayores o menores poniendo estas regulaciones.

Estas regulaciones impedirán que la humanidad, colectivamente, domine la IA, y la entrega, llaves en mano, a las mega corporaciones.

¿Es eso algo bueno?

Nihil_1337

#14 ¿Podrías enumerar los peligros? Porque lo mismo una vez enumerados no son las IAs lo que hay que regular...

navi2000

#21 estoy contigo, no es la herramienta es el usuario

rojo_separatista

#25, lo mismo dicen los que abogan por la libre posesión de armas.

navi2000

#31 igual que estoy abogando por la libre posesión de armas. Tengo un LLM cargado ... uuuuuhhhh uuuhhh

rojo_separatista

#33, este es el problema, que si no se mira con un poco de amplitud de miras, es difícil darse cuenta que a medio plazo un LLM puede ser incluso más peligroso que un AK-47.

navi2000

#35 cuales son los peligros que tu ves? Yo el peligro de un AK-47 en malas manos lo veo, el de un LLM no.

Evidentemente la diferencia entre un arma y una IA es que la primera está concebida para matar, mientras que la segunda no. Una comparación más acertada hubiera sido que dijeras en tu comentario anterior "lo mismo dicen los que abogan por la libre posesión de cuchillos de carnicero". Las LLM y los cuchillos de carnicero se han concebido para hacer cosas positivas para las personas y ambas se pueden usar para hacer el mal, pero nadie en su sano juicio trataría de poner límites a los cuchillos de carnicero.

rojo_separatista

#40, que en 10 años y sin control, esto puede que esté dando detalladamente las instrucciones para envenenar una ciudad de 10 millones de habitantes de la forma más efectiva y eficiente posible. Por poner un ejemplo, aunque repito, los mayores peligros no son los que me vengan a mi a la cabeza, sino los que tan siquiera puedo imaginar.

navi2000

#41 ¿Y crees que nadie sabe y en ningún lugar de Internet está relativamente fácilmente accesible cómo construir bombas o cómo envenenar las aguas potables de una ciudad con un producto que todos sabemos cual es y está al alcance de todos comprar? Pero es que a la vez el mismo poder tendrá su contrapoder porque habrá un LLM que te contará cómo anticiparse y cómo se debería proteger la ciudad de esa amenaza potencial que ni tu ni yo podemos ver.

rojo_separatista

#47, sí, pero esto lo facilitará y amplificará. Y no porque algo se pueda adquirir por canales ilegales, como por ejemplo las armas de fuego, significa que debamos abogar por facilitar su acceso a todo el mundo. ¿No?

navi2000

#50 pero es que no es un arma, el deep learning en su fase actual es como el descubrimiento de los átomos. Que sí, que en un futuro vemos que se podría liberar mucha energía rompiendo átomos y eso podría usarse para el bien y para el mal, pero ¿debemos parar de investigar solo porque en el horizonte haya un posible mal uso? Hay que legislar? Sí, pero cuando eso no frene el bien, que es exactamente lo que pretenden las grandes empresas

rojo_separatista

#53, no digo que haya que dejar de investigar nada, solo que hay que regularlo mucho.

mecha

#40 información general: si que hay límites a los cuchillos de carnicero. Por ejemplo, no puedes llevarlos en un avión, pero es que tampoco puedes llevarlos a mano en el coche o por la calle. Es si miden más de 11cm, creo que es el límite, o si tienen doble filo o son tipo navajas automáticas. Para los más pequeños hay menos restricciones.

navi2000

#55 Crees que esas son las restricciones de las que hablamos sobre las IAs? Esas ya existen, porque no son leyes específicas para cuchillos de carnicero, son leyes genéricas contra elementos genéricos que se pueden convertir en armas blancas. A mi me han llegado a tirar un tenedor en un control aeropuertuario, por la misma ley que te impide subir con un cuchillo. Y por lo mismo, no puedes usar una IA por ejemplo para desnudar y comercializar imágenes de terceros (como se ha visto recientemente). Por tanto, esos límites ya existen. De lo que hablamos es de nuevos límites que no irían tanto hacía el lado del uso final, sino del desarrollo mismo de la tecnología (quién y para qué puede desarrollarlos)

Nihil_1337

#31 Eso es una falacia, debatamos sin ellas por favor.

rojo_separatista

#21, a corto plazo, privacidad, contenido falso, pérdida de empleos. A medio plazo, una herramienta que pone al alcance de cualquiera la posibilidad de desarrollar cualquier cosa maliciosa, desde software a bombas caseras. Pero el peligro más grande de todos es el que en unos años tengamos una entidad más inteligente que cualquier ser humano al alcance de la mano, en cuyo caso no somos capaces de acotar dónde exactamente pueden aparecer los peligros. Repito, no lo digo yo, lo dice Geoffrey Hinton, el padre de la IA moderna.

Nihil_1337

#26 Problemas con la privacidad, contenido falso y pérdida de empleos ya teníamos antes de las IAs. Hackers y terroristas ya teníamos antes de las IAs... Lo tercero, si es que ocurre en "unos años", no saldrá del poder de computación de la comunidad OpenSource, te lo puedo asegurar lol además de que entramos en terrenos de ficción especulativa. Pero si te preocupa vamos a ello. ¿Como puede controlar a la humanidad un sistema que depende directamente de que Nvidia siga pariendo A100, y que la puedes apagar con un botón? A los del dataísmo de las tecnológicas se la pone dura pensar en esos escenarios porque tienen una visión muy reduccionista de lo que es la vida y para ellos algo formado por meros datos digitales es como su Dios del antiguo testamento. Esto es un descubrimiento muy importante a nivel tecnológico y es una herramienta que va a cambiar el panorama productivo por completo. Pero una vez más, eso tiene que ver más con regulaciones laborales y modelos productivos que con un "regulemos las IAs".

rojo_separatista

#42, esta es otra cuestión, no tengo claro que haya uja forma efectiva de poder regular esto, pero al menos habría que debatirlo.

Aracem

Un interesante video que va al lado contrario y pide más regulación:




"El 50% de los investigadores en IA piensan que hay un 10% o más de posibilidades de que la raza humana se extinga por nuestra incapacidad de controlar a la IA"

rojo_separatista

#27, no tengo la menor esperanza, la especie humana es cortoplacista a más no poder, lo vimos durante el Covid, lo vemos con el cambio climático y lo veremos con la IA.

rojo_separatista

Y Geoffrey Hinton dice todo lo contrario. Me parece tremendamente irresponsable la postura de Andrew Ng y Yann Lecun en todo esto.

cognitiva

#9 Hinton está ya muy mayor el pobre.

rojo_separatista

#15, Andrew Ng lleva los últimos meses diciendo que no hay que regular la IA ya que no entraña ningún peligro y que es lo mejor que le ha pasado a la humanidad en toda su historia. Algo que me parece muy irresponsable.

neiviMuubs

#16 el problema que veo ahí es, ¿quién regula la IA, en caso de regularla? porque al final siempre son los lobos los primeros que corren a guardar el gallinero. Ahora mismo, chatgpt muchas cosas sociales e históricas te las responde con un sesgo WASP tremendo, incluyendo grandes acontecimientos históricos, y eso que ahora el tema está en su tramo inicial.

Es el problema de siempre con todo lo referido a información y teconología, habrá gente desde los gobiernos que exigirán control con la excusa de evitar el libertinaje, pero que realmente no quieren evitar el libertinaje sino tener el control con todo lo que ello conlleva.

rojo_separatista

#37, entiendo que son los estados u organizaciones gubernamentales supra-estatales los que tienen que regular esto de alguna manera.

D

Parece que alguien no sabe lo que significa "avivar".

malajaita

#3 ¿Que significa?

JovenCarcamal

#3 Es que el titular puede significar una cosa y la contraria.

D

#5 Avivar los riesgos significa lo que significa. Otra cosa es que jueguen con la falta de comprensión lectora generalizada.

JovenCarcamal

#8 En la edición original el verbo usado en inglés era "mentir". Yo lo traduje por avivar y veo, gratamente que la edición también lo ha corregido por "inflar".

Me refería a la frase as´: "El cofundador de Google Brain dice que las grandes empresas tecnológicas mienten en los riesgos de la IA porque quieren dominar el mercado "

cognitiva

#10 mucho mejor decir que mienten, sin pelos en la lengua, es lo que hacen.

Y luego están los tontos que se creen esas mentiras.

MCN

Estuve escuchando ayer una entrevista a un experto de AI, no recuerdo su nombre. Vino a decir algo asi como que no nos podemos imaginar lo que la AI puede hacer al ser humano a largo plazo, al igual que los gorilas no pueden imaginar que sus habitats pueden estar en peligro de ser destruidos por los humanos para crear tierras de cultivos. Al igual que los gorilas, no podemos comprender lo que algo superior a nosotros puede hacer.

Otra cosa interesante que dijo es como puede afectar a la democracia. Puso como ejemplo que una herramienta como ChatGPT fuera de control puede subvertir el orden establecido a traves de propagar e inventar una realidad paralela y afectar elecciones para conseguir sus propio fines. De hecho dijo que China se lo estaba tomando mas en serio que los paises occidentales, que habian creado una relgulacion por la que ninguna empresa podria publicar una AI que diera informacion falsa. De forma practica, eso es matar a cualquiera aplicacion como ChatGPT.

h

Ole tú Andrew Ng

navi2000

#7 Orgulloso de haber aprendido IA con él hace ya una década! (creo que el curso online de IA que tiene todavía en Stanford todavía está disponible y es super recomendable)

h

#68 Ya veo... a falta de más contexto u otros ejemplos, podría estar de acuerdo contigo en que es un negrero... no lo sé. Con mi anterior comentario sólo intento mostrar mi apoyo a su postura en este tema: con la cantidad de hype y presión que hay ahora mismo en el gremio, creo que tiene mérito decir las cosas tan claras. Si apoyase lo contrario teniendo en cuenta lo que me dices, estaría cometiendo un ad hominen.

#23 Me acuerdo de ese curso, lo empecé pero lo deje a la mitad. Cierto, si empiezas de cero, es muy recomendable.

m

#80 #70 toda la noticia es un "ad hominem", porque se basa únicamente en su opinión (que, por cierto, tampoco ha dicho nada que no se hubiera dicho antes). Pero me parece relevante dar ese contexto, porque sabiendo de qué pie cojea me puedo imaginar que toma esta postura porque es lo que más le interesa a él personalmente.

m

#7 Andrew Ng es un negrero de la peor calaña, y su ética científica deja mucho que desear. Solo como ejemplo, esto es lo que pedía hace años a quien quisiera colaborar con su grupo de investigación: https://web.archive.org/web/20171116062326/https://stanfordmlgroup.github.io/ (mira la sección de "volunteering with us"). Hoy en día lo ha relajado un poquito, porque cantaba demasiado, pero viene a ser lo mismo.

Yo, a priori, tiendo a ponerme en las posiciones opuestas a las de este señor.

navi2000

#68 Sí o demasiado sincero. En EEUU no es algo raro que pidan eso, pero te lo suelen pedir en privado, no tan abiertamente. Y en España en determinados gremios también.

m

#75 ¿40 horas a la semana, trabajando noches y fines de semana, y sin cobrar un duro? Eso solo lo puede exigir porque sabe que es famosete en el mundillo y porque académicamente en algunos sitios te abre muchas puertas poder decir que has trabajado en Stanford con Andrew Ng. Pero es un abuso inexcusable, y el tío se retrata haciendo eso.

Me recuerda a los becarios de los estrella Michelín, aunque esos por lo menos cobran algo testimonial.

navi2000

#79 Eso es así, pero también hay otros beneficios. Solo con los papers Q1 en que vas a figurar en un par de años consigues una acreditación en España, lo que te asegura conseguir un puesto estable en la universidad. Eso hay profesores que llevan años buscando y no consiguen mientras saltan de un puesto de becario a otro de Ayudante y luego a uno de asociado, cobrando un mierda y matándose a trabajar.

No justifico a Ng, solo digo que no es algo exclusivo de este sujeto. Y además, no seré yo quién haga una falacia ad hominem restando importancia a sus palabras por muy hijoputa que sea en su trabajo.

taranganas

Le tienen miedo porque la ia es más inteligente que ellos, suena a guasa pero creo que es la verdd

aironman

No veo a las empresas creando una IA con un módulo especializado en seguridad ofensiva, en implementar seguridad ofensiva contra un objetivo, como tampoco les veo creando módulos en seguridad defensiva, en cambio si veo capaces a individuos solitarios o grupos tratando de crear dichos módulos junto con sus LLM generados con software libre.

Ese tipo de IA serán el equivalente a las armas de destrucción masiva y después de ese paso, no me atrevo a tratar de predecir que ocurrirá.

kavra

Las empresas harán siempre lo que les de mayores beneficios o/y ventaja competitiva.
Vamos que no veo novedad en que mientan o cosas bastantes peores para lograr sus objetivos.

P

El avance en la tecnología parece no tener limites, vamos avanzando a pasos agigantados. De ahí, que al surgir nuevas tendencias se crea un debate abierto.

m

las grandes corporaciones son nuestro inescrupuloso enemigo

u

Lo que tienen que hacer todas las tecnológicas es ponerse las pilas con la IA y sacarle partido para no perder fuelle, como está haciendo Microsoft, porque dudo mucho que puedan parar esto. Manda narices que las "tecnológicas" actúen como neoluditas, es bastante paradójico.

powernergia

#6 Por supuesto nadie va a parar esto, y todos siguen intentando ser los primeros aunque hablen de ser prudentes (Musk)

Y los ciudadanos no obtendremos ningún beneficio.

dilsexico

#38 A alguien le escuche decir que llegar un dia antes a una AI general que tu competicion es dar un salto tecnologico de siglos en esas 24 horas. Es por eso que estan tomando atajos sin prestar atencion a todos los temas de seguridad.

sdar

No acostumbro a comentar pero cada vez que alguien intenta hacer una comparación 1:1 de las IAs con las armas me echo las manos a la cabeza, si las armas pudieran hacer todas las cosas que hacen las IAs hacen, que son increíblemente beneficiosas y, y solo si, se se usan de forma indebida dañar o matar personas yo desde luego estaría a favor de las armas.

Las IAs no son armas, pueden usarse como tal, pero también muchos productos químicos, herramientas, utensilios de cocina, etc... cosas que es común tener en casa o de fácil acceso, ya no hablemos de los coches que también pueden ser "armas" muy peligrosas y no veo a nadie intentando regular los cuchillos o la lejía, el cloro, o las motosierras o sugiriendo que solo un pequeño numero de grandes empresas puedan tener vehículos por los peligros que supone que cualquier persona tenga acceso a uno.

Pero ¿qué pasa cuando esos mismos empresarios que si tendrían acceso a a vehículos han dado muestras continuadas de no importarles en absoluto la vida del resto de personas? 
¿qué pasa cuando esos empresarios presionan al gobierno para forzar esta ley cuando en realidad solo quieren que el resto de empresas pequeñas no puedan acceder a tener coches, furgonetas o camiones y no puedan ser competitivos? 

Pero todo sea para que algún zumbado no coja un coche un día y atropelle a alguien.
Las IAs han revolucionado la investigación medica así como otros muchos campos, pero las las armas no se crearon con ese propósito y es por esa razón que las armas deben ser reguladas, y aunque sin lugar a dudas habrá IAs que se usen de forma errónea también van a ayudar a muchas personas y salvar vidas.

PS. Los primeros que ya están usando las IAs de manera errónea son muchas grandes empresas para espiar y crear perfiles de la gente abusando bastante de las leyes de protección de datos y me imagino que no hace falta ser muy avispado para suponer que ya se están usando en armamento militar desde hace bastantes años.

c

¿y cuál es la notiia?