Hace 6 años | Por gringogo a ticbeat.com
Publicado hace 6 años por gringogo a ticbeat.com

Un grupo de 116 expertos en inteligencia artificial han firmado una carta abierta a la ONU pidiendo que se prohiban los ‘robots asesinos’ para evitar que se conviertan en la tercera revolución de la guerra. Alegan que deberían incluirse en la lista de armas “moralmente incorrectas”, junto a las láser cegadoras y nucleares.

Comentarios

Liet_Kynes

¿Moralmente incorrectas? Querrán decir inmorales. Hasta los mismísimos estoy de que intenten suavizar las cosas con eufemismos

Varlak_

#2 es lo mismo.... no se donde ves tu el eufemismo, la verdad

Liet_Kynes

#19 Pues claro que es lo mismo, por eso es un eufemismo. La cuestión está en que inmorales suena peor que moralmente incorrectas, igual que crecimiento negativo suena mejor que decrecimiento, y también por eso son eufemismos. Un eufemismo es lo mismo dicho con palabras que al oyente le suenen menos duras

Varlak_

#21 es que tampoco me suena peor "inmoral" que "moralmente incorrecto", me suena exactamente igual, por eso digo "es lo mismo"

Liet_Kynes

#22 No sé. A mí me suena más suave, como quitándole importancia. Supongo que cada cual tiene su percepción

kumo

#10 Pero eso tiene que ver poco con la moral o la ética y más con la practicidad.

D

#11 En absoluto ¿Qué es más ético?:

- eficacia: ¿Matar a alguien, o dejarle malherido o con secuelas que durarán toda la vida, incluso después de la guerra? ¿O incluso haciéndole dependiente, con la carga física y psicológica que supone para los familiares y el estado?

- rápido: ¿Que sea rápido y la persona no se entere de nada? ¿O que sea lento y que la persona sea plenamente consciente de que está siendo asesinada y que va a morir sí o sí?

- indoloro: ¿Que no sufra? ¿O que sufra?

Recuerda, estamos dando por supuesto que vas a matar sí o sí. No defiendo ni la guerra ni el asesinato, pero si no queda otra (ejemplo: defensa propia) ¿qué es más ético?

Hay armas que no son tan eficaces pero sí son más prácticas: por ejemplo, dejar malheridos a soldados puede ser más práctico porque así los compañeros puede que salgan para intentar salvarles, y se expondrán más (eso se hacía en la primera guerra mundial, si no me equivoco).

kumo

#12 Pero no es algo que busques por ético* sino algo que buscas porque te facilita el avance rápido y la superviviencia que es a lo que iba con practicidad.




*Recuerda que calibres más pequeños como el 5.56 producen más heridos que muertos. Y en las guerras actuales el número de heridos se ha disparado brutalmente debido a la reducción de calibres y mejoras en los blindajes personales.

D

#13 Claro, pero es que tu hablas de tendencias, y yo hablo de la convención de Ginebra. Por eso no nos ponemos de acuerdo

kumo

Siempre me ha hecho gracia eso de la moralidad en la guerra. Primero porque no hay que confundir ética y moral. Y segundo porque es una maldita guerra. Parece un poco absurdo ponerle reglas al acto más incivilizado de nuestra sociedad.

powernergia

#3 Creo que lo de que las máquinas decidan matar gente es un salto cualitativo en esto.

OviOne

#3 Siempre he pensado exactamente lo mismo. Puedes matar, sí, pero como yo te diga... ¿?¿?

Sin embargo esto ya es otra cosa muy diferente. Se desvincularía totalmente de la ética y solo obedecerían órdenes de manera implacable. Además, como se menciona en el artículo, la velocidad de procesamiento y de reacción serían algo sin precedentes. Imagínate esas armas empleadas contra civiles.

Pescait0

#3 "Parece un poco absurdo ponerle reglas al acto más incivilizado de nuestra sociedad." -> eso es porque no lo ves desde el punto de vista de países poderosos. Cualquier país con industria orientada a la electrónica puede comenzar a producirlos o con una inversión bastante reducida al producto resultante y con un ataque puede poner patas arriba un país

D

#3 Pues yo sí le veo algo de sentido: si vas a matar, que sea eficaz, rápido y lo más indoloro posible.

gringogo

#3 Por mucha gracia que pueda hacernos, ya que la guerra en si misma es inmoral, no quiere decir que la guerra no deba tener sus normas, que las tiene. Otra cosa es que se cumplan: https://es.wikipedia.org/wiki/Leyes_de_la_guerra

Lo que quieren conseguir con la carta es dejar claro que ellos ya han avisado. Más que nada para que luego no salga un ludita culpándoles por sus desarrollos en robótica e IA. Saben que aunque la ONU acepte su petición y se vete su uso armamentístico, las grandes potencias se lo van a pasar por el forro de los cojones, para no variar. Pero es necesario que se regule, aún así. Aunque sea papel mojado.

gustavocarra

Excelente forma de dar pistas sobre líneas de desarrollo prioritarias para el DARPA.

Peachembela

buena stephen hawking

Manolito_

Los robots de uso militar no me parece que sea el gran problema.

Veo mucho más peligrosa la Inteligencia Artificial ¿que podría pasar con una Inteligencia Artificial, con una inteligencia y unos razonamientos que van más allá de nuestra comprensión?

No nos damos cuenta de que la IA puede llegar un punto en que se "autodesarrolle" alcanzanto niveles que escapan a nuestra comprensión al igual que un perro es incapaz de entender como funciona un coche (no digamos ya una mosca).

Según la mayoría de expertos, esta IA se desarrollará en este siglo y, como dicen Musk y otros, nos enfrentamos a una singularidad que marcará nuestra existencia (o extinción).

Arganor

#9 Esa idea es lo que se pensaba en los años 50, te diré para tu tranquilidad que las máquinas tienen la limitación de la propia tecnología donde vienen implementadas. Que se desarrolle en este siglo no implica que alcance "vida", y menos inteligencia. No existe todavía un paradigma matemático que defina adecuadamente la propia ciencia de IA y en este sentido, la propia IA se queda en, de momento, un intento de iniciación, sin embargo se suele confundir con la ingeniería avanzada.
Análogamente, todo esto, podría acabar como la quimera de convertir los objetos en oro, que nunca se logró.

Aún así, es cierto, que los sistemas expertos ayudan en gran medida a hacer pensar a la globalidad de que la Inteligencia Artificial es viable. Pero todo es fruto de nuestra mente.

No se descartan las hipótesis del entramado, del crecimiento de las bases de conocimiento, mejora del modelo matemático para definir el pensamiento, etc.

Lo dicho, mientras no exista un modelo o paradigma que defina lo que es pensar, no existe la Inteligencia Artificial que pueda dar lugar a entes "pensantes".

Varlak_

#17 supongo que conoces este articulo:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

(largo y en ingles, aviso, pero merece la pena muy fuerte)

Arganor

#20 Muchas gracias por el enlace, tengo que leerlo con más tranquilidad. Uno de los inconvenientes dentro de la IA es precisamente que la máquina está limitada en cuanto a crecimiento por la propia tecnología en la que es diseñada, me refiero al propio sistema de desarrollo. Además tampoco tenemos un modelo matemático que defina la IA.

Pero en cuanto esas dos condiciones fundamentales las tengamos resueltas, el avance en disponer en la inteligencia con un modelo realmente "inteligente" mediante ese paradigma matemático, va a condicionar un avance brutal, porque se van a desbloquear multitud de avances.

No obstante, por el momento estamos a varias decenas de años de lograr eso; mientras la robótica avanza precisamente para darle al sistema inteligente una base. Por eso los robots terminarán siendo de algún tipo de polímero adaptativo que permita hacerles crecer o regenerarse como lo hacemos nosotros con algunas partes (piel, cabello, hígado, etc.)

Llegado ese día, si la máquina tiene un modelo matemático de pensamiento adaptado y que permita su evolución utilizando la tecnología, es posible que pueda llegar a tener conciencia. No obstante, todavía no se ha estipulado siquiera en qué consiste la consciencia... Hay infinidad de seres vivos en nuestro planeta que según la definición de consciencia no lo son.

B

Muy bonito pero no va llegar a ningún sitio. Los robots militares llegaran y no se podrá evitar dado que sus beneficios son muy grandes. Actualmente el mayor problema de las guerras son los soldados muertos que traen a casa. Funerales, madres llorando en TV etc etc. Eso es lo que paro Vietnam o esta haciendo retirarse a Estados Unidos de Iraq y Afganistán.

Los drones ha supuesto un avance en este punto. Atacan sin necesidad de que uno de los tuyos muera pero todavía falta el tener infantería en ese aspecto.

Los gobiernos con grandes ejércitos como estados unidos nunca va sumarse a este tipo de iniciativas.

OviOne

No es la primera vez que comento acerca de este movimiento en Europa:

https://www.stopkillerrobots.org