La policía Suiza ha devuelto un ordenador confiscado con un bot programado para realizar compras en la Deep Web que forma parte de un proyecto artístico. Sus compras le llevaron ante la justicia abriendo un interesante debate entorno a la resposabilidad de los programadores y la intención de la IA
#3:
"¿dónde empieza y termina la responsabilidad del programador?"
Si la IA tiene menos de 13 años de antigüedad es inimputable y el programador corre con toda culpa. De ahí hasta los 18 ya sí es culpa de la IA aunque puede que el programador se vea afectado.
#15:
ha contado con un presupuesto semanal de 100 bitcoins que la criatura ha gastado como ha creído conveniente
¿Quién no se gasta 100.000 euros al mes en proyectos artísiticos?
#16:
#3 Entonces si el bot tiene menos de 13 años ¿lo mandamos a una Escuela de Re-Programación?
#12:
No sé por qué ahora me he imaginado un T-800 buscando farlopa por internet.
"¿dónde empieza y termina la responsabilidad del programador?"
Si la IA tiene menos de 13 años de antigüedad es inimputable y el programador corre con toda culpa. De ahí hasta los 18 ya sí es culpa de la IA aunque puede que el programador se vea afectado.
- Me imagino que si programas una IA para una tarea ilegal concreta, eres responsable de la misma.
- Pero si haces un algoritmo que puede ir probando cosas él mismo y aprendiendo, ¿aplica la misma norma?
- Incluso sería posible que el sistema programase otro sistema independiente para hacer una tarea específica. ¿Hasta que grado de parentesco eres responsable en ese caso?
Esto hay que legislarlo ya. Osea que programo cualquier automata para matar y no soy culpable?
Eres directamente responsable de lo que programas. Menuda noticia.
Aquí el problema no es que alguien haya programado algo para cometer un delito, el problema es que ha sido programado para que tome sus propias decisiones, y ahí si hay un dilema serio.
Si en vez de comprar unas pastillas hubiese contratado un asesino a sueldo, quien sería responsable?
No es moco de pavo el tema, teniendo en cuenta que el camino que llevamos es el de cada vez más máquinas con autonomía propia. Empezando por los coches sin conductor.
#25 le respondido a otro esto. Mas vale que limites las decisiones que puede tomar el programa porque en España te meten directamente trafico de drogas y luego ya demuestra tu que no es tu culpa. Salvo que seas politico que todo vale todo es sin querer
#11 La clave es que el programa no estaba "programado para comprar droga", sino programado para comprar con una serie de condiciones (que fuese menos de X dinero, que tuviera mas o menos de X pujas, que fuese luego vendible... las que sean).
Fue el bot quien tomo la decisión de comprar droga en base a las condiciones.
Ahí el debate. Y es tremendamente interesante.
Hay ya infinidad de sistemas de decisión automáticos que son estadísticamente mas certeros que la decisión humana, pero que no se aplican por problemas legales o actuariales (de seguros).
Por ejemplo existen programas de diagnostico médico que aciertan mas que los médicos humanos, pero no se aplican por el vacío legal y actuarial que genera, pues no está claro de quien sería la responsabilidad en caso de fallo.
#20 como los de la bolsa que se toman hasta las bromas del viernes 13 como anuncios y la lian
Pues o poner condiciones para que el programa no compre por error o te puedes enfrentar a una movida.
Y mas en España donde un error te lleva a la carcel a no ser que seas politico. Que hagas lo que hagas todo vale
#23 pues ahí esta el debate. A lo mejor este caso es muy sencillo, o no. Como puede el programador saber si lo que esta comprando es ilegal o no? A lo mejor esa condición no es programable, o no es trivial.
Y cuando las condiciones son tantas que es imposible preveer todos las posibles opciones?
Imagina una piloto que toma la decisión de estrellar un avión para no arrasar una ciudad.
En una investigación se puede determinar que esa decisión fue negligente, con lo que la responsabilidad penal, es del piloto, pero no del instructor que le formó.
Si en vez de un piloto humano, hubiera sido un bot, traspasamos la responsabilidad penal al programador?
Ese es el debate.
#17 Si le han pillado es porque hubo una exposición artística con los materiales adquiridos por el bot, no porque le hayan pillado "con las manos en la masa". A no ser por agentes encubiertos, por aduanas o porque intercepten las comunicaciones, ya sea por MITM o con nodos infectados, es muuuy díficil que te pillen comprando cosas en la Deep Web. Máxime cuando la mayor parte de las comunicaciones las haces con cifrado PGP y cuando se mueven millones de dólares en sustancias ilegales cada día. Resultaría patética una investigación, con todos los gastos que supone, en la que pillan a alguien que se ha gastado 100€ en la deep web.
Evidentemente, lo mejor de todo es que compre éxtasis y tabaco light...
Debe preocuparle el cáncer de pulmón
Y dice el artículo que les han devuelto todos los artículos salvo el éxtasis. Me pregunto si también les habrán dado el pasaporte falso que pone que compraron. ¿Eso no es ilegal también?
Comentarios
Jajaja La foto es buenísima!!
#4 #5 Si eh? Mooooola.
Bender dixit: Siempre quise saber si puedo fastidiar a la gente más de lo que la fastidio
#4 Es como ser proxeneta pero sin tener que decir "A que te castigo el cuerpo!"
#4 De hecho sólo entré en la noticia para buscar un comentario que lo pusiera y darle mis dies.
"¿dónde empieza y termina la responsabilidad del programador?"
Si la IA tiene menos de 13 años de antigüedad es inimputable y el programador corre con toda culpa. De ahí hasta los 18 ya sí es culpa de la IA aunque puede que el programador se vea afectado.
#3 Entonces si el bot tiene menos de 13 años ¿lo mandamos a una Escuela de Re-Programación?
Óle por la foto.
ha contado con un presupuesto semanal de 100 bitcoins que la criatura ha gastado como ha creído conveniente
¿Quién no se gasta 100.000 euros al mes en proyectos artísiticos?
#15 son $100 a la semana en bitcoin, el que escribió el artículo no debe controlar mucho del tema
#29 Así tiene mucho más sentido.
No sé por qué ahora me he imaginado un T-800 buscando farlopa por internet.
- ¡Sarah Connor! ¿Me has traido lo mio?
¡¡Bender Askatasuna!!
#10 Bender Askatu!!
Bromas aparte, es una buena pregunta filosófica:
- Me imagino que si programas una IA para una tarea ilegal concreta, eres responsable de la misma.
- Pero si haces un algoritmo que puede ir probando cosas él mismo y aprendiendo, ¿aplica la misma norma?
- Incluso sería posible que el sistema programase otro sistema independiente para hacer una tarea específica. ¿Hasta que grado de parentesco eres responsable en ese caso?
Cortocircuito
#19 Pues sería como decir que un padre es responsable de lo que haga su hijo de adulto.
Esto hay que legislarlo ya. Osea que programo cualquier automata para matar y no soy culpable?
Eres directamente responsable de lo que programas. Menuda noticia.
#11 te vote negativo por error, sorry.
Aquí el problema no es que alguien haya programado algo para cometer un delito, el problema es que ha sido programado para que tome sus propias decisiones, y ahí si hay un dilema serio.
Si en vez de comprar unas pastillas hubiese contratado un asesino a sueldo, quien sería responsable?
No es moco de pavo el tema, teniendo en cuenta que el camino que llevamos es el de cada vez más máquinas con autonomía propia. Empezando por los coches sin conductor.
#18 ya. Tienes razon. Un dilema serio.
Y deberian cambiar que si pones por error puedas rectificar :_(
#21 compensado. Aunque con el karma que tengo estate tranquilo que no te voy a enviar al infierno karmico.
#25 le respondido a otro esto. Mas vale que limites las decisiones que puede tomar el programa porque en España te meten directamente trafico de drogas y luego ya demuestra tu que no es tu culpa. Salvo que seas politico que todo vale todo es sin querer
#11 La clave es que el programa no estaba "programado para comprar droga", sino programado para comprar con una serie de condiciones (que fuese menos de X dinero, que tuviera mas o menos de X pujas, que fuese luego vendible... las que sean).
Fue el bot quien tomo la decisión de comprar droga en base a las condiciones.
Ahí el debate. Y es tremendamente interesante.
Hay ya infinidad de sistemas de decisión automáticos que son estadísticamente mas certeros que la decisión humana, pero que no se aplican por problemas legales o actuariales (de seguros).
Por ejemplo existen programas de diagnostico médico que aciertan mas que los médicos humanos, pero no se aplican por el vacío legal y actuarial que genera, pues no está claro de quien sería la responsabilidad en caso de fallo.
#20 como los de la bolsa que se toman hasta las bromas del viernes 13 como anuncios y la lian
Pues o poner condiciones para que el programa no compre por error o te puedes enfrentar a una movida.
Y mas en España donde un error te lleva a la carcel a no ser que seas politico. Que hagas lo que hagas todo vale
#23 pues ahí esta el debate. A lo mejor este caso es muy sencillo, o no. Como puede el programador saber si lo que esta comprando es ilegal o no? A lo mejor esa condición no es programable, o no es trivial.
Y cuando las condiciones son tantas que es imposible preveer todos las posibles opciones?
Imagina una piloto que toma la decisión de estrellar un avión para no arrasar una ciudad.
En una investigación se puede determinar que esa decisión fue negligente, con lo que la responsabilidad penal, es del piloto, pero no del instructor que le formó.
Si en vez de un piloto humano, hubiera sido un bot, traspasamos la responsabilidad penal al programador?
Ese es el debate.
Pues si que es segura la DeepWeb, no?
#17 Si le han pillado es porque hubo una exposición artística con los materiales adquiridos por el bot, no porque le hayan pillado "con las manos en la masa". A no ser por agentes encubiertos, por aduanas o porque intercepten las comunicaciones, ya sea por MITM o con nodos infectados, es muuuy díficil que te pillen comprando cosas en la Deep Web. Máxime cuando la mayor parte de las comunicaciones las haces con cifrado PGP y cuando se mueven millones de dólares en sustancias ilegales cada día. Resultaría patética una investigación, con todos los gastos que supone, en la que pillan a alguien que se ha gastado 100€ en la deep web.
Ya, compradas por un bot... solo hay que ver la cara de la organizadora que aparece en el video. Nada mas que alegar señor juez.
La web es bastante famosa. Es un bot que hace compras aleatorias.
https://wwwwwwwwwwwwwwwwwwwwww.bitnik.org/r/
Evidentemente, lo mejor de todo es que compre éxtasis y tabaco light...
Debe preocuparle el cáncer de pulmón
Y dice el artículo que les han devuelto todos los artículos salvo el éxtasis. Me pregunto si también les habrán dado el pasaporte falso que pone que compraron. ¿Eso no es ilegal también?
es que el ordenador no tenia libre albedrío
Me parece un proyecto muy interesante. bravo por los artistas
Ay estos bots de hoy dia, que se empieza por un porro y acaban en la heroina!
#0 Vivan los titulares sensacionalistas
Performance Artística, ya, ya
#1 Si le leyeron los derechos al pc todo correcto, no?
¿Seguro que no ha estado todo este tiempo en libertad en GitHub?