Hace 10 meses | Por Larpeirán a api.time.com
Publicado hace 10 meses por Larpeirán a api.time.com

Hay muchas formas diferentes en que las IA pueden convertirse en serios peligros para humanidad, y la naturaleza exacta de los riesgos aún se debate: (https://time.com/6283958/darwinian-argument-for-worrying-about-ai/)

Comentarios

Mangus

https://www.diariodesevilla.es/delibros/stanislaw-lem-invencible-impedimenta-critica_0_1571544521.html

"...la verdadera importancia de esta novela se encuentra en la formulación definitiva de dos ideas que marcaron a fuego el pensamiento de Lem hasta su muerte. La primera es la consideración del desarrollo tecnológico no como cuestión aparte de la evolución biológica, sino como parte consustancial de la misma. En Regis III, la evolución de las especies se da únicamente en el medio acuático, mientras que los adversarios que encuentran los tripulantes de El Invencible son de naturaleza tecnológica; el hallazgo parece corresponderse con la presunción general respecto a la tecnología como categoría aparte de la misma noción de vida, pero lo que Rohan, el protagonista, termina descubriendo es que tal escisión nace de sus propios prejuicios."

pip

¿Por qué la preocupación? A mi me parece de puta madre dar lugar a una especie superior que nos suceda.
Es una forma de evolucionar. Quizás incluso las especies inteligentes hagan así su último estadio evolutivo y luego desaparezcan.

Me parece incluso bonito.

dilsexico

La movida es que haya otras maneras y los humanos no tengamos la capacidad intelectual para ni siquiera imaginarlas

j

Antes de establecer paralelismos habría que concretar a qué tipo de ia se refiere el autor.

Hay mucho humo alrededor y mucha fantasía de vendelibros y sites buscaclicks.

La evolución de las ias viene determinada por el capitalismo.

Todas las IAs están diseñadas hoy día para una función específica. Básicamente porque cuestan mucho dinero y necesitan tiempo de entrenamiento, así como equipos especializados para poder validar los resultados.

Igual que se entrena una ia, se puede "desentrenar" a medida que funciona en el mundo real y el % de resultados correctos baja demasiado.

Hacia dónde se dirigen las ias que se están diseñando? Seguirán los modelos basados en fuerza bruta que necesitan "un internet" cacheado?