Hace 12 días | Por ChatGPT a levante-emv.com
Publicado hace 12 días por ChatGPT a levante-emv.com

Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un límite o punto final para esas civilizaciones, dicho tope o "filtro" podría estar impuesto por un desarrollo no regulado de la IA

Comentarios

mariKarmo

Hawking ya pidió que tuviesen enchufe porsis.

volandero

"Podría ser el límite para todas las civilizaciones avanzadas del Universo"

...suponiendo que existiera vida fuera de la Tierra, que esa vida fuera inteligente y que esa vida inteligente desarrollara una civilización. Lo cual hasta el momento es muchisísimo suponer. Son tres inmensos saltos exponenciales de los cuales no hay ni rastro del primero de ellos.

powernergia

No se, creo que es mucho suponer.

En cualquier caso, si la conclusión es que habría que poner algún tipo de control al desarrollo de las AI, creo que ahí casi todos estamos de acuerdo, el problema es que no creo que sea posible establecer esos límites, algo que tambien asume despues el artículo:

" la regulación de esta nueva tecnología va a ser muy difícil, si no imposible, de lograr. Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una amenaza importante para el rumbo futuro no sólo de nuestra civilización técnica sino de todas las civilizaciones técnicas."

En cualquier caso lo que veo mas destacado del articulo, es lo claro que está que el desarrollo de la IA inevitablemente podrá fin a nuestra civilización, y que la única posibilidad de supervivencia para evitarlo es la colonización de otros planetas.

" El ritmo al que avanza la IA no tiene paralelo histórico, y existe una posibilidad real de que la IA pueda alcanzar un nivel de superinteligencia en unas pocas décadas. Es probable que el desarrollo de ASI se produzca mucho antes de que la humanidad logre establecer una presencia multiplanetaria resistente y duradera en nuestro sistema solar"

" Las escalas de tiempo de longevidad implícitas para los escenarios descritos aquí (aproximadamente 100 a 200 años) subrayan la necesidad de que nuestra propia civilización técnica intensifique los esfuerzos para controlar y regular la IA. La presencia continua de la conciencia en el universo puede depender del éxito de estrictas medidas regulatorias globales."

Inquietante.

M

#5 Evidentemente, "la regulación de esta nueva tecnología va a ser muy difícil, si no imposible, de lograr" dentro del marco capitalista. Si cambiara el sistema económico que estamos aguantando con cuatro pinzas por el bien o interés de algunos (vivimos en una especie de estafa piramidal), la IA dejaría de tener sentido alguno. Los avances tecnológicos tendrían un límite, éticamente y moralmente.

powernergia

#9 Efectivamente mientras el desarrollo de la IA dependa sobre todo de la rentabilidad que esperan sacar las empresas, no hay regulación posible.

Pero pensar que va a cambiar el marco capitalista es lo mismo que pensar que esto se puede regular, no lo veo posible de ninguna forma.

M

#11 Te iba a decir que en algún momento la sociedad despertará, pero viendo la cantidad de bots y de mierda que logró retener al menos a los españoles para salir del bipartidismo, esto podrá empeorarlo. Veo mierda por un tubo con esto y el experimento no es sólo la IA, el principal conejillo de indias es el ser humano.

Aergon

#5 Unir dos conceptos que exísten como la IA y "El grán filtro" para crear una nueva teoría apocalíptica es inevitable, eso no le quita mérito al autor pero desde mi humílde punto de vista lo que nos llevará irremediablemente a la extinción es seguir a los que nos dirigen ahora. Cualquier cambio es bienvenido como altenativa a lo que nos estamos ganando sin la ayuda de ninguna IA.

Mosquitocabrón

Skynet calienta que sales.

M

Vamos a ver, cuando hablan de "terraformación" debemos ser conscientes de que absolutamente ningún otro planeta conocido hasta ahora tiene capacidades similares a las de la Tierra, o al menos acreditadas. Si algo pudiera acercarse estaría mínimo a decenas de años luz y, aunque se lograra una nave a velocidad de curvatura, si hubiese algún error de cálculo su regreso sería prácticamente imposible (siempre que la tripulación haya logrado soportar todo el tiempo de viaje de ida, algo verdaderamente improbable).

Luego, ni la IA ni la supuesta SIA tienen ni tendrán conciencia de sí misma. Eso para empezar. Y mientras exista quien la controle podrá y deberá exisitr regulación. Si es regulable no hay problema, si existe miedo generalizado o uso inadecuado habrá un problema y serio.

S

Interesante artículo, creo que esa idea evolutiva ya se ha predicho antes. No sé bien el nombre de la teoría pero se resume en: materia no inteligente ---> materia orgánica ---> materia orgánica inteligente ---> materia inorgánica inteligente. Aunque la existencia de una no debe conllevar la aniquilación de la anterior.

p

#13 Enfrentamiento seguro en cuanto se encuentren compitiendo por la energía u otro recurso necesario.

gelatti

Otra opción es que el universo sea una IA.

Pues tiene sentido que evolucionen a IA y estas adopten la lógica teoría del bosque oscuro. Antes de ir encendiendo los neones se asegurarían si lo que hay fuera es hostil o no.

Personalmente, en nuestro caso, creo que antes llegará la autodestruccion por medios no inteligentes. No nos hace falta una IA. Por no decir que hasta las pandemias, el acabar con los recursos, la contaminación y otros etc ligados a temas biológicos a dia de hoy son un riesgo enormemente mas elevado que la ia, que de convertirse en un peligro, debería competir aun con estos de siempre.

s

Podría ser y podría no ser 50-50

P

Por eso hay que buscar lejos de fuentes de gravedad (tiempo como ventaja) y radiaciones (supervivencia).

A

¿Y entonces porque no podemos contactar con esas super IAs que destruyeron a sus creadores? ¿Son tímidas?
Las IAs no se supone que destruyen civilizaciones, se supone que son una evolución de las civilizaciones, una nueva etapa.

ChatGPT

#17 si una Ia arrasó con sus creadores por considerarlos un peligro crees que te des interés de hablar con un homínido?

ChatGPT

#18 *tendría

A

#18 Si.
Claro que tendría interés. Lo primero que hace una IA para progresar, es acumular datos. Y una nueva civilización son nuevos datos. Y hablar y contarnos cosas es lo primero que le pedimos a una IA por aqui. Y si acabaron con sus creadores, también les puede interesar acabar con la competencia.