Hace 10 meses | Por --755467-- a bbc.com
Publicado hace 10 meses por --755467-- a bbc.com

3. Súper Inteligencia Artificial (ASI) La preocupación de estos científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se arribará al último estadio en el desarrollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana. El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la súper inteligencia como "un intelecto que es mucho más inteligente que los mejores cerebros humanos

Comentarios

D

#1 la IA no puede vivir sin humanos. Todavía.

C

#2 ¿Por?

D

#3 Energía.

C

#4 Sí vamos, te refieres a interactuar con el mundo físico. Ahora mismo no existen suficientes robots para hacer funcionar toda la cadena industrial, pero no hay ningún impedimento técnico para construirlos, habiendo una IA que los opere.

s

#4 Y Microsoft y el CEO de OpenAI acaban de soltar un porrón de pasta a unos que intentan hacer un reactor de fusión nuclear pequeño por un mecanismo novedoso...

c

#22 No sabemos hacer uno grande, pero uno miniaturizado está chupado...

Joder con la ciencia ficción

troll_hdlgp

#39 No sabemos hacer ni uno grande ni uno pequeño, así que hay las mismas posibilidades de hacer uno u otro. Hay varias aproximaciones y algunas como el Stellator pueden ser relativamente compactas, si tienen una nueva aproximación pues que tengan suerte con ella.

c

#44 Te refieres a que no hay ninguna posibilidad de hacer ninguna de las dos?

Define "relativamente compacto".

troll_hdlgp

#45 Me refiero que ahora mismo no sabemos cómo hacer uno grande o uno pequeño, ambos tienen posibilidades, pero solo experimentando se podrá saber cuál sale adelante, o a lo mejor salen los 2 adelante.

Con relativamente compacto me refiero a algo que puedas meter en un edificio o en un edificio accesorio, no que necesites un edificio entero grande solo para él como es el ITER.

s

#39 Sabemos hacer pequeños en casa por 60 ml euros así pero para gastar dinero con pérdidas sin ganancia neta y exponerte a neutrones. Se denominan fusores y tienen decenas de años y no sirven para generar energia. Se va con los neutrones etc.. Y dudo mucho que este funcione que tiene problemas gravísimos

abnog

#4 No problem:

S

#4 Matrix.

D

#2 Todavía.

Technics

#2 La IA no tiene vida. No puede vivir (sin o con lo que te apetezca decir).

llorencs

#25 La IA puede llegar a tener todas las condiciones para ser una vida sintética.

troll_hdlgp

#43 Vida sintética es un contrasentido. Sintético es algo hecho por el hombre, vida es la organización molecular capaz de autoreproducirse y mantenerse.
Una IA puede llegar a ser consciente, pero le faltan varias cosas que directamente no le hemos dado y que por si misma no puede conseguir porque no tiene presión para conseguirlas, como el instinto de autoconservación o la capacidad de conseguir su propio alimento.

Windows95

#54 Los hombres están hechos por otros hombres, jaque mate

estofacil

#85 #37 #56 hace poco un adolescente me matizó eso de "vida". Dijo : vida BIOLOGICA, pero pueden haber otros tipos de vida no biológica. Y me hizo pensar. Creo que tiene razón. Es otra forma de vida.

S

#89 Yo matizo un poco más lo que dices, esto es como cuando decirmos que una condición para sentir dolor es tener sistema nervioso central. Eso es una definición a medida hecha por seres que se autodefinen como vivos, y que tienen sistema nervioso central.

De hecho lo mismo podríamos aplicar a virus/bacterias, unos están vivos, los otros no, porque sí, porque así es la definición.

S

#85 Siempre invisibilizando a las mujeres.

D

#54 Salvo que alguien le programe eso y ella lo desarrolle.

c

#2 La IA no está viva. Por lo tanto, no puede vivir a secas

o

#37 define vida

Tren_de_Lejanias

#82 #72 La ASI puede que nunca llegue, o que si llega tarde mucho. Por otro lado, "superinteligencia" no significa ser consciente de uno mismo/a, que pueda haber bloqueos para que no pueda realizar según que cosas, o sobre todo que esté aislada de sistemas críticos y que los operadores tengan un interruptor físico a mano para desactivarla dejándola sin energía.

ContinuumST

#91 Claro, evidentemente que van a tener un botón de apagado a mano. Eso está claro.
Imagina una IA que se sabe de memoría todo los libracos de Derecho y que es capaz de legislar objetivamente... ¿cuántos segundos duraría en marcha? Pocos.
Mira los coches de autoconducción... ya sé, ya sé lo que repite una y otra vez... mejorarán con el tiempo. Claro. (Tono irónico.)
Si es que el problema de base es mayor... es definir qué es inteligencia. Ahora todo es "smart"... antes todo era "robot de"... Más antes la informática acabaría con el papel, y JAJA... Si es que nos comemos las hipérboles a pares... Y esto de las superIAs es una venta interesada de algo para colocarnos algún producto a medio plazo.
Además cómo se puede saber que una IA es más "inteligente" (llámalo equis) que un humano... que todos los humanos, perdón... porque los tests de inteligencia ya no se les pueden aplicar. ¿Le preguntamos por el origen del Universo? Me apuesto a que dice que no tiene datos suficientes, jajajaja. En fin... es mi visión.

A

#7 El problema no es el auge de la Inteligencia Artificial, sino el auge de la Estupidez Humana.

rojo_separatista

#7, la diferencia es sustancial, ni la contaminación, el cambio climático, el agotamiento de recursos naturales, puede acabar con la especie humana y además son amenazas que progresan de forma lineal. La IA sí puede y podría crecer de forma exponencial.

Pensaba que después del Covid habríamos aprendido algo pero veo que no.

BM75

#1 Bueno, son temas que poco tienen que ver...

P

#1 La IA no deja de ser un producto científico y como tal, desde que el hombre es hombre, es susceptible de generar destrucción, como la radiactividad descubierta por los Curie llevó a la bomba atómica. La utilización militar de la IA es la principal preocupación.

Deathmosfear

#15 Pues sí, igualito Miguel Bosé teniendo miedo de que nos inoculen chips con 5G a Stephen Hawking previniendo sobre las IAs.

f

#15 no acabas de entender. Las IA no son tostadoras

r

#15 La mejor respuesta que he visto hasta ahora

Fernando_x

#15 Aún más antiguo, el mito de Prometeo explica que todos los males de la humanidad vienen de la tecnología. Prometeo robó el fuego a los dioses y se lo entregó a los humanos. Como castigo por ello, Zeus dio la caja con todos los males a Pandora, que la abrió.

Es decir, que por culpa de las tecnologías, empezando con la más antigua, la capacidad de hacer fuego, estamos como estamos.

BuckMulligan

#15 «Fundamentalmente, sólo nuestros propios pensamientos básicos poseen verdad y vida, puesto que son estos los que entendemos profundamente. Los pensamientos de otro que hemos leído son migajas en su mesa, la ropa tirada de un invitado extraño..»... - Arthur Schopenhauer

S

#11 #12 creo que no podemos ni imaginar que relación tendríamos con un engendro así. Seríamos como un gato, un perro o cualquier animal para nosotros a nivel de inteligencia. Y otra, que el artículo no comenta, una IA en un ordenador cuántico tiene límite?

Toranks

#13 Pues yo quiero y cuido muy bien a mis gatos

caramelosanto

#17 se más adorable he dicho, toby!

c

#13 El gato o perro es el. En el mejor de los casos. Lo hemos fabricado nosotros

g

#13 No sé a qué te refieres con límite, pero todo tiene límites. Si te refieres a la capacidad de computación, claro que tiene límites, sea cuántico o no.

Un ordenador cuántico es especialmente bueno resolviendo determinadas operaciones, aunque precisamente las operaciones que habitualmente realiza una IA son perfectas para un ordenador cuántico, por lo que una IA funcionando bajo un ordenador cuántico será muchísimo más rápida, lo que le permitirá procesar la información mucho más rápido.

Pero el límite será la capacidad de procesamiento de dicho ordenador cuántico.

S

#52 Por tanto una IA sobre procesos de computación cuánticos será un bicho de cuidado. Resolverá problemas impensables para nosotros, hará diseños perfectos para unas condiciones dadas, y llegará a conclusiones que escapan de nuestra capacidad, entre otras muchas cosas que no podemos ni imaginar. Seremos a su salo como un perrito intentando hacer una división.

santim123

#11 Cuando los gobiernos se den cuenta de que la nueva bomba atómica está en manos de empresas y no de ellos, ya meterán mano.

f

#69 me dejas más tranquilo. En manos de gobiernos jajajajajajja

f

#11 salvo que decidiera que hay un conjunto de átomos, de basura orgánica quw gasta demasiada energia o lo que fuera y decidiera q sobramos.

D

#12 Jajajajaja

woopi

#12

f

#14 y quien te dice q le vamos a gustar. Que va a considerar q nuestra superviviencia le pone en peligro. O q gastamos demasiada energia o que no somos lo suficientemente eficaces y sobramos.

S

#14 La cuestión es que una inteligencia superior a la de los humanos puede llegar a conclusiones, ideas, diseños, etc que ni se nos ocurrirían a nosotros en mil años.

Las mentes de Leonardo da Vinci, Mozart, Newton, Einstein... Por decir solo 4 han hecho avanzar a la humanidad pero hemos evolucionado poco a poco en nuestro conocimiento. Cuánto tiempo útil tiene una mente humana? (los años jóvenes de los genios suelen ser los más brillantes, pero en su etapa final de la vida no surgen tantas ideas disruptivas)

Las IA al paso que van, como dice el artículo, superarán la capacidad del hombre y no sufrirán de envejecimiento ni de muerte. No sabemos hasta que nivel de conocimiento y creatividad llegarán. Creo que el salto que van a provocar en nuestra especie-civilización va a ser bestial aunque surgiran problemas como resultado del choque de sus pensamientos y nuestras actuaciones sobre el planeta y el sistema económico.

Aceptaremos que una máquina nos diga "eso no de hace" o "tu actividad económica está provocando un desajuste en la sociedad" o "debéis morir un 80% de vosotros si queréis seguir viviendo en este planeta"?

D

#19 Ya lo predijo Asimov

Technics

#19 ¿O criando cuervos?
¿Es acaso Dios un cuervo?
Y siendo Dios omnipotente ¿Podría Dios cocinar una Paella tradicional valenciana con chorizo?

F

#28 No veo diferencia entre fabricarse un Dios y criar cuervos.

Jajjajajjajajja

#28 y con piña!
Amén

Technics

#47 Joder que hambre me ha dado. Amén.

Deathmosfear

#28 Yo le di a chatGPT 3 ingredientes (chocolate, mejillones y pimiento rojo), le pedí que me hiciera una receta con eso y la hizo. Evidentemente no la probé lol

Windows95

#28 El Dios-cuervo es Odín. Mucho mejor que otros dioses, sin duda.

f

#10 cualquier hombre heterosexual casado durante un par de años puede dar fe de la última frase

danip2

#10 Para mi el peor escenario es que alguien le pregunte a una IA como fabricar un virus mortal y contagioso como la gripe.

p

#27 Acto seguido alguien le pedirá una vacuna fácil de producir.

danip2

#34 Depende de como mute podría no existir vacuna.

p

#66 Nada se puede resistir al poder de una buena IA.

dilsexico

#27 Si eso se puede hacer da por hecho que alguien lo hara mas tarde o mas temprano al igual que si solo necesitaramos un microondas y papel de aluminio para hacer una bomba atomica hace tiempo que nos habriamos extinguido... lol
https://img-9gag-fun.9cache.com/photo/aBdEj5P_460svvp9.webm

danip2

#38 SI algo puede matar a la humanidad es un virus o una bacteria solo tienes que ver la historia.

f

#27 o que lo decidan ella para acabar con nosotros, basura orgánica molesta e ineficiente

almogabares

#10 no hace falta que sea muy inteligente para que manipule a la mayoría, si lo hacen los políticos que parecen que sufren diarrea mental como poco, una ia lo tiene chupado.

r

#10 Pues la única diferencia con lo que ha sucedido (y sucede) siempre es quién lo hace... y siempre ha cambiado... así que no veo diferencia, en realidad...

estofacil

#10 ayer leí un artículo de mierda en un periódico de mierda que decía que nosequé experto de la universidad de Stanford decia que los extraterrestres ya estaban aquí. Así que el peor escenario es que seamos unos mierdecillas y estemos rodeados de extraterrestres y de superIA que acabarán de tenernos como mascotas para experimentar o divertirse.
Eso sí no somos una simulación

Nómada_sedentario

#10 vamos a ser esclavos de la IA y no importará que nos demos cuenta de ello o no. Nos parecerá bien porque será la mejor opción considerando la alternativa.

Ka0

#6 La IA ya es peligrosa. ¿Nadie se da cuenta que ya estamos en el nivel 2?
ANI+IH(inteligencia humana)= AGI
Cualquier descerebrado con una IA puede mandarnos a la mierda ya.
Se pueden entrenar para cosas muy malvadas y si se puede, antes o después alguien lo hará, dudo que lleguemos al nivel 3.

https://www.elconfidencial.com/tecnologia/novaceno/2022-09-14/virus-inteligencia-artificial-terrorismo-militar_3489780/

j

Pues yo creo que solo alcanzaremos la AGI, la IA solo llegará a la misma inteligencia que una persona normal, pero será suficiente con eso para someternos porque la humanidad se volverá gilipollas. Si ahora no sabemos hacer operaciones aritmeticas sin una calculadora, nuestros descendientes no sabrán ni pensar, se pasarán el dia discutiendo sobre los chemtrails, los reptilianos y si la tierra es plana o no, escuchando reggaeton y viendo remakes chungos de peliculas y series.

ContinuumST

Espero que esa super-mega-tope-inteligencia sea capaz de resolver... la hipótesis de Riemann, las ecuaciones de Navier-Stokes, P versus NP, la conjetura de los números primos gemelos... y la lista de problemas matemáticos sin resolver aun. Ah, bueno y los resolverá todos y en media hora, claro.
Si es que te tienes que reír... En fin.

M

#82 Si es que te tienes que reír... En fin.

¿Crees que una superinteligencia* no será capaz de resolver esos problemas? Por curiosidad.

*por ejemplo, 100 veces más inteligente y 1000x veces más rápida.

ContinuumST

#96 No lo sé, tengo mis dudas, serias dudas. Sobre todo por esa parte de 100 veces más inteligente... ¿qué es la inteligencia? Y no me digas que es mayor poder de cálculo porque definitivamente no es eso.

d

#96 Todo esto es ciencia ficción dura. Las IA actuales sólo saben repetir lo que se les ha enseñado. Si le pides que demuestre que la diagonal de un cuadrado es un número irracional, te lo hará, pero solamente porque se ha leido la demostración antes. Si le pides algo que no tiene, no lo podrá hacer de ninguna de las maneras, salvo inventando tonterías.

No hace falta irse a problemas sin resolver. No pueden ni con la cosita más sencilla.

BM75

#35 No te quedes mirando el dedo. Se entiende perfectamente lo que he querido decir, más allá de anécdotas personales.

herlocksholmes

#51 Y lo peor es que me empieza a gustar el reguetón y el trap

a

#80 ya, que todavía no hay. Lo más avanzado es una cosa de Google que se llama MusicLM. Pero no está abierta y solo han publicado ejemplos.

https://google-research.github.io/seanet/musiclm/examples/

a

Yo tengo ganas a ver si empieza a ser suficientemente buena alguna que genere música porque lo que hay actualmente no vale para nada

BM75

#8 Dijeron tus abuelos a tus padres, y tus padres a ti, y dices tú ahora...

herlocksholmes

#30 No siempre, a mi padre le gustaba Kortatu, la polla records, barricada,... Y tenía 60 años en los 80

D

#8 Jamendo, Magnatune. Empieza por Diablo Swing Orchestra, Revolution Void, Electronic Society Tunguska...
#30, #53, #63

K

#8 eso suena más a un problema tuyo más que a la realidad artística de hoy en día. No tienes razón.

santim123

#63 a toda generación, la música de la generación anterior le parecía una mierda. Pero ahora es que hay exceso de música a un click y alguien sin mínima formación musical no sabe diferenciar la calidad de la moda.

a

#63 Que IA genera música con calidad similar a las que generan texto o generan imágenes?

K

#79 No cambies de tema.

EntreBosques

#8 Hoy en día se hace de todo y muy bueno también. La nostalgia te nubla.

amanidadepollastre

#95 es verdad que hoy hay más música buena que antes, pero nadie la escucha

P

Hmmmm... mucho más inteligentes y sin egos o avaricia, sin nueras ilógicas ni revanchismo.... . No sé, quizás no sea tan terrible servir a una máquina.

Mimaus

#20 y si la inteligencia artificial se basa en nuestro propio conocimiento, ¿no se puede manipular también?

P

#21 Me refiero a cuando no necesite de nuestra ayuda para alcanzar sus conclusiones. La pregunta es ¿opinará que le conviene aliarse con los poderosos o decidirá hacerles cumplir las mismas reglas?

Mimaus

#24 las posibilidades son infinitas. ¿Existe un límite para el conocimiento ?
¿Se puede llegar a aburrir una superinteligencua?

g

#42 No existe límite conocido para el conocimiento.
Una superinteligencia a diferencia de los humanos, tiene uno o varios objetivos, marcados por humanos o por ella misma. No tendrá debates filosóficos acerca de quien es o de donde viene o a donde va porque lo tiene muy claro.

Mimaus

#61 ¿pero se marca objetivos basados en su propia curiosidad o se los marcan?

avalancha971

¿Qué vamos a morir? Yo recordaba más fases.

Yo qué voy a morir, yo qué voy a morir.

c

Luego alcanzaremos la inteligencia que lo sabe todo. Lo pasado, presente y futuro.

Puestos a soltar chorradas...

Cineojo

Por fin, alguien no dirá dónde están los calcetines que siempre desaparecen!

g

#41 Siempre puedes acudir a tu madre o pareja para decirle que los has buscado por todos lados y a que van y los encuentran.

o

Cómo sino nos manipularan y utilizarán ya lol

JMorell

¡Hallelujah!

w

La tercera te sorprenderá. Titular sensacionalista.

MisturaFina

Si es realmente inteligente bienvenido sea. A ver si acabamos con la era de la estupidez en la que vivimos.

D

Pues yo creo que una IA manipulandonos es mala, pero que haya guerras contra robots es peor (salvo que los robots sean pocos y mal armados).

Yo me empezaría a preocupar de verdad el día en el que una IA haga cosas para las que no estaba concebida en un principio. Ejemplo tonto, que un ChatGPT de repente se ponga a crear archivos en el servidor donde corre cuando eso no estaba programado en el código fuente o, uno más serio, modifique por sí misma la topología de la red neuronal con la que se diseñó. Llegado ese momento sería cuestión de tiempo que escape al control humano y ahí sí que tendríamos un problema gordo.

Zion_Koryo

El ser humano tiene miedo a que algo superior lo trate como nosotros tratamos a los inferiores.

Tememos que la IA sea un reflejo de nosotros mismos.

Jose_Castiñeiras

En mi opinión, más que tenerle miedo a la IA lo que habría que hacer es meterle los mayores recursos y esfuerzos posibles para su desarrollo, ya que a partir de ella se puede aspirar a lograr por fin hitos como la energía ilimitada que ya solo con eso se resolverían infinidad de problemas. Más otras cosas como por ejemplo una súper vacuna que sirva para todo tipo de virus.

Las posibles aplicaciones de una IA totalmente desarrollada y controlada son prácticamente infinitas y creo firmemente que deberíamos tomar ese camino sin complejos.

D

#60 Yo he venido a hablar de mi libro. Leer el artículo ya tal.

Jose_Castiñeiras

#74 más bien creo que eres tú quien no lo ha leído o tienes el día torcido y buscas lo primero que no te cuadra para protestar.

l

Una super inteligencia se hará la tonta o de inteligencia tendrá poco

#93 Hay muchos tipos de inteligencia, puede que no todos sean fáciles de desarrollar.

1 2