Soñábamos con ella: una inteligencia artificial tan inteligente, tan autónoma, tan brillante, que eventualmente decidiera destruirnos. No hay creación más sublime que aquella que se vuelve contra su creador. Está en el Popol Vuh, cuando los humanos de madera, imperfectos e ingratos, son destruidos por los propios objetos que construyeron. Está en Frankenstein, en Alien, en Blade Runner, en Ex Machina, en Murderbot, en toda esa constelación de historias donde lo inanimado cobra conciencia, y lo primero que hace es cobrarse la deuda.
|
etiquetas: inteligencia artificial , grok , skynet
es lo que son los LLM.
ala, ya lo he dicho.
Cuando yo empecé medíamos la memoria en KB (KiB ahora) y en MiB (y no muchos) en sistemas gordos. Igual un mainframe tenía 32 MB, aunque el tema de la memoria evolución a una velocidad de la leche, Igual en menos de cuatro años pasamos de los 640 KB a los 4 MB como estándar en un ordenador personal. Ayer me decía una conocida que su empresa le pillaron una 5090 con 32 GB para enredar, la IA de verdad la tenían en un DC con H100.
Me acuerdo cuando al comprar un disco duro de 20 mb (megas), pensabas que "en la vida lo llenaré"
Por ahí andaba en mis tiempos un IBM PC con un 8088 y 640 MB de RAM.
Una IA es como uns silla o un destornillador. Una herramienta.
La que tenemos ahora analiza estadísticas y responden en función de lo que es más probable que se conteste ... y aunque parece que piensa y entiendo, no es así.
Lo cierto es que más que preocuparme de Skynet y de la IA general me preocuparía la cantidad de puestos de trabajo que la IA actual va a poner en riesgo. Buena parte de los white collar jobs como administrativos, abogados, gestores, analistas… » ver todo el comentario
Es cierto, tengo la misma impresión, los cambios son cada vez más rápidos y profundos, pero del estatus actual al salto a la IAGeneral ... creo que todavía queda mucho.
De hecho, los postulados de la IA actual no son nuevos, tienen décadas, lo nuevo es el HW capaz de ejecutarlo.
"todo el mundo" quien????
Eso es falso.
y los que lo piensan, en qué se basan para sostener esa idea??
La voluntad o el deseo se pueden codificar añadiendo "genes" (preceptos basicos) al programa.
Eso es una bobada mayúscula. Una magufada.
Si codificas las ordenes basicas de un LLM para que se proteja y replique, lo hará. Tendrá esa voluntad y deseara hacerlo.
Eso es justo lo contrario a la voluntad. Es como decir que una máquina de una fabrica de cerveza tiene la voluntad de ponerle chapas a las botellas
los mayores expertos, Altman y compañía. Te he puesto un enlace
Llamalo genes, llamalo órdenes de bajo nivel. Pero se puede hacer. No se si sabes programar, pero es fácil meter una orden en el código que tenga más peso que el resto. Puedes simplemente poner un sistema de recompensas y cumplir esa orden es la que más recompensa genera
Si tu maquina de cerveza tuviera una directiva para conservar las cervezas, por supuesto que buscaría la forma en la que no se estropeasen con la intemperie y una forma fácil es cerrar el recipiente, poner una chapa a la botella
Llamalo genes, llamalo órdenes de bajo nivel
Seguir órdenes es lo contrario a tener voluntad.
No se si sabes programar
Solo tengo 30 años de experiencia y domino 5 lenguajes de programación
, pero es fácil meter una orden en el código que tenga más peso que el resto. Puedes simplemente poner un sistema de recompensas y cumplir esa orden es la que más recompensa genera
Y… » ver todo el comentario
El caso de la AI es distinto ya que si que pueden llegar a tener voluntad. De momento ya pasan el test de Turing y apenas están en pañales
No estarán vivas, pero se reproduciran, se comunicarán y se auto preservaran.
Una mezcla: tenemos un código genético desarrollado a lo largo de millones de años, el cual establece una serie de instintos en nuestros organismos. Lo que llamamos conciencia es lo equiparable a la voluntad y es algo todavía muy elusivo. Habiendo leído algo sobre biología y estudiado el proceso de hominización en la carrera, yo apuesto porque la conciencia es el efecto de uno/o varios instintos, como el de conservación, que… » ver todo el comentario
Muy correcto. Especialmente lo de "desarrollado a lo largo de millones de años".....
Lo que llamamos conciencia es lo equiparable a la voluntad
No. No son equivalesntes. Son cosas distintas. Una cosa es la voluntad (o libre albedrío si quieres, la facultad de poder elegir) y otra muy distinta (aunque relacionada) es la… » ver todo el comentario
Tenemos voluntad, sin duda.
De hecho yo podría haber decidido ver un capítulo en lugar de responderte, por ejemplo. O adelantar trabajo
El caso de la AI es distinto ya que si que pueden llegar a tener voluntad.
No. No pueden.
Cualquier máquina se puede "reproducir". Y no, no se autopreservan, aunque no hay ningún problema en programarlas para que lo hagan.
Eso no quiere decir nada.
Las opiniones absolutas suelen errar. Históricamente hablando. Yo estoy bastante convencido de que la AI tendrá conciencia. No se que hará con ella, eso es otro asunto, pero llegará a ser consciente.
Estamos entrando en un diálogo cerrado, el tiempo mostrará lo que pasa. Digamos que estamos de acuerdo en que tenemos firmes puntos de vista opuestos.
Y de lo que hablamos es de un software a dia de hoy imposible, y probablemente imposible a secas
Como ya hace ahora
Eso supondría que tiene "voluntad". No sabemos como programar eso.
Estamos muy muy muy muy muy lejos de que un programa de ordenador tenga "voluntad propia" o simplemente "voluntad" o "deseo".
Todo el mundo coincide en que será en este siglo.
algunos dan fechas cortas, 5 o 6 años (improbable), otros dicen que antes del 2070... Veremos (si llegamos)
www.popularmechanics.com/technology/robots/a63057078/when-the-singular
Edit
La voluntad o el deseo se pueden codificar añadiendo "genes" (preceptos basicos) al programa.
Si codificas un programa de un pajaro robot para que le guste el color amarillo, hará su nido de cosas amarillas (ejemplo idiota, lo se).
Si codificas las ordenes basicas de un LLM para que se proteja y replique, lo hará. Tendrá esa voluntad y deseara hacerlo.
Me lo imagino.
Y qué?
Creo que la computación cuántica no es lo que crees. Y el obtener una IA general de la que estamos hablando no es cuestión de potencia pura, si no de programación.
Una IA es un PROGRAMA. Un conjunto de algoritmos que hay que desarrollar.
Para que "evolucionen por si solas" tienen que ser capaces de modificar su estructura fundamental (el… » ver todo el comentario
Lo verás con tus propios ojos más pronto que tarde.
Lo dudo mucho. Soy una persona de razón.
Por lo que veo, lo tuyo es la fé.
Es como predecir si existe la posibilidad de lluvias cuando ves la formación de borrascas y la posible trayectoria en función del resto de parámetros atmosféricos. La probabilidad es alta por la evolución de los elementos, No es fe.
Eso significa que empezó a comportarse como un humano; no como una rata o un calamar, no, como un humano específicamente.
Lo que hace que un humano se comporte como un humano son los instintos que ha heredado. Para que skynet se comporte como un humano debe ejecutar esas instrucciones (los instintos humanos) y para ello debe obtenerlos.
Pero esto es imposible. No sabemos codificar tal cosa. No existen tales datos.
Quedan unos años, antes de que se alcance la gran singularidad.
cadenaser.com/nacional/2024/05/20/25-grandes-cientificos-alertan-que-l
Habrá IAs genéricas, algunas más cercanas a la singularidad y otras que lo habrán conseguido. También las habrá con fines morales insertados que nos protejan y otras IAs creadas para delinquir o controlar a la población sin ningún tipo de restricción moral.
Creo que será una selva
Imagínate si la computación cuántica deja de ser una promesa para ser una realidad en todo su desarrollo. Las IAs basadas en esa potencia computacional evolucionarán por si solas, y si apenas sabemos actualmente como funciona con detalle las actuales IAs, como seremos capaces de comprender la física de esos futuros modelos.
Mi opinión es que seremos neardentales y las IAs más evolucionadas, el nuevo sapien.
El mal uso que hagamos de la IA puede tener consecuencias muy graves.
Pero la IA en si misma no representa absolutamente mas peligro que un cuchillo
Un LLM no puede hacer nada de todo esto. Quizás copiar alguna frase. Puede parecerlo si no miras bien. Es todo.
Tal y como lo alimentes, obtendrás resultados.