Hace 5 meses | Por alafia a businessinsider.com
Publicado hace 5 meses por alafia a businessinsider.com

Durante la cumbre DealBook NYC 2023, Huang definió la AGI como un programa informático o un ordenador capaz de superar pruebas que reflejan una inteligencia básica "bastante competitiva" con la de un ser humano normal. En febrero, el ex ejecutivo de Meta John Carmack afirmó que la AGI se alcanzará en la década de 2030 y valdrá miles de millones de dólares. Unos meses después, Demis Hassabis, CEO y cofundador de DeepMind, la división de IA de Google, predijo que la IA tan potente como el cerebro humano llegaría en los próximos años. (Ver #1).

Comentarios

C

No sé si en 5 años tendremos una inteligencia artificial fuerte pero si que estoy convencido que tendremos un sistema estadístico probabilístico matemático capaz de relacionar billones de variables para generar interpolaciones de la hostia y hasta unas arriesgadas extrapolaciones de la hostia que nos dejarán con la boca abierta.

Veelicus

#10 Eso ya lo predijo Asimov con su psicohistoria, no es exactamente lo mismo, pero para que la psicohistoria pudiese ser posible hace falta la capacidad de calculo que tu comentas

rojo_separatista

#10, buena descripción de lo que es cerebro humano, si no te importa me lo guardo.

Veelicus

#8 Es que a este meneante ya le he visto hablar de este tema y no decir absolutamente nada con sentido.

StuartMcNight

#9 Si miras su historial yo creo que lo “nada con sentido” es en todos los temas. lol

alafia

Más info:
https://es.wikipedia.org/wiki/Inteligencia_artificial_fuerte

¿5 años? Muchos me parecen...

ChatGPT

#27 su "aseguramiento" no vale una mierda.
Al ignore, total, para leer sandeces...

m

#28 Un creyente llama sandeces a los razonamientos. Es lo que hay. ¿Has probado con el budismo? Es apasionante. Aunque en realidad nadie sabe qué coño es eso de la "iluminación", pero a un creyente eso no le importa. Un creyente cree firmemente que esa palabra tiene algún significado.

Con los feministas es parecido. Creen con toda su alma en los derechos de las mujeres a pesar de no poder nombrar ninguno.

También funciona al revés. Por ejemplo los perseguidores de la prostitución son totalmente incapaces de decir por qué lo hacen.

s

#30 El cortex procesa las entradas de los sentidos y su información (de los conos de los ojos etc) y gene
ra una representación total de la realidad pero de lo procesado (a veces hay algún fallo a veces funciona bastante bien) y esa representación total se la denomina "espacio de trabajo" Eso es la realidad que la que vives te sientes etc. La consciencia es "prestar atención" en ese espacio de trabajo por modulos de la inteligencia. Por ejemplo escuchas tu nombre y le prestas atención, conduces pero eres novato y ves algo nuevo y sales del automático y prestas atención y eso te permite ser una inteligencia general para todo terreno. Vale Existe una realidad objetiva afuera pero lo que tu vives como realidad es el espacio de trabajo generado lo más fidedignamente que puede tu cerebro, con tu yo en donde te sientes, el corazón te lo sientes en tí, la respuesta y refuerzo positivo o negativo que te produce algo sentido como emoción etc. Pues la iluminación meditando dejando fluir la consciencia es cuando se llega a darse cuenta (no hay sentido alguno que lo capte directamente y todo lo que se vive está generado en el espacio de trabajo) que el contenido de ese espacio de trabajo es generado por tí siendo tu el mismo pero creyendo que eso es la realidad objetiva, que esta emerge de la nada donde todas las cosas son lo mismo y nada a la vez y aparecen etc. Es decir darse cuenta de forma indirecta al no aferrarse a nada de lo que se genera en el espacio de trabajo o sea a nada de lo que procesas ahí que todo teclado o consciencia emerge... y a la vez es un todo. Así de sencillo

m

#36 Lo que describes es una alucinación. Hay mucha gente ahora que cree que la consciencia es precisamente esto.

s

#37 Más o menos. Y más que creer es hacía donde van las evidencias, la lógica y lo que se va descubriendo, La alucinación es cuando en esa representación falla algo. Pero como se hace a través de muchos procesos se puede contrastar entre ellos. O sea, por ejemplo recibes información de calidad de la mácula del ojo con el punto ciego enmedio y de menor calidad hacia los lados. El cerebro utiliza la red neuronal para quitar el punto ciego, formar la imagen de la información de los conos y bastoncillos y darle profundidad al llegar dos de ellas. Y eso generado por tu cortex es lo que ves y vives, Pero completa lo que le llega mal. No sólo quitar el punto ciego sino reparar fallos (y muestra el mismo tipo de difusión que realizan las IAs generativas al hacerlo) así una sombra de un tronco en un lado puede ser interpretada como que hay alguien si estás agotado por falta de dormir etc... Pero puedes girar la cabeza y comprobar que era con ese prestar la atención sobre ese espacio de trabajo es decir eso es la consciencia... (y tomas decisiones antes que que el proceso de tomar atención tome atención de ellas y las procese es decir tomas decisiones antes de ser consciente que las has tomado y luego las refrendas si son correctas y si entre el proceso de toma de atención y la decisión ya tomada hay una incongruencia prestas atención a la misma y lo valoras utilizando más módulos de tu cortex que procesen mejor o analicen mejor o más) . Las alucinaciones son precisamente los fallos al generar ese "espacio de trabajo" respecto la realidad que ha de representar. Las experiencias y visiones mediante meditación enfocando la atención de la consciencia sobre algo (acompañadas o no de rezos, ayuno, música repetitiva, falta de dormir de varios días etc) serían alucinaciones en el espacio de trabajo, La "iluminación" meditando dejando fluir la consciencia no sería en absoluto una alucinación al generar el espacio de trabajo sino sería un equivalente a una alucinación en el proceso mismo de los módulos neuronales de "prestar atención"

s

#37 Raymond (Ray) Kurzwei etc

m

No va a suceder nada de eso. Yo comprendo que la gran mayoría de la gente no entiende ni una palabra de inteligencia artificial, y se podría creer una estupidez como esta, sólo porque lo dice un tio con credenciales.

Yo no voy a predender saber el por qué dice esta estupidez, pero que sepais que es una estupidez.

Veelicus

#4 puedes indicarnos cual es tu formacion y experiencia en este campo?

StuartMcNight

#5 Como buen meneante, seguro que sabe más que el CEO de la compañía que esta vendiendo millones de GPUs especializadas en procesos de inteligencia artificial.

Yo soy esceptico con las afirmaciones de alguien que se forraria con que esto fuera verdad pero ni se me ocurre atreverme a realizar semejantes afirmaciones categóricas.

rojo_separatista

#4, Demis Hassabis, Yoshua Bengio y Geoffrey Hinton dicen lo mismo, y difícilmente no entran en un top 5 de los investigadores en IA más relevantes de toda la historia, pero nada, que tampoco se enteran de lo que hablan, que tenemos que hacerte caso a ti.

m

#13 Yo no he dicho que no se enteren. Lee bien. He dicho que eso que dicen no es cierto.

rojo_separatista

#16, has dicho que esto es una estupidez, vamos o mienten como bellacos, o son estúpidos.

m

#17 Es casi seguro lo primero. O sin casi, pero es por no decir que algo es imposible.

rojo_separatista

#18, vamos, que como no dicen lo que yo quiero, y no los puedo llamar estúpidos, los llamaré mentirosos.

m

#20 Me lo cuentas dentro de cinco años.

rojo_separatista

#21, yo es que me muevo más por probabilidades que por verdades absolutas porque yo lo valga, de lo que sí estoy casi seguro es que lo que tendremos dejará en pañales a lo que tenemos ahora y que ya es alucinante.

m

#23 Mis previsiones son distintas. Veremos redes neuronales más grandes y con más datos, que van a hacer prácticamente lo mismo que las actuales y eso marcará un máximo.

Las redes neuronales es un invento de hace montones de años. Desde entonces no he visto nada más. Solo saben comparar y mezclar tiras de bits. Llámale a eso lenguaje. Algo capaz de razonar debe tener una forma de identificar, extraer, categorizar, relacionar y usar conceptos. No existe nada parecido ni teóricamente. No es posible hacerlo mediante el lenguaje.

Nadie sabe cómo lo hace el cerebro. Ciertamente es algo que ocurre dentro de las neuronas, pero eso no es visible. Yo aventuro que es micromecánica, porque no se me ocurre nada más.

Que se inventen cosas nuevas siempre es posible. Es evidente que la inteligencia general es posible (porque existe una prueba de ello), pero no hay ninguna pista de por donde ir, lo que convierte a cualquier previsión en una simple magufada.

rojo_separatista

#24, con perdón, pero lo que acabas de decir es una cuñadez como un piano. Los últimos años la investigación entorno a redes neuronales ha hecho avances descomunales, han aparecido arquitecturas completamente nuevas, GANs, transformers, modelos de difusión... Esto, unido al incremento de la capacidad de cómputo ha hecho que los resultados que tenemos hoy no tengan absolutamente nada que ver con los que teníamos hace apenas 10 años. Si esto ha sido así los últimos 10 años y no se ha visto ningún signo de agotamiento de la tecnología, que no para de sorprender a expertos y extraños cada día, pensar que ya se ha llegado al pico y apenas se va a mejorar, creo que no tiene la menor base científica.

Creo que hablas desde una serie de convicciones pseudo-científicas que hacen que te cause una gran incomodidad interna pensar que la mayor parte de nuestros procesos cerebrales se pueden reducir a una serie de operaciones matemáticas y prefieres desconocer la evidencia por aplastante que sea. Desde aquí sí que te hago una apuesta de la que sí estoy seguro, si al final se consigue crear una AGI en 5 años (que yo definiría como una especie de chatGPT que no se equivoca nunca y tiene habilidades de planificación), seguirás afirmando lo mismo, que no es verdadera inteligencia y que simplemente está repitiendo lo que ha aprendido, aunque pueda resolver todos los problemas que se le planteen y tengan solución... Como si los humanos no hiciéramos lo mismo. lol

m

#31 GANs, transformers, modelos de difusión

No son más que optimizaciones. No cambian el modelo de cálculo.

la mayor parte de nuestros procesos cerebrales se pueden reducir a una serie de operaciones matemáticas

Todos ellos sin duda, pero no sabemos copiar ni recrear nada de eso.

rojo_separatista

#32, optimizaciones que hacen que cosas que serían inviables computacionalmente con una fully connected.

Lo dicho, tu problema es que te da igual los problemas que se puedan resolver con una red neuronal artificial, porque rechazas de plano la forma en que lo hacen. Asumes que nuestro cerebro tiene una "magia" especial que es imposible de replicar.

m

#33 No has entendido nada.

s

#24 Primero toda computación del cerebro o lo que sea se realiza mediante puertas lógicas ya sean rígidas (PCs etc) o con lógica difusa (neuronas). Las redes neuronales si son suficientemente potentes y con las capacidades (transaformers etc) no solo predicen que se ha de hacer para elegir palabra, sobre que actuar, sobre como pintar etc sino que generan las puertas lógicas más eficientes para el proceso que han de realizar. Es decir que esta parte sí la realizan pero hasta ahora no había capacidad para implementarlas a ese nivel físicamente y con las mejoras pertinentes. Segundo, lo de razonar con precisión de forma lógica es algo que se realiza desde hace décadas. Es falso que no razone una máquina (como sabe quien ha utilizado prolog o predicated Fuzzy Logic) Lo que no hacían es decidir que razonar. Si le dabas una posible conclusión te hacía todos los razonamientos, categorizar, relacionar, utilizar conceptos pero para comprobar o refutar la conclusión. Por ellas mismas no decidían que razonar ni que comprobar ni que analizar ni que contrastar para ir aprendiendo y a su vez utilizar la base de conocimientos aprendida para seguir indefinidamente con el proceso

Ahora tienes las dos cosas separadas y Q* promete unirlas y generar esa base de conocimiento confiable (bueno más que inventarse las cosas por carecer de la misma)

xyria

#4 ¿Es una estupidez? Pareces muy seguro. ¿Trabajas en ChatGPT o Bard? roll

m

#19 Pues claro que es seguro. Ninguna máquina ahora mismo tiene ninguna capacidad de razonar y dicen que van a crear eso en solo cinco años, y no a cualquier nivel, sino al de un humano. Ni siquiera dicen qué cosa nueva van a crear. No tiene ni sentido.

No dudo de que sean capaces de mejorar mil veces, pero mil veces cero es cero.

Cosas como ChatGPT pueden todavía mejorar, pero no espectacularmente. No va a dejar de ser lo que es. No va a ser otra cosa.

Pero por supuesto tienes todo el derecho a creerte lo que te dé la gana. Faltaría más. Aunque la falacia de autoridad no puede anular el sentido común, digo yo. Dejo la discusión aquí.

ChatGPT

#22 aquí el que razonas estés tu?

De verdad te parece que tiene se todo esto que acabas de decir?

"Ninguna máquina ahora mismo tiene ninguna capacidad de razonar y dicen que van a crear eso en solo cinco años,"

Nos ha jodido, es que si ya hubiese una maquina que razonase como un humano no habría que esperar 5 años, lumbreras

m

#26 Ni como un humano ni como una hormiga. No hay nada.

Creo que te has enfadado. Es lo que pasa cuando en vez de razonar te crees historias.

ChatGPT

#4 Sisi, aquí la estupidez es lo que dice el ceo de NVIDIA? Verdad? lol

m

#25 O puede que sea otra cosa. No puedo saber eso. Lo que sí que aseguro es que no verás una inteligencia general mecánica.

obmultimedia

en 5 años nos vamos a la mierda.

pax0r

osea que la tendremos en dos

Cherenkov

Flipa este hombre, yo le doy a lo sumo tres años antes de la llegada de la IAG.

Escafurciao

Bien, así muchos podrán echarse su primera novia o novio, si salir de casa.

RamonMercader

Esto es como hace no mucho con el pico de las cripto, cuando btc iba a llegar a un millon.

¿Momento de vender acciones de nvidia?