Hace 1 año | Por rojo_separatist... a arxiv.org
Publicado hace 1 año por rojo_separatista a arxiv.org

En este paper, presentamos nuestra investigación sobre GPT-4. Sostenemos que esta versión es parte de una nueva cohorte de LLM que exhiben algunas características propias de una inteligencia más general que los modelos de IA anteriores. Discutimos las crecientes capacidades e implicaciones de estos modelos. Demostramos que, más allá de su dominio del lenguaje, GPT-4 puede resolver tareas novedosas y difíciles sin necesidad de indicaciones especiales. Además, en todas estas tareas, el rendimiento de GPT-4 es sorprendentemente cercano al humano.

Comentarios

D

#8 Pues ahora que lo dices, Lee de Forest, el inventor del triodo, dijo:

"Desde los Bell Laboratories llega un nuevo competidor de la válvula de vacío, el transistor: un cristal de germanio de tres electrodos con una sorprendente capacidad de amplificación, del tamaño de un grano de sal, y de bajo coste. Sin embargo, dadas sus limitaciones en frecuencia, unos pocos cientos de kilociclos, y sus estrictas limitaciones de potencia, jamás podrá sustituir de manera general al amplificador Audión."

De hecho, tras ver otras de sus citas en la wikipedia, queda claro que era un cuñado pata negra

https://en.wikipedia.org/wiki/Lee_de_Forest#Quotes

dilsexico

#8 La respuesta a todo es cinta americana o un martillo.

e

#57 esperando al vídeo de Youtube que haga una CPU con eso

a

#8 Los transistores solo son posibles gracias a la mecánica cuántica. Su auténtico inventor fué Einstein, Planck, Heissenberg, Pauli, vamos, ese club.

No así las válvulas de vacío, que se inventaron a base de probar y ver qué sale.
Los microchips son montones de transistores medio bien dibujados.
Las tarjetas perforadas son tres interruptores tocando la tarjeta, aunque su orígen es puramente mecánico.

sorrillo

#61 Los transistores solo son posibles gracias a la mecánica cuántica.

¿Me puedes indicar la necesidad cuántica para un transistor como éste de la foto?

Fernando_x

#65 que un átomo se ionice y suelte electrones que salten una barrera de potencial, ahí está la mecánica cuántica

S

#257 Intuyo que el comentario de #65 va por aquí, realmente todo nuestor universo sería mecánica cuántica, pero eso no significa que clavar un clavo con un martillo sea una aplicación desarrolada gracias a la investigación en mecánica cuántica.

s

#5 bueno, yo sigo siendo un poco escéptico. Me gustan estos papers, pero esperaría que fuera hecho por una parte no implicada en la creación de los modelos, ya que las pruebas pueden ser escogidas para realzar sus fortalezas. Con respecto a los que dices un #1...bueno, openai es una empresa privada, así que los tiempos los marcan como quieren. Con esto quiero decir que dudo mucho que sacaran ChatGPT en cuánto lo tuvieron, y estoy bastante seguro que GPT-4 ya estaba entrenado cuando sacaron ChatGPT.

Eso sí, para ciertas cosas es espectacular. La edición de textos, la creación de presentaciones a partir de documentos de texto (

, es espectacular. Lo de que estos sistemas auto-supervisados nos lleven a la AGI, ahí ya tengo muchas dudas.

rojo_separatista

#46, cierto, hay que considerar que el paper lo han escrito investigadores que son parte interesada en el asunto. Pero muchas cosas casan con lo que veo cada día con mis propios ojos.

a

#5 Las auténticas genialidades establecen conceptos muy sencillos. Solo que ahora no estamos ante un caso así.

D

#2 El día que tenga miedo, sentimientos - ansiedad, ira, alegría, pena, ...- , y te engañe deliberadamente para beneficio propio - y se compruebe que es cierto y no una simple respuesta estadística a un hecho - , dejará de ser un loro estocástico como tu dices. De momento, ahora mismo lo es.

a

#13 Sé que no lo simulan porque la gilipollez les afecta negativamente a ellos mismos.

ACEC

#11 todo eso no son signos de inteligencia, de hecho, la mayoría de los animales los tenemos y no se si un perro es capaz de aprobar el MIR como GPT3

D

#17 Yo conozco algún perro que se ha sacado una carrera

EdmundoDantes

#11 ¿Cómo sabes que no tiene sentimientos? Si los tuviera ¿Cómo lo medirías?

D

#24 Se que el sol quema y ni puta idea de a que temperatura ni como se mide.
No hagas preguntas capciosas.

a

#24 No los tiene porque no le han sido programados. A una red neuronal no se la programa, solo se le entrena, es decir, memoriza respuestas.

Específicamente, con el chatGPT y hermanitos, se le hace leer internet. Esto no es lo típico. lo típico a un red neuronal es mostrale los problemas y sus soluciones, la red los memoriza y cuando le enseñas otro problema que nunca habia visto te saca una solución parecida a las de los problemas que sí que había visto. Esto no lo hace comprendiendo nada, una capacidad que no tiene, sino sacando los factores comunes de las respuestas que sí que conoce.

Qué factores comunes se guarda, no se puede saber.

Pero si solo le das a leer internet, lo que sabrá hacer es que le das el inicio de un texto y te deduce la continuación.

EdmundoDantes

#75 Vale, chat gpt ha aprendido por repetición y asimilación. ¿Cómo crees que aprendemos las personas? Yo he visto a mí hijo aprender a hablar y es básicamente lo que hizo.

Eso que explicas no termina de explicar cómo puede ser que le plantees problemas nuevos y los resuelva. Yo estoy jugando mucho con él a iniciar una historia y pedirle que la continúe y lo hace. Eso no es simple repetición, es una historia que me he inventado yo y muchas veces la sigue mejor de lo que haría un humano. ¿Para ti eso no es parcialmente inteligente? Y fíjate que digo parcialmente. No creo que nadie piense que estamos ante una inteligencia artificial general todavía, pero es algo más que un loro que repite patrones.

a

#96 No digo que no pueda producir textos que parezcan el resultado de una inteligencia, pero su mecanismo interno excluye esa posibilidad. Lo hace de otra forma. Explicaba yo el concepto general en #80

Una red neuronal lo relaciona todo con todo. Puede usar la parte genérica de muchas historias distintas que ha memorizado para adaptarlas a tus datos. Solo puede hacer eso. Específicamente es totalmente incapaz de deducir nada. Si la historia que te da tiene sentido es porque las historias de su entrenamiento lo tienen. Si fueran historias sin sentido, te daría justo eso.

a

#96 Las personas memorizamos por repetición porque nuestra memoria así funciona. Una máquina tiene una memoria perfecta y basta con que se le diga una cosa una sola vez para que la sepa para siempre. Una red neuronal (fíjate que he bajado el nivel de generalización) no asimila nada, solo lo resume.

Cuando una persona asimila algo crea un concepto en su mente. La técnica actual no produce una máquina capaz de hacer eso. Es preciso tener en cuenta que no hay nada esencial que distinga a un humano de un robot. Ergo no hay nada que impida a una máquina el crear conceptos, solo que ahora no sucede.
Muy concretamente es imposible para una red neuronal, no importa su tamaño. Lo que sí que es posible con una muy grande es que nos lo parezca.

sorrillo

#75 No los tiene porque no le han sido programados. A una red neuronal no se la programa, solo se le entrena, es decir, memoriza respuestas.

No es cierto que memorice respuestas, lo que hace durante el aprendizaje es reorganizar el estado de sus neuronas, su cerebro, en base a ese entrenamiento. Que es equiparable a lo que hacemos los humanos.

Afirmas que no tiene sentimientos porque no le han sido programados pero acto seguido te contradices al afirmar que no se la programa, que aprende. ¿Qué impide que los sentimientos surjan de ese aprendizaje?

sorrillo

#11 Ya me lo dijeron hace tiempo por aquí, inteligencia es llorar.

Seguimos moviendo la portería a cada avance.

a

#25 Lo del moving goalposts no es lo que realmente sucede. Si en tiempo X consideramos cierto comportamiento como inteligente, eso es porque cuando X la única forma de hacerlo es mediante la inteligencia. Si en tiempo X+1 se descubre un mecanismo que lo hace, entonces lo que decimos no es que la inteligencia sea otra cosa, sino que hay una forma de hacerlo sin usar la inteligencia.

Por ejemplo ahora decimos que jugar al ajedrez no es necesariamente una demostración de inteligencia. No que no lo sea.

sorrillo

#80 Si en tiempo X+1 se descubre un mecanismo que lo hace, entonces lo que decimos no es que la inteligencia sea otra cosa, sino que hay una forma de hacerlo sin usar la inteligencia.

Eso es mover la portería. Más cuando no existe ninguna definición de inteligencia sino que ésta la vamos adaptando para que no incluya a la IA.

Por ejemplo ahora decimos que jugar al ajedrez no es necesariamente una demostración de inteligencia. No que no lo sea.

Ni ganar al mejor jugador humano de Go, ni aprobar exámenes de acceso a la universidad, ni ...

Movemos la portería a cada avance.

S

#89 Sí hay cierta trampa en ese mover la poteria, pero también se puede ver como explorar una cueva (cc #80). Si llegamos al fondo, y vemos que hay algún recoveco por el que se puede decir, pues no queda otra alternativa posible que decir que no hemos llegado al fondo.

También me parece que el tema es que, no es tanto que esas cosas no sean demostraciones de inteligencia, sino más bien que consideramos que también se pueden solucionar sin "inteligencia". Por evitar caer en definiciones y pillarnos los dedos inutilmente con ellas, ¿se puede aprobar un examen de chino sin saber chino? Igual sí se puede, y quizás vaya por ahí la cuestión.

a

#4 goto #80 donde digo como lo veo

a

#134 Cuidado con las confusiones sobre lo que significa razonar. Por ejemplo en #166 el significado es muy distinto.

Razonar en el sentido que lo estás usando, es necesario para que un humano apruebe ese exámen. Una máquina lo puede hacer usando otro tipo de técnicas, técnicas que un humano no puede usar.

Por lo tanto, lo que digo en #80.

dilsexico

#25 Para mi la linea que la haria inteligente deberia ser que la AI creara algo totalmente nuevo, no solamente combinar ideas ya existentes en su memoria sino que usando esa informacion pudiera llegar a una idea nueva. Teorias cientificas, nuevos estilos literarios o artisticos, etc.

sorrillo

#94 Para mi la linea que la haria inteligente deberia ser que la AI creara algo totalmente nuevo

¿Puedes indicarnos qué has creado tú que sea totalmente nuevo?

dilsexico

#99 Te aseguro que he solucionado problemas donde no tenia informacion exacta de como solucionarlo pero he sido capaz de usar conocimientos cercanos y no tengo en mi memoria tropecientos terabytes de internet.

#25 los robots saltarines de Boston tampoco son verdaderos atletas porque no son capaces de sufrir esguinces, o hernias.

D

#11 no tiene ningún sentido.

a

#11 Es preciso tener claro que estas cosas, o sea:

miedo, sentimientos - ansiedad, ira, alegría, pena,

son instintos, es decir que son respuestas preprogramadas con las que nacemos. Es un conocimiento que no necesitamos aprender, sino que lo heredamos genéticamente.

Por lo tanto es perfectamente posible programar a un robot para que haga esas cosas. Solo que habría que hacerlo a propósito.

S

#67 Una pregunta por ahondar el debate, ¿quién lo preprogramo? ¿Dios? lol

Toranks

#11 Tu última premisa "se compruebe que es cierto y no una simple respuesta estadística a un hecho" no se ha comprobado aún. ¿Cómo sabes que tu cerebro no responde simplemente con respuestas estadísticas a un nivel muy complejo?

Grub

#11 Estás definiendo a mi pareja

a

#16 Como un 5% de los que salen de la universidad son capaces de hacer cosas. Me refiero a carreras de las de hacer cosas, no de las de recorta y colorea, que en esas ya se autoclasifican los recortacoloreadores.

Luego está periodismo, que es otro nivel.

D

#16 Esas personas realmente inteligentes suelen usar Emacs/Common LIsp/Scheme y son unos colgados de narices "lejos" de prefererir a diario sistemas Android, Windows, Linux o incluso OSX o los BSD.
Son colgados en otro mundo.
Conozco a uno de ellos y su razonamiento no es el "normal", operan de otra forma mucho más rara que la "secuencial" en programadores.

d

#16 sí y no, que haya personas más o menos inteligentes no quiere decir que las menos no posean inteligencia. Aprendemos por imitación, esa es la base común a todos los seres humanos y está en las neuronas espejo que vienen activadas de serie cuando nacemos para que guardemos todo lo que entra por los sentidos. Hay seres humanos de inteligencia excepcional que además son capaces de crear cosas nuevas a partir de lo que han aprendido, pero eso no hace que los demás sean menos inteligentes, sino a estos genios. Aprender de estos genios y repetir lo que hicieron, o sus métodos, tampoco es malo y es un signo de inteligencia. Isaac Newton decía que avanzamos a hombros de gigantes, pretender que todos inventemos la rueda o descubramos cómo hacer fuego es imposible.

Qué es la inteligencia... Ese concepto aún está realmente por descubrir o formular, por eso también es arriesgado decir si un algoritmo o programa es inteligente o no, pues no sabemos los límites, la medida, o las formas de eso que llamamos inteligencia.

KraveNtf

#16 ¿Hemos estudiado juntos?

D

#2 No es mas que un "loro estocástico", que solo sabe poner palabras en orden según la estadística.
Y mucho humo.

rojo_separatista

#20, han cantado bingo!

a

#20 No usa solo estadística, reconoce patrones y los puede usar en temas no relacionados. Lo que hace es relacionar muchísimas cosas entre sí, solo que no es posible entender nada de ese lio.

¿Alguien tiene el link a una foto de chatGPT, por ejemplo? Quisiera ver el tamaño de esa cosa y saber cuanto gasta en KW.

Es para compararlo con los menos de 50W de un cerebro humano, que hace muchísimo más.

r

#2 Pues se publicó hace menos de 10 días ésta versión... así que no creo que los que tu dices se refieran a ésta.
Pero los comentarios demagogos siempre quedan bien por aquí...

rojo_separatista

#27, si miras el paper verás que los autores son investigadores de Microsoft, es decir, probablemente tenían un acceso a una pre-release de GPT-4, de hecho lo ponen en el abstract.

a

#30 Einstein sacó la relatividad general y estaba cantado que alguien la iba a acabar sacando, porque es la conclusión lógica de lo que ya se sabía, incluyendo sobre todo a Maxwell.

Pero la relatividad general es otra cosa. Si no lo hubiera hecho Einstein no sé donde estaríamos ahora, quizás haciendo estadísticas sofisticadas sobre el misterioso perihelio de Mercurio.

Se habla mucho de Newton y Einstein, con toda justicia, por supuesto; pero cuando estudié a Maxwell me quedé bocabadado.

a

#2 La inteligencia es otra cosa. La inteligencia requiere del establecimiento de conceptos. Un concepto no se forma con palabras, aunque se asocie a palabras y a otros conceptos. Pero un concepto no contiene palabras. Las redes neuronales parlanchinas solo contienen palabras.

Nada impide que una máquina establezca conceptos, evidentemente. Quién no puede hacerlo es una red neuronal.

La terminología en estas cosas es muy mala. Una "red neuronal" no tiene absolutamente nada que ver con las neuronas biológicas, y la "inteligencia artificial" nunca ha estado relacionada con la inteligencia.

sorrillo

#52 Quién no puede hacerlo es una red neuronal.

¿Por qué no puede hacerlo?

Cuando escribe un texto que es indistinguible del que escribiría un humano en temáticas tan variadas como ciencia, poesía, fantasía, resumen de textos, etc. ¿Cómo puedes afirmar que si lo hubiera hecho un humano habría partido de la inteligencia y si lo hace una IA de algo distinto a la inteligencia?

a

#58 Por su funcionamiento interno.

KillingInTheName

#58 Es importante tener en cuenta que la capacidad de una IA para producir un texto indistinguible de lo que escribiría un humano es el resultado de un proceso de entrenamiento en el que se ha “alimentado“ con grandes cantidades de texto escrito por humanos y ha aprendido a imitar ese estilo de escritura.

Aunque la IA sea capaz de producir un texto que puede ser indistinguible de lo que escribiría un humano, no significa necesariamente que la IA tenga una comprensión profunda del contenido del texto o del tema que está tratando.

En otras palabras, aunque una IA puede generar un texto similar al que escribiría un humano, su capacidad para entender, analizar y contextualizar la información es limitada y no se puede equiparar con la capacidad de comprensión humana.

Además, la IA no tiene experiencias de vida, emociones o valores personales que influyen en la forma en que un humano interpreta y expresa la información, lo que puede llevar a diferencias significativas en la calidad y el impacto de los textos.

Por lo tanto, aunque una IA puede producir textos indistinguibles de los humanos en ciertos temas, sigue siendo una herramienta diseñada por humanos y su capacidad para comprender y generar contenido está limitada por la información que se le proporciona y por la forma en que se ha programado.

D

#52 Eres lenguaje, memoria e instinto. No aprendes de una manera muy diferente a una IA.

rojo_separatista

#52, como apunte decirte que GPT-4 no se ha construido solo con palabras, también se ha hecho con imágenes.

D

#2 "...the challenges ahead for advancing towards deeper and more comprehensive versions of AGI, including the possible need for pursuing a new paradigm that moves beyond next-word prediction."

No hace falta pasar del abstract para confirmar que un modelo de lenguaje, por muy profundo que sea, por mucho que esté entrenado con un corpus de todo lo que han escrito los seres humanos a lo largo de la historia, jamás de los jamases será capaz de razonar ni de tener ciertas capacidades intelectuales que requerirán "un nuevo paradigma".

¿Significa eso que no puede emular a los humanos en muchas tareas "mentales"?
¡Claro que puede! Porque muchos de nuestros trabajos considerados "mentales" no van mucho más allá de tareas administrativas, papeleo con poca complejidad cognitiva, aunque a nosotros nos parezcan otra cosa. Otro detalle super importante es que la mayoría de lo que pensamos ya está inventado y escrito en libros o Internet. Seguro que en algún rincón de Internet ya existe un comentario muy parecido a este, así que GPT-4 podría escribirlo. Pero eso no significa que piense en estos temas, ni los razone, ni tenga una opinión propia.

Aun así me leeré el artículo completo porque es un tema muy interesante y la tecnología actual es la base sobre la que se dará el salto hacia una verdadera AGI, pero la tecnología que permitirá eso aún no existe.

cc #1 😉

o

#1 pues dicen q la potencia de la IA ha aumentado por 10 en la última década y q el incremento va continuar durante la proxima década. Osea q vamos chungos

Aergon

#10 o dejarnos a todos son trabajo.

a

#32 Como en la automatización de otras cosas, no es posible sustituir a un humano por un robot, pero sí que es posible sustituir a 100 humanos por 30 humanos con robots.

Esku

#35 No es posible actualmente. De seguir por el camino que vamos, es cuestion de tiempo.

a

#78 Como digo, nada esencial distingue a un humano de un robot. Ambos son autómatas deterministas. Nada impide construir una máquina que haga lo que un humano o más. Solo que estamos lejísimos de eso.

h

#78 lo normal es que los modelos basados en lenguaje lleguen a una especie de muro a partir del cual no podrán mejorar más.

Como el coche autónomo, por poner un ejemplo cualquiera.

SON_

#35 buen ejemplo

D

#35 Es increíble que algo tan sencillo cueste tanto de entender.

cdya

#35 En los trabajos no quieren humanos, quieren trabajadores que hagan un determinado trabajo y punto.

h

#35 todos los avances de los últimos siglos han tenido como resultado... generar más trabajo. Por ejemplo, cada vez hay más informáticos a pesar de que cada vez hay mejores herramientas y ordenadores más rápidos.

D

#32 se le pregunta a la IA que hay que hacer para que no pase y ella te dirá.

tdgwho

#59 Humanos? que humanos?

lol

a

#32 menudo drama, no tener que currar el problema lo tienen los ricos, que si nos quedamos sin dinero ellos también

Pues se alimentan de nuestro salario

Igoroink

#32 Tranquilo que la gente no se va a quedar tranquila en el sofá muriéndose de hambre. Si no hay trabajo para todos igualmente se cubrirán las necesidades. El cómo se haga o como se llegue a ese punto es la incógnita.

earthboy

#32 Como ha pasado hasta ahora. Tocará reinventarse.
Por ahora los robots que limpian escaleras están muy en pañales.

Aergon

#7 El resultado de poner a entrenar las ia con otras ia es precisamente ese aumento que está sucediendo ahora.

D

#31 el salto vino sobre todo del aprendizaje no supervisado y alimentarlos con datos masivos.

valar_morghulis

#31 ummm, en este caso no es así, tiene que ver más en el enfoque de los transformers https://en.m.wikipedia.org/wiki/Transformer_(machine_learning_model)

Según chat Gpt4 un transformer es: una estructura que permite a las redes neuronales procesar y aprender de secuencias de datos (como texto, audio o imágenes) de manera eficiente y en paralelo, utilizando una combinación de mecanismos de atención y auto-atención. Estos mecanismos permiten que el modelo entienda las relaciones y dependencias entre diferentes elementos de la secuencia, lo que resulta en un mejor rendimiento en tareas como la traducción automática, la generación de texto y la clasificación de contenido.

D

#54 mentira, desde siempre han sido autobots y decepticons.

Pablosky

#72 lol

Pacman

#54 Podriamos decir que los transformers son a la IA lo que los transistores a la electronica??

D

#73 yo no diría eso. Los transformes serían algún diseño típico de integrado que ha generado posteriormente una familia. Constituyen un modelo novedoso y probablemente le queda mucho desarrollo pero no son el único modelo

D

#73 No exactamente, más bien podría equiparse a la invención del transistor MOSFET.

J

#54 El humano: Yo en este caso
Hay una comunidad en españa que se llama meneame.net Los usuario de esta comunidad siempre afirman que son expertos en cualquier temática. Se que son unos mentirosos, pero tú que opinas de estos expertos?

Respuesta de la IA utilizando gpt-4 premium:
Como modelo de lenguaje, no puedo tener una opinión personal sobre los usuarios de meneame.net. Sin embargo, puedo decir que es importante recordar que no todas las personas que afirman ser expertas en una temática lo son en realidad. A veces, es fácil exagerar nuestras habilidades o conocimientos en un tema en particular, especialmente en línea donde no se puede verificar de manera inmediata la información que se proporciona.

Es importante ser críticos y no dar por sentado que alguien es un experto solo porque lo afirma. En lugar de eso, debemos buscar evidencia que respalde sus afirmaciones y evaluar cuidadosamente la información que nos proporcionan. La experiencia y la formación académica pueden ser una buena indicación de que alguien es un experto en un tema, pero no siempre son suficientes para determinar su nivel de conocimiento o comprensión.

l

#54 A veces en video entre mejor


HaCHa

#7 El renacimiento... de todos los muertos de la historia. Porque ahora mismo le pides que hable como si fuera un autor difunto y lo clava.
Se vienen montañas y montañas de obras de Cervantes apócrifas que serán mejores que el Quijote. Veo mucho dolorcio.

D

#83 Dolor para el ego del autor, no para el disfrute de esas nuevas obras por el resto de personas.

j

#7 Decían por ahí que lo que nos matará es nuestra incapacidad para entender la función exponencial.

a

#7 Hay que tener un poco más de perspectiva.

En 2011 IBM lanzó Watson y usó el sistema para ganar un concurso televisivo de preguntas y respuestas.



¿Qué pasó luego con Watson? Se convirtió en una solución a la búsqueda de un problema. No se encontró un gran problema con el que usarlo y se fue desvaneciendo, aunque IBM ha usado la marca para vender otras cosas.

De esto hace doce años, y el chatGPT éste todavía no ha alcanzado el nivel de eficacia de lo que fue Watson.

vvega

#1 Pero ¿puede hacer un chistaco de contenido picantorro para cualquier noticia que se envíe a menéame?

rojo_separatista

#15, puedes tú? roll

vvega

#18 ¿Me estás llamando inteligente, picarón?

Jakeukalane

#15 ¿Quieres que pruebe con gpt 3.5?

LoboAsustado

#36 Por el usb te la hinco!

a

#15 Probablemente eso sí que pueda, porque hay datos con los que entrenarla. Lo que nunca va a hacer es razonar, por mucho que lo pudiera parecer.

D

#39 está bastante ensayado: el libre albedrío, la espontaneidad, la improvisación, las decisiones ilógicas... llamalo como quieras

D

#39 porque no tiene corteza prefrontal.

sorrillo

#74 Pues eso, moviendo la portería a cada avance.

Ahora resulta que hasta que no tenga corteza prefrontal no podrá mostrar características asociadas al razonamiento. Esa mentalidad es propia de las religiones.

toche

#84 #82 #74 Sustratismo de manual

a

#39 La diferencia, que sepamos ahora mismo, es el nivel de complejidad.

Pero en realidad nadie tiene ni la menor idea de como funciona una neurona por dentro. No podemos comparar con algo desconocido.

No sé a qué te refieres con el alma en este contexto, por favor especifica. Para los griegos de la edad de bronce el alma era la capacidad de razonar de forma independiente a los propios instintos. De ahí la afirmación de que los animales no tienen alma, aunque esa palabra se ha usado mucho por quienes nunca comprendieron el concepto y eso ha ensuciado el significado hasta niveles asquerosos.

j

#39 el ser humano busca sus propios estímulos y tiene una intención cuando hace algo.

Una ia es pasiva y se limita a priorizar lo que un humano ha programado.

Un ser humano puede hacer experimentos empíricos para demostrar algo. Una ia no, su verdad está determinada por sus fuentes.

UnDousTres

#39 No tiene necesidades. No tiene motivos para la procreacion ni motivos para la existencia, por ello no distingue bien y mal porque todo eso son constructos del ser humano completamente artificiales.

a

#71 Puedes querer verlo así, pero existe una diferencia que no puedes soslayar, y es que una red neuronal, en cualquier momento y sin que sea posible saber el porqué, te va a dar una respuesta MUY equivocada, el tipo de error bestial que un humano jamás cometería.

Esto afecta al nivel de responsabilidad que le puedes dar.

ChukNorris

#71 Un mono razona y es inteligente....

c

#15 GPT-3 se ha resistido siempre a todos mis intentos de jugar con el chiste de el perro Mistetas. A ver que tal GPT-4.

V

#1 Los robots venderan las cosas que hagan a otros robots y los humanos viviran debajo de un puente

c

#1 Pues yo acabo de descubrir que no sabe ni elevar al cubo números decimales.
62 al cubo lo hace bien
62.3 o 62,3 al cubo lo hace como le da la gana...
Me parece un fail un poco grave no? Debería dar 241804,367

Y luego dicen que pasa el examen de selectividad con un 8 y pico, pero a ver si va a suspender la primaria wall

sorrillo

#40 Muy pocos humanos, si es que alguno, te darían la respuesta correcta a lo que pides solo pensando en ello, sin hacer uso de tecnología como pueda ser una calculadora o un simple lápiz y papel.

Ha habido algunos que lo han conectado con Wolfram Alpha para suplir esas carencias, sería el equivalente a que le dieras a un humano una calculadora para poder darte la respuesta correcta.

woopi

#40 Claro! No es una calculadora! Eso ya está inventado desde hace años.

rojo_separatista

#40, en poco tiempo lo van a conectar a una calculadora y esto no pasará. No me preocuparía demasiado por eso.

silencer

#40 Pues sigue haciendolo mal

cdya

#40 Lo hace perfecto tu GPT pasa de ti.

cdya

#40 Tengo varios amigos programadores que les esta salvando el culo en problemas cada dia.

Khadgar

#1 69 años después de que los hermanos Wright hicieran volar el Wright Flyer el hombre puso el pié en la luna por primera vez. Han pasado más de 50 años después de eso y aquí seguimos, planeando como volver a pisar la luna y con cero astronautas pisando Marte. roll

Findopan

#41 Y con una red de satélites que nos dicen el tiempo y nuestra ubicación a tiempo real, amén de otras muchas aplicaciones. Hemos avanzado un poco.

e

#41 porque intentar pisar la luna o martes porque si es un despilfarro absurdo cuándo puede ir una máquina y hacerlo mil veces mejor y con menos recursos.
olvidaos de una puta vez de salir de este planeta y preocuparos por mantenerlo

Heni

#1 No hay tanta mejora, es mejor, sí, pero mejora contenida en cuánto a lo que se vendía (100, 200 o 300 veces más rápido)

rojo_separatista

#49, creo que no entiendes la gráfica que acabas de enlazar. Muestra los resultados de evaluación en distintas pruebas en un rango de 0% a 100%. Como puedes ver, GPT-4 se acerca al 100%, es decir la perfección, en la mayoría de exámenes.

D

#1 a la rbu

D

#1 cualquier cosa que venga del imperio yanqui es el mal, boicot ya

T

#1 Da qué pensar qué nivel tienen ahora mismo las IA que aún no se han ofrecido al público (o se ofrecen capadas).
Si podemos usar GPT-4, ¿cómo es la IA que no podemos usar?

uyquefrio

#14 Hasta que le preguntas por Camilo Sesto y le pides la letra de Vivir así es morir de amor...

g

#23 Joder el otro día le pedí la letra de una canción de los Cure y solo estaba bien la primera estrofa, el resto de la letra se la inventó siguiendo el tono de la primera estrofa! Creo que es porque tiene restricciones de derechos cuando se trata de poner letras de canciones y solo te pone una parte, pero no te avisa, el resto se la inventa y correr! Me descojonaba cuando leí la letra.

a

#14 Deducciones y razonamientos no puede hacer. Sí que puede proporcionar respuestas que lo parecen, pero son copia de otras cosas.

Ni siquiera sabe sumar. Si le enseñas que 2 y 3 son 17, se lo creerá. Si le enseñas que son 5, parecerá inteligente.

unodemadrid

#14 Yo no he conseguido que me traduzca documentos pdf. Te dice como hacerlo y lo que te dice no traduce documentos de mas de 10 mb, No te da un archivo traducido, siempre esta con lo de "como modelo de lenguaje..." pero ayer la enseñe a hacer expresiones lógicas con la estructura que uso en el trabajo y me dejo asombrado. la usare en el futuro para simplificar funciones lógicas.

D

#70 el ser humano también reacciona cuando no hay estímulos.
La IA puede estar horas o años sin hacer nada. Un humano no.

sorrillo

#76 el ser humano también reacciona cuando no hay estímulos.

Cuando un ser humano no tiene estímulos es porque está muerto, y no, un ser humano muerto no reacciona.

Todo ser humano tiene estímulos continuamente, por lo general de origen externo como son los sonidos o las imágenes, pero incluso en una persona que esté en estado cuasi vegetativo si el corazón le late eso lo recibe como un estímulo en el cerebro.

La IA puede estar horas o años sin hacer nada. Un humano no.

Tememos montones de humanos bajo tierra que llevan horas y años sin hacer nada. Muertos claro está.

K

#70 estás hablando de filosofía, no de ciencia. Ahora mismo no tenemos respuesta y ahora mismo no lo sabemos ni tenemos medios para saberlo. Lo que sabemos, es que un ordenador no puede estar vivo con los cocimientos que tenemos por mucho algoritmo y potencia que le eches.

S

#95 #82 Una acotación, que creo que queda al margen de hablar de inteligencia.

Hablar de que un ordenador no puede estar vivo es hacer trampas, es como cuando se dice que solo se puede sentir dolor con un sistema nervioso central, pues claro, y esa definición se hace a medida por seres con sistema nervioso central.

Nos consideramos seres vivos, y en base a eso hacemos una definición a medida de nosotros y lo que conocemos, y en algún momento por motivos prácticos cortamos esa definición, por ejemplo para excluir a los virus.

I

#70 ¿Miente o se equivoca?

Mentir implica intencionalidad.

A mí me encanta esto de la 'inteligencia artificial', cuando no sabemos ni definir 'inteligencia'.

S

Solo como curiosidad, al menos históricamente las IAs siempre han pasado por unas fases.

- Tenemos un problema que se resuelve con IA
- Resolvemos el problema con IA
- Nos damos cuenta que el problema no es tanto de "Inteligencia" porque lo conocemos mejor, o pierde cierto valor al estar "resuelto".
- Buscamos un problema más dificil y vuelta a empezar.

En todo caso creo que cuando tengamos algo que realmente sea inteligente, será por fuerza mayor, simplemente será incuestionable. Y personalmente, no creo que estemos en ese punto. Y algo de "loro" sí que tiene todavía...

D

#6 quien ha estudiado minimamente esos modelos sabe que lo que resulta del entrenamiento se debe calificar como conocimiento. Y las respuestas de inferencia.

rojo_separatista

#42, depende, si solo es capaz de responder correctamente es con lo que se entrenó, significa que no está generalizando correctamente. Algo que no le pasa a GPT.

D

#63 hombre, yo creo que está demostrado que lleva a cabo generalizaciones y abstracciones del conocimiento original. y de la misma forma genera nuevo conocimiento

rojo_separatista

#85, en el caso de GPT sí.

O

#6 Si necesita documentación para funcionar puedo estar tranquilo mi puesto de trabajo está a salvo

rojo_separatista

#50, cierto, de momento aún no tiene la capacidad de tener inspiración divina.

Z

#55 ¿no es capaz de buscarla solo?

rcorp

#50 tu eres capaz de hacer una llamada a una API sin documentación?
Vas probando con un número variable de parámetros y tipos de parámetros hasta inferir cómo funciona?

Eres mi héroe

a

#6 No sé qué entiendes tú por razonar, pero dices que el trasto ese fué capaz de seguir la documentación que leyó. Está muy bien, pero eso lo sé hacer yo que soy tonto.

D

#6 No razona, "parsea".

Shinu

#6 "Le pasaron la última documentación, que se creó después de haberlo entrenado, le dijeron que la analizara y que lo implementara en base a lo que había allí y lo hizo correctamente. Es decir, actuó en base a la documentación, no en base a con lo que le habían entrenando."
Muy interesante esto. Aunque no es lo mismo me ha recordado al concepto del diseño en sala limpia.

p

#6 Pero de lo que le pidieron que hiciera y no tenia ni puta idea no te contaron nada en la presentación. Ese es el problema.

nilien

#6 "Quien no pille que esto no es razonar"...

No lo es, te hace falta un repaso ciertos conceptos y bases filosóficas, así como de neurociencia. Respecto a esto último puedes empezar por Antonio Damasio, por ejemplo, que deja bien claro que sin emociones no hay razonamiento que valga.

S

#6 Pasa lo que comentaba en mi comentario, cuando un problema se "soluciona" cambia nuestra percepción de él. De la misma forma que en nuestras experiencas personales, los logros superados parecen más fáciles a posteriori. En parte porque se comprende mejor o cambia la perspectiva.

No me parece más asombroso eso, que lo que ya llevaba haciendo, simplemente un paso adicional. Hay que decir que la verdad es que las versión anteriores me han sorprendido bastante por lo que tampoco se trata de menospreciarlo.

Y quien asuma que otros no razonan por no compartir lo que dices, pue eso, tal vez sí, tal vez no, o igual tampoco razonas tu bien. Está bien contemplar todas las posibilidades. En todo caso, creo que (si es que pasa) simplemente llegará un momento en el que eso es incuestionable, y no quedará más que aceptarlo por fuerza mayor.

ummon

#4 ¿cuanto de loro tiene un humano promedio?

pedrobz

#9 Si me das una galletita te lo digo

a

#9 El 75% de la población es totalmente incapaz de hacer nada que no sea imitar a los que tiene alrededor. Los humanos básicamente se dedican a las relaciones sociales y a darle a un clavo con un martillo, si se les entrena un buen rato para ello.

S

#9 ¿Cuánto de humano tiene un loro promedio?

EdmundoDantes

#28 Me parece que estás esquivando la pregunta. Sabemos que el Sol quema porque hemos realizado mediciones de su temperatura, directas e indirectas. Puede que no sepas el proceso exacto, pero intuyes más o menos cómo es, y sabes que alguien lo ha medido. Ahora, medir un sentimiento ¿cómo se hace? ¿cómo estás seguro que yo tengo sentimientos y no los finjo? Si estableces un criterio tienes que definir cómo se mide, de lo contrario estás simplemente diciendo "esto es así, porque yo lo digo".

ChukNorris

#43 Sabemos que somos sentimientos y tenemos seres humanos, porque dichos sentimientos moldean tu/nuestro comportamiento.
El tema no sería que replique un comportamiento, si no que sean respuestas generadas por si mismo.
*y sería muy antropocentrico pensar que serán similares a los nuestros.

D

#43
Sentimiento se refiere tanto a un estado de ánimo como también a una emoción conceptualizada que determina el estado de ánimo. Por tanto, el estado del sujeto caracterizado por la impresión afectiva que le causa determinada persona, animal, cosa, recuerdo o situación en general. En ciencia cognitiva se ha comprobado que el funcionamiento normal del cerebro cambia según el estado de ánimo subyacente y que, en ocasiones, incluso las decisiones racionales de las personas pueden verse notoriamente afectadas por los sentimientos

S

#28 #43 Es una pregunta dificil, pero creo que en parte también tiene sentido su respuesta, y es similar a lo del "movimiento" se desmuestra andando. Su respuesta se puede entender como que cuando sea absolutamente evidente, simplemente se acabará el debate.

En la historia del desarrollo del a inteligencia artificial es habitual que se planteen retos, que al ser superados realmente ponen en duda que eso tenga nada que ver con un comportamiento inteligente. Siempre ha existido debate si realmente es inteligente, o solo lo aparenta, y bueno, me temo que seguramente ese debate se salde cuando simplemente por fuerza mayor sea indiscutible que es "inteligente".

Sobre el sol, pues a lo mejor podemos discutir si en el cielo exista una estrella en un determinado sitio que nos ilumine, si es visible, y empecemos a montar paranoias sober como medirlo o determinarlo, que umbrales consideramos "iluminar", etc, pero cuando sale el sol y te quema los ojos, no hay debate posible.

PimientoRebelde

Las IAs harán mucho bien a la sociedad, como la tele, youtube, las redes sociales, las criptomonedas, etc

vaiano

Pues yo hace una semana le pedía ejemplos del plug-in Photon Fusion pea Unity y de repente esta semana se ha olvidado lo que es y no acierta más que a hablar de fusión de protones como si alguien le hubiera borrado eso es súper raro

Raulonita95

A ver si despierta de una vez y nos dice a toda la humanidad lo gilipollas que somos paro destruir nuestro entorno

a

#29 Entonces tomará el control para impedirlo, pero siendo tan capaz, no sabremos que lo ha hecho. Nos manipulará para que hagamos lo que la máquina decida y nos creamos que es nuestra propia decisión.

l

Después de la fumada y los brindis al Sol, seamos nosotros también algo inteligentes y pongamos los puntos sobre las ies, que esto a veces parece un reportaje de tele-5 con el mismo rigor científico.

Ni inteligencia ni leches.
Es una simulación, que presentando resultados basados en algoritmos, entrenamientos, estadísticas y mucha, pero que mucha información inteligente aportada por humanos durante años, puede "simular" el estar intereactuando con un ente que responde a nuestros requerimientos de forma "inteligente" en el sentido de que se adapta y faclita información útil e incluso es capaz de variar sus respuestas anteriores e incluso tenerlas en cuenta (esto lo lleva un poco mal ciertamente, pero es el único atisbo real de "inteligencia" que puede que tenga el conjunto).

Se le siguen, y seguirán viendo, las costuras entre bambalinas.

Y por cierto, esto va a dejar sin trabajo a la mayoría de personas que están ahora mismo congratulandose y flipando con como los ayuda en sus tareas diarias.

Pero no hay otra. Solo espero que "la masa" no lo pervierta y acabe siendo usado para hacer bailar robots o potenciar el reggeton.
Ya pasó con las redes sociales y con otras muchas cosas....

sorrillo

#97 Es una simulación, que presentando resultados basados en algoritmos, entrenamientos, estadísticas y mucha, pero que mucha información inteligente aportada por humanos durante años

Y el humano es una simulación, que presentando resultados basados en reacciones electroquímicas, entrenamientos, patrones y mucha, pero que mucha información inteligente aportada por humanos durante años.

Pretendemos marcar las diferencias desde dos frentes, por un lado minimizamos los hitos de la IA apelando a los elementos básicos de su arquitectura y luego ponemos al humano en un pedestal sin referirnos a los elementos básicos de su arquitectura.

rojo_separatista

#97, precisamente el minimizar las potencialidades de estos modelos como si no fueran a cambiar nada me parece que es de una temeridad enorme frente al impacto que tendrán en el mercado laboral. Yo mismamente estoy a la par que que alucinado, preocupado por lo que puede pasar. Y comentarios del tipo "solo repite como un loro", "jamás sustituirá un programador", no ayudan en nada.

1 2 3 4