Hace 1 año | Por --682766-- a threadreaderapp.com
Publicado hace 1 año por --682766-- a threadreaderapp.com

y algo que recordaré por tiempo... Habrá salido GPT-4 Desde que aprendimos el patrón GPT-2 -> GPT-3 -> ... la versión 4 de la familia GPT ha sido el modelo más anticipado de la historia del Deep Learning, y ahora mismo el hype está bastante alto. Se dicen cosas como estas Si algo ha despertado mi curiosidad por GPT-4 es leer este párrafo del blog de Gary Marcus, quien por normal general (y en este artículo no es la excepción) se sitúa en las antípodas de estos Enormes Modelos del Lenguaje. ¿Hay gente probándolo ya?

Comentarios

#5 Ya estamos con el amor

orangutan

#5 le podemos pedir a GPT-5 que nos haga una poesía con su nombre

c

#54 Invalida la idea de que "razone" al nivel de un humano

rojo_separatista

#86, y para qué quieres que razone a nivel humano, si como observador no puedes notar la diferencia?

c

#96 Claro que puedes. Te acaban de poner un ejemplo

rojo_separatista

#97, es que no hablo del estado actual de la tecnología, sino de lo que será capaz de hacer en muy poco tiempo. Cuando conteste bien la pregunta: "¿Qué es para mí la suegra de mi marido?"

Que lo hará. Seguiréis diciendo que da igual, que en el fondo no razona como un humano.

c

#98 Que conteste esa bien es fácil. Pero fallará otra que un humano resuelve casi sin pensar.

Sin entrar en el pensamiento creativo ...

D

#86 Razona bastante mejor que la mayoría de los humanos.

skatronic

#54 Pero es que que ChatGPT no entiende (mejor dicho, no es capaz de razonar) lo que le escriben no es una opinión, es un hecho.

Lo que no quita que sea un avance increíble, pero no es lo que algunos pretenden, no se acerca siquiera a la Inteligencia Artificial Fuerte.

D

De qué va esto?

skatronic

#32 Haz una prueba, pregúntale a ChatGPT "¿Qué es para mí la suegra de mi marido?" y se te baja el hype. Que no dudo que tenga millones de usos brutales, pero le falta la clave, comprender.

daTO

#50 están a años luz de pensar como un humano, pero hay muchos humanos que no piensan mucho..

t

#48 Dale tiempo.

Khadgar

#52 ¿Cómo al coche volador y al año de Linux en el escritorio?

t

#95 Tú mismo, no tengo por qué convencerte.
Si piensas que la IA no va a avanzar más de como está hoy y que es como "el coche volador", pues adelante. Es tu problema.

Fun_pub

#48 Muy bueno.

Tras unas cuantas vueltas he conseguido que se ponga en la situación en la que le estoy diciendo que está equivocado. Al final se ha liado y me ha dicho:

Lo siento por la confusión. La suegra de tu marido es la madre de tu marido, y mi respuesta original se basó en esa información. Si la suegra de tu marido es tu madre, entonces la relación que tienes con ella es la relación que tienes con tu madre. Si necesitas ayuda o tienes alguna pregunta sobre cómo manejar o mejorar tu relación con tu madre, estaré encantado de ayudarte. Por favor proporciona más información sobre tu pregunta o dilema y haré todo lo posible para ayudarte.

D

#56 También cabe la posibilidad de que te apellides Borbón y estaría en lo cierto.

N

#48 No seré yo quien te meta el miedo en el cuerpo, pero te aviso de que midjourney, stable difussion y dall-e se están cargando trabajos de forma efectiva, pero si tu te consuelas así... pues oye, por mi perfecto

Segador

#69 Eso dijeron los reprtidores de hielo con los frigoríficos.

Segador

#89 Ahí llevas la razón.

Fer_3439

#89 A mi no me sorprende. Los medios generalistas tienen su propia agenda y sólo les interesa comunicar las noticias que se ajustan a sus intereses, no a los intereses de los demás...

D

#89 Nunca se habla de nuevas tecnologías en el momento en que se introducen, salvo que comercialmente sea necesario para obtener beneficios económicos.

Al rebaño cuanta menos información se le dé, mejor. Que luego vienen las protestas y las movidas.

Zade

#48 A mi el hype se me pasó cuando le pregunté una cosa que no sabía y la respuesta se la inventó por completo y diciéndotelo de manera convincente. Le dices que no es cierto lo que dice y se inventa otra. Es el chat cuñado, como para fiarse de nada

o

#32 Ya hay debates otra cosa es que no lleguen a donde deberían llegar mientras nos distraen con el enfrentismo y la polarización, pero busca y encontrarás como se discute si las empresas deberían pagar por robots(ya sean físicos o virtuales) y el futuro de la sociedad debe ser algo parecido a the expanse donde sólo unos pocos van a trabajar y el resto vive de una renta básica

D

#32 ¿Y el deja vu de los coches autónomos y de la RA y la RV?

Yo trabajaba en el sector RV en pleno hype y podría copiar y pegar las mismas conversaciones que tuve entonces.

De hecho, si entrenara un modelo con las conversaciones que tuve entonces podría responder a muchos comentarios en meneame automáticamente. Entonces la prudencia y ceñirse a la tecnología era la opción argumentativa correcta y lo sigue siendo.

unodemadrid

#32 Si esta habiendo debates a nivel Europeo, otra cosa es que nosotros no nos enteremos.

senador

#32 Es acojonantemente disruptivo lo que se nos viene encima. Y el vídeo incluido es sumamente didáctico y esclarecedor. Las ramas científicas de los gobiernos deberían entrar a fondo (sí todavía no lo han hecho) en este fenómeno, tan trascendental a corto plazo.

D

#32 Prácticamente nunca hubo debate antes de la introducción irreversible de una tecnología, y esta no va a ser diferente. Los riesgos son brutales, especialmente por esa irreversibilidad.

JungSpinoza

#1 En 2022 se han producido avances muy importantes dentro de una rama de la inteligencia artificial llamanda "Generative AI" que sirven para mejorar la forma en que la IA genera contenido (por ejemplo, fotos, texto, conversaciones, Etc). Una de los modelos, llamado ChatGPT, llamo mucho la atencion porque pude generar conversaciones, textos, codigo de forma interactiva. ChatGPT es en realidad GPT 3.5. En 2023 se lanzara GPT-4 que sera mucho mejor que los anteriores.

Aqui tienes los siete avances mas importantes respecto a la IA de 2022
“Por favor, disminuya la velocidad”: las 7 historias más importantes de IA de 2022 [EN]

Hace 1 año | Por JungSpinoza a arstechnica.com

Jesuo

#45 Tendrán que crear un estándar de programación o intención, regulado por ley para crear estas IAs, para asegurarse de que no hay mala intención en la creación de una herramienta que hace de los humanos, herramientas de esta al ser usada, cuestión de respuestas correctas o incorrectas, hasta que no funciones de manera complementaria a la IA, entonces la IA no hará lo que tu quieres que hagas ¿no tendría que ser al revés lo de quien complementa a quien?

D

#84 No hay manera de hacer eso que dices. Estas IAs no son controlables.

N

#1 Sin acritud, pero tu pregunta inocente representa al 95% de la población, y eso a mi me da MUCHO miedo

D

#68 da más miedo tu respuesta

N

#85 Pués si te da miedo mi respuesta es porque posiblemente no la has entendido

D

#87 o porqué estoy curado de fantasmas

N

#92 Vaya por dios.... ¿podrías explicarme porque las ias te parecen un fantasma?

Jesuo

#1 ¿preguntas por la imagen de tu avatar? lol

JanSmite

Pues me tendrán que perdonar los visionarios de las IAs, pero como sea como ChatGPT, la verdad es que no me impresiona mucho:



Y yo he tenido "conversaciones" con ChatGPT en los que los errores, como muestra ese tuit, eran garrafales, pero, vamos, de bulto.

D

#21 Bueno, es normal. La cantidad de datos con la que hay que alimentar el modelo es una burrada.

Si quieres que responda cualquier cosa tienes que añadirle, literalmente, todas las cosas que se han dicho y escrito nunca.

Además, la cantidad de datos es tan enorme que no se pueden verificar, por lo que siempre se introducirá algo de información falsa.

Lo lógico es que en siguientes versiones puedan responder este tipo de preguntas mejor; si como dice en la noticia el grupo de datos introducidos es al menos cinco veces más, encontraremos una gran mejora.

rojo_separatista

#21, #24, precisamente chatgpt es muy mala dando datos exactos porque no se limita a repetir de forma literal las cosas con las que se ha entrenado. Ir a una base de datos a buscar la altura exacta del Everest es algo que ya se podía hacer con la tecnología de los años 60 del siglo pasado.

Gpt-3 es mucho más que eso y puede que al ojo experto no le impresione, porque ve que se equivoca allí donde el asistente de google hace años que no falla. Lo disruptivo de chatgpt es que te puede contar un cuento de Navidad con referencias al pensamiento de Kant o inventarse el título y el argumento de la próxima novela dentro del universo de Harry Potter. Y eso, sin que nadie lo haya hecho antes.

Los errores e inexactitudes se arreglarán reentrenando el modelo, lo relevante es que demuestra que es capaz de construir de manera interna representaciones abstractas de conceptos y aplicarlos a situaciones que no ha visto antes sin que sea necesario que sea consciente o que su forma de funcionar se parezca a la nuestra.

ChukNorris

#34 Lo disruptivo de chatgpt es que te puede contar un cuento de Navidad con referencias al pensamiento de Kant

Siempre que no te importe que se pueda inventar las referencias al pensamiento de Kant ...

rojo_separatista

#62, a estas alturas no me importa demasiado, porque eso se arreglará en la próxima iteración.

Hacer una búsqueda exacta de la fecha exacta en la que nació Kant es algo que hace perfectamente el asistente de Google y que se puede hacer con tecnología de los años 60 del siglo pasado.

Lo relevante de chatgpt y los últimos LLM es que han demostrado la capacidad de construir internamente abstracciones de los conceptos con los que se han entrenado y saber cuando aplicarlas. Aún con bastantes fallos eso es disruptivo y valida la línea de investigación en deep learning que se ha seguido durante los últimos años.

Está bien poner el foco allí donde falla para seguir mejorando los modelos, pero nos equivocaríamos si no viéramos cómo han evolucionado estos modelos en pocos años y el potencial que tienen solo porque no son 100% precisos. Algo que en mi opinión lo que hace es demostrar que no se limitan a repetir como loros, tal y como algunos afirman.

ChukNorris

#63 a estas alturas no me importa demasiado, porque eso se arreglará en la próxima iteración.

No, por lo que he entendido las alucinaciones es un problema sistémico, no saben como corregirlo.
https://www.elconfidencial.com/tecnologia/2022-12-11/chatgpt-openai-gary-marcus-ia-ai-inteligencia-artificial_3537495/

rojo_separatista

#75, el primer consejo número uno que te doy es que no hagas demasiado caso de Gary Marcus. Lleva 10 años despotricando contra cualquier avance que tenga que ver con el deep learning y el tiempo no para de dejarlo en evidencia.

Cuando salió gpt-2 publicó un artículo explicando el porqué estos modelos de lenguaje no eran capaces de razonar y jamás lo serían y para ello ponía una serie de ejemplos para demostrar su tesis:

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Hoy gptchat supera con creces todos y cada uno de los retos que le planteó Marcus en aquel entonces. Puedes comprobarlo tu mismo.

Si bien es cierto que el problema de las alucinaciones existe, con gptchat han conseguido reducirlo bastante, parece que el método de aprendizaje por refuerzo que han seguido mejora bastante los resultados sin tener que incrementar el tamaño del dataset de entrenamiento, ni el número de parámetros del modelo:



Con eso lo que te vengo a decir es que no nos creamos al primero que se ponga la vitola de experto en un tema porque hay personajes como Gary Marcus que el tiempo no para de quitarles la razón.

Y si no me crees a mi, mira lo que dice otra de las voces más autorizadas en la materia como es Yann Lecun, reciente ganador del premio príncipe de asturias y al que el tiempo sí le está dando la razón:

ChukNorris

#82 Me miraré los links, que no soy entendido en el tema, pero se ve bastante interesante. Gracias.

JanSmite

#34 Es decir, que ChatGPT es la IA cuñao lol lol lol

JanSmite

#34 No se trata sólo de que dé datos ciertos, que tampoco, es que ni siquiera es capaz de resolver problemas sencillos. Por ejemplo, el que corre por ahí de "Perro+rata, gato+rata…", etc. Es un problema sencillo, pero que MUY sencillo, se puede resolver en un solo paso: necesitó cuatro o cinco intentos, y eso a base de decirle por dónde se iba equivocando.

Como se ha visto en un artículo aquí, el del discurso del rey, usa palabras que no existen. Así que, como ya ha dicho alguien, sí, es posible que haga un cuento basado en el universo de Harry Potter haciendo referencias al pensamiento de Kant, siempre que no te importe que ese pensamiento de Kant sea inventado y que ese Universo sea el de Harry Popotter lol lol lol

Pacomeco

#21 Mientras se lo enseñaba a mis alumnos le pedimos que calculase la concentración en % en masa de una mezcla de etanol y agua, dándole las cantidades y la densidad del alcohol. Lo hizo mal, tomó como masa de la disolución solo la masa del disolvente, el agua. Falla en cosas bastante básicas.

KevinCarter

¿Qué es lo que me pierdo de poner los tweets en una app que te endiña publicidad por un tubo mientras que en Twitter hay menos? ¿Os lleváis comisión de afiliados o algo así?

D

#4 Hasta hace poco Twitter bloqueaba la lectura de hilos largos a usuarios no registrados, y la web que ha enviado #0 era la única forma de que todos pudiesen leer el envío.

Ahora que solo hay que cerrar el aviso tienes razón, pero la fuerza de la costumbre hace que mucha gente siga usando thereaderapp.

KevinCarter

#6 Gracias, imaginaba que debía tener alguna explicación porque en un repositorio de analfabetos y piratillas, que ni siquiera saben que los adblockers se convirtieron en simples chantajistas de listas blancas, no es común llevar el tráfico a algo que tiene Adsense de por medio.

Jakeukalane

#4 ¿qué publicidad?

#4 ¿App? ¿Publicidad? ¿Pero tu dónde has entrado?

N

#4 No se donde te has metido, pero chatgpt no tiene nada de publicidad

M

#4 uBlock es tu amigo

Maximilian

GPT no era el padre de Pinocho?

pawer13

#43 las UI tuvieron su desilusión cuando nos dimos cuenta de que desde una shell sigues pudiendo hacer ciertas tareas de manera más rápida y precisa.

Internet y los smartphones: ¿alguien se acuerda del concepto "nativos digitales"? Las nuevas generaciones siguen siendo "usuarios básicos" , siguen sin entender gran cosa temas de seguridad y privacidad y no son capaces de montar su propio PC.

De los procesadores: cuando se especulaba sobre las generaciones futuras de éstos en los 80,se pensaba que la RV y la IA se lograría gracias a avances en hardware que se incoroorarian en los 90 y primera década de los 2000, intel esperaba llegar a los 10nm y 10 Ghz sobre el año 2005.

manosflojeras

Pues si le llega un email de su exnovia de los 15 años se le helará el esperma y acto seguido sufrirá un ictus.

Notable mierda de vida hay que tener para que se te hiele la sangre con soberana intrascendencia. O notable es el sensacionalismo que destila para darse importancia en un tuit tan pretencioso. Los influchachos ya no sorprenden.

Qué triste es sentirse un gran humano a costa de deificar el desarrollo de las máquinas y sus automatismos.

Habiendo trabajado yo en estas mierdas, nada me alegra más que alejarme de esas virtualidades ajenas a la existencia. Si quiero que se me hiele la sangre escalo a 4000 metros o salgo a cortar leña (que así se te deshiela por duplicado).

Nada me emociona menos que entrenar un modelo DL para que haga algo que yo antes disfrutaba haciendo con mi cerebro y mi tiempo.

Deep Learning es la fuerza bruta de las ciencias de la computación. La sangre solo se hiela con la belleza (o con el dolor).

h

Preguntale a chatgpt como cayo en viernes santo de 1964. Es una pregunta facil. Preguntale como se calcula la pascua. Se lo sabe y te lo dice. Pero cuando se le dice que ha cometido un error ( le sale que el domingo de pascua de ese año es antes que el viernes santo) te pide mil disculpas, que lo siente, pero no cambia la forma de calculo ni lo arregla. Es como un terminator, va a lo suyo. Para ser IA deberia ser capaz de reconsiderar sus respuestas, mas aun si reconoce que hay un error.

Billones de variables y no es capaz de bajarse del burro

Marinmenyo

Madre mía el humo

rojo_separatista

#71, ok, según tu no habrá jamás una prueba del algodón. Ni que lleguemos a tener una IA conversacional del estilo de la que aparecía en la película Her podremos dejar de decir que se limita a repetir.

Tu opinión me parece respetable, pero creo que es más un debate metafísico que otra cosa y como tal me interesa relativamente poco.

Yo prefiero centrarme en la tecnología actual y su capacidad real de transfomar el mundo, y para ello es fundamental tener una forma de medir su desempeño pata poder seguir mejorándola. De momento, el crecimiento en capacidades de estos modelos es espectacular y sigo opinando que muchos trabajos intelectuales van a ser automatizados en gran parte en un período de tiempo relativamente corto.

rojo_separatista

#44, no he dicho que ahora haya pruebas objetivas de que ya se pueden eliminar el 99% de trabajos intelectuales, sino que el 99% de trabajos intelectuales no se dedican a crear nuevo conocimiento sino a aplicarlo.

Lo que digo es que hay pruebas empíricas de que estos modelos entienden los conceptos y no se limitan a memorizar y repetir. Insisto en el ejemplo del tutú, porque demuestra que lo que ha hecho es comprender que un tutú es una pieza de ropa que va de cintura para abajo y lo aplica a un contexto que no ha visto jamás. Igual que hacemos las personas cuando nos explican nuevos conceptos.

D

#57 Precisamente por eso se dedican a memorizar y repetir. Porque el modelo ha sido entrenado con cientos de miles de fotos donde alguien ha etiquetado manualmente un tutú en una posición en específico y el sistema lo sabe y lo aplica.

Los modelos no hacen nada para lo que no han sido entrenados.

Una IA no generará libros con referencias a Kant si no se le ha entrenado con miles de libros con referencias y miles de textos de Kant y, por lo tanto, sabe qué hacer cuando se lo piden.

rojo_separatista

#64, le puedes preguntar a ChatGPT cómo emanuel Kant entendería el fútbol moderno, algo que no ha visto ni leído jamás y te dará una respuesta más bien hilada que el 99.9% de seres humanos. No está repitiendo nada con lo que se ha entrenado. Sino que sabe relacionando los conceptos a partir de las representaciones internas que ha construido.

Pero vamos, me gustaría saber según tú, cual es la prueba del algodón que te permitiría diferenciar sin lugar a dudas que está entendiendo como los humanos en lugar de repetir lo que ha visto antes?

D

#67 Te pondrá las definiciones de "fútbol moderno" que encontró con el concepto de "estilo" con las que fuera etiquetado más la información sobre los textos de Kant.


No existe prueba del algodón. Es que no es posible que haga nada más que repetir. La tecnología se basa en ello y los resultados son espectaculares si entiendes cómo se hace y lo que hace pero siempre estará repitiendo.

Si entrenas un modelo con miles de variantes sobre un tema las podrá unir para darte una sensación de inventiva, pero lo que está haciendo es comportarse acorde la información proporcionada en su entrenamiento.

N

#64 Me parecería casi entrañable que alguien como tú hablara con el desdén con el que hablas de una tecnología claramente disruptiva mientras expertos en la materia se ven sobrepasados por el ritmo del avance de las ias si no me diera tanto miedo, y es que si hay algo peor que un cambio radical en la sociedad, es un cambio radical en una sociedad que no se lo espera

Hemos cruzado el umbral de la tercera revolución industrial, yo giraría la cabeza hacia adelante porque vienen curvas

Jakeukalane

@zorrindongo, al parecer será ya en 2023 GPT-4...

D

#76 No, no lo sé. ¿Tienes más información,?

N

#77 Debido a que no puedo dar detalles específicos, solo te diré que en mi empresa ya han sido despedidas dos personas, porque su trabajo era de facto 100 % sustituible por lo que se puede lograr a dia de hoy en minutos con una ia, y la empresa donde trabajo no es siquiera una de las más grandes del sector y además me consta (por colegas que tengo dentro) que esto mismo se está repitiendo en sitios como ea, gameloft y similares

D

#58 Ay compañero. Me estás recordando TANTO a los que decían que en un par de años todos los coches se conducirían solos...

Es ciertamente tierno.

D

#66 Y voladores, no te olvides de ellos.

Todavía estás en fase de negación, te quedan unas cuantas más, ¡ánimo!

thalonius

#60 Explica los rumores que ha estado leyendo sobre lo que se viene.
Es una cadena de tweets, tampoco es un artículo sobre el asunto, sino una puesta al día a sus seguidores de distintas fuentes donde se apunta a algo disruptivo.

Otra cosa es si ese análisis, que es de rumores sobre futuribles, merece una portada de Menéame, pero eso ya es cuestión de la comunidad, el autor no tiene ninguna responsabilidad en eso.

parapo

Los sangrehelada no son de fiar.

Ehorus

...lo que viene??? ... cagon diez, lo que viene es skynet...
me he cagado de miedo, y no es broma

thalonius

#12 y yo pensando "bueno, pues desenchufas la máquina", pero la máquina ya, con previsión, se habrá instalado en otras, y llegará un día a mi teléfono, donde yo nunca tuve instalado nada relacionado con IA, pero la máquina habrá aprendido a romper el código, y empezará a hablarme con la voz de mi madre simulando una llamada, o llamara con mi voz a mi mujer y le contará algo de nuestros hijos. 😲

Joer, no sé lo que pasará, pero se lo están poniendo difícil a los escritores de cyber-apocalipsis, porque la realidad les está adelantando.

PD: lo de la voz viene porque hoy estuve instalando otro Chromecast y me hizo la típica prueba de reconocimiento leyendo varias frases. Eso sumado a toda nuestra voz que tiene recopilada de órdenes al mandito blanco...

Peazo_galgo

#12 mae mía, ya no saben que inventar los del contubernio judeomasónico para implantar la dichosa Agenda 2030 cuanto antes... primero sacaron lo del COVID, luego la crisis de los microchís por las "cristos", después la guerra Ucrorusa con la crisis energética asociada y ahora nos lanzan la Skynet esta... jummm, abraze bisto... pvta bida tt

D

#12 ¿Qué droga fumas? Esta debe ser la nueva fantochada en la que andas metido después del desastre ese del blockchain que no sirve para nada ahora has escogido la nueva ola de magufadas, es que no falla.

N

#47 Otro que no se ha enterado de lo que está pasando con las ias ¿que tiene que ver el blockchain con esto?

D

#12 No hace falta que tenga consciencia. No es necesario tener consciencia para derrotarnos.

D

#26 Lo comentaba porque ya se estaba hablando de lanzar misiles y de skynet.

De momento todos los intentos de hacer herramientas disruptivas han fracasado. Es normal, porque generalmente si quieres un sistema que funcione en el mundo laboral debe dar una calidad mínima elevada y esto seguramente solo se consiga si es un sistema dirigido. Para que sea así, alguien tiene que ir diciendo dato a dato si es correcto o no, lo que es inviable si lo que quieres es tener un sistemá mágico que haga cosas mágicas.


Y esto lo escribo mientras preparo la planificación de un proyecto para desarrollar modelos entrenados especialmente diseñados para un ecosistema industrial en específico. La tecnología ayudará, está para ello. Vamos, lo creo porque también es parte de mi trabajo y ocupa parte de mis responsabilidades laborales. Lo que no va a hacer es cambiar el mundo, ni va a automatizar millones de puestos de trabajo, ni nada por el estilo.

N

#28 Em... ¿sabes que md,sd y dall-e están acabando con algunos trabajos a dia de hoy verdad?

daTO

#26 muchas de personas que conozco no son inteligentes,

N

#19 La reflexión no es más que el descarte de opciones en base a una experiencia y razonamiento (que no siempre es correcto), que es la base del pensamiento humano: el descarte de opciones seleccionadas, que muchos llaman pensar. El problema es que una máquina no necesita reflexionar de la misma manera. No necesita descartar por intuición, puede analizar un conjunto de datos mucho más grande que nosotros de forma mucho más rápida. Y entrenarse en ello también de forma mucho más rápida.

Por eso que comentas se decía hace unos años que nunca habría una máquina que jugase al go de forma profesional. Demasiadas opciones de movimiento y nula intuición y visión general de juego. Pero ahí están a día de hoy... Han compensado sus carencias con sus fortalezas.

Además tienen otra ventaja: no hacen faltas IA´s generalistas como estos botchats, sino especializadas en resolver problemas concretos.

D

#30 No es arrogancia, es bajar un poco los humos de la ciencia ficción y explicar bien lo que de verdad se está hablando.

Le hacéis un flaco favor a la tecnología lanzando esos órdagos y jugando con todas esas fantasías, porque mucha gente se las cree y cuando llegan los resultados reales y no están a la altura se pierde la confianza en la tecnología.

Si quieres un ejemplo, fíjate en lo que han hecho con las tecnologías de realidad aumentada. Cómo las gigantescas expectativas han retrasado su implementación y cortado los fondos.

Claro que esa IA ha sido entrenada con fotos de Pikachu. Y con fotos de tutús. Por eso saben qué es un Pikachu y por eso saben qué es un tutú y por eso hacen Pikachus con tutús. Y si le dices que un tutú es un avión de colores pues tendrás a Pichachu montado en un avión de colores cuando esperas que esté vestido con un tutú. Y si le dices que Pikachu es Boris Yeltsin en pelotas tendrás a Boris en pelotas sobre un avión de colores. Porque no es capaz de inventar.

Y no, no van a sustituir el 99,9% de las tareas intelectuales. Igual que no estás viajando en un coche completamente autónomo. Son exageraciones de personas que no han implementado un sistema de inteligencia artificial en un entorno laboral en su vida.

rojo_separatista

#33, no pretendo hacer un favor a la tecnología sino de rebatir la línea de pensamiento que dice, falsamente que el deep learning solo consigue repetir lo que ha visto, porque es algo empíricamente falso.

Yo soy el primer sorprendido, no de lo que está pasando sino de la velocidad con la que está pasando y vengo de años en la academia y luego en la industria dedicándome a ello. 2022 ha sido una completa locura.

No se cuando ocurrirá ni en qué porcentaje, pero deberíamos estar debatiendo cómo vamos a integrar a nuestra sociedad la disrupción que supondrá las IAs avanzadas que van a llegar y que nada tienen que ver con las IAs conscientes de la ciencia ficción ni falta que les hacen.

D

#36 Estás en la curva alta del hype, luego llega la colina de la desilusión y por último, la aceptación e implementación real de la tecnología



https://en.wikipedia.org/wiki/Gartner_hype_cycle


Llevo demasiados años y usando y trabajando con demasiada tecnología viendo una y otra vez el mismo proceso. No se ha visto aún un "hype" que se implemente en el día a día del mundo real sin pasar por la curva de la desilusión.

Quizás la del chip, pero yo no la viví.


No se cuando ocurrirá ni en qué porcentaje, pero deberíamos estar debatiendo cómo vamos a integrar a nuestra sociedad la disrupción que supondrá las IAs avanzadas que van a llegar y que nada tienen que ver con las IAs conscientes de la ciencia ficción ni falta que les hacen.


Esto lo viví de primera mano con la realidad virtual. Una tecnología que quita el hipo y que por narices lo va a cambiar todo... y no cambió nada. Entre una tecnología impresionante y su uso en el mundo real hay un universo.

rojo_separatista

#40, ninguno? Así a bote pronto me vienen a la cabeza los sistemas operativos basados en interfaz gráfica, Internet o los smartphones.

Creo que en 2022 ya hay pruebas objetivas de que el deep learning no es poner a monos delante de un teclado como dice Garry Marcus.

D

#43 ... y sin embargo no hay ni una sola prueba objetiva de que puedan "realizar el 99,99% de las tareas intelectuales que realiza el ser humano".

De hecho, si no me equivoco, lo único que pueden hacer bien es jugar a algunos juegos de mesa. Y no tiene nada que ver con la mejora en la creación de los modelos de texto e imágenes de estos últimos años.

nilien

#30 Qué concepto de tarea intelectual tendrás si piensas que la IA (que está muy lejos de merecer ese nombre, por mera definición) va a poder sustituir ese porcentaje de ellas...

(no, ni de lejos, si ni siquiera puede con tareas tan intelectuales como conducir un coche de manera autónoma en una situación de tráfico real)

rojo_separatista

#49, el problema es que no entendéis que lo que es fácil para los humanos puede que sea muy difícil para las IAs y viceversa.

Dudo que ni tú, ni el 99% de personas, sean capaces de pintar un óleo mejor que Midjourney o explicar el pensamiento de Platón con un símil futbolístico mejor que gptchat. Y eso que ahora estamos en la prehistoria de estos modelos.

nilien

#55 Acabas de cambiar de 99%, imagino que lo sabes. No es lo mismo sustituir el 99% de las tareas intelectuales que se hacen, que el 99% de las que no se hacen pero podrían hacerse. Has cambiado de cosas tangibles a cosas potenciales, y no tiene nada que ver una cosa con la otra. De hecho, ni siquiera me has respondido como tal. Asumes que yo creo y pienso cosas que no he dicho, huyes hacia delante, y empiezo a intuir por qué crees lo que crees sobre el futuro de las IA. Me han venido a la cabeza los estudiantes que se creen que redactar es juntar frases relacionadas de cualquier manera, y que se sorprenden cuando eso no funciona.

Por otro lado, ninguna IA pinta óleos, y esas confusiones interesadas son parte del problema del hype actual, igual que juntar frases no es lo mismo que redactar. Y respecto a explicar Platón con un símil futbolístico... Llevamos explicando a Platón milenios ya, no sé cómo un símil más es que algo que pueda considerarse un logro de ningún tipo. Quien quiera entender a Platón que lo lea, y sacará más de la experiencia que lo que una IA le diga al respecto.

Penrose

#19 Que sean inteligentes o no, no es el asunto. Sin entrar en la definición de inteligencia.

El asunto es que harán cosas de forma autónoma, y muchísimo mejor que nosotros.

D

#19 Este comentario quedará desfasado en 3...2...1.... jajaja, pobre.

D

#19 De acuerdo con lo que dices, y añadiría que el mayor problema de estas IAs conversacionales es que ni ellas ni quien las lee (excepto un experto) son capaces de distinguir si su respuesta es verdadera o falsa.
Dicho de otra manera (sobre ChatGPT): "el principal problema que tienen (de momento) es la imposibilidad de obtener una explicación, demostración o trazabilidad de cómo se ha llegado a ese resultado.
O sea, el resultado no sirve de nada si no hay detrás algo que respalde su validez.
Sin eso, no sabemos si lo que nos dice la IA es correcto o incorrecto, como se puede ver aquí: twitter.com/laughinghan/status/1598504175393906688"

N

#10 Que Don Asimov nos coja confesados.

No se si lo de "un shock como el Covid" lo dice positivamente o negativamente

D

#11 básicamente todos los trabajos no físicos los realizará el gpt ese y todos a un ERTE como en covid. Bueno... más bien ERE...

Sikorsky

¿Y qué es lo que va a hacer que un fulano cualquiera “deje todo” cuando salga GPT-4?

thalonius

#13 bueno, ese "fulano cualquiera" es un divulgador de temas informáticos que últimamente ha estado muy activo analizando y divulgando todo lo relacionado con la inteligencia artificial.

No significa que cualquier persona anónima la vaya a dejar todo y vaya a sentir ese escalofrío, sino que él, sí.

ChukNorris

#16 Pues no ha explicado nada ...

C

Esté sería un toque de atención fuerte para aquellos profesionales que se han dormido en los laureles y no salen de su zona de confort ya con olor rancio. Ahora hay que trabajar muchísimo más y con mucha más inteligencia, disciplina y creatividad para no ser alcanzados por lo que hace una inteligencia artificial.

Es simple: si una IA te ha alcanzado es que eres un puto parásito perezoso de mierda, espabila, mueve el culo, ponte realmente a estudiar y a producir mejor.

C

#37 Si una IA alcanza al mas inútil y perezoso de los programadores, tardará dos telediarios más en alcanzar al mejor.

sieteymedio

El cambio climático va se va a quedar en nada comparado con el advenimiento de la IA

B

Un día algo hará contacto donde no debe y ya verás la que se va a montar...

d

Es absolutamente bestial el hecho de entrenar estos modelos de manera automática y que de ellos emerjan funcionalidades como las de un traductor o un clarificador de contenidos entre otros. Quizá hemos encontrado la fórmula para implementar inteligencia en un sistema inorgánico o solo para imitarla sin entender exactamente qué es esta

1 2