Hace 5 meses | Por mandelbr0t a reuters.com
Publicado hace 5 meses por mandelbr0t a reuters.com

La ocultación de un descubrimiento clave en OpenAI, liderado por el proyecto Q*, parece ser, según Reuters, el motivo que provocó el despido de Sam Altman en OpenAI. Este descubrimiento marca un avance significativo hacia la Inteligencia General Artificial (AGI). Q*, aunque solo resuelve problemas matemáticos a nivel de primaria, muestra una capacidad de razonamiento prometedora, un paso crucial más allá de las habilidades lingüísticas y de traducción de la IA actual.

Comentarios

sauron34_1

#16 en el caso de chatGPT por ejemplo se tardó dos años de prueba y error hasta conseguir algo medianamente aceptable y tras el furor inicial la cosa se ha desinflado bastante. Que no digo que no tenga mérito, eh? Pero de ahí a estar a un paso de IA autoconscientes como muchos aseguran…

troll_hdlgp

#34 Eso parece el chiste de "¿Cuantos funcionarios hacen falta para cambiar una bombilla?"

Pues aquí lo mismo ¿Cuántas neuronas hacen falta para que una inteligencia sea autoconsciente? Tomando como ejemplo el mundo animal y que solo 3 de ellos (aparte de los humanos) han pasado la prueba del espejo yo diría que hacen falta... un huevo de neuronas.

troll_hdlgp

#43 Es que seria mas preciso decir, cuantas neuronas dedicadas a problemas generales. Esos bichos tienen mas neuronas simplemente porque tienen un cuerpo mayor, con lo que se necesitan mas neuronas para gestionar ese cuerpo, pero las neuronas dedicadas a problemas generales son pocas porque en su ambiente no necesitan mas. A los bichos pequeños les pasa parecido, parecen la ostia de inteligentes porque aunque tengan menos neuronas, tienen muchas mas en proporción para problemas generales.

sauron34_1

#49 exacto, perfectamente resumido

G

#43 Con los pulpos se está exagerando un poco.

EdmundoDantes

#34 Se ha desinflado como se desinflan todas las innovaciones tecnológicas. La gente siempre piensa que es más de lo que es, hasta que de pronto nos damos cuenta y han cambiado los procesos de manera que ni imaginábamos. No sé si serán autoconscientes, no tengo muy claro qué significa ser autoconsciente de hecho, pero son una revolución importantísima y en 10 años pensaremos eso de "antes, ¿cómo hacíamos esto?"

sauron34_1

#41 son una revolución impresionante, eso no lo pongo en duda, pero como va a ser autoconsciente un árbol de posibilidades basado en reglas que se autoreplican? Es un simple algoritmo, no nos vengamos arriba. No me quiero ni imaginar la que se va a liar cuando salga el primer humanoide que imite más o menos bien cuatro cosas de los humanos.

EdmundoDantes

#46 Si es que ese debate me parece muy filosófico ¿qué es la consciencia? ¿son los animales autoconscientes? ¿cómo lo sabemos? Y, de manera análoga a tu pregunta, ¿cómo va a ser autoconsciente una planta química que funciona en base a transmisiones de productos químicos e impulsos eléctricos?

Herumel

#53 De hecho hasta cierto punto #46 Casi, definió la consciencia en la definición de IA.

sauron34_1

#53 no se sabe lo que es la consciencia, pero si se sabe que el cerebro no es una maquina de Turing (un automata). Las IA sí lo son.

t

#46 Cómo va a ser autoconsciente una amalgama de células que se conectan entre sí y que reenvían pequeñas corrientes eléctricas?

N

#54 Desde el completo desconocimiento, ¿cómo lo usas en tu vida privada? ¿Qué es lo que te aporta que no pueda hacer Google? Todo esto de chatGPT e IAs en general lo veo desde la barrera porque no tengo ni idea de cómo funciona ni cómo sacarle partido a nivel básico.

sauron34_1

#54 en mi trabajo (soy informático) también ha supuesto un cambio bastante importante, pero se ha desinflado a nivel del publico general (esto lo ha dicho la propia openIA) y no ha tenido el impacto que se esperaba (se hablaba de que iba a sustituir Google y, aunque sea tu caso, no ha sido el de la inmensa mayoría).

rojo_separatista

#34, las AGI no son entidades auto-conscientes, si no entendemos esto, mal vamos. No hace falta la conciencia para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva.

sorrillo

#83 Fe de erratas: por lo que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.

rojo_separatista

#83, yo el debate sobre la conciencia trato de eludirlo porque añade más ruido que otra cosa y da alas a los que dicen que la IA es un bluf, además creo que no aporta demasiado, primero, porque no entendemos bien qué mecanismo la produce y segundo porque no tenemos ninguna forma empírica de evaluar que existe más allá de nuestra propia experiencia subjetiva. Hay académicos como Geoffrey Hinton, al cual le tengo una enorme admiración que afirman que es probable que a medida que escalen las redes neuronales, desarrollen una conciencia parecida a la de los seres humanos, pero yo no lo termino de ver, la verdad.

A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar. Convendremos que a pesar de que ll haga muy bien, no ha desarrollado ninguna clase de conciencia. Ahora escalemos el problema a una red mucho más grande, pero pequeña al lado de chatGPT, como una ResNet50 capaz de clasificar imágenes de perros y gatos. Crees que ha desarrollado un grado de conciencia para ello? Yo creo que no hace falta ya que mediante puras operaciones matemáticas es suficiente para poder extraer las caracteristicas que definen a cada imagen. Podemos subir de complejidad del problema todo lo que quieras, porque al cualquier problema podrá ser resuelto con un número suficiente de operaciones matemáticas en las cuales no es necesario implicar la conciencia. Y si no es así, dónde está la frontera y por qué? Por qué es necesaria la autoconciencia para poder escribir correctamente? Yo no lo veo de ninguna manera, aunque resulte contra-intuitivo pensar que cualquier problema intelectual pueda ser reducido a una combinación de operaciones matemáticas sencillas si se escala lo suficiente, pienso que es así.

sorrillo

#94 yo el debate sobre la conciencia trato de eludirlo

Este comentario tuyo al que respondo no es un buen ejemplo de ello lol

A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar.

Ahora piensa en un rotífero1 que tiene entre 6 y 11 neuronas cerebrales2 (foto adjunta al final). Que son capaces de alimentarse, sobrevivir y perpetuarse.

Convendremos que a pesar de que ll haga muy bien, no ha desarrollado ninguna clase de conciencia.

Ahora escalemos el problema a una red mucho más grande, un cerebro humano.

Podemos subir de complejidad del problema todo lo que quieras, porque al cualquier problema podrá ser resuelto con un número suficiente de operaciones matemáticas en las cuales no es necesario implicar la conciencia.

Esa hipótesis también te permitiría concluir que el ser humano podría resolver cualquier problema sin tener consciencia. Pero sería solo eso, una hipótesis. La realidad es que sí afirmamos que el ser humano tiene consciencia, una consciencia que no sabemos cómo surge y por lo tanto no podemos afirmar que no va a surgir, o que no ha surgido ya, en una red neuronal de una IA.

1 https://es.wikipedia.org/wiki/Rotifera
2 https://link.springer.com/chapter/10.1007/978-94-011-4782-8_20

rojo_separatista

#96, hablé de la conciencia respondiendo un comentario de otro usuario, no empezando una discusión sobre el tema.

Y precisamente el ejemplo que tú pones ilustra bastante bien la diferencia entre una red neuronal artificial y una natural. Dado que no estamos dentro del gusano o de la red neuronal artificial no sabemos qué experiencia subjetiva tiene cada una de estas entidades, pero intuyo que ya a este nivel, el gusano tiene una experiencia subjetiva de lo que sería una red artificial tan pequeña. Repito, hablo desde la intuición, porque igual que tú, no hay forma objetiva de medir la conciencia y tampoco sabemos exactamente cómo se origina. Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.

sorrillo

#98 Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.

Eso no lo sabemos, a menos que te refieras a que el Sol resuelve el problema del agua dulce con la evaporación.

rojo_separatista

#100, es un buen ejemplo de cómo se está resolviendo un problema sin consciencia. La única diferencia es que a los modelos de IA les podemos definir qué problemas queremos que resuelvan. Eso es lo que las convierte en una herramienta.

t

#94 El tema es que de la complejidad emerge la consciencia.

Ahí va un cuestinario sobre criaturas que tienen cerebro, unas son conscientes, otras no, dónde poner el límite, no lo sé, pero claramente la complejidad del cerebro hace que emerja de consciencia.

Una medusa es consciente?
Un saltamontes es consciente?
Un pez es consciente?
Un ratón es consciente?
Un perro es consciente?
Un chimpancé es consciente?

t

#83 Relacionando conceptos chatgpt supera a muuuchos humanos ya

sauron34_1

#57 la verdad es que #63 te lo explica súper bien (está siendo un placer leer comentarios tan bien razonados), pero quería añadir algo: a lo que gana una maquina a cualquier ser humano es a hacer cálculos muy rápidos Y YA. Eso es lo único que hacer cualquier ordenador jamás construido y cualquier tarea que le veas hacer se reduce a eso. Como bien explica #63 los seres humanos cada vez hemos ido averiguando nuevas tareas que se pueden hacer sólo a base de cálculos (como conducir un coche) y que han pasado a poder hacer las máquinas, pero eso no significa que la definición de “computable” haya cambiado: los ordenadores siguen siendo igual ahora que hace 60 años. Un cerebro humano no es computable, pero hay tareas mucho más sencillas que tampoco lo son y que, por lo tanto, nunca podrán hacer las maquinas

sauron34_1

#69 pues mira, tienes toda la razón y te voto positivo porque me lo has hecho ver. No he tenido la posibilidad de usar la versión PRO (estamos barajando la posibilidad de pedir a la empresa que lo compre durante un tiempo porque la versión gratuita ha cambiado mi forma de currar por completo), y es verdad que hace nada algo así era impensable y por supuesto que es el software más avanzado e increíble que se haya programado jamás, pero ya. No es ni por asomo autoconsciente y que haya tanta gente que me lo discuta me hace darme cuenta del problema que va a suponer la aparición de robots humanoides. Es un placer leer comentarios tan bien razonados como el tuyo por aquí de vez en cuando

m

#69 Chat GPT no puede ser autoconsciente entre otras cosas porque solo responde a un prompt

Esa es una de las limitaciones que lo impiden, pero hay más.

Por otra parte habría que definir eso de la consciencia.

u

#16 Muy bien explicado.

Y es por eso que, mientras esto siga así, nadie (salvo los ignorantes o mentirosos) puede llamar a la metodología "Inteligencia General Artificial (AGI)".

rojo_separatista

#16, #6, creo que teneis un poco de razón los dos. Seguramente inventaron algo, por ejemplo una nueva arquitectura o una nueva forma de entrenar estas redes y luego descubrieron que era más potente de lo que pensaban.

gauntlet_

#16 Lo que describes me recuerda mucho al concepto darwiniano de evolución.

anv

#79 Lo que describes me recuerda mucho al concepto darwiniano de evolución.

Por supuesto. Es algo similar. Mediante purebas sucesivas se va aproximando al resultado que se busca.

Por eso lo complicado de entrenar una inteligencia artificial son los datos de entrenamiento. Por ejemplo si quieres que una IA entienda lo que se ve en una foto, necesitas millones de fotos con una descripción escrita. Si quieres que entienda lenguaje hablado, necesitas millones de grabaciones con su transcripción a texto. Como entrada le das el sonido. Esos datos, que son simplemente números, pasan por una serie de cálculos matemáticos. Al final esos cálculos dan otros números que traducimos a letras. Si las letras no son las que corresponden a la palabra hablada del sonido, se hace el cálculo a la inversa reajustando los valores hasta llegar al inicio y se repite. Eso se hace para miles de ejemplos.

m

#16 el cerebro humano, que es maravilloso, tiene límites, pero la IA no, ese es el "problema"

cdya

#16 ¿Por qué Q* de OpenAI supone un riesgo para la humanidad?
Que una inteligencia artificial pueda resolver problemas matemáticos puede no sonar demasiado impactante, pero en realidad es un avance importantísimo, ya que los expertos de este sector consideran las matemáticas como la frontera en el desarrollo de la IA generativa.

¿Por qué? Actualmente, la IA generativa es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, sin embargo, la manera de responder a la misma pregunta puede variar ampliamente. Esto no sucede con las matemáticas, donde solo hay una respuesta correcta.

Por lo tanto, la supuesta inteligencia artificial que han alcanzado en OpenAI tiene mayores capacidades de razonamiento que lo que habíamos conocido hasta ahora en este terreno, asemejándose a la inteligencia humana.

De esta forma, esta AGI es mucho más que una calculadora: a diferencia de esta máquina, que puede resolver un número limitado de operaciones, la tecnología de la que aquí hablamos puede generalizar, aprender y comprender. Como un humano.

Es aquí donde entran los miedos de los más conservadores, ya que uno de los riesgos que más se ha debatido sobre el desarrollo de una AGI es que se convierta en una máquina ‘demasiado’ inteligente, es decir, que pueda ‘pensar’ de forma autónoma. Eso deja la puerta abierta a que esta IA pueda decidir que la destrucción de la humanidad es de su interés.

m

#3 entonces podemos decir que se ha creado algo que el humano no entiende?

anv

#4 Por supuesto. Y no es tan raro.

m

#9 ok. Entonces podemos decir que sabemos que herramientas usa para aprender, pero no como lo hace, es decir que en algún momento aprenda a usar una herramienta que no se la ha proporcionado.
Perdona por las preguntas pero es algo que me llama mucho la atención y nadie suele responder mis preguntas más allá de ambigüedades

j

#12 yo lo entiendo como los ordenadores que juegan al ajedrez, tú les das las normas y se ponen a pensar millones de jugadas hasta que dan con la buena. El resultado es el que queremos, pero no te pongas a investigar los millones de intentos que ha realizado para obtenerla.

m

#65 pero no queda constancia del proceso me refiero, creemos que aprenden a fuerza de ensayo y berros pero con una capacidad superior a la nuestra. Pero no queda reflejado cuáles son los errores. Quizás se pueda indagar por ahi

Azrapse

#12 Todas las partes fundamentales del proceso de aprendizaje y razonamiento son conocidas y entendibles. Cada una de las partes individuales fundamentales.
Ahora bien, cuando se combinan estas reglas minúsculas miles de millones de veces, empiezan a surgir flujos de información e inferencia que no eran obvios a priori.

De ahí que la IA resulte a veces sorprendente, porque nadie se espera (o esperaba) que de componentes y reglas tan simples se pueda formar algo con comportamientos y capacidades tan complejas de una forma casi automática. Casi automática, porque cuando se entrena una IA, y le pedimos algo, sólo le proporcionamos una "nota" o "evaluación" o "puntuación". La IA se reconfigura internamente (siguiendo unas reglas fundamentales conocidas, pero llevadas a un nivel de convolución inmenso) que hace que obtenga más puntuación, y más, y más, hasta que siempre obtiene una alta puntuación.

Cómo han cambiado esos valores internos para llegar a ese punto? Las reglas fundamentales son sencillas de explicar, pero no se puede explicar de forma sencilla la evolución iterativa de miles de millones de valores de una manera por así decirlo "macroscopica" de forma obvia.
Otra forma de decirlo es que puedes observar esos valores internos evolucionar desde el principio, o ver su estado final, y ser incapaz de ver un "algoritmo" claramente definido. Símplemente, funciona.

m

#86 entonces podemos decir que la IA llege un momento que se autoentrene, a partir de sus resultados y se autoconfigure y vaya mejorando o no es posible. Me refiero puede pasar de x cálculos simple a xy cálculos complejos

m

#95 Una red neuronal se puede autoentrenar. Por ejemplo, así se consiguió que ganara al GO.

Pero lo que no puede hacer son cálculos. Para eso hace falta otra cosa.

Escribir algoritmos para que calculen cosas está más que resuelto. Hay apps para moviles que te resuelven cualquier problema de mates a nivel de bachillerato y te dan los pasos a seguir.

daphoene

#95 Soy un profano, pero me atrevería a decir que eso es básicamente lo que hace, e incluso se ponen a competir varios procesos de aprendizaje entre sí que se retroalimentan. El problema es la capacidad de cómputo. Como es finita, tenemos que ver cómo le sacamos más provecho a lo que tenemos. Como si tuvieras un 486 y consiguieras resultados mejorables, luego tuvieras un ordenador actual con una GPU, y consiguieras cosas decentes, y ahora te tocase ver cómo mejoras lo que tienes para poder sacar más del ordenador actual.

m

#19 si si eso estoy de acuerdo, es como la anestesia se sabe que funciona pero no se sabe que proceso fisiológico desarrolla para estar en ese estado, pero el tema de la IA creía que había algo más que lo hiciera funcionar.

Ferran

#21 Como el viento o la lluvia, que no se sabe de donde vienen pero los utilizamos.

Aperitx

#24 Hay video

m

#24 si yo creo que es lo mismo... No sé sabe de donde viene la lluvia o al viento...

Ferran

#63 Mira el video

yemeth

#4 Las redes de neuronas artificiales, aunque sepamos como funcionan, son una "caja negra" en el sentido de que no sabemos exactamente qué operaciones están realizando con los datos (técnicamente, cómo dividen el espacio N-dimensional que determinan los parámetros de entrada). Las entrenamos diciéndoles qué respuesta es correcta y cuál incorrecta y les damos un método para que se adapten y aprendan. Pero el resultado de este entrenamiento no podemos analizarlo a simple vista.

Que en realidad es lo mismo que sucede en las redes de neuronas naturales, tampoco podemos ver un cerebro humano y saber lo que pasa más que a grandes rasgos, por mucho que analizáramos los neurotransmisores.

m

#47 uf, cuantas respuestas y cuantas preguntas me surgen a todos vosotros.
Entonces es como si tu le enseñas a hacer una operación, le enseñas a "razonar" y luego que se busque la vida.
Pero por ejemplo, hay cosas que hace la IA que no entendemos porque lo hace, pero hay algún motivo que podríamos llegar a desentrañar no. No tanto como ha llegado hasta el, que deberíamos, sino el porqué funciona de esa manera.
No existe ninguna manera de intentar averiguar porqué hacen según qué cosas, aunque sea a una escala específica. Es decir, sabemos porque el cuerpo tiene ciertas reacciones, se activa X o Y, pero con la IA de momento estos es posible o no?

yemeth

#66 Bueno, tampoco podemos con el cerebro. Podemos tener una idea de qué hacen determinadas señales químicas, y la investigación en Redes de Neuronas Artificiales nos ha facilitado comprender muchísimo que hacen las redes de neuronas reales que hay en nuestro cerebro.

Resulta que al transformar su actividad en un modelo matemático e imitarlas, hemos visto que podemos resolver problemas de un modo que no podríamos con algoritmos normales. Y de hecho todos estos avances espectaculares actuales como ChatGPT o Midjourney/StableDiffusion/Walle, vienen por esta técnica de las Redes de Neuronas Artificiales.

En el modelo estandar ("perceptrón multicapa", que es más sencillo que lo actual y tiene algunas décadas), tienes M neuronas de entrada, otras N en una capa intermedia, y finalmente O de salida. Hay interconexiones entre todas las neuronas de la primera capa y las de la segunda, y entre las de esta y la de salida. Y el "peso" de estas conexiones se van ajustando a medida que se entrena a la red de neuronas.

Para hacerte a la idea, podemos entrenar a una red de neuronas de estas para que reconozca las letras del abecedario, cosa que sería horrenda de programar en un algoritmo "lineal" clásico; al entrenar a la red de neuronas sabemos cómo funciona el método por el que lo hacemos, pero cuando conseguimos que las reconozca no sabemos exáctamente qué está mirando para distinguirlas porque es demasiado complejo; lo que hacemos es ajustar la cantidad de neuronas en cada capa, quizá el método de entrenamiento o las funciones de activación, para facilitar que obtenga una solución mejor y en menos tiempo. Y si tenemos un montón de tipos de letra distintos, alimentamos a la red con ellos. Con esto, además, será capaz de entender tipos de letra que aún no haya visto, igual que lo haríamos nosotros.

https://es.wikipedia.org/wiki/Perceptr%C3%B3n_multicapa

m

#66 Los intentos de usar redes neuronales para explicar como funciona otra red neuronal generan informes demasiado complejos.

m

#47 No existen las neuronas artificiales, al menos que yo sepa.

sauron34_1

#3 no, no es como el cerebro humano. Tal y como dice #6, en este caso hay que programarlo y la IA no se puede salir de esa programación, pues sigue siendo un autómata. El cerebro humano no lo es (pues se autoreprograma).

sauron34_1

#33 como se va a parecer muchísimo, hombre? Creo que no sabemos hasta qué punto desconocemos el cerebro humano. No se sabe ni como se enruta las señales neuronales entre los trilllones de caminos que hay en el cerebro. No es que no sepamos como surgen los pensamientos o el amor, es que no sabemos como esas señales se convierten en imágenes en la zona de procesamiento de imágenes del cerebro. Quiero decir, usa matrices? Ni idea. Ni siquiera las llamadas “redes neuronales “ se parecen un pimiento al cerebro, imagínate una IA que es un árbol de posibilidades. Para que te hagas una idea, una IA imita a una molécula de ADN. Así de lejos del cerebro está.

sauron34_1

#48 con todos los respetos, soy informático y por eso estoy aquí, porque hay muchos malentendidos que yo sí conozco. No, las IA no se reprograman, su código no cambia, añaden variables a su árbol de posibilidades. Hace años la gente flipaba con el Aquinator y se basa en el mismo principio que chatGPT, no se ha inventado nada nuevo: se ha invertido mucho más tiempo y las maquinas son lo suficientemente potentes para que sea mejor.

pero consiguen un resultado similar a lo que haria un humano,
Poco has usado tú chatGPT, hijo.

sauron34_1

#38 claro que son automatatas, las IAs siguen siendo maquinas de Turing. Si se hubiera conseguido programar añgo que hubiera dejado de ser un autómata hubiera sido el invento del siglo. Las IAs “aprenden”, pero no se reprograman. Cuando un humano aprende, se reprograma.

rojo_separatista

#45, spoiler, el deep learning ya es el invento del siglo.

sauron34_1

#72 sí, pero no al nivel que sería poder programar algo que no fuera un automata.

rojo_separatista

#38, técnicamente no está tan claro, porque la definición de lo que es IA se ha ido moviendo. Los algoritmos que aprenden en realidad son algoritmos de machine learning, un subcampo dentro de la IA. Pero en los años 90 y principios de los 2000 los sistemas expertos basados en reglas se consideraban IAs por derecho propio. El caso es que el machine learning ha barrido del mapa todo lo demás en pocos años porque su desempeño está a años luz.

Edheo

#6 El tema más bien, es que las consecuencias de una IA, no se programan en si mismas... digamos que lo que se programa, es "metodología de aprendizaje" y en buena parte, dicha metodología, es autoaprendida por la propia IA.

Realmente, en mi mente cuñada, tiene bastante analogía con la "vida". Es como si en biología, resulta que provocando interacciones y reacciones químicas entre aminoácidos y proteinas... al final dicho cóctel, elevado a la enésima potencia, genera un organismo vivo autosuficiente y replicable. A priori, piènsalo, cuesta muchísimo entender realmente las consecuencias desde una cosa a la otra, y realmente, lo que se ha sentado es que dicha metodología tiene resultados... pero la verdadera cátedra del "cómo funciona y porqué" tiene bastante parte de imprevisible.

Por tanto... no es tan así, que alguien "programe" la IA, aunque obviamente, hay que programar los elementos básicos, que al procesarlos de modo masivo, conllevan al comportamiento de la IA.

MAD.Max

#6 Supongo que será algo así como patrones de aprendizaje. Como dices, no le dejas todo y le dices "ale, aprende"

ElPerroDeLosCinco

#3 Como reza el dicho: "si nuestro cerebro fuera tan sencillo que pudiéramos comprenderlo, no tendríamos la inteligencia suficiente para entneder qué hacemos en Menéame"

sauron34_1

#20 JAJAJAJAJA el giro final me ha molado, pero tomándolo en serio, el cerebro se está estudiando a sí mismo. Da qué pensar.

k

#3 eso que dices es aplicable al deep learning.
Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan. De hecho, la mayoría de las matemáticas de la IA son bastante claras e intuitivas

editado:
a ver, los algoritmos los entendemos, con el deep learning lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo, lo cual impide la comprensión del sistema pero no del algoritmo. No sé si me explico

anv

#26 Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan

Por supuesto. Pero es como decir que comprendemos el cerebro porque sabemos como funcionan las neuronas.

lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo

Ese es el punto. Que podemos estar orgullosos de haber creado un sistema que aprende por sí mismo. Pero no más que eso. La inteligencia es mucho más que un conjunto de neuronas, y eso no lo hemos hecho nosotros. Sólo proporcionamos la herramienta para que se haga sola y esperamos a ver el resultado.

rojo_separatista

#32, no es exactamente lo que te quería decir #26. Una recta de regresión puede ser un algoritmo de machine learning y entendemos perfectamente lo que es, no solo como se entrena sino qué criterios pondera para realizar sus predicciones. Con el deep learning se nos escapa.

k

#74 eso es. Es que me he explicado fatal!
Gracias por la aclaración

k

#32 pero solo pasa con las redes neuronales.
Lo demás se entiende más o menos

Gerome

#3 No, no es tan complicado. Se basa en algoritmos programados por humanos, que saben lo que hacen exactamente.

Hay mucha gente que se piensa que la IA es algo mágico y que de verdad hay una inteligencia detrás. No la hay, no dejan de ser cálculos matemáticos y ordenamiento de datos.

Aenedeerre

#3 como no se va a entender si está programado por humanos...

rojo_separatista

#55, es que no está programado por humanos. Los ingenieros diseñan la arquitectura, el algoritmo de aprendizaje y la forma en cómo se va a entrenar, pero el modelo aprende "sólo". Dada la descomunal cantidad de parámetros involucrados es imposible saber qué clase de razonamiento utiliza para llegar a la solución deseada, lo que sí podemos evaluar es quan buenas son las soluciones que da.

Azrapse

#55 Continuando lo que dice #77. las IAs no están programadas por humanos. Están construídas por humanos, y les son dados un puñado de mecanismos para autoconfigurarse, y miles de millones de entradas (el equivalente a nuestros sentidos, nervios, etc).
Esos mecanismos básicamente son un objetivo que cumplir lo mejor posible (que en términos evolutivos sería algo en lo que tiene que ser lo más apto posible), y un mecanismo de evolución para reconfigurarse e intentar aumentar cuán apta es en hacer ese algo.
Entonces, a base de evolucionar y evolucionar durante miles o millones de iteraciones y reconfiguraciones intentando maximizar esa aptitud, la IA aprende por sí sola.

No hay un programa o algoritmos, en el sentido clásico del término. Símplemente valores de entrada, las mismas operaciones combinadas miles de millones de veces puestas de alguna manera por la IA misma, y una salida que cumple las expectativas de lo que sea que fuera el objetivo que la IA debía cumplir.

Aenedeerre

#90 no se si me convence el argumento, al final es aplicar un modelo estadístico complejo, ya que los parámetros de entrada no son infinitos y los datos de los que parte tampoco, (data lake? ) algún tipo de testing se habrá hecho, o depuración. Creo que necesitaré otra IA para analizar la respuesta. Gracias por la explicación. Me voy a tener que poner a investigar esto un poquito.

j

#3 Es un invento. Descubrirlo. Cómo mucho. Sería después del invento.

anv

#97 Es un invento.

Digamos que hemos inventado un mecanismo que crea inteligencia automáticamente sin nuestra intervención directa.

m

#3 el cerebro humano: conocemos las neuronas

Nadie tiene ni la más mínima idea de qué hace una neurona, mucho menos el cómo.

Laro__

#2 Conste que te he votado positivo, pero no sería la primera vez que se argumenta que, el algoritmo en cuestión, ya estaba ahí antes de que el programador de turno "lo descubriera".

Aperitx

#2 Una serendipia es un descubrimiento que puede llegar a ser bueno o valioso de manera accidental o casual, al momento de estar buscando una cosa diferente a la sucedida.[1] De igual forma puede referirse a la habilidad de un sujeto para reconocer que ha hecho un descubrimiento importante aunque no tenga relación con lo que busca.
https://es.m.wikipedia.org/wiki/Serendipia
No digo que sea el caso, solo que me encanta la palabra.

marcamo

#8 Yo la prefiero como chiripa.

Aperitx

#13 lol

j

#13 osti! Nunca me había parado a pensar en el parecido de ambas palabras, lo que me hace preguntarme si no es casualidad, seguramente una viene de la otra

vacuonauta

#8 ya te entiendo, a la plancha con salsita de ajo y aceite... mmmmmm

😛

D

#2 los teoremas, metodos y aplicaciones generales de las matematicas se suelen considerar descubrimientos.

JanSmite

#2 No son excluyentes.

xyria

#2 Un invento es casi siempre un descubrimiento.

m

#2 si la inteligencia no es sólo propia de los seres vivos sería un descubrimiento, sino invento

thorin

¿Hype para intentar reparar la fama rota de OpenAI?

xiobit

#11 La fama rota?
Pero si están todavía en la cresta.

thorin

#68 Que el consejo de administración no sepa lo que hace no es estar en la cresta.

Peibol_D

Para que quede constancia yo nunca he tratado mal ni siquiera a un tostador. A veces le di un par de golpes a un mando antes de darme cuenta que no tenía pilas. Queda dicho.

e

Arnold calienta que sales...

Sam Altman parece que tiene principios

y

Me recuerda esto al episodio final de Silicon Valley

cdya

La rumorología esta abierta. Al final va a quedar como una publicidad gratuita todo el tema de Sam Altman.

D

Hasta la puta polla de las IAs, en serio que cansancio.

Lastima que el hilo no dará para más pero se ha aportado un montón de explicaciones mascaditas que me han ayudado a entender un poco mejor el tema de las IA aparte de unos datos extra que no sabía sobre la penicilina.... En vuestra opinión cual podría ser ese "descubrimiento" ¿Este es el tipo que se pasea con una mochila que dice que es para desactivar la IA? ¿Todo este jaleo podría ser por la mochilita de marras?..... Ay que sinvivir... gracias

N

#31 Según el artículo, tiene que ver con un avance importante en la capacidad de comprensión y resolución de lógica matemática para la IA, lo cuál es uno de sus mayores puntos débiles en la actualidad. Difícil de decir hasta qué punto es algo revolucionario o solo un pequeño paso más hacia la inteligencia artificial general.

S

#62 ha solucionado problemas matemáticos de nivel de primaria sin proporcionarle ninguna herramienta matemática, es decir, el bicho ha razonado y creado sus propias herramientas matemáticas para dar con la solución.

Es un grandisimo paso, por ahora solo es a nivel de primaria, pero espera a que llegue a la mayoría de edad y veras..

Escafurciao

Se fué porque había creado un monstruo y no queria acabar como el doctor Frankenstein.

yocaminoapata

#1 No se fue, lo echaron...

ElTioPaco

#1 la junta de accionistas lo echo porque "no confiaban en el"

Creo que ahora hay nueva junta de accionistas.

SirMcLouis

#52 sera la consejo de administración ("board or directors"), la junta de accionistas no puede cambiar a no ser que cambie la composición accionarial de la empresa, que no creo que lo haya hecho en tan poco tiempo. Pero los accionistas, sobre todo los mayoritarios, si pueden cambiar la composición del consejo o el consejo mismo cambiarse a si mismo.

https://es.wikipedia.org/wiki/Consejo_de_administración
https://es.wikipedia.org/wiki/Junta_general_de_accionistas

ElTioPaco

#64 puede ser, la verdad es que no recuerdo el término usado en el artículo, aunque llego a portada ayer o anteayer

SirMcLouis

#70 vamos no se como será la estructura de OpenAI, pero normalmente es algo así … la junta de accionistas se reune una vez al año … y luelen decidir bien poco… más que nada si apruevan la gentión del consejo o no y si no, cambiarlo.

xiobit

#1 Al revés, lo echaron para frenar el avance en IA porque les entró miedo.
Lo han rescatado porque tienen más miedo a que la empresa quiebre sin sus trabajadores.

M

#61 Y bien echado estaba.

Alguien que antepone hacer negocio a la seguridad humana es un gran peligro. Y Altman siempre ha sido el máximo exponente en OpenAI de esa avaricia irresponsable.

El consejo de administración no lo traga por ese motivo, y LOS HECHOS LES DAN LA RAZÓN.

Al tipo sólo le salva su éxito mediático y el poder de la pasta de Microsoft, que por supuesto también aspira únicamente a hacer negocio sin importar los riesgos.

El futuro pinta mal mientras Altman y Microsoft estén al timón de esto.

D

#61 "lo echaron para frenar el avance en IA porque les entró miedo"
Lo de que les "entro miedo" quedara muy bonito en la pelicula.... pero la realidad suele ser mas decepcionante y aburrida.

S

#1 O el jovencito Frankainstain

javi_ch

#85 Fronkensteen

D

#85 FrankainstAI

Vale ya me voy

c

Descubrimiento revolucionario y te echan a la calle? No sé Rick, algo no me cuadra

Noeschachi

#23 La patada viene por las discusiones sobre como usar ese descubrimiento. Etica y dineros

a

#23 Por ocultarselo. Es su deber mantener a la junta directiva informada.

meso

¿Alguien sabe de algún podcast o video que resuma un poco fielmente u objetivamente lo que ha ocurrido con este tío?

Gracias

sofazen

#22 En YouTube " dot csv" lo intentaba recientemente

meso

#44 yo creo que los de Netflix necesitan sauce para una nueva serie basada en hechos reales.
lol
Bromas aparte, gracias por el resumen

N

#59 bueno, ya han hecho peli del zakerberg, o como se escriba, y dos de Jobs. Como esto de la IA acabe en revolución, no dudo que Altman pueda tener peli.

1 2 3