Altman asegura que una de las áreas más importantes de progreso para OpenAI está en la capacidad de razonamiento. Según el CEO de OpenAI, GPT-4 puede actualmente razonar de forma muy limitada, por lo que espera que GPT-5 destaque más ampliamente en este aspecto.
#2 Nuestro cerebro tiene un periodo de aprendizaje y es mas que consultar enormes bases de datos. Para imitar al cerebro y llegar a tener un nivel de consciencia todavia falta. Nuestro cerebro es imitable, pero no se ha conseguido.
De todas formas imitar nuestro cerebro nos puede llevar a crear un Netanyahu, no se si eso seria bueno.
#4 Un factor esencial es como se puede solventar el problema del espionaje industrial con estas herramientas integradas en las empresas. Y si se quiere.
#1 si pueden, ¿un coche es una imitación de unas piernas? Pues no, las maquinas no imitan. Tienen diferencias que le otorgan ventajas o inconvenientes.
Las IAs ya han hecho deducciones superiores a las humanas. Han descubierto nuevos modelos aerodinámico s, nuevos antibioticos, nuevos materiales, descifran la gramática genética …
#12 Toda la razón, pero eso no significa que las empresas puedan usar todo dato que consigan recopilar para entrenar a sus IA, que luego hay problemas de filtración de información.
#7 Totalmente. De los prompts que se introduzcan es muy fácil, que no se usen para entrenar a la IA. Eso ya lo hacen muchas versiones de pago de estos servicios, como el de Microsoft.
Y por la parte de datos para entrenar a esas IA, el problema está en que OpenAI y otras compañías usan datos en masa sin preocuparse por el origen y sin ningún tipo de permiso.
#8 He realizado pruebas a pequeña escala con redes neuronales y a las máquinas se les da bien reconocer patrones, hay que enseñarle, pero eso y razonar son dos cosas diferentes.
#20tu cuando quieres decir algo vas eligiendo las palabra de manera aleatoria?
O sí, que yo sepa la neurología aún no ha aclarado esto, tu lo sabes por tus 33 no?
#20, si los modelos de lenguaje se limitasen a construir frases seleccionando palabras de forma aleatoria, la mayoría de sus respuestas no solo no tendrían sentido, sino es que además no parecerían naturales.
Comentarios
No, no pueden razonar, es una imitación de inteligencia basada en millones de bbdd y fuentes donde recopila los datos que devolver.
#1 que es lo que crees que hace tu cerebro?
#2 tu cerebro no usa bbdd y no forma frases de manera estocastica.
¿Y seguirán usando todo dato que puedan recopilar, sin preocuparse por si el autor da permiso o no para ello? En ese tema no les interesa avanzar.
#2 Nuestro cerebro tiene un periodo de aprendizaje y es mas que consultar enormes bases de datos. Para imitar al cerebro y llegar a tener un nivel de consciencia todavia falta. Nuestro cerebro es imitable, pero no se ha conseguido.
De todas formas imitar nuestro cerebro nos puede llevar a crear un Netanyahu, no se si eso seria bueno.
#4 igual que tu cerebro
#4 Un factor esencial es como se puede solventar el problema del espionaje industrial con estas herramientas integradas en las empresas. Y si se quiere.
#1 si pueden, ¿un coche es una imitación de unas piernas? Pues no, las maquinas no imitan. Tienen diferencias que le otorgan ventajas o inconvenientes.
Las IAs ya han hecho deducciones superiores a las humanas. Han descubierto nuevos modelos aerodinámico s, nuevos antibioticos, nuevos materiales, descifran la gramática genética …
#3 tu cerebro no usa bbdd
Define bbdd. Los modelos transformer tampoco guardan los datos como una base de datos tradicional con tablas y tuplas.
no forma frases de manera estocastica
¿Esto como lo sabes? La neurología está en pañales para hacer una afirmación tan categórica.
#8 Buenos días,
Deducir y razonar son dos cosas a años luz una de la otra.
Razonar implica entender tu entorno, entender el mundo que te rodea, y mentir.
Nada hasta ahora tiene ese entendimiento.
#1 Razonar, no razona. Pero se parece mucho a razonar.
#4, nos iría bien como especie dejar de sacralizar el concepto de propiedad intelectual.
#1, las bases de datos existen desde los años 50, la capacidad se razonamiento de modelos como GPT es mucho más que una consulta en una base de datos.
#12 Toda la razón, pero eso no significa que las empresas puedan usar todo dato que consigan recopilar para entrenar a sus IA, que luego hay problemas de filtración de información.
#7 Totalmente. De los prompts que se introduzcan es muy fácil, que no se usen para entrenar a la IA. Eso ya lo hacen muchas versiones de pago de estos servicios, como el de Microsoft.
Y por la parte de datos para entrenar a esas IA, el problema está en que OpenAI y otras compañías usan datos en masa sin preocuparse por el origen y sin ningún tipo de permiso.
#6 No compares, ningún humano tiene capacidad para rastrear Internet de manera masiva como hacen estas compañías.
#14, sí, pero esto tiene más que ver con el derecho a la privacidad que con la propiedad intelectual.
#13 Lo se y tener conciencia es mucho más de lo que hacen ahora.
#8 He realizado pruebas a pequeña escala con redes neuronales y a las máquinas se les da bien reconocer patrones, hay que enseñarle, pero eso y razonar son dos cosas diferentes.
#9 tu cuando quieres decir algo vas eligiendo las palabra de manera aleatoria? no verdad? pues entonces no funciona como un LLM
#20 tu cuando quieres decir algo vas eligiendo las palabra de manera aleatoria?
O sí, que yo sepa la neurología aún no ha aclarado esto, tu lo sabes por tus 33 no?
#18, pero es que para razonar no hace falta tener conciencia.
#3, un modelo de lenguaje tampoco.
#20, si los modelos de lenguaje se limitasen a construir frases seleccionando palabras de forma aleatoria, la mayoría de sus respuestas no solo no tendrían sentido, sino es que además no parecerían naturales.