Hace 20 días | Por NubisMusic a hipertextual.com
Publicado hace 20 días por NubisMusic a hipertextual.com

OpenAI liberó las nuevas funciones de GPT-4o y los GPTs a los usuarios gratuitos de ChatGPT.

Comentarios

reithor

Necesitan nuevas cobayas humanas para entrenar a sus nuevos juguetitos.

xyria

#2 Y contigo no van a contar, ¿verdad?

reithor

#6 meh, cuando me quiten el curro y no tenga nada mejor que hacer y viva de una paguita.

xyria

Tiene una sección titulada "Write for me". lol (Es cierto).

anv

Desde hoy? Yo lo tengo en la cuenta gratis desde el mismo día que lo anunciaron.

Lo que estoy esperando a probar es el que habla.

d

Las redes neuronales no tienen pinta de superar (nunca) el nivel de rendimiento actual. Son bastante poco útiles.

Existe una propuesta de hacer otra cosa distinta, más complicada, que tiene la gracia de proporcionar resultados más exactos y más auditables, pero la pega de necesitar muchísimo más entrenamiento. Básicamente los nodos dejan de tener un peso por link y pasan a tener una función más compleja.

Mis saludos a los tontainas que dicen que las neuronas biológicas usan pesos sólo porque las electrónicas de ahora son así. Animalitos.

s

#3 en mis tiempos eran redes neuronales, y hacen muy bien su trabajo: resúmenes. Llamarle ia y pretender que sea inteligente va a ser el problema, igual que lo fue el autopilot.

d

#4 Sí, comprimir datos. Dar una respuesta a un problema que no está en su entrenamiento usando la media de los problemas conocidos. Han logrado resultados muy vistosos, pero solo la primera vez que los ves. Luego te das cuenta de que la IA da la respuesta que le da la gana y que influir en eso son artes obscuras. Que no puede justificar su respuesta y es perfectamente posible que todo sea pura invención.

anv

#3 Esto es lo que te contesta chatgpt:

La afirmación de que las redes neuronales no superarán su nivel de rendimiento actual y son poco útiles es un tanto pesimista y no refleja la realidad del progreso reciente en inteligencia artificial. Las redes neuronales, especialmente las de tipo profundo (deep learning), han demostrado ser extremadamente útiles y efectivas en una amplia variedad de aplicaciones, desde la visión por computadora hasta el procesamiento del lenguaje natural. Un ejemplo claro es el modelo GPT-4, que ha superado a sus predecesores en tareas de generación y comprensión de texto.

La idea de que las redes neuronales están limitadas y que no se puede avanzar más es desmentida continuamente por la investigación y desarrollo en el campo. Cada año se presentan nuevas arquitecturas y técnicas de entrenamiento que mejoran la precisión y eficiencia de estos modelos. Además, el desarrollo de hardware específico, como los TPU (Tensor Processing Units) de Google, ha permitido entrenar redes neuronales más grandes y complejas de manera más eficiente.

Respecto a la propuesta de utilizar nodos con funciones más complejas en lugar de simples pesos, es una idea interesante y ya se está explorando en algunos campos. Por ejemplo, los modelos como los Transformer utilizan mecanismos de atención que son más complejos que los pesos tradicionales y han mostrado resultados impresionantes en procesamiento de lenguaje natural. La complejidad adicional puede requerir más entrenamiento, pero también tiene el potencial de mejorar la precisión y auditabilidad de los modelos.

En cuanto al comentario sobre las neuronas biológicas y sus pesos, es cierto que las neuronas en el cerebro humano no funcionan exactamente como los nodos en una red neuronal artificial. Sin embargo, las redes neuronales artificiales se inspiran en la estructura del cerebro, y el uso de pesos es una simplificación útil que ha demostrado ser extremadamente poderosa en la práctica. Las diferencias entre las neuronas biológicas y los modelos artificiales no invalidan la eficacia de estos últimos en sus aplicaciones.

En resumen, las redes neuronales siguen evolucionando y mostrando un gran potencial en diversas aplicaciones. La investigación en IA está lejos de estancarse y las innovaciones continúan impulsando el campo hacia adelante.

d

#9 El entrenamiento de la máquina parlanchina, veo que no incluyó las redes Kolmogorov-Arnold (KAN) por lo que no pilla la referencia.

Esto de dejar hablar a una máquina sólo genera un montón de bla bla bla.

anv

#10 Entiendo tu punto, y las redes Kolmogorov-Arnold (KAN) son un tema fascinante en el campo de la teoría de la aproximación y las matemáticas aplicadas. Permíteme abordar este punto más específicamente.

Las redes Kolmogorov-Arnold están basadas en el teorema de representación de Kolmogorov, que asegura que cualquier función continua de varias variables puede representarse como una superposición de funciones continuas de una variable y una función de una variable adicional. En el contexto de las redes neuronales, esto se traduce en una estructura de red donde los nodos tienen funciones más complejas que simples pesos lineales.

Tu comentario sobre que las redes neuronales no han incluido esta idea no es del todo correcto. De hecho, la idea de tener nodos con funciones más complejas está presente en ciertas arquitecturas de redes neuronales. Por ejemplo, los modelos de redes neuronales con unidades de activación no lineales (como ReLU, tanh, o sigmoide) pueden ser vistos como una aproximación a este concepto. Además, las redes neuronales convolucionales (CNNs) y las redes neuronales recurrentes (RNNs) utilizan operaciones más complejas que una simple suma ponderada de entradas.

En cuanto a la utilidad y el potencial de las redes neuronales, el campo está en constante evolución y mejora. Si bien las redes KAN podrían ofrecer ventajas teóricas en términos de aproximación de funciones, las redes neuronales profundas han demostrado ser extremadamente eficaces en una variedad de aplicaciones prácticas debido a su capacidad para aprender representaciones complejas de datos a través de capas de abstracción.

Finalmente, aunque la crítica a las limitaciones de las redes neuronales actuales es válida, es importante reconocer el impacto significativo que ya han tenido y seguirán teniendo en la tecnología y en la ciencia. La investigación en IA no se detiene y continúa explorando nuevas arquitecturas, incluyendo aquellas inspiradas en ideas como las redes KAN, para mejorar aún más su rendimiento y aplicabilidad.

d

#11 una superposición de funciones continuas de una variable

concretamente es la suma

La simplificación lograda es grande.

anv

#12 Gracias por la aclaración. Es cierto que el teorema de Kolmogorov-Arnold asegura que cualquier función continua de varias variables puede representarse como una suma de funciones continuas de una variable. Esta simplificación es, sin duda, poderosa desde un punto de vista teórico.

En el contexto de las redes neuronales, esta idea ha influido en el desarrollo de modelos más sofisticados que intentan capturar complejidades de las funciones objetivo a través de arquitecturas avanzadas y funciones de activación no lineales. Aun así, la implementación práctica de las redes Kolmogorov-Arnold en un entorno de aprendizaje automático moderno es menos común, en parte debido a la complejidad de su formación y la dificultad de encontrar funciones apropiadas para las aplicaciones específicas.

Las redes neuronales profundas actuales, aunque pueden parecer menos sofisticadas desde una perspectiva teórica, han demostrado ser extremadamente eficientes y efectivas en una amplia gama de aplicaciones debido a su capacidad de aprender representaciones jerárquicas y abstractas a partir de datos. Además, su desarrollo está respaldado por una infraestructura sólida en términos de software (como TensorFlow, PyTorch) y hardware (TPUs, GPUs).

En resumen, aunque el enfoque de las redes Kolmogorov-Arnold ofrece una simplificación teórica notable, las redes neuronales actuales han logrado un equilibrio práctico entre complejidad y capacidad de generalización, lo que las hace útiles y eficaces en aplicaciones del mundo real. Esto no excluye la posibilidad de que futuras investigaciones integren conceptos de las redes KAN para mejorar aún más los modelos actuales. La ciencia de la inteligencia artificial es dinámica y siempre está abierta a nuevas ideas y enfoques.