Darle a la IA un rostro, voz o tono humano es un acto peligroso de travestismo digital. Desencadena una respuesta automática en nosotros, un reflejo antropomórfico, que conduce a afirmaciones aberrantes según las cuales se dice que algunas IA han pasado la famosa prueba de Turing (que evalúa la capacidad de una máquina para exhibir un comportamiento inteligente similar al humano). Pero creo que si las IA están pasando la prueba de Turing, necesitamos actualizar la prueba.
|
etiquetas: inteligencia artificial , consciencia , sentimientos , humanos
También parece que hace mejores diagnósticos médicos.
Y para eso está el médico para entender y usar esa información. Lo que he dicho, es una herramienta maravillosa y llega a sitios donde el médico/ ingeniero no llega
A mi me ayudo en una oposicion. Basicamente, hay 52 temas para estudiar. En el examen caen 4 temas, de los que escoges 2. Obviamente, no estudias los 52 temas. ¿pero cuantos temas tienes que estudiar para tener un 95% de posibilidades de que te salgan dos temas que has estudiado?
Yo no tengo ni idea de como calcular eso. IAlo resuelve en un segundo
Tambien probré unas de esas adivinanzas de… » ver todo el comentario
Eso, y los problemas de misioneros que cruzan el rio en barca pero no puede haber nunca más caníbales que misioneros.
Los primeros modelos eran totalmente incapaces de resolver nada de eso. Se lo tomaron como un reto y para los siguentes modelos les habían entrenado las… » ver todo el comentario
Pero lo mejor de todo es cuando intentas corregir su cagada, que ahí directamente empieza la fase de locura y se combina la cabezonería de querer seguir haciendo lo mismo pero corrigiendo parte de lo que le has dicho, creando un frankenstein espectacular. Al final tienes que tirar a la basura el 50% de las cosas que te dice, como poco.
Ese es el menor de los problemas. El problema son los bugs laterales ocultos que pasaran desapercibidos a corto plazo y que seran un puto infierno a medio y largo
A mí ha habido a veces que me ha dado una explicación del código para luego soltar un código que contradice su propia explicación. O, por ejemplo, ha inicializado variables y las usa fuera de su scope o las usa como si fueran de otro tipo o cosas así. Y eso en códigos extremadamente sencillos, no le confiaría nada complejo ni loco.
Al final puede guiarte, pero no sé hasta que punto ahorra tiempo.
A todas las AIs que he probado les doy vueltas programando. O se ponen las pilas o no me van a quitar el trabajo en la vida
Con que sean un 80% de lo que tu puedes hacer (que no es ni medio dificil) si una empresa tiene que decidir entre pagarte a ti 30 40 o 50k al año, o pagar unos tokens, pues lo tienes claro.
Y eso ahora, en 5 o 10 años como siga una curva similar...
Que igual hay que darle más contexto... darle más información, mejores instrucciones, etc... pero si lo esto lo haces bien, yo creo que el código que te da es mejor que el que haces tú y el que hago yo.
Otra cosa es que te quiten el trabajo... al final programar es plasmar unas especificaciones... esas sí que las tienes que dar tú o yo... aunque sea también con la ayuda de una IA.
Ya no hay más datos disponibles con los que entrenar a las IAs, todo lo que había disponible ya se ha usado, con lo cual hay poco potencial de crecimiento o saltos cualitativos.
No hay que hacerle mucho caso a los Altmans ni a los Musks de turno, porque esos lo que hacen es vender motos a… » ver todo el comentario
Se están generando datos constantemente, pero en realidad se trata de mejores y más potentes modelos lo que las hace avanzar. Y eso no tiene nada que ver con los vendehumos que mencionas después.
Queman dinero sin fin y no se ve mucha mejora...
Y es EVIDENTE que el ritmo de mejoras en exactitud y precisión de las respuestas ha disminuido mucho. El último salto cualitativo fue el mal llamado ”razonamiento” (añadir más tiempo de cómputo para repasar las respuestas), y de eso ya ha llovido. En este momento las IA solo avanzan en tareas generativas (generación de imagen, texto...), pero no a la hora de dar respuestas.
Y luego vuelves.
Lo que hay que leer dios santo...
Tengo esa misma impresión. Sin embargo los que han probado el reciente modelo o3 (no el mini, sino el más caro) afirman que es un salto adelante en capacidad.
Ya no hay más datos disponibles con los que entrenar a las IAs
Con lo que caes de cuatro patas en el overfitting y ya no puedes medir nada.
ChatGPT nace de dos años de un trabajo titánico alimentando el modelo con miles de personas picando respuestas con salarios muy bajos, y aún así openai ha perido un pastizal descomunal y la ha tenido que salvar Microsoft, que no sé yo si con Copilot será suficiente para recuperar la inversión.
Es un poco como el streaming: muchas… » ver todo el comentario
No sabes porque no tienes la inteligencia/habilidad para hacer preguntas decentes. Vamos que no te sabes comunicar a su nivel y no hablas su idioma (Prompt) .
Sin embargo la gente que si prueba estos modelos hace muchos meses que llegaron a demostrar que su razonamiento esta muy superior a todos los PhD que han existido en la tierra.
Para esto existe Humanity's Last Exam scale.com/leaderboard/humanitys_last_exam
Web que prueba todos los LLMS con las preguntas mas dificiles.
Yo es que flipo con la ignorancia que hay en MNM Y como la gente se enorgullece de eso.
Un LLM descifra el doblado de proteinas y gana un premio novel.
MNM: Buaf , esta en pañales
pmc.ncbi.nlm.nih.gov/articles/PMC7874145/ (por poner un ejemplo)
¿Acaso es falso lo que ha dicho #10?
EN los ultimos 6 meses OpenAi libero 4o que adelantaba por la derecho por mucho a todos , 3 meses despues DeepSek le labo la cara y 1 mes despues Gemini le ha meado en la cara a todos.
Las LLM no razonan. ¿No tienes la inteligencia/habilidad para saber eso?
No paran de salir informes midiendo la capacidad de razonamiento. Ya varios desde el de Apple. Todos coinciden en que es cero.
Pues como la mayoría de humanos
¿M. Rajoy es IA?
En ese momento es cuando se le ven las costuras: nos parece tan bueno porque está programado para darnos la razón.
Más de una vez lo he comprobado.
Eso no quita que tengas razón en lo que dices.
Como era eso de que infinitos monos con máquinas de escribir acabarían escribiendo el Quijote? Son inteligentes los monos? Pues la IA igual.
La IA necesita un experto al lado para no cagarla.
¿Eso lo categorizamos como "loro analógico" o como "inteligencia"?
Si fuera asi estaríamos por debajo de los chimpancés y a la altura de un gusano de tierra
Decir eso es no saber de qué se habla.
CC #25
Lo que veo yo es mucha humanidad frágil que tiene que estar constantemente afirmando que es superior.
hace 10 años deciamos inteligencia era razonar, relacionar etc.... ahora las IAs hacen eso de sobra, si pensamos como lo haciamos a principio de siglo lo de ahora diríamos que nunca se alcanza, que relacionar y alcanzar, pero cuando lo hemos alcanzado alcanzamos, nah pero no es inteligencia.... pero como es que hace 20 años si lo era?
una IA no es humana, pero inteligente con la definición clásica lo es, otra cosa es que ahora nos hayamos acostumbrado a ella, y repito no es humana, no es un ser vivo, no es lo mismo que una persona... pero inteligente?..... lo es
Lo que hace es simular comprender y razonar interpolando una respuesta probable basada en la expresión escrita de la comprensión y razonamiento de humanos.
Es como pasar un examen copiando de otros sin entender nada. Si tu meta es sólo aprobar el examen, entonces genial.
Como que está copiando de documentos bien redactados, lo que responde está bien escrito, aunque a veces no tenga ningún sentido, pero eso el algoritmo no lo puede saber.
No considerarías inteligente a una persona que olvida con mucha frecuencia, no es capaz de recordar más allá de un pequeño lapso de tiempo y sólo repite datos en forma de patrón.
Y vienes y me cuentas el resultado.
Que sea aceptable no hace que sea "inteligente".
Muchos subestimáis la mente humana de forma exagerada.
Otra cosa es que la use espantosamente mal.
Es mucho menos ambiguo hablar de habilidades especificas o de formas de razonar concretas .
Por otro lado los racionamientos basados en estadísticas se llaman racionamientos por inducción, y son una… » ver todo el comentario
Un automatismo nunca puede ser inteligente.
¿ O es simplemente que te lo imaginas y crees que es así. ¿ LO que afirmas es solo una imaginación tuya sin base real ?
Yo no digo que no podamos crear una inteligencia artificial, lo que sí digo (y cualquiera que haya estudiado informática debería decir) es que no es posbile crearla en base a una máquina de Turing. El cerebro no lo es y eso lo sabemos desde que echamos por tierra el conductismo clásico en los años 60.
Si no pasa el test de Turing, todo va bien.
Si pasa el test, cambiamos las normas, la definición o lo que sea, para que no lo pase.
Lo que no puede ser es válido cuando me viene bien.
#38 El test de turing, por definición no pretende distinguir entre máquina y humano, sino de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este.
Si la gente usa el test de turing para otra cosa (aunque suficientemente cercana), es cosa de ellos.
Una vez dicho esto, creo que muchas siguen sin pasar el test de Turing. Muchos textos huelen a IA, al menos sin revisión.
Si pones a un ser humano de hace 3 años a hablar con una IA crees que no pasaría el test?
Si no sirve, habrá que mejorarlo o cambiarlo.
¿O es que aún es válido el modelo de universo con la Tierra en el centro?
Una aproximación más correcta sería "El test de Turing es insuficiente para blablabla" o algo así. Pero modificar el test de Turing porque no da los resultados que yo quiero es tendencioso.
Imagina:
Pues tienes razón, hay que modificar el TT porque no distingue blablabla. Vamos a hacer el Test de Ombresaco
Durante unos años va bien, pero cuando las IA mejoren, pasarán también el… » ver todo el comentario
Y no razona. Saca conclusiones de donde no se puede, cae en contradicciones lógicas y "inventa" continuamente para que la respuesta tenga un aspecto coherente.
Tampoco toma decisiones. Es incapaz de eso, solo busca respuestas a cuestiones que un humano le plantee (el buscador de google hace lo mismo). Ademas esas respuestas con aspecto coherente tienen a menudo errores muy graves que a un profano en el tema le pasarán desapercibidos, lo que es un auténtico peligro.
Otra cosa es que sí, claro que es inteligente, es como tener a tu… » ver todo el comentario
Eso del stream razonador que sacan no es lo que hacen por dentro, sino una salida más.
Puedes poner a prueba a una de esas IA en cualquier pregunta no entrenada y verás como son incapaces de sacar la conclusión correcta de su razonamiento, por evidente que sea.
El de Turing no es para distinguir, es simplemente para saber si las máquinas han llegado a un nivel de comportamiento inteligente equiparable a un humano.
Si un humano no consigue distinguir al humano de la máquina ¿Como mejorar un test así?
Un test donde la máquina convenza a un humano de que no es un humano real
¿...o es que ha sido la IA la que ha deducido ella sola qué debía investigar y cómo, y se ha puesto a la faena descubriendo cosas que no se le habían ocurrido antes a los humanos?
Ahí tienes la diferencia.
El trabajo está liderado por Regina Barzilay y James J. Collins, ambos en el MIT (Boston, EEUU). Se partió de una base de datos de 2560 moléculas (2335 sin repeticiones), de las que 232 (7.97%) mostraban actividad antibiótica; se entrenó una red neuronal “profunda” (deep learning) con dicha base de datos para que aprendiera a correlacionar
… » ver todo el comentario
Pero estás moviendo la portería. Si definimos como inteligente a aquel que sea capaz de investigar y deducir y descubrir cosas nuevas a partir de ello, entonces la mayor parte de la humanidad no es inteligente.
No lo es. Nadie nunca ha dicho lo contrario. La gran mayoría de la gente vive su vida de forma puramente automática. También todos los animales.
Vale, puedes matarme...
En resumen, que no es inteligente porque no tiene un montón de cosas que no tienen que ver con la inteligencia. Y si pasa la prueba para comprobar si es inteligente, en vez de aceptarlo, cambio la prueba para que no la pase.
Y por supuesto, no es inteligente, porque eso me hace sentir incómodo.
En los psicotécnicos en su día, la prueba de visión era siempre el mismo panel.
Los taxistas se memorizaron dicho panel y aun ciegos perdidos podían pasar dicha prueba. Actualmente eso es mas complicado por que son digitales mayormente y se cambian al azar si se desea. Es decir se tuvo que actualizar la prueba.
Si una IA aprende como funciona un test y se le enseña para pasarlo, pues lo normal es que pueda pasarlo.
Por otro lado diria que si se les enseña, se busca precisamente que lo superen, y para eso se las entrena se les hace adquiera conocimientos etc.
Quiero decir, la IA es perfectamente capaz, y cada vez más, de imitar la razón humana. Si le llamas "extraer patrones de datos", también se lo llamas a la razón humana.
Lo que pasa es que a lo mejor nos estamos dando cuenta de que lo particularmente humano no es la razón, sino la experiencia de la realidad, la construcción de una subjetividad, que es de lo que carecen por completo los LLMs y no sabemos ni cómo funciona, hasta el punto que buena parte de las teorías actuales suponen que de alguna manera la conciencia "emerge", para esquivar que no saben ni cómo ni por qué.
Y si la máquina se siente humana???
Mucha transfobia veo yo...
Luego, cada historia es un mundo.
y tienes que orientarle paso a paso lo que quieres adelantandote a sus posibles fallos por lo que veo,
ya que siempre cae en las mismas chorradas,
en mi caso en calculos de fresas para sacar viruta siempre tienes que adelantarle tu el % y coeficiente
si quieres que salga equilibrado,
lo mismo le pasa para recrear los dientes de engranajes, se pierde con conversiones y formulas sencillas
el resto es como hacer una consulta anidada a una base de datos,
solo que las salidas aqui son de multiples tipos
Irvine Welsh
Siempre hay gente que viene un poco retrasada a analizar lo que se piensa que viene nuevo cuando en realidad ya está entre nosotros de hace tiempo y no alcanza a comprender lo que mucha gente tiene ya asumido de hace tiempo.
La IA es la IA, y el cerebro humano es otra cosa, venir a estas alturas a compararlo es no entender nada.
El problema es que mucha gente no diferencia entre un procesamiento masivo y rapido de datos con "investigar".
Pueden ayudar en investigaciones? Si, facilitan o aceleran las cosas. Pero la IA no tiene ideas repentinas, ocurrencias.
De todas formas, mal ejemplo has puesto, la IA da respuesta mejores que el buscador en infinidad de casos.