El año pasado, unos biólogos marinos noruegos descubrieron que sus poblaciones de arenque habían olvidado sus antiguas rutas migratorias. Como consecuencia de la desaparición de los peces más experimentados debido a la sobrepesca, los arenques jóvenes idearon nuevos caminos que los llevaban a aguas más frías e inhóspitas. En solo una generación desaparecieron siglos de sabiduría acumulada. Actualmente, en el trabajo basado en el conocimiento, la dinámica es la misma.
|
etiquetas: ia , competencias , maduración , aprendizaje
Esta frase, en el tercio final del artículo, refleja muy bien de lo que se habla.
Esto no tiene nada que ver con la preocupación de Platón cuando decía que la escritura corrompería la
… » ver todo el comentario
"He recibido tareas que parecían trabajos de posgrado, si bien cuando hacía preguntas básicas de metodología o razonamiento a los alumnos, a muchos les costaba responder con solvencia. Habían elaborado análisis sofisticados sin desarrollar las habilidades de pensamiento necesarias que respaldasen sus propias tareas"
El problema es cuando para llegar a un resultado final ignoras los pasos intermedios o no sabes cómo ejecutarlos fiando todo a conocimiento externo. Por eso en cualquier formación científica son tan importantes los conocimientos "adicionales" de otras ciencias, porque nada es un compartimento estanco.
Eso en procesos complejos puede ser definitivo.
El ejemplo que te pone #23 o #17 #30 es importante. A ver, que unos incompetentes pueden parecer… » ver todo el comentario
Me hace gracia que nos preocupemos por si la IA nos hace incompetentes cuando tenemos las redes sociales quemándonos las neuronas a diario con contenido basura, y ahí casi nadie pone el grito en el cielo. Al final,… » ver todo el comentario
Eso llegó con internet, principalmente. El gran salto a la democratización de la información, quiero decir.
¿Necesitamos saber multiplicar?
Con una IA me temo que algo así puede pasar, no en una operación tan sencilla, pero si en muchas otras cosas.
Si, con una LLM algo asi puede pasar.
Pero con decir que son "alucinaciones" o que "las personas también se equivocan", listo
Más que nada porque sabemos que la IA tiene sesgos y no es creativa, imita la creatividad y enlaza datos pero no crea. Pero "escribe tan bien" que no sabes si te la está colando. Y es por esto (del texto) nos advierte de cómo nos dejamos seducir fácilmente por el lenguaje, ya que siempre hemos asociado las habilidades lingüísticas con la inteligencia.
A mí no me la podría colar en un informe sobre vertidos, por ejemplo, pero si pregunto sobre análisis económico me puede colar burradas muy convincentes, seguro.
si el marco no es amplio o no es capaz de entender lo que la ia propone a niveles fundamentales tenemos un problema de disonancia cognitiva, llegara un punto en que lo que haga la ia nos parecera magia por que no entederemos los principio detras de la ciencia, o se creara una divison social mas acentuada todavia, quienes entienden los principios detras de la tecnologia y quien no, academicamente es… » ver todo el comentario
La IA te da información si no tiene un prompt? El marco no lo establece el que escribe el prompt ?
No entiendo tu afirmación. Puedes explicarla con mas detalle o con un ejemplo?
No se trata de irse al detalle e intentar explicar todo proceso desde el primer momento, es una cuestión de entender tareas simples. Imagina que llegase un fontanero a tu casa, arreglase una fuga y no supiese explicar qué ha hecho ni el motivo de que lo hiciese de una determinada manera y no de otra. Con la IA ya está pasando, y para nada sería descartable que la cosa empeorase en el futuro.
Depende del fontanero, algunos podrán explicarte ciertas cosas, mientras que otros no. Muchos son fontaneros por oficio, no porque hayan estudiado fontanería.
Se ha fallado en las competencias estudiantiles básicas de acceso a la información, la IA sencillamente va a empeorar esa situación por la reducción de filtro de búsqueda para evitar la incomodidad del consumidor más que un buscador semántico, lo cual ya no es mucho mejor por la búsqueda de visibilidad y atractivo, no la respuesta adecuada que pueden ser obligando al consumidor a montón de esfuerzo en responder muchas preguntas más.
Yo te lo explico: No tienes por qué hacerlo, es tu decisión.
Y si decides cortarlo puedes hacerlo como te de la gana.
Cada uno tiene sus razones para tomar sus decisiones. Yo por ejemplo lo corto mucho y con máquina. El estilo de corte me resulta indiferente mientras no sea extravagante y lo corto mucho porque solo lo hago dos veces al año.
Es mi decisión, se por qué la tomo y no es al azar. No tengo ninguna obligación de hacerlo así, es posible que en un momento dado cambie de opinión
Es una razón como cualquier otra
Yo.por ejemplo no la celebro en absoluto.
Otro tema es que hay gente con más cultura y gente con menos. Pero los motivos de la celebración son personales
Todo eso no tiene relación sobre lo que estamos discutiendo.
Las razones históricas no tienen por que ser las razones personales (o si, aunque sea una historia falsa, lo que es irrelevante)
Y en otras tantas la explicación es por motivos históricos y ya no tiene correspondencia con la realidad actual, pero tampoco hay razones de peso para cambiarlo.
y una cosa no quita la otra (actuar consciente o incosncientemente ~= aprendizaje en todo su espectro)
Para mi describe un efecto Dunning-Kruger 2.0: profesionales generan resultados sofisticados sin comprensión subyacente coadyuvada por medios tecnológicos
totalmente de acuerdo con #5
un sesgo cognitivo donde personas incompetentes sobreestiman su habilidad, amplificado por la IA que produce textos convincentes sin criterio real
Propongo el término silicognosis: sesgo híbrido donde la tecnología permite generar resultados convincentes que se amplifican por la carencia humana de implicación derivada de sesgos cognitivos, creando una ilusión de sapienza profunda sin comprensión real ni criterio experiencial
P. D.: ayudado por IA
- Incluso sin ser expertos.
Lo.propio es un enlace al estudio que con mucha seguridad no afirma lo que dicen esos artículos, como es habitual
Veo chorradas, porque eso es una chorrada. Mas que probablemente el estudio no dice nada de las "conclusiones" que publica el "periodista".
tienes link al estudio y lo comprobamos?
En resumen: El artículo puede verse como equivocado porque adopta una postura "ludita" o conservadora que ve el esfuerzo manual/mental tradicional como la única fuente de sabiduría, ignorando que la inteligencia humana siempre ha evolucionado al integrarse con sus herramientas, no al competir contra ellas.
#7 Yo no veo que diga que el "esfuerzo manual/mental tradicional" sea la única "fuente de sabiduría", sino que básicamente, intenta advertir del mal uso y abuso de la IA, una herramienta potente, y que debe ser empleada con la cautela y habilidad necesarias para no obtener resultados contraproducentes.
La IA es imparable y una herramienta muy potente. Creo que la crítica viene más por el comportamiento de muchos humanos, que piensan que por hacer una pregunta a ChatGPT y hacer un copia/pega de la respuesta ya son “expertos” en ese tema, cuando hasta la propia respuesta puede ser errónea. Conozco personalmente a alguno.
Para empezar se debería definir que se entiende por "inteligencia". No se hace.
Por lo tanto, el estudio no puede medir "la inteligencia".
En algunos procesos la IA ya nos supera, pero el hecho es que el proceso de desarrollo de la IA es súper exponencial, va muy rápido. Puedes ser todo lo desconfiado, pero ya hay muchas cosas que las hace mejor la IA, y esto va a ser algo que se acelera de forma vertiginosa.
Una IA, por cierto, no tiene "Capacidad mental" por lo que bajo esa definición no seria inteligente
Podrias responder si tuvieras algún argumento, pero probablemente hasta la IA te ha llevado la contraria .
Si afinas el prompt te acabará dando la razón, son asi de inteligentes. Persiste.
Por cierto siempre habrá personas con la capacidad de analizar y comprender cualquier codigo fuente que tenga sentido. Otro tema es el tiempo que se necesitaría emplear.
Me alegro de no haber perdido el tiempo contigo.
Y no hay ningun argumento válido. Solo afirmaciones equivocadas.
Lo dicho. Simplemente no tienes argumentos ni los encuentras. No te he faltado al respeto, solo he constatado un hecho que queda patente en el hilo
PS: ahora sé por qué estás picado conmigo.
Lo dicho, tienes razón
Y si. Tengo razón.
Decir que crear software con IA sin revisar el código que sale es peligroso, es como decir que es peligroso no revisar el código máquina que sale del compilador. La IA tan solo ha añadido un nivel más que va a ahorrar una gran cantidad de horas de trabajo.
El problema viene con el mantenimiento del código. El mantenimiento… » ver todo el comentario
Ni de lejos hemos llegado a eso.
Decir que crear software con IA sin revisar el código que sale es peligroso, es como decir que es peligroso no revisar el código máquina que sale del compilador
Con esa afirmación solo demuestras una profunda ignorancia, tanto de lo que son las LLM como lo que es un compilador.
¿cómo haces pequeñas correcciones y cambios en un proyecto complejo que ha sido totalmente creado por IA?
Pregunta absurda.
Si tuvieras razón lo haria la propia IA sin ningún problema
Ni de coña, un compilador en una versión estable te genera el código bien siempre. Obviamente existen bugs que suelen aflorar en componentes experimentales, optimizaciones, pero son cosas totalmente trazables. Además que el compilador es algo determinista que traduce desde una sintaxis que está predefinida. Y además… » ver todo el comentario
Sobre tu mala experiencia, culpas a la IA. Pero los compis que la liaron parda ¿usaron una lmm apta para la tarea que estaban acometiendo? ¿Introdujeron las instrucciones de una forma correcta, clara y concisa?
Echar la culpa a la IA de esa cagada sin saber cómo se ha llegado a eso es un sesgo claro contra la IA en general como herramienta de desarrollo.
Además, si todos revisáramos el código que saca el compilador sería una pérdida de tiempo enorme, y claro, si vas a desensamblar lo que te ha producido un compilador ¿te fiarías de que el resultado que te presenta el descompilador es correcto? Por que podría tener algún bug también y estarte mostrando algo que no es lo… » ver todo el comentario
Sobre la cagada de tu empresa, te puedo decir de primera mano que usando una IA genérica (ChatGPT en su versión gratuita), te saca sentencias SQL relativamente complejas de forma impecable si sabes usarla. No te voy a decir que no cometa fallos, pero he visto ya muchas veces a desarrolladores usando IA sin saber cómo se usa para luego decir que no funciona bien.
Por otra parte, entiendo que puedan sacar sentencias complejas por que se ha entrenado con ejemplos de ellas, eso entra dentro de lo que se puede esperar, y además, al ser una única sentencia tiene menos probabilidad de fallar que si es un conjunto de cosas complejas cada una de su padre y de su madre (que es un poco lo que pasa cuando se está programando y se usan recursos de diferentes sitios).
A un grupo de niños se les puede explicar la ecuación e=mc2, la pueden aplicar y obtener resultados, pero otra cosa es que entiendan realmente lo que significa.
Con los años unos profundizan pero la mayoría no.
Por otra parte, yo creo que la IA bien usada hace muuuucho más competente, no menos. El tiempo que precisas invertir verificando sus outputs se ve sobradamente compensado por el que te ahorra de trabajo.
Por supuesto que los tiene. Y no, no es mas inteligente que los seres humanos.
No. La IA no puede "desarrollar una nueva física" ni unas nuevas matemáticas.
Algo como la relatividad jamás podria ser descubierto por una IA. Y una IA jamas inventaria nada como el cálculo diferencial, por ejemplo.
desarrollos biológicos que el ser humano sea incapaz de entender,nubes ya está pasando.
No. No esta pasando
¿La IA es más inteligente que los humanos? Un estudio de Stanford afirma que nos supera "con creces"
La Inteligencia Artificial ya descubre nueva física
www.20minutos.es/tecnologia/inteligencia-artificial/ia-es-mas-intelige
www.europapress.es/ciencia/laboratorio/noticia-inteligencia-artificial
Justo ahora yo llevo, por circunstancias ajenas a mi, conviviendo con una “experta” en AI, pero he tenido que explicarle cómo se pone la marcha atrás en el coche comunitario (hago voluntariado en un sitio en Francia), también como funciona el ketlee, intentó cocinar la cena ayer y se le pegó el arróz… en fin , experta en un campo y torpe de cojones en muchos otros
Cada descubrimiento o avance que hacemos lo usamos para hacer guerras, robar o engañar. Somos el gran fallo de la naturaleza.
Feliz domingo!
lo unico que nos queda es adaptarnos, pero el como es lo que importa, ¿queremos una agi paternalista que nos guie pero sin… » ver todo el comentario
Fue solo otra herramienta.
Además, aunque la IA puede agilizar procesos y… » ver todo el comentario
He observado que menciona el informe ridículo y esperpéntico de RFK Jr. :
"el informe MAHA («Hagamos que Estados Unidos vuelva a ser saludable») de la Casa Blanca sobre cómo hacer que los niños recuperen la salud contenía citas ficticias. Esto es lo que genera expertos incompetentes."
Y que menciona la necesidad de indicar cuando se ha hecho uso de IA:
"Hacer visible la ayuda de la IA, no para avergonzar a nadie, sino para permitir un escrutinio adecuado."
Sólo por esos detalles, evidencia que el articulista sabe de qué habla.