#13 en general desde mi punto de vista los productos tecnologicos de software pasan por diferentes fases, la de mierdificacion (que es en tono jocoso) es cuando se cargan el producto directa o indirectamente por la razon que sea hasta que el producto muere.
#21 ¿Eres un bot / ia? Pregunta por el caso concreto de StackOverflow, donde no sé dónde ves la mierdificación. Lo que lo ha matado es la IA, es completamente obvio.
#21 Creo que te pregunta dónde se encuentra esa "mierdificación" en el stackoverflow ya que no parece muy compatible con su definición. De hecho, Prosus compró Stackoverflow en 2021, donde ya un poco antes había una ligera tendencia a la baja pero ya desde entonces se fue para abajo.
#89 Pero es que a partir de ahora cualquiera que desarrolle un programa, software, framework o lenguaje de programación, lo primero que le interesará es que las IAs lo aprendan, subiendo un montón de ejemplos para que se extienda rápido su uso.
Y aunque no le interese, una vez que suba el manual a la red y algunos ejemplos ilustrativos, cualquier IA podrá consultarlo y aprenderlo.
Lo que planteas no tiene sentido a día de hoy.
#7 stack overflow es un foro, no es un producto mierdificado. Su problema es que la gente ya ni pregunta ni lo consulta porque cualquier IA es infinitamente más rápida y concisa. IAs que han aprendido en gran parte leyendo foros de stack overflow. Pero el foro en sí no se ha mierdificado
#38 No. La IA no genera conocimiento.
Si ahora surge una tecnologia nueva (un lenguaje, un framework, una plataforma) , la IA no va a tener ni puta idea de como resolver los problemas que la gente presente. Solamente otros desarrolladores que han pasado por el mismo problema van a poder resolver esas consultas.
La IA no experimenta el mundo real, los ingenieros si.
En mi opinión, creo que empezará a haber más hermetismo por parte de los ingenieros de software, que son quienes tienen el know-how.
#48 ¿Qué tiene que ver que la IA no genere conocimiento a que el número de profesionales que lo generan se reduzca al mínimo porque simplemente la mayoría de los trabajos no generan conocimiento nuevo?
#64"la mayoría de los trabajos no generan conocimiento nuevo"
Vaya invent... conocimiento se genera cada día, en todos los trabajos, incluso en tareas que parecerían irrelevantes.
La realidad está llena de detalles y matices, y la IA únicamente los conoce, gracias a la comunicación que ha hecho de ellos, la gente que los ha experimentado.
#65 Acuérdate de tus palabras en 10 años...
La mayor parte de las cosas que los seres humanos hacemos día a día, en el trabajo y lo que no es el trabajo. son un cortapega de lo que ya hemos hecho o hemos visto hacer a otros. No pienses que somos tan especiales como para generar algo nuevo cada instante de nuestra vida porque no es cierto ni tenemos semejante capacidad.
#79 La mayoría de lo que hacemos cada día no es creación pura ni copia pura. Hay tareas repetitivas y también pequeños descubrimientos que solo existen porque alguien los vive, los observa y los comunica. La IA aprende de esos detalles humanos, pero eso no significa que cada acción cotidiana sea “conocimiento nuevo” ni que seamos máquinas de copiar sin más. La realidad es más simple: generamos cosas nuevas a veces, repetimos otras muchas, y la IA depende de ese equilibrio para funcionar.
#48, basta con que se lea la documentación, qué digo la documentación, basta con que se lea el código sin ni siquiera comentar y podrá responder cualquier duda mejor de lo que lo hace cualquier foro.
A mí me cuesta mucho creer que el que haya aparecido una tecnolgía capaz de convertir lo que se hacía en semanas a cuestión de horas no va a tener ninguna clase de impacto en el mundo laboral, la verdad.
#67 Yo no he dicho que no vayan a tener impacto.
Pero la documentación, nunca va a proporcionar información sobre los detalles y los matices, esos surgen de la experiencia... y si la IA es tan buena a día de hoy resolviendo problemas de desarrollo es porque la han nutrido de cantidades ingentes de documentos donde esa experiencia está plasmada, como StackOverflow. Si StackOverflow desaparece, a ver con qué se entrenan a las IAs del futuro.
Repito, los LLMs no generan conocimiento, porque no experimentan el mundo (pero son muy buenas navegando en el conocimiento ya documentado).
#78 Yu enlace empieza asi: "Presentamos un estudio sobre el descubrimiento matemático semiautónomo"
No, no generan conocimiento, porque no experimentan el mundo, carecen de una meta, y de voluntad.
Por no decir que las LLMs no tienen aprendizaje continuo, se entrena un modelo, y se lanza para ser consumido.
Ninguna interacción, ningún análisis que hagan, afecta al modelo en absoluto, es un artefacto estático e inmutable.
#80, si te hubieses leído el artículo en ligar de quedarte con el título sabrías que el rol del LLM en los descubrimientos que se presentan en el paper es el de construir el razonamiento para verificar el problema, el rol de los expertos humanos es el de plantear el problema y a comprobar si las soluciones generadas por el modelo son correctas y no existe literatura previa. Por mucho que intentemos mover la portería, construir un razonamiento que resuelve un problema es generar nuevo… » ver todo el comentario
#100, si se usan para generar conocimiento, genefan conocimiento. Parece que te importe más defender tu dogma, que aceptar que la evidencia empírica choca con tus creencias.
Que sean o no conscientes de lo que dicen es irrelevante, igual que una vez entrenados sus pesos queden fijados, aunque estoy convencido que eso también cambiará.
#93, yo opino que no, pero bueno, sea como fuere parece que por el número de visitas a stackoverflow demuestra que en caso de que lo que dices ocurra, los casos en los que eso ocurre no dejan de ser una anécdota irrelevante, a la inmensísisma mayoría le basta y le sobra con la IA.
#1: También hay que considerar una cosa: es el volumen de preguntas, no el volumen de uso.
Es decir, hay gente que entra, encuentra su pregunta ya resuelta y no repite la pregunta, por eso con el tiempo se pregunta menos, y aquí la IA no solo tiene un papel en plan copiloto (como Copilot y similares), sino también que si tú escribes una pregunta en Google, aunque no coincida literalmente con la pregunta de StackOverflow, te lleva a ella, cosa que antes quizás no siempre pasara y eso derivase… » ver todo el comentario
#55 Seguro que el haber un menor pool de preguntas sin respuesta efectivamente afecta. De hecho, el volumen de nuevas preguntas hacía años que ya venía cayendo, es posible que en parte debido a ese efecto. Sin embargo, también parece innegable que la IA entró como un elefante en una cacharrería, especialmente a partir de 2023.
La primera versión de chatgpt salió en noviembre de 2022, y ahí ya se observa un primer golpe muy fuerte. Las sucesivas generaciones de LLMs han llevado el volumen prácticamente a 0.
Probablemente el volumen de preguntas seguiría cayendo con el tiempo, pero hubiera tardado muchísimo más en llegar a los niveles actuales.
#60: Es que además hay que tener en cuenta el tipo de preguntas:
- Preguntas habituales que se hacen por primera vez.
- Preguntas rebuscadas que se hacen por primera vez.
- Preguntas habituales reiteradas.
- Preguntas rebuscadas reiteradas.
Las primeras solo se pueden hacer una vez porque una vez hechas, las siguientes similares pasan a la tercera categoría. Las de la tercera categoría quizás solo las hagan usuarios sin mucha experiencia, sin habilidad para buscar... que antes llegaban y… » ver todo el comentario
Ayer estuve toda la tarde intentando encontrar pq no funcionaba una librería con gemini, claude y chat gpt. Al final encontré la solucion en un post de stack overflow.
#14 Yo igual para un problema que nos surgió tras una subida de versión. Gemini y GPT cada uno diciendo veinte causas, y al final era un bug de esa versión y había que subir a la siguiente. Por supuesto, ninguna de estas maravillosas herramientas ayudó en nada, y la solución la encontré en un post del github de la librería.
#14, #23, este es un ejemplo bien claro de por qué en ciencia, las evidencias anecdóticas no tienen ninguna clase de validez empírica. A pesar de que tu experiencia de ayer parece dar a entender que Stack Overflow sigue siendo super útil al lado de lo inútiles son los LLM a la hora de la verdad, los datos de visitas de Stack Overflow basados en una base potencial de millones de usuarios, indican que tu caso es muy excepcional y que a la mayoría de la gente le basta y le sobra con los LLM, sino la gente seguiría recurriendo a Stack Overflow periodicamente y esto se vería reflejado en el número de visitas.
#73 Hoy por hoy la IA es tremendamente eficaz desarrollando en Javascript, para web y movil, pero en movil nativo o embedded es solo una herramienta de ayuda. Para debugging es inutl.
#2 Volverá de alguna otra manera. Los LLM son muy buenos haciendo lo que se supone que tienen que hacer. Muy malos con lo demás. La fuente fundamental de las respuestas que hoy se dan en ciertos espacios vienen de contribuciones en la propia StackOverflow. Si disminuyen, la IA cada vez dará resultados peores para resolver problemas que nazcan estos años y hacia el futuro, por lo que de nuevo se necesitará un lugar donde seres humanos compartan ideas. Y volverán a intentar sacar de ahí contenido para nuevos LLM.
#32, stack overflow empezó la bajada hace 2 años y los modelos de IA han seguido mejorando sin inmutarse, tu afirmación es más un acto de fe que algo que se observe en ninguna tendencia. Mi apuesta es que casi nadie va a escribir una sola línea de código fuera del ámbito académico en 5 años, siendo muy conservador.
#69 Estoy todavía en fase de negación. Había pensado algo parecido a eso. Por eso puse al final el "O no", porque la historia no se repite, aunque a veces rime.
#28#18 ahora mismo el mayor filon de datos de entrenamiento esta en los repositorios tipo guthub. Lo que tiene de bueno SO como datos de entrenamiento eran las preguntas con las dudas y problemas tipicos de usuarios inexpertos y no tan inexpertos... #19 si el sitio cierra y con el la info, los que tendrán ventaja son los que ya se descargaron y entrenaron sus modelos con esa información.
#19 todos los sitios webs desaparecen y todo conocimiento se borrara, antes o despues, en cualquier caso, creo que stackoverflow precisamente tendrán backups de bases de datos de sobra
#10 y con ello llegará el colapso de los modelos. Cuando todo esté hecho con IA, no se podrá entrenar a la IA con los datos generados por la propia IA, porque eso lleva irremediablemente a datos de salida de mala calidad, lo que se conoce model collapse:
Me recuerda al acero de bajo fondo, que es el acero de los barcos hundidos antes de la caída de las bombas de Hiroshima y Nagasaki, muy valioso para determinados usos, porque todo el acero… » ver todo el comentario
#28 bueno, el acero ya es otra vez usable ya que ha pasado mucho tiempo desde los últimos petardazos nucleares. Y yo espero que con esto pasará lo mismo. En un tiempo otra vez hará falta un sitio donde mirar las dudas tu mismo.
#53 no es cierto, la radiación permanece en la atmósfera por siglos, y aunque ha bajado muchísimo, sigue habiendo la suficiente como para que el acero resultante tenga demasiada radiación para determinados usos específicos. Además de que el acero que se produce hoy usa chatarra reciclada que ya está contaminada.
Pero volviendo a la IA, evidentemente no va a desaparecer como pasó con las pruebas nucleares, sino que va a ir a más, y por lo tanto los datos cada vez estarán más contaminados.
#59en.wikipedia.org/wiki/Low-background_steel
Segundo párrafo en la sección "history and rationale". Si que sigue siendo demasiado para algunos usos muy concretos, pero ya no para cosas como instrumentos medicos y tal. Y la mal llamada IA irá a más... hasta que colapse y deje de usarse.
Cuando todo esté hecho con IA, no se podrá entrenar a la IA con los datos generados por la propia IA
La fuente de conocimiento será cerrada/propietaria y no podrán salir nuevos competidores de la nada, de ahí que las empresas ahora estén apostando de manera exagerada por esta tecnología, y así entrar en el grupo de los que hayan entrado a tiempo.
Normal, el SWE Benchmark ya fue saturado el año pasado.
Ahora faltan los FrontierMath, pero se están encontrando con una paradoja no tan paradójica.: después de saturar los benchmarks de coding, se barruntó, a priori en buena lógica, que los siguientes en caer serían los de matemáticas. Y más o menos iban cayendo (el último, el Putnam Benchmark de 2025, aunque algunos lo consideran más fácil que algunos problemas de las últimas IMO, de los que todavía ninguna IA ha resuelto dos problemas con… » ver todo el comentario
Si bien, los gpts están siendo principales causas, aún muchos encontramos respuestas de errores extraños y casos raros. En lo que se refiere a hacer preguntas, con dos contestaciones con clara soberbia y prepotencia, a dos preguntas totalmente válidas, tuve suficiente, o hacen limpieza o el barco se les termina de hundir.
Creo que se puede incluir un texto como descripción muy fácilmente para los meneos y no debería permitirse un meneo sin descripción. No votaré negativo.
#30 sería más adecuado errónea por no tener texto descriptivo que microblogging y microblogging se usa muy mal en general. Acepto pulpo pero creo que te arriesgas a menos negativos si intentas hacer un resumen muy descriptivo. Estilo: está página web cuenta con los datos de tal y tal. Sin inventar nada. Solo es un consejo y lo que haría yo, nada más. Un saludo.
#25 creo que podrían poner una IA que resuma los artículos y acabe generando descripciones clonadas unas a otras como los descriptivos de producto de Wallapop
#75 He estado suscrito a ChatGPT y ahora estoy probando Gemini. Me de suscribí a ChatGPT porque, de forma arbitraria, entra en modo “no te lo voy a hacer” cuando le pedía alguna operación sobre documentos o “te voy a soltar una chapa generalista como si fueras tonto” cuando le pedía información sobre algún tema concreto.
#22 Es normal que la gente entre en modo negación. La IA juega con nuestros empleos, que es de lo más sagrado que hay.
Ahora mismo hay dos visiones entre los programadores: el que tiene claro que la IA se va a fundir el 95% del empleo del sector y el que va a quedar es muy diferente, o el que opina que la IA es una mierda que no va a llegar a nada significativo. Eso según si ya has aceptado lo que se está viendo cada día y su evolución, o los que no.
Y somos gente con suerte. Al menos somos conscientes todos de lo que puede pasar, incluso los más en negación. En otros sectores ni saben lo que viene.
¿Y si sale un nuevo lenguaje quién va a alimentar a las IAs? porque que yo sepa no sacan su conocimiento de la nada y si no hay humanos que desarrollen en el nuevo lenguaje con sus errores, aciertos y dudas planteadas/respondidas en sitios como StackOverflow, se va a quedar en nada.
Ah ya, que se le está proporcionando a Github entrenamiento gratis.
La IA dado cierto nivel entrenamiento, solo necesita conocer las especificaciones técnica y la documentación de los frameworks-lenguajes-librerías para ser capaz de elaborar respuestas. El modelo no tiene por qué estar fijado a lo que se le entrenó. Lo que se le entrenó generó ideas y patrones abstractos, no solo implementaciones concretas. Digamos que el modelo puede ser un genio de la programación, no necesita ser entrenado de nuevo desde 0 en… » ver todo el comentario
#39 no es así exactamente. Cada lenguaje sobresale en un campo, con diferencias sutiles pero fundamentales que pueden hacer diferencias abismales a la hora de programar, sobretodo mientras el nivel sea más bajo. Basta con recordar la enorme (y larguísima) discusión que hubo en los desarrolladores del kernel de Linux para implementar funciones con Rust o el hecho q programen en C y no en C#. Puedes ser un genio de la informática dedicando toda tu vida a C++... Y luego costarte mucho pasar a… » ver todo el comentario
#31 Nuevo lenguaje? Los lenguajes informáticos van a tender al lenguaje natural que la IA transcribirá directamente a lenguaje máquina. La actual programación por IA solo es un paso de transición a lo que será en 10 o 20 años. Ahora mismo no dejan de ser asistentes. En el futuro serán los programadores y el ingeniero será un simple director y organizador del proceso sin intervención directa, y que para proyectos relativamente simples no harán ni falta. Seguramente algún programador clásico… » ver todo el comentario
#40 lo mismo puedes decir del lenguaje matemático... Y no se puede reemplazar.
No hay forma coloquial o natural de expresar ciertos conceptos matemáticos o informáticos. Es difícil explicarlo para un lego en la materia, pero si tienes experiencia con programación veras q hay conceptos que solo pueden expresarse de forma matemática, fisica o informática. No en lenguaje natural
#44 El lenguaje matemático es un descriptor útil del mundo. Prueba de ello es que lo usamos entre nosotros. El lenguaje C o .net no hace nada que no haga el lenguaje máquina. Es solo un paso intermedio y que llegará a ser innecesario salvo para tareas muy específicas por parte de gente muy experta.
#47 Cierto. Pero una cosa es que exista dicho lenguaje y otra que se use de forma habitual. Como ya he dicho habrá una serie de especialistas contados. El resto programara a base de prompts en lenguaje natural simplemente porque será más sencillo de enseñar, más barato de producir y más rápido.
#66 Es decir, estás suponiendo que todas las empresas del mundo que se dedican a producir hardware y software, se van a poner de acuerdo con la academia, con el mundo universitario, para producir un nuevo lenguaje, que va a servir para todos los dispositivos por crear y al mismo tiempo va a tener compatibilidad hacia atrás. ¿Y todo ello para que las máquinas escriban en ese lenguaje en exclusiva?
Yo esta parte, no la veo. Es mejor seguir soportando lenguajes como c,c++, rust, go, java, sql,… » ver todo el comentario
#84 Respecto a lo último que dices: la gracia del asunto es que una IA será capaz de producir código infinitamente más rápido que un humano. Llegar a la excelencia de un chef tres estrellas probablemente requería muchos intentos. La pregunta es ¿se gana tiempo produciendo 1.000 intentos desde cero mediante IA donde el 90% es insatisfactorio con respecto a un solo intento humano donde el 30% va a ser insatisfactorio? La máquina puede tirar un código a la basura e iterar mil veces si quieres… » ver todo el comentario
#40 jamás pasará que perderemos el control del lenguaje con el que se programan las máquinas. Hay consenso en que sería muy peligroso dejar que pasara y para que algo así ocurriera, se tendría que reescribir todo el software a ese hipotético lenguaje máquina del futuro que supones. Carísimo, muy peligroso y todo en el nombre de la eficiencia energética?
Además, siempre se necesitará compatibilidad hacia atrás.
#31, todos los markdowns de mis proyectos los hace Gemini, te aseguro que lo último que debe preocuparte es de dónde va a sacar el material para responde, basta con pasarle tu proyecto en bruto y el es capaz de leerlo y entenderlo a la perfección, si alguien desarrolla algo nuevo, no hará falta que le pase siquiera la documentación técnica, bastará pasarle ese algo y será el que LLM redactará la documentación.
#5 para cualquier que estuviese aprendiendo un nuevo stack o simplemente tocando componentes con los que no estaba acostumbrado a trabajar en el día a día, seguía siendo tan relevante como en el 2010. Por muy bien documentado que esté un lenguaje de programación, framework o cualquier otro software, siempre hay casos de uso específicos que no se encuentran en la documentación, que no están bien explicados o que no son fáciles de encontrar o extrapolar, o simplemente que es más rápido buscarlo… » ver todo el comentario
Pensaba que esto era culpa de la IA, pero la bajada empieza ya en 2023 que cayó un 50%, en 2024 cayó algo más del 50% y en 2025 es aún peor y cae un 70% o así, la paradoja es que la IA se nutría de estos sitios, pero a lo mejor ahora aprende a nutrirse de las respuesas positivas que le den a lo que ella hace.
#61 ¿eras tú el que generaba estos miles de preguntas cada día?
A mí me da pena ayudar a perder todo este conocimiento colectivo público pero creo que a la inmensa mayoría de gente le cunde más preguntarle a la IA de turno que chuparse no sé cuantos hilos de problemas que igual ni coinciden con el suyo.
Dentro de unos años veremos cuando ya nadie sepa solucionar los bugs causados por la IA porque ya nadie entiende el codigo generado.
Ya se empiezan a ver pull request con el argumento de "porque lo dice la IA"
www.meneame.net/story/mayor-accionista-tencent-compra-stack-overflow-1
Dentro de unos años veremos cuando ya nadie sepa solucionar los bugs causados por la IA porque ya nadie entiende el codigo generado.
Ya se empiezan a ver pull request con el argumento de "porque lo dice la IA"
Lo de esperar que humanos solucionen los errores de programación es algo cada vez más vintage.
Las alucinaciones irán subiendo exponencialmente y acabarán siendo un problema muy muy grave
Y aunque no le interese, una vez que suba el manual a la red y algunos ejemplos ilustrativos, cualquier IA podrá consultarlo y aprenderlo.
Lo que planteas no tiene sentido a día de hoy.
Es el fin de internet como medio de expansión del conocimiento libre.
Veremos que pasa con la Wikipedia...
Si ahora surge una tecnologia nueva (un lenguaje, un framework, una plataforma) , la IA no va a tener ni puta idea de como resolver los problemas que la gente presente. Solamente otros desarrolladores que han pasado por el mismo problema van a poder resolver esas consultas.
La IA no experimenta el mundo real, los ingenieros si.
En mi opinión, creo que empezará a haber más hermetismo por parte de los ingenieros de software, que son quienes tienen el know-how.
Vaya invent... conocimiento se genera cada día, en todos los trabajos, incluso en tareas que parecerían irrelevantes.
La realidad está llena de detalles y matices, y la IA únicamente los conoce, gracias a la comunicación que ha hecho de ellos, la gente que los ha experimentado.
La mayor parte de las cosas que los seres humanos hacemos día a día, en el trabajo y lo que no es el trabajo. son un cortapega de lo que ya hemos hecho o hemos visto hacer a otros. No pienses que somos tan especiales como para generar algo nuevo cada instante de nuestra vida porque no es cierto ni tenemos semejante capacidad.
No sabes cuan esquivocado estas
Un poco de aporte nuevo de cada uno hacen muuuucho conocimiento nuevo
A mí me cuesta mucho creer que el que haya aparecido una tecnolgía capaz de convertir lo que se hacía en semanas a cuestión de horas no va a tener ninguna clase de impacto en el mundo laboral, la verdad.
Pero la documentación, nunca va a proporcionar información sobre los detalles y los matices, esos surgen de la experiencia... y si la IA es tan buena a día de hoy resolviendo problemas de desarrollo es porque la han nutrido de cantidades ingentes de documentos donde esa experiencia está plasmada, como StackOverflow. Si StackOverflow desaparece, a ver con qué se entrenan a las IAs del futuro.
Repito, los LLMs no generan conocimiento, porque no experimentan el mundo (pero son muy buenas navegando en el conocimiento ya documentado).
www.meneame.net/m/actualidad/descubrimiento-matematicas-semiautonomo-t
No, no generan conocimiento, porque no experimentan el mundo, carecen de una meta, y de voluntad.
Por no decir que las LLMs no tienen aprendizaje continuo, se entrena un modelo, y se lanza para ser consumido.
Ninguna interacción, ningún análisis que hagan, afecta al modelo en absoluto, es un artefacto estático e inmutable.
¿Se pueden usar para generar conocimiento ? SI
¿Generan conocimiento por ellos mismos? No
¿En quién queda el conocimiento generado ? En las personas.
Los LLMs no recuerdan nada, es más no son ni conscientes de lo que te dicen.
Que sean o no conscientes de lo que dicen es irrelevante, igual que una vez entrenados sus pesos queden fijados, aunque estoy convencido que eso también cambiará.
El conocimiento libre está llegando a su final
Perdo por el negativo, dedazo
Es decir, hay gente que entra, encuentra su pregunta ya resuelta y no repite la pregunta, por eso con el tiempo se pregunta menos, y aquí la IA no solo tiene un papel en plan copiloto (como Copilot y similares), sino también que si tú escribes una pregunta en Google, aunque no coincida literalmente con la pregunta de StackOverflow, te lleva a ella, cosa que antes quizás no siempre pasara y eso derivase… » ver todo el comentario
La primera versión de chatgpt salió en noviembre de 2022, y ahí ya se observa un primer golpe muy fuerte. Las sucesivas generaciones de LLMs han llevado el volumen prácticamente a 0.
Probablemente el volumen de preguntas seguiría cayendo con el tiempo, pero hubiera tardado muchísimo más en llegar a los niveles actuales.
- Preguntas habituales que se hacen por primera vez.
- Preguntas rebuscadas que se hacen por primera vez.
- Preguntas habituales reiteradas.
- Preguntas rebuscadas reiteradas.
Las primeras solo se pueden hacer una vez porque una vez hechas, las siguientes similares pasan a la tercera categoría. Las de la tercera categoría quizás solo las hagan usuarios sin mucha experiencia, sin habilidad para buscar... que antes llegaban y… » ver todo el comentario
c.tenor.com/OKzitddEJREAAAAC/huele-a-leche-rivera.gif
O no.
Eres desarrollador ?
Olvidate del conocimiento libre.
En resumen: A pagar
Y los cambios son rapidísimos
en.wikipedia.org/wiki/Model_collapse
Me recuerda al acero de bajo fondo, que es el acero de los barcos hundidos antes de la caída de las bombas de Hiroshima y Nagasaki, muy valioso para determinados usos, porque todo el acero… » ver todo el comentario
Pero volviendo a la IA, evidentemente no va a desaparecer como pasó con las pruebas nucleares, sino que va a ir a más, y por lo tanto los datos cada vez estarán más contaminados.
Segundo párrafo en la sección "history and rationale". Si que sigue siendo demasiado para algunos usos muy concretos, pero ya no para cosas como instrumentos medicos y tal. Y la mal llamada IA irá a más... hasta que colapse y deje de usarse.
Cuando todo esté hecho con IA, no se podrá entrenar a la IA con los datos generados por la propia IA
La fuente de conocimiento será cerrada/propietaria y no podrán salir nuevos competidores de la nada, de ahí que las empresas ahora estén apostando de manera exagerada por esta tecnología, y así entrar en el grupo de los que hayan entrado a tiempo.
Ahora faltan los FrontierMath, pero se están encontrando con una paradoja no tan paradójica.: después de saturar los benchmarks de coding, se barruntó, a priori en buena lógica, que los siguientes en caer serían los de matemáticas. Y más o menos iban cayendo (el último, el Putnam Benchmark de 2025, aunque algunos lo consideran más fácil que algunos problemas de las últimas IMO, de los que todavía ninguna IA ha resuelto dos problemas con… » ver todo el comentario
¿Serán los mismos tipos que llevan preguntando mierdas desde que abrió la web? Yo elijo pensar que sí.
Aún así la noticia tiene votos negativos por..."microblogging"
Igual es mi percepción, pero…
Ahora mismo hay dos visiones entre los programadores: el que tiene claro que la IA se va a fundir el 95% del empleo del sector y el que va a quedar es muy diferente, o el que opina que la IA es una mierda que no va a llegar a nada significativo. Eso según si ya has aceptado lo que se está viendo cada día y su evolución, o los que no.
Y somos gente con suerte. Al menos somos conscientes todos de lo que puede pasar, incluso los más en negación. En otros sectores ni saben lo que viene.
Ah ya, que se le está proporcionando a Github entrenamiento gratis.
Bueno, pues cuando me echen quiero mi parte.
Pero no
La IA dado cierto nivel entrenamiento, solo necesita conocer las especificaciones técnica y la documentación de los frameworks-lenguajes-librerías para ser capaz de elaborar respuestas. El modelo no tiene por qué estar fijado a lo que se le entrenó. Lo que se le entrenó generó ideas y patrones abstractos, no solo implementaciones concretas. Digamos que el modelo puede ser un genio de la programación, no necesita ser entrenado de nuevo desde 0 en… » ver todo el comentario
Y eso es un problema muy muy gordo.
Lo que será necesario es modificar el framework para que la IA "tenga razon"..
No hay forma coloquial o natural de expresar ciertos conceptos matemáticos o informáticos. Es difícil explicarlo para un lego en la materia, pero si tienes experiencia con programación veras q hay conceptos que solo pueden expresarse de forma matemática, fisica o informática. No en lenguaje natural
#47 Cierto. Pero una cosa es que exista dicho lenguaje y otra que se use de forma habitual. Como ya he dicho habrá una serie de especialistas contados. El resto programara a base de prompts en lenguaje natural simplemente porque será más sencillo de enseñar, más barato de producir y más rápido.
Yo esta parte, no la veo. Es mejor seguir soportando lenguajes como c,c++, rust, go, java, sql,… » ver todo el comentario
Además, siempre se necesitará compatibilidad hacia atrás.
Unos pocos de esos, encontrarán la solución. No se. publicará
Ni veo yo al desarrollador de un proyecto perdiendo mucho tiempo con eso...
A mí me da pena ayudar a perder todo este conocimiento colectivo público pero creo que a la inmensa mayoría de gente le cunde más preguntarle a la IA de turno que chuparse no sé cuantos hilos de problemas que igual ni coinciden con el suyo.