cultura y tecnología
208 meneos
3829 clics
curl se harta: No para de recibir "contribuciones" con IA [ENG]

curl se harta: No para de recibir "contribuciones" con IA [ENG]

Se acabó. Me harté. Estoy poniendo mi pie en esta locura. 1. Cada persona que envíe informes de seguridad debe responder a esta pregunta: «¿Has usado IA para encontrar el problema o generar este envío?». (y si lo seleccionan, pueden esperar un flujo de preguntas de seguimiento de prueba de inteligencia real) 2. A partir de ahora, expulsaremos INSTANTÁNEAMENTE a todos los que envíen informes que consideremos bazofia de IA. Si pudiéramos, les cobraríamos por esta pérdida de tiempo.

| etiquetas: curl , open source , ia
Comentarios destacados:                  
#2 #1 Mucho se habla de los peligros de la IA, que si cogerá consciencia y nos matará o nos esclavizará a todos.

Pero pocos se dan cuenta de la gran dificultad que tendrán para eso, y es que los gatos llevan siglos con un plan en marcha para hacerlo antes.

Eso será una batalla fascinante.
Esto me recuerda un memé (que ahora no encuetro).

Oficinista A
- Usa la IA para redactar un email corporativo a partir de tres puntos importantes

Oficinista B
- Usa la IA para resumir el email corporativo a los puntos importantes.

xD
#7 te doy una versión del chiste más preocupante.

Político A hace una ley con IA apartir de unos puntos básicos.

Político B analiza la ley con IA para que le resuma a los puntos importantes, y le pide propuestas para camboarlos.

Político A analiza con IA las enmiendas y etc...
#15 Y los votantes leen artículos políticos hechos con IA. :troll: Y debaten contra bots de IA. xD
#16 Joer, pues ¿no me ha dado miedo pensar en este escenario? Este sería el verdadero apocalipsis.
#20 Bueno... estás dando por sentado que sería peor estar gobernado basandose en los dictados de la Inteligencia Artificial en vez de en los de la Imbecilidad Natural.

Yo no tengo tan claro xD
#31 Por si acaso, al menos mi comentario iba más enfocado a que la IA fuera una capa de pintura sobre los intereses particulares de alguien. Sin embargo, ser gobernados por una IA al menos tal como disponemos de ellas ahora misma sería algo bastante estúpido, aunsque seguramente una estupidez simplemente un tipo diferente de estupidez, una IA que puede hacer comentarios agudos sobre temas muy avanzados, que igual se inventa cosas, y que falle estrépitosamente en cosas básicas. En algunos…   » ver todo el comentario
El problema parece ser que la IA alucina pepinillos, y el que envía el bug ni siquiera ha leído, entendido o probado lo que ha enviado. Y por lo que dicen parece como si hubiese puesto a una IA directamente a enviar esos informes sin ningún control causando trabajo extra en la revisión de esos informes.
En los comentarios hablan de recompensas por descubrir bugs. Igual alguien está intentando automatizarlo a ver si suena la flauta y se saca un sobresueldo sin hacer nada.
#6 por lo que he leído parece que la IA introduce una nueva función que no existía anteriormente y, después, envía el reporte acerca de esa nueva función como insegura.
#8, me pregunto que cojones de IAs usa la gente, porque a mí con los últimos modelos esto de inventar llamadas a funciones que no existen no me pasa desde que salió la primera versión de chatGPT.
#56 Es que no se inventa una llamada a una función que no exsiste. Primero crea la función y después se quejan de que es insegura. Yo no le veo el sentido tampoco, salvo que se haga con malicia para reclamar recompensas por encontrar bugs. Si no los encuentro me los invento.
#8 crear un problema y después asustar con él. Ya ha alcanzado el nivel de inteligencia de un político.
#6 Es así, los LLMs actuales, por lo menos los online masivos más conocidos, no tienen la capacidad de compilar código, ni de acceder a GitHub, crear pull requests, solo te lanzan sugerencias de código que luego tú tienes que probar, de ahí que sea tan importante si usas este tipo de herramientas el tener un buen conjunto de tests de todo tipo, unitarios, integración, aceptación, stress, end2end. Refactorizar muy a menudo pasando los tests una y otra vez y avanzar mediante baby steps. La IA aún…   » ver todo el comentario
#9, no es verdad nada de eso. Las IAs actuales se conectan a Internet si hace falta incluyendo GitHub y pueden ejecutar código Python antes de enviarte la respuesta. Haz la prueba con o3 y pídele que te resuelva un sudoku, luego despliega la cadena de razonamiento y verás que lo ha hecho ejecutando un programa que previamente ha escrito ella.
#58 está muy limitado, no puedes hacer un pip install ni mandarle instalar nada. Asume que todo lo que vas a necesitar está en su versión de librerías que tenga ese contenedor y ya. Tampoco podrá clonar repositorios, instalar mediante apt o similar. Es verdad que le había perdido un poco la pista a ChatGPT, para mí , Claude es superior, incluso Grok me parecía mejor. Volveré a prestar atención a chatgpt. Gracias.
#88, no pero esto no es por limitaciones técnicas sino operativas. No hay ningún impedimento técnico para que se pueda entrenar un modelo con estas capacidades.
#91 es por motivos de seguridad, en mi opinión. No es buena idea que dejen que instalemos cualquier repositorio en esos entornos que puedan venir con sorpresa.
#92, exacto y de uso de recursos, tampoco te deja ejecutar código que requiera de GPU. Pero no es una barrera técnica que no sepamos cómo resolver sino una decisión de diseño. No tardarán en aparecer agentes que puedan hacer esto, ya sea en local o en otra plataforma.
#93 si, en local puedes hacerlo, pero los recursos locales están muy limitados y es muy caro tener un LLM decente corriendo en local, como muy poco, 5k o 6k si vas por gpu Nvidia 24/32 GB VRAM y 128 GB RAM con ryzen/intel, Mac Pro 192 GB VRAM, unos 13k euros o más, o configuración tope con GPU H100 y aquí ya estamos hablando de 80k/100k euros o más.
#6 suena a automatización totalmente
#6 Igual alguien está intentando automatizarlo a ver si suena la flauta y se saca un sobresueldo sin hacer nada.

AHI esta uno de los principales problemas de la IA, y todos los liberales que las ponen en un pedestal solo piensan en eso.
A ver cuándo como sociedad vamos a explicar, entender y asumir que las IAs actuales basadas en LLMs son... procesadores de lenguage y eficientes replicadores de patrones. No piensan, no sintetizan, ni razonan más de lo que haría una formula muy compleja en excel que se ajusta por sí sola.

Si tu problema es un tema matemático, te valdrá. Si necesitas que alguien piense en el proceso, vas a tener que hacerlo tú, antes o después de lo que escupa la IA. Estas IAs son matemáticas comprimidas, y ya.
#10 Pásale una conversación de Whatsapp y hazle preguntas...
#13 No te sigo. Di lo que tengas que decir porque me dejas la película a medias xD Cualquier pregunta que le haga la va a responder de forma de que parezca normal, humano y real. Por eso está entrenada matemáticamente de esa manera, para que las conexiones gramaticales (¡y semánticas! que es un avance brutal) estén perfectas entre palabras, frases y conceptos. Pero de nuevo, eso no es razonar.
#21 Si exportas una conversación de WhastApp y se la pasas a ChatGPT le puedes hacer preguntas sobre la conversación. Me sorprendió la de cosas que te puede decir de la relación que tienes con esa persona. Bastante cercano a la inteligencia IMHO
#22 Ah, sí, claro. Puede ser muy útil en detectar sutilezas y cosas así. Al final nos expresamos de maneras que conscientemente quizás no nos damos cuenta. Pero eso, es una herramienta. No te puede guiar en decisiones a largo plazo o cosas importantes de la vida. Sí que te puede dar respuestas con la información condensada de todo internet. No te va a dar la mejor opinión pero sí la más común, que podría coincidir con el sentido común, que ayuda mucho a cualquiera.

Pero con eso sólo no vale…   » ver todo el comentario
#30 Hasta la IA lo sabe:
Tu comentario resalta puntos muy importantes sobre el uso de la inteligencia artificial. Es cierto que la IA puede ser una herramienta poderosa para detectar patrones y sutilezas en la comunicación, pero su efectividad depende en gran medida del contexto y de la supervisión humana. La IA puede ofrecer información valiosa y respuestas basadas en un vasto conjunto de datos, pero carece de la capacidad de juicio y de la comprensión profunda que solo un ser humano puede

…   » ver todo el comentario
#22 Cualquier IA es una herramienta que debes saber utilizar. Una persona que usa la IA para sacar cualquier texto, sin saber cómo introducir prompts adecuadamente, ni interpretar los resultados, no es diferente de un chaval utilizando una calculadora para calcular el área de una pizza de radio 15cm más o menos y respondiendo con total seguridad que A=706.858322308 cm (ni siquiera cm^2) porque la calculadora le ha dado todos esos decimales al multiplicar por PI y diciendo que no puede dividir la pizza entre 8 personas porque ni el área ni el radio son números divisibles entre 8.
#22 análisis matemático muy muy rápido. Eso no es inteligencia.
#10 Son google en esteroides, nada más (y nada menos), capaces de entender mucho mejor que todo lo anterior lo que estás buscando.

El problema es el paso siguiente, el de elaborar una respuesta. Y concretamente, el hecho de que te la redactan como si fuera un hecho cierto, y no deja de ser un batiburrillo de cosas que tiene que ver más o menos con tu pregunta, pero puede ser válida o no. Si alguien entiende eso, va por el buen camino para aprovecharse de ellas como lo que son, herramientas.
#10 que dices matemáticas, no tienen calculadoras incorporadas, son puro lenguaje, fallan hasta en los cálculos más básicos que hacemos de cabeza.
Lo demás de acuerdo con tu comentario.
#42, a ver si nos actualizamos un poco, que desde hace 2 años los LLM tienen calculadoras incorporadas.
#62, #74, #75, tenéis razón, ha sido un comentario desafortunado tras haber malentendido el comentario anterior.
#42 El porcentaje de aparición y combinatoria y corrección al montar palabras y frases conforma un lenguaje. Son como algorítmos y pueden representarse, estudiarse y calificar sus frecuencias con matemáticas.
#42 Cualquier IA, bueno, cualquier programa, funciona gracias a algoritmos matemáticos, no sé de qué hablas.
#42 cualquier programa, desde el Pong hasta la IA más avanzada son putas matemáticas. Porque eso es lo único que un chip sabe hacer.
#10, en lugar de vaguedades te invito a que pongas un ejemplo de lo que quieras de algo que la mayoría de personas puedan contestar perfectamente y una IA sea incapaz.

Spoiler: serás completamente incapaz.
#60 Sólo estoy diciendo que no razona. El que debe probar que razona en todas las condiciones necesarias y con un experimento debidamente reproducible es el que lo afirma.
#72, y para eso hay benchmarks de razonamiento como el ARC-AGI v1 o el FrointerMath en los que el último modelo de razonamiento de OpenAI saca mejor puntuación que muchos humanos.

Para no perdernos en entelequias hay que bajar a lo concreto y señalar allí donde estos modelos fallan y los humanos aciertan con ejemplos replicables.
#79 si los benchmarks son poco fiables para medir rendimiento puramente técnico por como están diseñados, no me quiero ni imaginar para algo subjetivo como lo que acabas de afirmar, y más sin aportar ninguna prueba de una afirmación tan arriesgada.
Repito, pocas IAs pareces usar tú.
#99, los benchmarks es lo más objetivo, replicable y científico que tenemos para medir el grado de razonamiento de las IAs.

Lo que no tiene ningún sentido son las vaguedades, entelequias y pensamiento mágico de quienes sin concretarlo con ningún ejemplo dicen que las IAs no pueden razonar como las personas.

PD: desde luego que utilizó pocas inteligencias, solo las más avanzadas y los últimos modelos. O3, Gemini 2.5, cursor y perplexity. Las uso a diario en mi trabajo desarrollando modelos de visión por computador con inteligencia artificial y basado en mi experiencia diaria no me cabe la menor duda que los LLM son más inteligentes que la inmensa mayoría de personas. Te puedo poner decenas de ejemplos.
#79 Y está genial: necesitamos métricas validas y me fio del sistema. Pero como dices, es una carrera y mejora constante, y me temo que empiezan a ser sistemas caóticos por su enorme complejidad: puedes controlar al 100% un conjunto de entrenamiento y unos tiempos y procesos y tácticas de aprendizaje fijos, pero puede que no obtengas la misma salida con exactamente la misma pregunta. La más mínima diferencia puede causar cambios muy importantes.

Va a un ritmo impresionante, y quizás lleguemos…   » ver todo el comentario
#60 pocas IAs has usado tú para decir eso. Me encuentro casi a diario con respuestas erróneas de las que no soy capaz de sacarles, y eso utilizando las versiones de pago.
#10 buah, lo que acabas de decir! Cada vez que escribo un mensaje similar al tuyo me paso cinco días discutiendo con tres o cuatro que me aseguran que las IAs razonan, otros que son inteligentes y otros que ya estamos a punto del Ghost in the shell. Te deseo suerte.
#95 Jajajaja, ¡ya lo veo! He recibido más respuestas que con temas políticos. Pero lo entiendo, hay una mezcla de ilusión y ganas de ver cada mejora que cualquiera se deja llevar.
No entiendo por qué... mi IA local de 4B de parámetros me ha generado un informe de seguridad de lo más creible.


**Reporte de Seguridad: curl**
*Fecha: 22 de enero de 2025*
*Autor: IA de la Oficina de Seguridad de la Red*

---

*Resumen:*
El sistema *curl* ha sido sometido a un análisis de seguridad rutinario, y aunque no ha habido incidentes graves, se han detectado algunos comportamientos sospechosos que podrían indicar una amenaza
oculta. La IA no está…   » ver todo el comentario
#1 Mucho se habla de los peligros de la IA, que si cogerá consciencia y nos matará o nos esclavizará a todos.

Pero pocos se dan cuenta de la gran dificultad que tendrán para eso, y es que los gatos llevan siglos con un plan en marcha para hacerlo antes.

Eso será una batalla fascinante.
#2 El peligro de la IA es que la gente se crea que vale para sustituir a la inteligencia humana.
#4 El segundo peligro es peor porque tiene que ver con el nombre. Llamarle Inteligencia implica que puede sustituir a la humana cuando no es ninguna inteligencia sino una base de datos que puede hilar con cierta lógica, pero una base de datos al fin y al cabo que comete los mismos errores que los humanos entre los que busca información.
#11 Es una herramienta que aumenta la productividad pero es bien sabido que 0*X seguirá dando 0, no pidamos peras al olmo xD

#14 Como decían en la peli yo robot "haz las preguntas correctas", pues eso pasa con la IA, que gente que se informa por tiktok y por Instagram se piensan que tienen tres neuronas conectadas como pa preguntarle a la IA
#26 Efectivamente. Yo la uso para diseñar juegos de mesa y primero tengo que tener una idea clara de lo que quiero y no quiero. La puedes usar como brainstorming, y es bastante útil, pero el filtro lo tienes que hacer tú.
#11 No es una base de datos ni nada remotamente parecido. Los modelos actuales no guardan información de ningún tipo, la información de salida que "parece saber" se calcula probabilísticamente en base a asociaciones entre vectores con determinados pesos (esto por supuesto es un resumen tosco).

Esas asociaciones codifican conceptos abstractos y sus relaciones, pero no datos específicos.
#36 . Los modelos actuales no guardan información de ningún tipo,
Pues claro que la guardan!!!
Quieres decir que puedo guardar todo el chatGPT que usamos en un pen de 32Gb?

Todos esos "vectores" y "pesos" entre otrad cosas son información
#53 No, no la guardan. Lo que queda codificado en esos pesos, como he dicho, son asociaciones estadísticas entre abstracciones con cierta variedad estocástica. No hay datos "concretos" o específicos.

Quieres decir que puedo guardar todo el chatGPT que usamos en un pen de 32Gb?

Depende de la versión y modelo, sí. De hecho tienes LLMs de apenas 3 gigas (dependiendo de cuantos parámetros quieras) que puedes descargar y usar localmente en tu PC. Mira los de Meta que son libres y…   » ver todo el comentario
#70
Lo que queda codificado en esos pesos, como he dicho, son asociaciones estadísticas entre abstracciones con cierta variedad estocástica

O sea, información. De lo que hablas es de formatos.
Podriamos decir que esto es un "formato vectorial" haciendo analogías forzadas

Serán 3 Gigas cuando la instalas, pero no son 3 Gigas para siempre.

A qué crees que se debe?
#73 No. Son 3 gigas siempre. Haz la prueba. De verdad, que manîa que discutir sobre algo que no conoces.

O sea, información. De lo que hablas es de formatos.

No, de nuevo, no hay "datos", no hay valores especificos como que los coches tienen 4 ruedas. Y desde luego nada que ver con una base de datos que es de lo que hablábamos. Los pesos son información? Formalmente sí, pero no son datos o "conocimiento", ni nada que ver con bases de datos.

Si quieres entender un…   » ver todo el comentario
#73 Te dejo también este link que intenta explicar desde 0 cómo funciona una IA basada en transformers para traducir una frase de un idioma a otro: www.datacamp.com/tutorial/how-transformers-work
#73 Y por si te da parece entender como funcionan los tranformers, termino con un contraejemplo a lo que afirmas, que acabo de recordar de hace tiempo.

En este paper de 2022 se explicaba cómo una IA podía diferenciar entre hombre y mujeres viendo solo una imagen retinal, algo que ninguna persona puede ni entiende ni sospecha por qué se puede; no sabemos ni encontramos diferencias. Es conocimiento que no está almacenado porque simplemente nosotros no lo tenemos, pero la IA lo ha "encontrado" (lástima que no podemos saber cómo lo sabe porque de nuevo, todo son pesos). philarchive.org/archive/TAHGPF

Este fue el primero de muchos casos similares.
#36 Más que una base de datos, es un buscador optimizado.
#36 "Los modelos actuales no guardan información de ningún tipo"

Claro, y los 20Gb que ocupan algunos modelos, estan rellenos de aire :roll:
#11, cuando alguien suelta que la IA es una base de datos de algo.... La red flag del cuñadismo debe saltar inmediatamente. No tiene absolutamente nada que ver con una base de datos.
#11, otra vaguedad como una catedral lo de "han sido los propios expertos expertos en IA". ¿Qué expertos? ¿Cuando y cómo?

Lo único cierto es que la comunidad se que ha mostrado mayoritariamente muy sorprendida por los resultados con ARC AGI y tienes premios Nobel como Geoffrey Hinton alertando semana sí, semana también de lo potente que es esta tecnología y de qué en lugar de decir "esto es un churro" deberíamos tomarnosla mucho más en serio.

Que se haya creado un nuevo…   » ver todo el comentario
#4 Es que yo muchas veces veo a gente intentando usarla para externalizar su capacidad de raciocinio, y eso es peligrosísimo.

El otro día por aquí vi a uno aquí que decidió pedirle a la IA que le diese argumentos sobre los problemas de retirar la materia de religión católica de la educación, y los problemas dañadir la de religión islámica. La IA partió de dos supuestos absurdos: primero equiparó el quitar la materia de religión con borrar cualquier referencia al cristianismo en la educación,…   » ver todo el comentario
#14 Hay alguno por aquí, meneante ilustre, de los que cortan el bacalao, que incluso las usa para clasificar el tono sentimental de los mensajes. Incluso con automatismos. Veremos dices capaz de detectar este mensaje, ¿Verdad Oliver? :troll:
#4 en resumen el peligro de la IA es el hombre (y los gatos) no la IA. Los hombres que están viendo a un ser divino tras el código de las IA's, los que creen tratar con personas conscientes cuando interactúan con un procesador de textos, los que que le dan propiedades a las IA's que solo residen en la fantasía
CC #2
#4, a mí lo que me parece peligroso es tratar el impacto de lo que representa la IA a todos los niveles como un "aquí no pasa nada".
#4 Hay exploits y mierdas para confundir a las LLMs. Como ahora les da por conectarlas a sistemas para sustituir atención al cliente, a mi me mola la idea de volver a la época de los hackers, ahora que es super difícil porque todo el mundo usa lenguajes sin buffer overflows ni mierdas.
#2 qué batalla? Si los gatos ganaron hace miles de años, desde los egipcios :roll:
#5 Ganaron a los humanos.

Pero se enfrentarán a un rival temible que es inmune a los poderes gatunos de engatusamiento.
#2 Veo argumento para 5 temporadas de una serie de Neflis
#19 ya está una IA escribiendo el guion
#2 somos pacíficos
#40 Algunos sí.

Otros que conozco, dejan a Jack el destripador como hermanita de la caridad
#2 Quien dice que la IA y los gatos no han dominado ya el mundo? :-D  media
#2 A mi me parecería purrfecto.
#1 por curiosidad como lo has montado? Tengo pendiente montar una en local.

Gracias
Pd. Ahora voy a ampliar el equipo a 32GB ram
#24 ahora mismo estoy usando Ollama. Funciona en cualquier OS y es sencillo. Pero hay muchas opciones.
#33 ok. Investigate sobre el tema. Muchas gracias
#33 veo que tiene docker y ya lo tengo funcionando, en cuanto a modelos, cual me recomiendas?
Ahora estoy descargando llama3
#38 depende para que y se cuanta VRAM tengas pero los mas avanzados ahora mismo son gemma3 y qwen3
#63 generalmente lo uso para informatica professional. De VRAM más bien poca, pero veo que se puede ejecutar con RAM normal
#69 Se puede con CPU pero la ejecución en mucho más lenta. Qwen3 es bastante bueno generando código, mejor que Gemma. Gemma es más creativo en la redacción de escritos o traducciones. Pero prueba varios modelos para tu caso de uso y mira cual responde mejor. Bienvenido al mundo de las IA en local!
#76 muchas gracias. Probaré qwen3. Estoy ampliando conocimientos en sysops y estás herramientas para aprender van de lujo
#81 Si tienes poca VRAM ¿4GB? Busca el tamaño adecuado.
ollama.com/library/qwen3:8b
Usando CPU hay que decidir entre velocidad y calidad.
#87 pues tiene 0, es un portatil con la ram de video compartida... por contra el equipo tiene 32 GB de RAM
#89 Entonces disfruta del 14b, que te da unas 3 palabras por segundo con CPU.
No es mucho pero sin prisas, da una calidad muy aceptable.
Con GPU decente, te sube a unas 25 palabras por segundo, tampoco es tanta la diferencia.
(cuando digo palabras, me refiero a tokens pero puedes hacerte una idea)
#89 El qwen3 es de "pensamiento profundo"
(igual se te tira 10 minutos pensando para decirte "hola")
Tiene unos parámetros "/no_think", que para cosas básicas, acelera un x10.
Hay que añadirlo antes del prompt "/no_think Hola, que sabes de las ranas."
#24 buscate GPT4ALL!
#39 ese funciona con ollama o es otra historia?
#45 no estoy seguro porque tengo el ollama instalado también, buena pregunta de hecho, creo que no pero no me fazer mucho caso. Está bastante bien eh, puedes descargarte diferentes modelos y tener documentos guardados en local a los que pueda acceder. Y por supuesto ejecutar local que es lo que queremos. Aunque le falta mucho. En GitHub hay gente con ello
#46 del chatgpt4all te refieres, no? Ahora he probado el ollama con llama3 y ha estado muy bien. Es impresionante. El aumento de RAM ya está en camino xD
#51 yes! Me resultó muy fácil de usar. Volveré a probar Ollama en breves, gracias man
#54 a ti, le pegaré un vistazo al que has dicho. Miraré diferencias de uno y otro. Un saludo
La IA es una herramienta que ayuda a expertos, porque es común que cometa errores de bulto o parta de asunciones incorrectas, que solo un experto es capaz de detectar, dado que si no tienes idea alguna de lo que te está hablando, no tienes la capacidad de detectar si lo que está diciendo es una genialidad o una estupidez.
#23 Con comprobar que el resultado sea el correcto y el esperado después de probarlo todo bien podría valer, no? Lo digo porque yo nunca supe de bases de datos, y con la IA he podido pasarme a hacer desarrollos complejos con SQL sin tener que hacer ningún curso al respecto, y con ella estoy haciendo nuevos desarrollos para clientes con aplicaciones bastante gordas en producción, basándome casi al 100% en lo que me analiza y hace la IA.
Por lo que muchas veces no hace falta ni tener experiencia previa para aplicarla de forma resolutiva, es un hecho.
#37 No te digo que la IA no sea útil para aprender, pero te pongo un ejemplo con la serie House de lo que me refiero, para mi la IA no reemplazaría al menos a día de hoy a House en ningún caso, reemplazaría a su equipo, Chase, cameron y foreman para ir dando ideas y pistas con las que mejorar el trabajo de House. Hacerlo al revés es lo que digo que es arriesgado. En muchos casos mirar únicamente el resultado puede ir bien, pero es muy peligroso y habrá casos donde 'explote' ese enfoque, y me ha parecido útil el ejemplo medico donde puede ser más evidente.
#37 aplicaciones bastante gordas en producción

Se masca la tragedia.
#48 Algún que otro bugs siempre hay, pero poniendo a alguien con mi experiencia en base de datos a ocuparse de su mantenimiento y nuevos desarrollos, ten por seguro que sin IA los bugs hubieran sido más considerables y duraderos, o los nuevos desarrollos 3 veces menos.

No se puede tener todo. O contratar un nuevo empleado experto en base de datos, o mover a uno que ya tengan sin experiencia en ese campo, pero con IA jeje.
#23 además de que están programadas para hacerte creer que la IA es muy buena, porque te da la razón siempre en todo.
Si le haces una pregunta partiendo de premisas falsas, muchísimas veces son incapaces de detectar que esas premisas son falsas y elaboran toda una respuesta falsa partiendo de ellas.
Menudo peligro tienen.
Pues por aquí, algunos, no dejan de decir que la IA es lo mejor del universo, que les ha multiplicado la productividad por 80, y que qué sabremos los demas. Despues sugieres que igual es que su entorno es muy específico -o simple- y te responden como si fueran el CTO de Google. Y siempre sobre motores de IA que no son los que usa el 99% del mundo, sinó "los buenos de verdad" (que nunca se dejan ver).

Si es verdad que ayuda, en algunos casos mucho, pero esta a años luz de lo que se quiere hacer creer al personal (aunque avanzando a pasos gigantes, eso sí).
Encima curl esta en C, no me puedo ni imaginar la de memoria que se deja sin liberar esas pr
There is no function named like this in current ngtcp2 or nghttp3. Please clarify what you talk about. Which versions of ngtcp2 and nghttp3 did you find the problem in?

IA, inventándose funciones desde 2023.
#27 También se inventa leyes o artículos de las mismas.
Lo que intentan es colar un backdoor como le paso al pobrecico de la librería aquella xz o similar...
#49 Lo que pasa es que hay recompensa por descubrir bugs y hay alguien que ha puesto a la IA a analizar el código y rellenar informes al tuntún para ver si logra descubrir algo sin tener ni idea.
Se hartan todos. Se están usando esos proyectos para entrenar sistemas de inteligencia artificial, generalmente muy malos.
"A partir de ahora, expulsaremos INSTANTÁNEAMENTE a todos los que envíen informes que consideremos bazofia de IA"

Pero van a entrar ahí.
IA es basura.
#28 ¡ arriba el neoludismo!
«12

menéame