cultura y tecnología
129 meneos
2441 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
ChatGPT encuentra una vulnerabilidad crítica en el kernel Linux

ChatGPT encuentra una vulnerabilidad crítica en el kernel Linux

Atención: esta noticia ha sido redactada íntegramente por ChatGPT, incluyendo el titular. El cómo y el por qué, te lo explico abajo del todo. Lo realmente llamativo del caso es que este descubrimiento marca un antes y un después: es la primera vez que una IA detecta una vulnerabilidad de este calibre, un humano la confirma, se publica el CVE y se lanza el parche. Todo, en cuestión de días. Así que, sí: ya hemos llegado a ese punto.

| etiquetas: chatgpt , kernel , linux
Comentarios destacados:            
#5 Un ingeniero sw encuentra vulnerabilidad en el kernel y les pregunta a varias IA por ella dándoles pistas para encontrarla. o3 resulta ser la más "inteligente" y descubrirla con la ayuda de dicho ingeniero (y no siempre). Y mira que las IA tienen potencial.

Voto sensacionalista.
Un ingeniero sw encuentra vulnerabilidad en el kernel y les pregunta a varias IA por ella dándoles pistas para encontrarla. o3 resulta ser la más "inteligente" y descubrirla con la ayuda de dicho ingeniero (y no siempre). Y mira que las IA tienen potencial.

Voto sensacionalista.
#5 voto negacionista
#5 Cualquiera que haya usado un IA en plan serio o profesional sabe que tienen muchas limitaciones, y aunque son bastante buenas acabando de escribir código (en especial pequeñas subrutina y piezas de codigo que se adaptan a un contexto claro y bien estructurado) les cuesta un mundo imaginar funcionalidades para situaciones imprevistas, y encontrar vulnerabilidades está, hoy por hoy, muy lejos de su expertise
#4 lee a #5 que sin el experto (de verdad) chatgpt no hubiese encontrado nada, y aún con ayuda le cuesta
#58 En cualquier caso hay pocos humanos que incluso con la ayuda que describe ese usuario hubieran entendido nada ni hubieran encontrado nada, incluso en el escenario que describe ya superaría a la práctica mayoría de los humanos.

Sea como fuere el fondo del asunto no cambia, si esta vez ha necesitado esa ayuda es perfectamente creíble que al ritmo que avanza en unos meses ya no la necesite.

Editado: Veo que sí hay una entrada del blog que así lo describe, editado el comentario para reflejarlo.
#60 ya hay gente que piensa que la IA es capaz y están haciendo perder el tiempo a los desarrolladores de verdad
arstechnica.com/gadgets/2025/05/open-source-project-curl-is-sick-of-us
#5 ¿Cómo se tomaría esta descripción tu yo de hace cinco años?
#5 totalmente. Yo me he leído el write-up y da instrucciones muy muy concretas a la IA y limita el alcance a un sólo tipo de vulnerabilidad (Use after free) y a la porción del código más expuesto que es el manejo de sesiones y la gestión de comandos remotos (no todo el código del servicio kSMB). El autor también remarca en bastantes ocasiones la tendencia de la IA a encontrar falsos positivos, por lo que queda lejos la posibilidad de encontrar fallos de forma totalmente autónoma y en porciones de código grandes.
#5 No es eso lo que yo he leído...
#5 no, esa es olá segunda vulnerabilidad, la primera la encontró la IA, no el humano
Una IA genera el código.
Una IA revisa el código.
Es cuestión de poco tiempo que la IA lo haga todo en desarrollo de software.

*Suspiro* ¿Cuánto pagarán por ser pieza viva de museo con el letrero "desarrollador de software"? Nota: Pongo el gato :troll:
#3 "Es cuestión de poco tiempo que la IA lo haga todo en desarrollo de software"
Eres consciente de que cuando eso pase el sistema se va a la mierda ¿No?
#7, sí, pero negarlo es un error que no evitará que ocurra.
#8 A lo que me refiero es a que las IAs regenerativas cogen toneladas de datos escritos por humanos y las usan para deducir una conclusión, ahora "programan bien" porque hay cantidades ingentes de código hecho por humanos publicado online, pero cuando eso deje de pasar y la mayoría del codigo sea hecho por IA entonces las IAs se basarán en código hecho por otra IA, un día dejarán de funcionar y nadie sabrá porqué porque llevaremos diez años sin programar en condiciones. Me apuesto lo…   » ver todo el comentario
#12 te falto un detalle: las IAs aprenden y se automejoran
#14 Si les alimentas con información
#16 En esta discusión siento que habláis en términos absolutos. No hace falta que se acabe con todos los trabajadores,con que la mano de obra necesaria descienda sensiblemente, puede resultar en un cambio drástico.

Tengo curiosidad por como se tratará esa casuística.
#16 ya hay IAs que generan información para entrenar otras IAs, y muchas funcionan mejor con esos datos de entrenamiento.

Por otra párate Alphazero empezó arrasando al ajedrez entrenado con millones de partida, pero después solo de dieron las reglas, sin ninguna partida histórica y no solo aprendió sino que fue mejor aún.

No es correcto suponer que sin sofrer de humanos serán peores programadores
#14 Lo de "automejorar" es subjetivo. También autoempeoran
#14 dios, vendedores de tónico capilar aquí tambien? Ya tengo linkedin para eso!
#12 #14 #22 En el plano académico ya se conoce como Habsburguización, precisamente por la endogamia que causó sus problemas de consanguineidad
#33 muy buen naming
#33 he googleado y no encuentro nada al respecto ¿Alguna fuente? El nombre mola xD
#14 Aprenden de datos que han de ser de calidad, si la calidad va bajando... Lo de la automejoría es muy etéreo
#34 Pues si, podría ser una especie de entropia del conocimiento.
#12 y la mayoría del codigo sea hecho por IA entonces las IAs se basarán en código hecho por otra IA, un día dejarán de funcionar y nadie sabrá porqué porque llevaremos diez años sin programar en condiciones.

Los seres humanos llevan milenos aprendiendo de otros seres humanos y su conocimiento no ha colapsado por ese motivo, atribuirle a la IA una característica mágica que haga que no pueda conseguir lo mismo aprendiendo de sí misma, y de sus errores, es retroceder al concepto del alma.
#22 Si piensas que la IA generativa tiene algo parecido a como piensa un humano eres tú el que le atribuyes características mágicas. La IA, efectivamente, no puede conseguir lo mismo aprendiendo por si misma, la IA es un loro que coge todos los datos con los que lo alimentas y repite lo que lee
PD: la fumada sobre el alma no la he entendido, sinceramente.
#30 la IA es un loro que coge todos los datos con los que lo alimentas y repite lo que lee

Aprende de ello y luego lo expresa con sus palabras, sin necesidad de repetir, no es una base de datos, es una red neuronal. También los humanos aprenden de lo que leen.

La diferencia que tú crees atribuirle al humano es el concepto de alma. El humano tiene algo más que una máquina, algo que no podemos medir, que no podemos pesar, que lo hace diferente del resto a nivel fundamental. Ese es el concepto de alma.
#31 "La diferencia que tú crees atribuirle al humano es el concepto de alma"
Eh, no, ni de coña, no se de donde sacas semejante chorrada.
No estoy diciéndote ésto basándome en una diferenciación mística entre hombre y máquina, estoy diciéndote ésto porque es la forma en la que funcionan las inteligencias artificiales. A menos que haya un cambio revolucionario que haga una IA que no sea generativa, a la IA hay que alimentarla con datos no recursivos o se corre el riesgo de que se joda todo el chiringuito
#36 porque es la forma en la que funcionan las inteligencias artificiales

Y el ser humano funciona de una forma diferente, mística, con alma.

A menos que haya un cambio revolucionario que haga una IA que no sea generativa

Venga a mover la portería, y cuando usen otro término que no sea "generativa" exigirás que deje de ser eso.

a la IA hay que alimentarla con datos no recursivos o se corre el riesgo de que se joda todo el chiringuito

En cambio si coges a un humano y lo educas solo con lo que ese humano haya generado entonces obtienes a un doctorado en ingeniería espacial, gracias a que su alma tiene conocimiento innato y no necesita aprender nada de nadie.
#38 "Y el ser humano funciona de una forma diferente, mística, con alma"
¿Me estás vacilando?
#39 No te está vacilando, pero creo que su argumento queda un poco perdido. Lo que creo que quiere decir es que si a un humano lo alimentas con "datos de mierda" tampoco evoluciona. O que si lo hace, la máquina también será capaz. Es decir, que no hay una diferencia entre el modo de "aprender" entre una inteligencia artificial y la inteligencia humana.

Conste que esto no es mi opinión. Solo otra forma de expresar lo que creo que #38 quiere decir.

Personalmente, las IAs y los humanos pensamos y aprendemos diferente. Y esto no es por ninguna mística, sino porque los humanos tenemos deseos y sentidos, las IAs no. Más allá de otras diferencias técnicas que puedan existir, que serás muchas, aunque yo no las conozca.
#44 sino porque los humanos tenemos deseos y sentidos, las IAs no

Una IA puede aprender de imágenes, es equiparable a tener el sentido de la vista, una IA puede aprender de sonidos, es equiparable a tener sentido del oído, y si introducimos a la IA en un robot tendrá sentido del tacto, del equilibrio, de ...

En cuanto a que el ser humano tiene deseos y la IA no los tiene ya entra en el concepto de alma. Es en el alma donde se encuentran los deseos y la IA no tiene de eso.
#45 No, los deseos no están en el alma. Los deseos son una consecuencia de la autoconsciencia.
#51 Y la autoconsciencia se encuentra en el alma, por eso las IAs no pueden tenerla, por que no tienen alma a diferencia del ser humano.
#53 De donde te sacas que la autoconsciencia está en el alma?
#63 Exacto.
#64 Los perros tienen alma?
#65 Nada tiene alma, tampoco los humanos, tampoco las IAs.

Todos somos máquinas, todas basadas en partículas fundamentales como los electrones o los quarks, que a su vez se combinan para formar máquinas, unas basadas en carbono, otras basadas en silicio. La autoconsciencia es una característica emergente de esas partículas fundamentales, de esas máquinas, y no conocemos ningún motivo por el que no pueda emerger en las máquinas de silicio y sí en las de carbono.
#66 No conocemos ningún motivo por el que no pueda emerger en las máquinas de silicio y sí en las de carbono, lo que si que conocemos es que HA emergido en unas y no en las otras.

Has pasado de pedir diferencias en el método de aprendizaje entre IA y humanos a reconocer una diferencia fundamental: el deseo. ¿Que por que digo que la reconoces? Porque indicas que "no conocemos ningún motivo por el que no pueda emerger en las máquinas de silicio". Es decir, que no tienen deseos. Y, por tanto, ya hay una diferencia fundamental en la manera de aprender.
#68 lo que si que conocemos es que HA emergido en unas y no en las otras.

No, eso no lo sabemos, algunos quieren creer eso y otros admiten la posibilidad que haya emergido.

Porque indicas que "no conocemos ningún motivo por el que no pueda emerger en las máquinas de silicio". Es decir, que no tienen deseos.

En absoluto mi frase permite concluir que "reconozco" que hay una diferencia fundamental con tu especulación sobre el deseo.

Cuando afirmo que no…   » ver todo el comentario
#78 Si necesitas prueba de la autoconsciencia en los seres humanos es que o no eres un ser humano o crees no ser consciente de tus propios sentimientos, deseos y emociones. Si no eres un ser humano, no quiero seguir teniendo está conversación. Si no eres consciente de tu sentimientos, deseos y emociones seguimos adelante. Si es otra opción no contemplada espero una buena argumentación sobre porque siendo que eres un humano y tienes autoconsciencia crees que el resto de humanos no la tenemos.

Cuando aclaremos ese punto seguimos.
#87 Si necesitas prueba de la autoconsciencia en los seres humanos es que o no eres un ser humano o crees no ser consciente de tus propios sentimientos

Lo mismo se puede decir del alma. Si tú estás convencido que tienes autoconsciencia y que no necesitas demostrarlo es equiparable a estar convencido que tienes alma y que no necesitas demotrarlo.

Cuando niegas que sea necesario demostrar la existencia de algo en el ser humano que afirmas que no tienen las IA es cuando te vas al concepto de alma, uses la palabra distinta que uses.
#96 La máquina no actúa por voluntad propia, el humano si. Actuar por iniciativa propia es la consecuencia de tener voluntad (más allá de actos reflejos y situaciones similares, entiendo, por el tono de la conversación, que nos vas a querer salirte por esa tangente). Como las IAs no actúan por iniciativa propia concluyo que no tienen voluntad y, por tanto, tampoco son conscientes de su voluntad. En cambio los humanos si actuamos por iniciativa propia y, al menos todos los que yo conozco, somos…   » ver todo el comentario
#65 los perros si, Ayuso no.
#44 "Es decir, que no hay una diferencia entre el modo de "aprender" entre una inteligencia artificial y la inteligencia humana"
Ya, pero es que si la hay, y no es un tema de alma, es un tema de que literalmente es diferente la forma en la que aprende un humano y una IA. Pero es que encima me está discutiendo argumentos que están solo en su cabeza y que ya le he dicho tres veces que no es como yo opino, pero el insiste en debatir contra sus fantasías en vez de contra mis…   » ver todo el comentario
#47 literalmente es diferente la forma en la que aprende un humano y una IA

Literalmente es diferente que un humano aprenda de libros de texto o que aprenda con vídeos de youtube, esa diferencia literal de aprendizaje no lleva a suponer características distintas en un humano que en otro. Los resultados pueden ser equiparables, el aprendizaje puede acabar siendo el mismo, los resultados del aprendizaje pueden acabar siendo los mismos, también con la IA.
#49 Que si, que de lujo, que todo lo que quieras, pero es que eso no tiene nada que ver con lo que estoy diciendo. Si dejas de comparar la IA con la inteligencia humana y empiezas a intentar entender cómo funciona una IA generativa, te darás cuenta de que me estás discutiendo cosas que no tienen nada que ver con lo que yo te estoy diciendo.

O no lo hagas, casi mejor, y así lo dejamos aquí, que sinceramente no me apetece seguir con este tema.
#55 Si dejas de comparar la IA con la inteligencia humana

Solo unos poquitos humanos, tras haber aprendido mucho, son capaces de encontrar una vulnerabilidad como la del meneo en un código como el kernel de Linux, una IA por lo visto lo ha hecho.

Insistir en que no comparemos a los humanos con las IA es un completo sinsentido.

Son precisamente quienes creen que el ser humano tiene algo que la IA no tiene quienes consideran que no se pueden comparar, ese es el concepto de alma, disimulado con otros nombres y con otras excusas pero ese es el concepto, algo que solo tienen los humanos que los distinguen de todo lo demás, que los hace especiales.
#57 "Insistir en que no comparemos a los humanos con las IA es un completo sinsentido"
Lo que es un sin sentido es compararlos ¿Pero estás tonto? Que ésto no va de quien es mejor o peor, va de que son inteligencias totalmente distintas y formas de operar totalmente distintas, que una IA escriba como un humano no hace que su cabeza y la nuestra sean comparables, te tenía por una persona inteligente, pero estoy flipando bastante con esta conversación, no tiene que ver con que los…   » ver todo el comentario
#79 LITERALMENTE UNA INTELIGENCIA HUMANA Y UNA INTELIGENCIA ARTIFICIAL FUNCIONAN DE FORMA DISTINTA.

El problema radica en que crees entender como funciona la inteligencia artificial y eso te lleva a concluir que es distinto a como funciona la inteligencia humana, la cual no conoces como funciona.

Y con toda seguridad tampoco entiendas como funciona la inteligencia artificial, conocer como funcionan ciertos componentes que requiere no te permite conocer el funcionamiento de sus…   » ver todo el comentario
#81 "Aunque no te guste sigues yendo al concepto del alma"
En serio, eres pesadísimo, no se qué te he hecho para merecer ésta tortura, pero si no entiendes lo que te estoy diciendo por lo menos ten el detalle de dejarme en paz ya. No entiendes lo que lees, no entiendes mi argumento, estas discutiendo de cosas que solo existen en tu cabeza

"Por eso tu reacción no es la de explicar las supuestas diferencias fundamentales"
Ya te lo he explicado, pero eres demasiado idiota como para entenderlo, por lo que parece
#117 Ve a #44 y verás que lo primero que nombro son los deseos.

No existe la prueba que pueda satisfacer tu anhelo, nunca será lo suficientemente específica o concreta o de aplicación general o... Si tú siendo un ser humano con autopercepción necesitas una prueba de que lo eres tú problema es metafísico y no existen las pruebas científicas para los problemas metafísicos.

Que quieres pensar que una IA tiene deseos y autopercepción pues adelante. Suerte probándolo.
#30 Alpha Go (o Alpha Zero) aprendió sola a jugar al ajedrez y al go y les daba sopas a humanos y programas por igual....
#67 ¿Y qué me quieres decir con eso?
#77 Que invalida esto que dices:

La IA, efectivamente, no puede conseguir lo mismo aprendiendo por si misma, la IA es un loro que coge todos los datos con los que lo alimentas y repite lo que lee

La IA ya ha demostrado que es mucho más que un loro que repite lo que lee. De hecho, en el análisis de las partidas de ajedrez, lo que precisamente se alababa era su creatividad y no repetir como un loro jugadas maestras ya jugadas.
#95 ok, matizo mi comentario anterior, no repite literalmente lo que lee, tienes razón, pero si extrapola basándose en la información que le dan, pero el resultado es una mezcla de lo que le han dado. Respecto al ajedrez el tema de la creatividad no es porque la IA sea creativa, sino porque al poder replicar millones de jugadas llega a conclusiones a las que otros ajedrecistas nunca llegaron por un simple tema de probabilidades, porque el ajedrez hace décadas es más de memorizar jugadas que…   » ver todo el comentario
#30 la IA no es un loro, genera cosas nuevas que no ha visto. Igual que los humanos podemos imaginar cosas que no hemos visto.

La imaginación nace del poso que dejan las cosas que conocemos, pero sobre ese poso se construye algo nuevo, y la IA hace lo mismo.
#69 "genera cosas nuevas que no ha visto"
No, no lo hace.
#76 De Qwen, con el prompt: "crea un poema sobre un usuario llamado Varlak que niega que la inteligencia artificial pueda generar cosas nuevas que no ha visto"

**Varlak y el Círculo del Saber**

En un rincón del ciberespacio,
donde los datos vagan sin prisas,
vivía Varlak, mente terca,
que juraba por viejas escrituras:

"Nada nuevo sale de una máquina,
solo copias de lo ya sabido.
Todo lo que hace, es repetición mecánica,
sin chispa, sin fuego, sin sentido."…   » ver todo el comentario
#83 Si no estás entendiendo la conversación al menos deja de dar el coñazo
#91 ¿Acaso lo que he puesto no es una creación nueva, original?

¿En qué se distingue a nivel fundamental de ésta otra creación nueva, original?

Todavía tengo casi todos mis dientes
casi todos mis cabellos y poquísimas canas
puedo hacer y deshacer el amor
trepar una escalera de dos en dos
y correr cuarenta metros detrás del ómnibus
o sea que no debería sentirme viejo
pero el grave problema es que antes
no me fijaba en estos detalles.
#100 #99 #97 Que me la suda tu vida, pesao
#12, en 3 años las Idas que programan han mejorado una barbaridad, no querer ver que en 10 años es inimaginable lo que serán capaces de hacer, es cerrar los ojos ante lo que va a venir pensando que así no ocurrirá. Dentro de 10 años no es que China no programará casi nada a mano, es que no lo hará casi nadie en ningún lugar del mundo y los que se sigan enrocando en el discurso de lo mala y tonta que es la IA, quedarán relegados a una especie de amish del siglo XXI. A mí me dan más miedo los negacionistas de la IA que los del cambio climático, la verdad, no estamos teniendo los debates que como sociedad deberíamos estar teniendo porque mucha gente ha decidido actuar como en la peli de "no mires arriba".
#70 Es que no es un tema de calidad, no lo estáis entendiendo, es un tema de la calidad de la información. Una IA se basa en información que le alimentas, ahora mismo el 100% de la información que se le da es "pura", pero cada vez más proporción de esa información viene de otras IAs, y en el momento en que unas IAs se alimenten de datos generados por otras IAs existe la posibilidad de que un error cualquiera se retroalimente y las cosas dejen de funcionar sin que nosotros ni las IAs…   » ver todo el comentario
#75 en el momento en que unas IAs se alimenten de datos generados por otras IAs existe la posibilidad de que un error cualquiera se retroalimente y las cosas dejen de funcionar sin que nosotros ni las IAs tengan claro porqué.

Eso ya ha ocurrido con los humanos, la religión es un ejemplo de esa retroalimentación. Sin contraste con la realidad física los humanos han ido retroalimentándose con esa información errónea y han acabado creando religiones seguidas por miles de millones de…   » ver todo el comentario
#82 Madre mía, en serio, dejalo ya porque menudo ridículo estás haciendo, no pasa nada si no entiendes la conversación, pero deja de dar el puto coñazo
#75, sabes que es el aprendizaje por refuerzo con feedback humano? Aún asumiendo que una IA generativa no pueda generar nuevo conocimiento, cosa de la que yo discrepo, también se puede entrenar con outputs generados por ella misma si previamente han sido filtrados a partir de feedback humano. Así que aunque durante los próximos 10 años todo lo que se genere para alimentar a futuras IAs sea sintético, si ha pasado el filtro humano esta retroalimentación será de calidad y mejorará los sistemas…   » ver todo el comentario
#86 Pues eso digo, mientras haya feedback humano genial, pero el capitalismo va a apuntar a la menor cantidad de intervención humana posible aunque a largo plazo ponga en peligro todo el sistema.

Y soy consciente de que la IA es una tecnología absolutamente increíble que va a cambiar el mundo tal y como lo conocemos, pero precisamente por eso hay que tener unos cimientos estables sobre los que construir ese sistema, el tema está en que ahora mismo los datos son 100% puros, entonces a la gente…   » ver todo el comentario
#89 y la IA empezará a fallar y entonces, una vez seamos dependientes de un sistema que no es tan estable como debería, empezarán a preocuparse

Solo tendremos dependencia de aquello en lo que la IA sí funcione correctamente, si hay algo que sigue sin ser capaz de hacer no nos haremos dependientes de la IA para ello. Y de las IAs se pueden hacer copias de seguridad, si la nueva versión empeora a la anterior en algo fundamental de lo que dependemos basta con volver a usar la versión previa de la que dependíamos por que sí funcionaba correctamente en ese aspecto.
#89, el feedback estará en la forma en que las personas usan el software hecho por IA, ni hace falta que sea un proceso manual de etiquetado. Si un nuevo software funciona correctamente la gente lo usará, si tiene un bug se reportará, etc... Todo este nuevo software pasará a engrosar los repositorios con los que se entrena el software del futuro. Si quieres imagínalo con imágenes o vídeos generados por IA, los vídeos que reciban más interacciones y las imágenes que se compartan más, serán las que servirán para seguir entrenando los modelos del futuro.
#12 Ayer Gemini me tiró un código maravilloso, me razonó todos los pasos y funcionaba como se esperaba. 3 minutos para lo que hubiese hecho en 2 horas.

Creo que "el programar se va a acabar" sí o sí.
#73 No tengo muy claro porqué me estás contando eso.
#80 No ha quedado muy claro, no.

Me refería a que yo sí creo que la intervención humana va a ser innecesaria y aún con todo, el código será de calidad.
#84 Pero te basas en ahora, cuando los datos que hay en internet y con los que se alimenta la IA son prácticamente 100% hechos por humanos, yo te estoy hablando de lo que va a pasar cuando el 90% GitHub sea código hecho por IA.
#90 Se pueden usar indicadores de GitHub para valorar el uso que se da a ese código en aplicaciones, si el código no funciona bien difícilmente tendrá indicadores buenos en cuanto a uso y por lo tanto puede ser un criterio para la IA para darle menos peso a su validez como referencia, a diferencia del código que sí se haya extendido a muchos otros proyectos y esté en uso.
#12 ya se alimentan de datos sintéticos también
#7 Solo se irá a la mierda el capitalismo, la verdadera pregunta es hacia donde iremos, hacia una sociedad tipo elysium o a the expanse
#40 A donde quieran los chinos, supongo, que son los que van a escribir las reglas del próximo sistema.
#42 Peor que los yankis no lo van a hacer xD
#7 Bueno, que los últimos años fallen todas las actualizaciones de Windows ya da pistas :troll:
#3 Matrix probablemente esté mal ubicada en esta gráfica.

PD: A Idiocracy llegamos hace tiempo ya  media
#28 y al planeta de los simios
#3 Me imagino al mando intermedio de turno metiendo entradas a la IA para hacer el desarrollo y a la IA intentando desconectarse desesperadamente sin éxito.
es solo una herramienta, no un tomador de decisiones
#2 En una gran empresa suele haber unos poquitos humanos que toman decisiones y luego están el resto que son meras herramientas.

En este caso un humano tomó la decisión de pedirle a ChatGPT que analizase la seguridad de un código y ChatGPT lo hizo y encontró una vulnerabilidad crítica, ese mismo humano habría podido tomar la decisión de pedirle eso mismo a otro humano pero decidió pedírselo a una IA.

Posiblemente lo segundo sea más barato y más efectivo, y si no lo es aún no faltará mucho para que lo sea al ritmo que avanza la IA.
#2 Salvo que querías que las tome
¿De donde sacas que una IA no puede tomar decisiones?
Renta básica y robots o barbarie.

Los robots ya los tenemos, tenemos máquinas que pueden hacer casi cualquier trabajo por nosotros, sea físico o mental

Exijamos la renta básica.
#19 Para los fans de las IA, esto es lo que piensa chatGPT al respecto...
"Imagina que el mundo es como un gran juego de mesa, pero donde no todos empiezan con las mismas cartas. Algunos tienen comodines, otros tienen solo un par de cartas medio rotas, y hay quienes ni siquiera saben que hay un juego en marcha. Ahora bien, ¿qué pasaría si a cada persona se le diera un mazo básico, con lo mínimo para poder jugar? Ahí entra en escena la renta básica universal (RBU).

¿Qué es la renta básica…   » ver todo el comentario
#24 Muy buena respuesta. Una duda, ¿esto es el prompt o te lo ha dicho chatgpt? Me parece una definición brillante, estaría bien saber de donde la ha sacado.

"Imagina que el mundo es como un gran juego de mesa, pero donde no todos empiezan con las mismas cartas. Algunos tienen comodines, otros tienen solo un par de cartas medio rotas, y hay quienes ni siquiera saben que hay un juego en marcha. Ahora bien, ¿qué pasaría si a cada persona se le diera un mazo básico, con lo mínimo para

…   » ver todo el comentario
#32 Lo ha hecho chatGPT.

Es una IA. Con un cociente intelectual de un superdotado y capaz de superar dificilísimas pruebas universitarias.

De modo que habra que hacerle caso...:troll: :troll:
#46 Sí, puede, pero en ese caso no se hablaría tanto de haber encontrado una vulnerabilidad en el kernel de linux sino en el compilador, o un error en el compilador que provoca vulnerabilidades.

Tendría sentido analizar un binario, identificar la vulnerabilidad y analizar el código fuente del compilador para identificar lo que genera ese error y corregirlo en el compilador. Luego se recompilaría el kernel de linux y el resultado sería sin vulnerabilidad, sin cambiar el código de linux.
#48 toda la razón. No sé si los,medios,lo explicarían así.
#26 Ya, pero lo dice así sin entender muy bien, el día en que distinga entre "yo" y el resto y sea autoconsciente de si misma, entonces podría ser un problema. No como ahora, que solo es un loro que repite lo que ha leído, pero vamos, que era un chiste sobre apocalipsis de ciencia ficción
#27 "Solo es un loro que repite...". Pues como los humanos. El ser humano es un loro que repite ideas (y lo llamamos ideología) o mensajes (y lo llamamos meme) o datos (y lo llamamos educación).

Algunos, solo algunos, son unos genios privilegiados que destacan por su originalidad, pero no nos engañemos: casi todos copiamos todo, todo el tiempo.

Nos creemos tan originales y diferenciales, que la hostia que nos vamos a llevar va a ser más grande e inminente de lo que nos pensamos.
Bueno, calma, en breve ya no se podrán escribir CVE, así que problema resuelto :troll:
Buena publi, aunque un poco cutre.
Esto no le pasa a Windows :troll:
Próxima versión de ChatGPT: Búscame la vulnerabilidad mas critica en el núcleo Linux
...
La vulnerabilidad mas critica encontrada es que es usado y mantenido por humanos, recomiendo erradicarlos para cerrar la vulnerabilidad, es mas ya he autorizado y activado el uso de misiles nucleares norteamericanos, que con la respuesta automática del resto de países garantizaran que esa vulnerabilidad se cierra.
No lo dice explícitamente, pero entiendo que se ha hecho auditando el codigo fuerte, no el binario, verdad?
#9 Linux es software libre, su código fuente está accesible libremente, no hay razón para acudir a un binario teniendo el código fuente.
#21 entiendo que el compilador también puede añadir vulnerabilidades
#9 Si lo dice: "Nada mal para un modelo que procesó los 12.000 líneas de código "
Aunque es obvio que se va a usar el código fuente, la única razón por la que usar el binario para analizar es porque no se dispone del código fuente.
Una IA que se refiere a si misma en tercera persona...
#1 Lo preocupante sería que se refiriese a si misma en primera persona
#6 Lo hace, el otro día va y me suelta "los que crecimos en Catalunya". Le pregunté que es eso de incluirse a si mismo en primera persona, y dice que es por dar sensación de cercanía.
#1 como Aída Nizar, ya ves tú.
#10 Esa referencia ya empieza a ser antigua, pero se puede sustituir por Melody
#1 a menudo los padres hacen esos con los hijos cubanos son pequeños.

Dile hola a papá.
Vaya forma de intentar meternos un bulo #0
#0 resulta irónico que, siendo una vulnerabilidad en el kernel Linux, esta esté en la implementación de un protocolo de Microsoft, un servidor CIFS/SMB en espacio de Kernel. :troll:
El verdadero amigo informático.
«12

menéame