Microsoft utilizó su Security Copilot basado en inteligencia artificial para descubrir 20 vulnerabilidades previamente desconocidas en los cargadores de arranque de código abierto GRUB2, U-Boot y Barebox. GRUB2 (GRand Unified Bootloader) es el cargador de arranque predeterminado para la mayoría de las distribuciones de Linux, incluido Ubuntu, mientras que U-Boot y Barebox se utilizan comúnmente en dispositivos integrados y de IoT. Además, se descubrieron 9 desbordamientos de búfer al analizar SquashFS, EXT4, CramFS, JFFS2 y enlaces simbólicos..
|
etiquetas: copilot , ia , ciberseguridad
Y son quienes están dispuestos a pagar, o ver anuncios, para poder convertir sus fotos o memes a estética del viaje de Totoro quienes también están financiando la industria que mejora a las IAs generativas actuales.
Y financiar esas industrias se ha demostrado tremendamente útil.
Con el Pong empezó todo.
A esa capacidad de cálculo de la que ahora sí se dispone, y que ha permitido el desarrollo de modelos como los LLM, se llegó en un… » ver todo el comentario
¿Tendríamos IA sin la industria de videojuegos? Muy probablemente, pero el nivel que vemos actualmente aún tardaría años en llegar.… » ver todo el comentario
Todo empezó cuando unos cazadores-recolectores empezaron a hacer graffitis en cuevas.
Sin graffitis no habría IA{troll}
Muy bien, cerraste el círculo.
Todo empezó con los graffitis y ahora la IA hace los graffitis estilo Ghibli que dijo #1
es.wikipedia.org/wiki/Tennis_for_Two
Dicho esto, dejemos que el gran Crespo te de la razón por mi.
www.youtube.com/watch?v=5c7Wbjo4x84
Y obviamente también para analizar los datos que extrae de sus usuarios.
Hace unos meses leí un artículo en el que desarrolladores al mando de proyectos de codigo abierto se quejaban de que estaban sufriendo oleadas de issues creados por IA, donde magnifican cualquier detalle formal insignificante como un agujero de seguridad gravísimo. Los AI no saben describir bien el bug, no se adhieren a las normas del repositorio y llenan de paja las descripciones, y son incapaces de dar demostraciones… » ver todo el comentario
Los deslices te los saca. Pero tambien fallos de logica. Hablo de gpt4. Pero debes tu ser el que le mande el contexto. Es capaz de sacarte bugs de contexto sin problemas.
En el 70% de los casos el mensaje de la IA ha sido útil de alguna forma al… » ver todo el comentario
Vas listo si crees que una IA va a arreglar sus propios problemas
Con respecto a tu comentario no espero un gran resultado. Uno de los mis informáticos que me estan ayudando a desarrollar un producto me hacia unas virguerías de código pero fallaba todos por todos los lados. Algunas instrucciones que usaba incluso yo no las habia usado nunca.
Pues bien, no hace falta decir quien era el autor del código....
(Las IAs están entrenadas con mucho código de mierda, así que es muy fácil que acaben haciendo mierda)
Tal vez algún día llegue al nivel que comentas (y al que prometen sus creadores para conseguir inversores), pero tal vez no. Ya veremos.
Edito: a dia de hoy no veo posible desarrollar una aplicación de verdad con únicamente IA
Cada vez que auguras algo vemos cómo no sucede o directamente sucede lo contrario. Especialmente en temas en los que no tienes la menor idea, como es el caso.
Los fanáticos sectarios de ”el último grito en tecnología” sois divertidos. IAbrós, criptobrós, ... no hay ninguna diferencia, todos vaticinando papanaterías que no suceden sin tener ni puñetera idea.
Mientras tanto puedes ver que dicen las métricas sobre la cantidad de código que se está generando con IA actualmente.
Programadores basura ha habido siempre, que haya más o menos no cambia nada, los programadores de verdad van a seguir siendo imprescindibles y llenando su plato. Sucede que tú ignorantemente crees que ”programador' es un pavo que se limita a montar cosas hechas por otros. Obviamente no, el programador es quien nace lo que esos basureros montan, incluida tu IA.
Una cosa es montar frontends y hacer webecillas (que lo puede… » ver todo el comentario
Y te saca fallos eh, algunos pueden ser chorras. Pero pifias de programador te las saca tambien
Por ejemplo, el fuzzy testing ayuda a encontrar muchísimos errores en el control de entradas de datos, por ejemplo (que es una de las mayores fuentes de problemas de seguridad), es muy barato computacionalmente y muy eficaz.
Ahora, para usar una IA, salvo que esté entrenada para detectar errores concretos, no lo veo del todo eficaz, me da que generará muchos falsos positivos o muchas alertas para casos muy… » ver todo el comentario