Hace 2 años | Por PussyLover a genbeta.com
Publicado hace 2 años por PussyLover a genbeta.com

GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador. cinco investigadores de la Universidad de Nueva York han publicado un paper relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot. Aproximadamente el 40% de dichos programas incluían bugs o errores de diseño

Comentarios

D

Bueno, es normal y esperado. El entrenamiento no es guiado, simplemente cogen todos los datos que tienen en github.

Si fuera guiado, algo les diría qué código es el bueno o el malo, así la red neuronal ofrecería mejor calidad.

Si simplemente es un autocompletado vitaminado con cualquier cosa que haya escrito cualquier otro, sin validar la calidad, es muy espectacular pero quizás no sea útil.

PacoJones

Yo he visto código creado por humanos que harían llorar al mismísimo Chuck Norris sin que a nadie le importe.

Idomeneo

(float)rand() / (float)RAND_MAX

Pardiez. Vaya mierda de código. Todo el mundo sabe que lo normal es dividir entre RAND_MAX + 1, para que el resultado esté en [0,1). Si no se hace así, las transformaciones habituales pueden dar resultados inesperados. Por ejemplo, multiplicar por seis, sumar uno y hacer la parte entera para simular el lanzamiento de un dado daría 7 como resultado "a veces".

Normal que si te inspiras en código escrito por un mal programador te salga código malo.

D

GitHub Copilot generó código seguro en un 60% de los casos durante un experimento de la Universidad de Nueva York.
GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador. cinco investigadores de la Universidad de Nueva York han publicado un paper relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot. Aproximadamente el 60% de dichos programas no incluía bugs o errores de diseño.

mecha

¿Y como dicen que están esos porcentajes para código generado por humanos? Porque encima eso es lo que guía a la IA.

M

#5 O la IA tiene muy mala puntería o el porcentaje debe ser similar

s

Tampoco es tan grave, se entrena la IA con buenas prácticas de seguridad y listo. Además de que obviamente hay que ser demente para poner el código de Autopilot en producción.