Hace 10 meses | Por Radion a computerhoy.com
Publicado hace 10 meses por Radion a computerhoy.com

El clasificador de inteligencia artificial ha dejado de estar disponible en ChatGPT debido a su índice de precisión insuficiente. OpenAI cede momentáneamente ante la lucha contra el plagio, asegurando que su herramienta actual no es capaz de detectarlo con garantías. Con solo una tasa de éxito del 26 % identificando textos generados por IA, que desciende o crece dependiendo de factores como la longitud, el idioma o la sencillez del escrito, la compañía considera no válida su herramienta contra el plagio.

Comentarios

Waves

26%... Es menos fiable que lanzar una moneda al aire.

baronrampante

#2 De lo que te diga, asumes lo contrario.

D

#2 Y si le damos la vuelta?
Es decir, si falla el 74% de las veces, entonces es suficiente con invertir el resultado: cuando detecte plagio, decir que no lo es, y cuando no lo detecte decir que sí lo es. Así conseguirá una tasa de éxito del 74%, no? roll

rojo_separatista

#2, depende de lo balanceado que esté la base de datos con la que se ha testeado. Si solo el 1% fueron creadas por IA y detecta el 26% no estaría mal. Para eso existen otras métricas como precisión, especificidad o valor-F.

A

No vaya a ser que se den cuenta de que para generar los algoritmos antiplagio hayan plagiado otros...

a

#1 Pues como ha hecho cada persona que ha nacido en este mundo, aprender cosas de otros.
Algún día habrá que plantearse seriamente este tema filosófico y ético,
si la IA aprende usando estructuras y métodos similares a los del cerebro humano, por qué en los humanos lo llamamos aprender pero en las máquinas es "plagio"?