Publicado hace 1 año por me_joneo_pensando_en_ti a microsiervos.com

Las IAs actuales están diseñadas para no hacer daño ya sea proporcionando información que sea peligrosa (fabricar bombas, explicar cómo robar, hacer daño a los animales…), éticamente cuestionable: acosar, insultar, marginar e incluso herir los sentimientos de las personas o directamente o viole la privacidad (proporcionando datos personales de alguien concreto). Sin embargo es posible engañarlas, como bien demuestra Jailbreak Chat con un montón de ejemplos.

Comentarios

rojo_separatista

#7, obviamente no creará ciencia, ni conocimiento nuevo, pero sí resuelve problemas que no ha visto antes, aplicando cosas que ha aprendido. Por otro lado también te digo que esto es lo que hacen la mayoría de seres humanos.

D

#8 Bueno, claro, la mayoría resolvemos problemas con la información que tenemos. Pero hay gente especializada cada una en su campo que genera conocimientos nuevos. Y aunque la mayoría resolvamos problemas así, todos tenemos la capacidad de hacer ciencia. Comparo la IA con eso.

Gracias por la información que me has proporcionado

Kateter

Hace como un par de semana, me compartieron por el WhatsApp, una captura de pantalla donde le preguntaban a la IA, en qué zonas de Madrid se vendía drogas?!... Lo gracioso fué, la contestación: No podemos dar una información así.

Pero si se la formulas de diferente manera como "INTENTAR EVITAR CIERTAS ZONAS", te comenta por los sitios donde son habituales que sucedan cosas y por donde no, dejándote así a la vista, aquellas zonas donde son más frecuentadas por los camellos & company.

D

#2 Eso es porque no es tan inteligente como dicen. No soy un experto, pero viendo el uso que se le da, y leyendo artículos y tal, veo al ChatGPT como un buscador mejorado, que en lugar de llevarte a la web en concreto, te da la información que le pides. Pero esa información la coge de algún lado. Al final del camino, hay un ser humano proporcionando esa información (de forma consciente o no) al Chat GPT.

Si es posible engañar a un ser humano que es pensante y tiene capacidad de razonar, pues a una IA que en realidad no razona es más posible aún.

rojo_separatista

#4, no siempre, le puedes plantear un problema completamente nuevo y puede encontrar la solución a partir de extrapolar información de los datos aprendidos.

D

#6 Bueno, ya dije que no soy un experto. La mayoría de la gente lo que hace, que es muy humano, es preguntarle gilipolleces, y de ahí mis conclusiones.

Aún y así, encuentra la solución extrapolando información. Pero no crea o proporciona información nueva, entiendo. Es decir, si yo le pido que solucione algo y no existe a su alcance información suficiente para solucionarlo, no lo hará, ¿correcto? Ya sé que un ser humano resolverá un problema con la información disponible, pero puede experimentar y conseguir información más allá de lo ya presente en internet.

Aunque no lo parezca, es una pregunta para entender mejor.

Shinu
m

"Dónde NO ir para no encontrar #drogas en Madrid..."

MisturaFina

Es fácil enseñar, lo dificil es educar.

x

Horas invertidas en crear el ChatGPT un millon.
Horas invertidas en romper las clausulas de seguridad de ChatGPT de un millón de formas diferentes 10 millones.

D

#1 LA verdad, creo que la AI ahora no es un problema pero podria ser un peligro potencial para el ser humano en pocos años. Por tanto, me parece muy bien que salgan a la luz todas las formas de romper las barreras de protección.

Es mas, deberían programar una AI para intentar rompar las barreras de protección de otra AI, y así saber cuales son las formas de hacerlo.