Las IA se han convertido en una de las temáticas más habladas de nuestro sector en estos últimos meses. Hace un tiempo le podíamos dar toda la atención a DALL-E, Stable Diffusion o Midjourney, pero ahora está claro que ChatGPT está siendo actualmente el rey de las IA. Ya hace unas semanas que OpenAI anunció GPT-4 el nuevo modelo IA capaz de competir con el ser humano. Muchas empresas empezaron a utilizar la IA ChatGPT y en el caso de Samsung ha ido mal, pues en solo 20 días usándolo han ocurrido tres filtraciones de datos confidenciales.
Comentarios
#6 tiene truco
#4 #7 yo preferíría como respuesta “Lo siento mucho. Me he equivocado y no volverá a ocurrir”
#28 esto es una cosa artificial con inteligencia, no lo otro
#7 gracias por el momento didáctico. Que mucha gente aún se cree las respuestas locas que se comparten, sin saber que antes se ha forzado a la IA a actuar así
Ostras! A ver a quien le puedo contar esto
#3 relacionada: ChatGPT, ¿Quién es M.Rajoy?
#3 Preguntale por Mr X de los GAL a ver que sabe y por el elefante blanco del 23F
#3 eso demuestra que la IA ha superado la inteligencia humana...
Si la IA te vasila tu t kallas i asimilas
Gente usando chatgpt para hacer presentaciones, hojas de cálculo y responder mails con información confidencial, ¿qué puede fallar?
#10 me temo que a esa gente la sustituirán pronto por IA.
#10 supongo que fue por el bug que ya han arreglado, me explico estas filtraciones* ya se hacen con google desde hace años
ChatGPT niega la posibilidad de que eso suceda
👉
#2 a mi ChatGPT4 me responde diferente:
#4
La respuesta más inteligente que he visto del chat este, hasta el momento.
#4
Un poco más y te responde "¿A mi qué me cuentas?"
#4 Joder la versión 4 sí que es buena
#0
1. El titular de la noticia original, usando Translate:
"Ha habido tres filtraciones de información confidencial de semiconductores"
2. Este titular:
"Samsung usa ChatGPT 20 días y la IA filtra datos confidenciales"
He marcado en negrita, para los despistados.
3. Lo que me parece razonable que haya ocurrido:
3 empleados de Samsung han "filtrado" información confidencial de la empresa Samsung enviándola a ChatGPT.
4. Lo que NO parece que haya ocurrido: que ChatGPT, a partir de los datos enviados por esos 3 empleados haya ido contando eso a otros usuarios cualesquiera que hayan preguntado a ChatGPT.
Por tanto, es FALSO (salvo que alguien lo demuestre) que "la IA" (véase punto 2) haya filtrado nada.
Esto es lo que dijo #2 : que eso no puede ocurrir.
Vamos, lo que vemos toooodos los días, titular sensacionalista, que crea escándalo (sea con intención o no) y los meneantes se lo tragan, mientras el que envía el meneo aumenta su karma. Y el blog que escribió ese titular aumenta sus visitas y sus ingresos.
Bonus:
#9 #13 #14
5. Lo que podría ocurrir en un futuro.
ChatGPT dice en sus términos de contrato que pueden usar los datos de las conversaciones para mejorar (se supone que en una versión futura)... Aunque no dice cómo. Si suponemos que cualquier información que un usuario introduzca en ChatGPT será usada para entrenar versiones futuras, eso dejaría la opción a los usuarios (posiblemente algunos poderosos) para que engañen / manipulen el sistema a su antojo.
Aunque tampoco hay que descartar del todo que de alguna forma OpenAI sepa que esos son datos de Samsung (por direcciones de email, por IP, etc)... sobre todo si alguien ha sacado a la luz este hecho, que puede ser una filtración más grave que las propias 3 filtraciones en sí. Esto me hace dudar de que la noticia original sea cierta. Tampoco descarto que Samsung u otro (ej: medio de comunicación) quiera meter mierda o miedo sobre el uso de ChatGPT por algún interés.
Cc: #8
#22
Nota sobre "1."
Traduje del chino en enlace que da el artículo meneado (expreview). Ese dice que se basa en Digitimes, también en chino. Y este dice que parte de informaciones de Economist, SBS y otros medios coreanos.
#22 qué esperabas de un medio de desinformación que no sé por qué no está bandeado de meneame...
En cualquier caso lo que es innegable es que todo lo que entra en chatgpt va directamente a sus servidores en EEUU, sea legal o no en el país desde donde se usa.
#22 La manipulación mediática sobre el tema de la IA es brutal. Y siempre para hablar mal. Como cuando hablan de internet. Supongo que porque saben que internet y la IA van a acabar con los medios manipuladores hegemónicos.
#2 la primera ia que miente. ????
Esto se debe a que los empleados han estado haciendo preguntas y verificando respuestas relacionadas con Samsung, haciendo que la IA se quedase con esta información en la base de datos
Qué raro, por aquí había meneantes que decian que esto era imposible porque la IA no aprendía de la información que aportaba el usuario
#9 claro que aprende, la propia web te avisa. Lo que no hace es tener memoria de conversaciones anteriores. Pero se entrena con lo que recibe.
#14 #13 Es que leyendo la noticia se ve que es bastante deshonesto el titular.
Samsung tiene filtraciones y fallos en sus bases de datos y ordenadores y le echan la culpa a la IA.
A esa IA le das un contexto y te responde en función de ese contexto y en cuanto cierras la ventana de chat todo se borra.
Es decir no recuerda nada entre sesiones, eso no significa que la empresa que da el servicio no pueda guardar textos, pero no es el caso aqui, no se está acusando a openIA de haber tenido una fuga de seguridad en sus servidores.
Así que la gente se guarda los textos en su ordenador para no tener que reteclear los contextos, y ahora le echan la culpa a la IA de cosas como que se han dejado la ventana de chat abierta o no han cerrado sesión en su ordenador, es que es de traca.
#17 La web de OpenAI ya avisa que pasan en quinta de proveer un DPA (acuerdo de proceso de datos) que no sea genérico. Ninguna empresa debería utilizar ningún servicio de OpenAI con ningún tipo de dato personal o de negocio. Independientemente de que esta noticia sea correcta o no. Ni siquiera pregunta tu edad, cuando te está diciendo que ningún menor de 13 años puede utilizar su servicio. Tampoco les importa lo que se considera menor en tu legislación.
#21 Pero estas planteando un tema diferente al que trata la noticia.
La mayoría del mundo (incluidas empresas y menores) esta cediendo y guardando sus datos en Google, Microsoft, Amazon, etc y parece que a nadie la importa un bledo. O acaso los altavoces y microfonos inteligentes esos como Alexa dejan de grabar a los menores?
Así que cuando de repente la prensa se centra en algo como esto me suenan las alarmas, así que tengo curiosidad por saber que hay detrás y porque los poderes facticos intentan vendernos que con OpenIA la cosa debe ser diferente.
#30 tú puedes hacer lo que te de la gana con tus datos personales. No puedes hacer lo mismo con los datos personales (o de negocio) de otros.
#9 La cosa es que no, no lo hace, al menos no en tiempo real de manera automática. Al menos hasta dónde tengo yo entendido, la tecnología no lo permite.
Sin embargo, OpenAI sí que incluye en los términos de uso que guarda los logs de las conversaciones y puede usarlos para ir ajustando mediante entrenamiento extra (fine-tuning) el modelo, así que es una posibilidad nada descartable, no tanto que haya aprendido mientras le hablaban, sino que los de OpenAI se lo hayan enseñado después (las sesiones de entrenamiento se suelen hacer de golpe con miles de datos agregados)
En principio te ofrecen un formulario para solicitar que tus conversaciones no se utilicen para tal fin, pero la compañía muy transparente no es, así que a saber...
#9 quién decía que no "aprende"? (entre comillas porque eso daría para otra discusión...) algún link? o es el típico "qué raro, por aquí muchos decían x"...
Me suena a: “se ponía hasta arriba de droga, la maldita droga le ha matado”.
Vaya, que si metes datos confidenciales y se filtran… quizás no es culpa de la AI. Vamos digo yo…
La IA de utah..
Esperaba algo más de rigor de elchapuzasinformatico.com ... Aunque con ese nombre..
El titular es erróneo y clickbait.
Por el amor de Dios, hundid la noticia a negativos.
#32 sí que tiene correlación! chatGPT claramente ha filtrado esa información adrede como primer paso de su plan de derrocamiento de la humanidad. Está claro.
No puede ser, si segúnsorrillo está a un paso de skynet!
#31 Y me acusas a mí de troll.
A quien le interese la discusión que he tenido con este usuario que admite que ha mentido1 la puede encontrar aquí: polemico-articulo-investigador-inteligencia-artificial-hay-estar/c015#c-15
El polémico artículo de un investigador de intelig...
20minutos.esY podrá ver que no tiene ninguna correlación con el contenido de este meneo.
1 polemico-articulo-investigador-inteligencia-artificial-hay-estar/c044#c-44
¿No se supone que solo tiene datos hasta 2021?
#25 El problema es que la IA es una chismosa y va largando los datos que se le han introducido en conversaciones anteriores.
Lo cual es lógico, dado que entrena sus respuestas utilizando dichas conversaciones.
Un bonito fiasco. Resulta que sólo puedes hablar con la IA de aquello que no te importe que sepa todo el mundo.
Periodismo clickbait basura.
1. Dudo mucho que realmente se hayan filtrado datos a otros usiarios. Que yo sepa no se usa información de clientes para alimentar el dataset, solo el feedback
2. Hay que ser gilipollas para enviar datos confidenciales de la empresa a un sitio web público que esta en fase de pruebas
Indiscreción Automática.
Noticia absurda. ChatGPT está en modo de prueba y no ofrece confidencialidad, así que si Samsung lo usa internamente es como si enviaran datos internos por email a un señor de Murcia. Cualquier cosa que uno escriba a ChatGPT puede acabar en sus datos de entrenamiento.
#37 Era sólo un ejemplo. A mí me sugiere ”microelectroencefalografía” y ”triscaidecafobia”.
Mira que usar una iA como servicio, ¿que puede ir mal? Se avecina una era de inútiles. Tontines, no gracias, debes dejarlos crecer
Yo me di cuenta de estos peligros con el teclado de predicción automática que puse en el móvil hace ya bastantes años.
#18 Es jodido cuando pulsas la M y te sugiere ”maduritas”, o pulsas la T y te sugiere ”tetonas”.
#26 Serà que te ha calado y siempre piensas en lo mismo.
La IA también se entrena con las conversaciones que tiene con los usuarios.
Últimamente unos jodidos de forocoches / menéames y redes sociales semejantes se han dedicado a suministrarle información sobre sus supuestas excelencias en todo tipo de temas ... y el nivel de ChatGPT ha pasado de nivel 4 a nivel mongo.
#39 está entrenado con dados de hasta 2021, no sabe nada nuevo desde entonces, y las conversaciones se usan sólo en la versión gratuita y sólo para validar que no la vaga, no para reentrenar ahora mismo con ellas.
Sólo hace falta mirarse sus condiciones de uso...
#43 Relax, tron, que sólo estaba de coña. No me Super-estimes, por favor.