<img src="https://certify.alexametrics.com/atrk.gif?account=fxUuj1aEsk00aa" style="display:none" height="1" width="1" alt="">

¿Es legal que ChatGPT use nuestros datos personales para aprender y evolucionar?

jueves, 12 octubre 2023 - 18:49
Facebook
Twitter
Whatsapp
Email
El uso de herramientas de inteligencia artificial (IA) en la vida cotidiana incrementó drásticamente este año, tras el aumento de popularidad de aplicaciones como ChatGPT y Perplexity AI, que parecen entender a la perfección lo que les pedimos y muestran un alto grado de eficacia.

Esta tecnología, que trae consigo funcionalidades innovadoras, ha generado preocupación en expertos de seguridad cibernética debido a lo complicado que es reconocer si un chatbot ha utilizado datos personales de su usuario para seguir desarrollándose. Borrar esta información de su "memoria" tras su procesamiento también se sitúa como algo técnicamente imposible en la actualidad.

Precisamente ChatGTP 3, la red neuronal de aprendizaje profundo que se ha consolidado como la opción más popular entre quienes se decantan por estas herramientas, creada por OpenAI, se entrena mediante el análisis de extensas bases de datos de internet, incluyendo el registro de las actividades del usuario en línea.

La investigadora de IA de Avast, Sadia Afroz, asegura que "la gente está furiosa porque los datos se utilizan sin su permiso. Hay personas que han borrado sus datos, pero, como el modelo de lenguaje ya los ha utilizado, se quedan ahí para siempre. No saben cómo borrarlos".

"La legalidad del uso de datos personales para entrenar modelos de aprendizaje automático como GPT-3 puede variar en función de las leyes y normativas específicas de determinados países o regiones. En la Unión Europea, por ejemplo, el Reglamento General de Protección de Datos (RGPD) regula el uso de los datos personales y exige que se recopilen y utilicen únicamente para fines específicos y lícitos", explica Avast, una suite de seguridad que desarrolló un antivirus homónimo ampliamente utilizado a nivel global.

$!La inteligencia artificial no se limita a un puesto de asistente de escritorio. Esta tecnología también puede dar vida a robots que actúan bajo comandos autogenerados.

Pese a que se ha intentado regular el acceso de estas redes neuronales de aprendizaje automático a los datos de internautas que las utilizan mediante legislación, comúnmente por medio de un acuerdo de consentimiento que se presenta antes de activar la tecnología, Avast considera que al parecer "los modelos de aprendizaje del lenguaje no cumplen con el RGPD".

Lea también: Así puede programar mensajes en WhatsApp para que se envíen a una hora determinada

Actualmente en América no existe algo similar al RGPD que regule el acceso y procesamiento de datos personales por parte de estas aplicaciones de última tecnología en pos de aprendizaje, lo cual sentaría las bases de un crecimiento que no esté controlado al 100% en lo que respecta al desarrollo de este tipo de herramientas.

Más leídas
 
Lo más reciente