Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
He leído/acepto la Política de Privacidad
Deseo suscribirme al Newsletter de la WCA
 

08/01/2026

La Autoridad Vasca de Protección de Datos alerta del riesgo de compartir información con la IA

ChatGPT abrirá la puerta a conversaciones eróticas para adultos verificados. La Autoridad Vasca de Protección de Datos advierte que “la huella digital, cuando se utilizan este tipo de chatbots, no es anónima”

Así lo explica en conversación con este periódico su presidente, Unai Aberasturi, quien alerta sobre la exposición de información personal que conlleva el uso de estas herramientas. “Tenemos que tener en cuenta que se diseñan para retenerte, para engancharte, para que pases cada vez más tiempo relacionándote con ellas, con los riesgos que ello implica”, explica. En este sentido, subraya que “cuanto más tiempo pases enganchado en ese entorno, más humanizas a la máquina y más información le transmitirás sobre tu vida”.

Son muchos los datos que pueden ponerse en riesgo al utilizar herramientas de inteligencia artificial en el día a día, pero todavía más cuando se emplean con fines eróticos o sexuales. “Debemos partir de la idea de que la huella digital, cuando se utilizan este tipo de chatbots, no es anónima. En la propia política de privacidad de ChatGPT hay una lista extensa de los datos que recopila, dependiendo del tipo de usuario que seas”, advierte Aberasturi.

Datos vulnerables

Por ejemplo, sin necesidad de registrarse, ChatGPT puede recopilar la dirección IP, el tipo de dispositivo, el navegador, el sistema operativo, la fecha, la hora y la duración de la sesión, así como los datos de interacción –qué botones se pulsan, los mensajes escritos y las respuestas generadas–. Además, utiliza cookies para recordar el contexto de la conversación durante la sesión. Si el usuario está identificado, se añaden más datos, como el correo electrónico, la contraseña o el país aproximado. Y si cuenta con una suscripción –es decir, la versión de pago–, también debe facilitar información de facturación y los datos de la tarjeta bancaria.

Al ser preguntado por los riesgos concretos de usar estas herramientas con fines eróticos, Aberasturi advierte de que “existe un riesgo potencial mayor, ya que aumenta la probabilidad de aportar datos sensibles o íntimos, como la orientación sexual”. Esa información, explica, “podría utilizarse para entrenar a la propia herramienta, acabar en manos de ciberdelincuentes o emplearse para segmentar a los usuarios según criterios vinculados a aspectos íntimos de su vida”.

Ante esta situación, el presidente de la AVPD apela a la responsabilidad tanto de las personas usuarias como de las empresas tecnológicas. “Las compañías deben actuar diligentemente. Incorporar los mecanismos necesarios para garantizar un uso seguro de los datos, salvaguardar la confidencialidad e integridad de la información y evaluar los riesgos que genera el uso de estas herramientas. Además, deben cumplir con el principio de transparencia”, recalca.

Sentido común

A su juicio, muchas personas no son del todo conscientes del volumen de información que comparten al interactuar con la inteligencia artificial. “Este es el riesgo principal de un uso irresponsable: no saber qué sucede con nuestros datos y perder el control sobre un derecho fundamental como la privacidad, que forma parte de nuestra personalidad”, reflexiona. Por ello, anima a hacerse preguntas como: “¿Para qué se utilizan estos datos? ¿Dónde se conservan? ¿Cómo puedo ejercer mis derechos de acceso, supresión o rectificación?”.

La Autoridad Vasca de Protección de Datos participa en foros internacionales, como la Red Iberoamericana de Protección de Datos, donde se subraya la importancia de saber qué sucede con la información personal. Una de sus funciones principales es la sensibilización: “Hacer que la ciudadanía vasca sea consciente de la importancia que tiene la privacidad y de lo relevante que es saber qué sucede con nuestros datos cuando utilizamos tecnologías disruptivas como la inteligencia artificial”, explica Aberasturi.

El riesgo aumenta todavía más cuando se trata de menores de edad. “Estamos hablando de un colectivo muy sensible, que hace un uso cada vez más intenso de las nuevas tecnologías desde edades tempranas, con riesgos serios en ámbitos como la salud mental, el aislamiento o la desinformación”, señala.

Según datos de la AVPD, un 55% de los menores de entre 13 y 17 años considera la pornografía una “fuente de inspiración en sus relaciones sexuales”. “Ante esta realidad, los menores deben ser especialmente protegidos. De ahí la importancia de implementar sistemas de verificación de edad adecuados”, advierte el presidente.

Sin embargo, estos sistemas también generan debate, ya que deben ser eficaces sin comprometer la privacidad. “Nos hemos encontrado con mecanismos que, para verificar la edad, piden información excesiva, como el DNI o incluso datos biométricos, lo que puede derivar en nuevas vulneraciones de privacidad”, concluye Aberasturi.

Fuente: https://www.noticiasdegipuzkoa.eus/

LINK DE LA NOTICIA

Quiénes Somos


 
Patrocinadores
Colaboradores
Entidades Asociadas