Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
Deseo suscribirme al Newsletter de la WCA
 

12/02/2024

“Ya hay máquinas que leen el pensamiento; defendamos la privacidad mental”

El responsable de Neurotecnología e IA de la SEN insta a proteger los neuroderechos de los ciudadanos

Cascos y diademas de estimulación cerebral, sensores cerebrales manejados por inteligencia artificial (IA), lectores de resonancia magnética o electroencefalograma capaces de reconstruir lo que la persona ve, piensa o dice... Cada vez son más las investigaciones y las herramientas de big data y de inteligencia artificial destinadas a conocer, mejorar o modular el cerebro de las personas. Y también lo son los estudios que constatan que el uso de dispositivos tecnológicos afecta a su funcionamiento y a las funciones cognitivas. 

Por todo ello, la Sociedad Española de Neurología acaba de crear un área de Neurotecnología e IA al frente de la cual se ha situado uno de sus vicepresidentes, David Ezpeleta (Pamplona, 1968).

¿Con qué objetivo se crea esta nueva área?

Con el de separar el grano de la paja de todo lo que se publica sobre neurotecnología, que con la irrupción de la IA generativa va a mucha velocidad. Y al mismo tiempo, con el de vencer la reticencia de los médicos a adoptar herramientas tecnológicas que ponen en riesgo su práctica clínica. Hemos de acompasar estas diferentes velocidades y velar porque la IA y los dispositivos neurotecnológicos que se desarrollen sean pertinentes, seguros, eficaces, y respeten los neuroderechos de la persona.

¿Cómo?

Es imposible analizar todas la aplicaciones tecnológicas que se lanzan, pero sí vamos a denunciar o llamar la atención si alguna pone en riesgos los neuroderechos de las personas, y analizaremos en profundidad las de grandes empresas que puedan llegar la práctica clínica. Porque que una solución tecnológica sea posible no significa que sea buena para la práctica clínica; hemos de poner filtros. Y también vamos a promover, a través del programa IncubaSEN, las soluciones tecnológicas que partan de los propios neurólogos, porque pensamos que es más fácil que los médicos adopten una herramienta que ha surgido de una necesidad o un problema detectado por sus colegas.

Ya hay dispositivos a los que se atribuye capacidad de estimular áreas cerebrales para mejorar la memoria, reducir la ansiedad, paliar el Parkinson... ¿No constituyen un riesgo, una forma de manipulación?

El neurobiólogo Rafael Yuste analizó productos tipo diadema de relajación o mindfulness que se venden por AliExpress o Amazon de diferentes empresas y vio que esos aparatos recogían información bioeléctrica de los usuarios sin su conocimiento, porque la mayoría lo autoriza sin saberlo al dar okey en las primeras pantallas al tratamiento de datos. Las empresas recogen esa información para entrenar sus modelos o para lo que consideren. Y desde finales de 2022, con la explosión de las IA generativas, se ha presentado una cascada de avances que debería ponernos en alerta.

¿Por qué?

Porque los grandes modelos de lenguaje ya no son solo de lenguaje, son multimodales, y la integración de estos interfaces de IA con el registro eléctrico cerebral permite avances que hace cinco años se consideraban ciencia ficción, como máquinas que leen el pensamiento. Ya se demostrado que la inteligencia artificial es capaz de reproducir, analizando la señal de una resonancia magnética, el discurso que está haciendo una persona con un grado de acierto del 60%-70%. Y también de reconstruir lo que ve en imágenes e incluso en vídeo. 

Eso en principio no debería suponer un riesgo porque nadie va emitiendo señales de resonancia magnética por la calle para que le lean el pensamiento, pero luego se ha visto que lo mismo puede conseguirse a partir de la actividad encefalográfica, que sí la registran cascos como los que se usan para determinados juegos... Así que eso sí nos pone en alerta, porque la integración de estos interfaces no invasivos para el registro eléctrico cerebral con la IA generativa abre un gran potencial para el diagnóstico y la neurorrehabilitación, pero hay que vigilar que las cosas se hagan bien.

¿De qué manera?

La forma de garantizar la protección de la privacidad de los datos cerebrales y de que los desarrollos neurotecnológicos que surjan sean beneficios tiene varias líneas: desde el juramento tecnocrático que propone Yuste, hasta la criptografía, el establecimiento de unas bases éticas y unos neuroderechos que garanticen la libertad de pensamiento, el libre albedrío, la ausencia de sesgos e igualdad de oportunidades ante las herramientas de neuromejora que se vayan creando, y la privacidad mental.

¿Está en juego la privacidad mental?

Cualquier red social, con dos días de interacción y unos cuantos clics, ya es capaz de saber datos sensibles como ideología, identidad sexual, si tienes una confesión religiosa... De eso sacan conclusiones y lanzan mensajes concretos, y de esa forma es posible manipular conductualmente a la persona para que compre determinado producto, cambie el voto, apoye determinada opción... Y puesto que hay interfaces que analizando la actividad eléctrica del cerebro de las personas pueden reconstruir lo dicho, pensado, visto o escuchado, nuestros secretos mentales pueden ser revelados, es previsible que esos aparatos de electrodos se simplifiquen y se comercialicen dispositivos que permitan extraer información del cerebro de las personas. Es un campo complejo en el que nos hemos metido sin darnos cuenta y que hay que estudiar cómo podemos afrontarlo.

Al margen de usos indeseados o abusivos, el hecho de utilizar la IA para agilizar tareas o para los trabajos más complejos, ¿afecta al cerebro?

El cerebro es plástico y cuando cambia tu forma de hacer las cosas se adapta. Lo hemos visto con los móviles, las redes sociales y otras tecnologías. Antes de la existencia del GPS se había visto que los taxistas de Londres tenían aumentado el tamaño del hipocampo porque para acceder al trabajo tenían que memorizar todo el callejero y saber buscar mentalmente cada ruta; ahora que pueden guiarse por GPS, el tamaño de ese hipocampo está disminuyendo. Así que si delegas pensamiento y tareas en la IA va a afectar a tu cerebro, a modificarlo. El cómo o los problemas que pueda suponer están por demostrar, pero todo indica que ocurrirá. La delegación de información que llevamos tiempo haciendo con los móviles e internet ya ha supuesto una ruptura de la atención y de la capacidad de memorización que están alterando la capacidad de aprendizaje, y eso tiene consecuencias escolares.

¿Cómo podemos cuidar nuestro cerebro ante este imparable avance tecnológico?

Las mejores recomendaciones serían hacer ejercicio físico (es el mayor factor neurogénico, neuropotenciador y neuroprotector que existe), tener una alimentación regular y saludable (dieta mediterránea controlando el peso), socializar en persona (estar con gente presencialmente), dormir bien, cuidar el estado de ánimo evitando en lo posible factores de estrés, hacer un uso controlado de la tecnología, leer libros en papel y escribir a mano. La tecnología es buena si está alineada con las necesidades de las personas y se utiliza con sentido común, y esta revolución de la IA es fascinante, y si se hace un buen uso de ella podemos lograr que sirva para ser más sanos, más felices y mejores en el trabajo.

Quiénes Somos

21 de Febrero
COMUNICADO OFICIAL

 
Patrocinadores
Colaboradores
Entidades Asociadas