Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
Deseo suscribirme al Newsletter de la WCA
 

14/03/2023

Un robot compliance officer: ¿y por qué no?

Probablemente, es solo cuestión de tiempo que la propia función de ’compliance’, como tal, tenga a su frente a un algoritmo, en vez de un ser humano

El control de los robots, y del uso de la Inteligencia Artificial en general, va a ser —en realidad, ya lo es—, parte esencial de los programas de compliance y objetivo preferente del ojo vigilante de los compliance officer.

En 1942 el ruso Isaac Asimov formuló sus tres famosas leyes de la robótica. Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño. Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o Segunda Ley. Simple, pero muy bueno. En aquel momento estaba relativamente reciente la primera versión de Frankenstein y los robots eran solo historias de tebeos, algo que nunca nos sucedería. 

Pero han pasado 80 años y la fantasía se ha convertido en realidad. Tenemos robots de verdad, sin brazos ni piernas (drones, vehículos autónomos, robots de cirugía, etc.), pero que realizan cosas asombrosas y que nunca habríamos soñado. Incluso contamos con robots asesinos, hechos para la guerra, capaces de tomar sus propias decisiones de ataque o defensa.

En realidad, cuando miramos al futuro, no podemos evitar una cierta aprensión y preguntarnos adónde nos lleva este deslumbrante mundo nuevo. ¿Acabaremos todos sustituidos por robots? En 2019, un estudio de la OCDE sobre el empleo advertía que el 21,7 % de los puestos de trabajo en España acabarían automatizados y el 32 % experimentarían profundas transformaciones. Los jueces o abogados, por poner un ejemplo, ¿pasaremos al desván de la historia, relegados por robots capaces de aplicar el derecho de manera infalible? Reino Unido ha puesto en funcionamiento un algoritmo que resuelve reclamaciones de pequeñas deudas sin intervención humana. Quizá es un comienzo. Otras profesiones también se sienten ante la encrucijada. 

 Pero mientras averiguamos adónde vamos, es preciso regular y controlar los actos de los robots, determinar su alcance jurídico y las consecuencias de sus errores. Las categorías jurídicas tradicionales hacen agua ante el fenómeno. ¿Cómo tratar legalmente con los robots deep learning, que se auto-educan y toman decisiones al margen de sus creadores? Hace tiempo que se especula con la opción de reconocerles una especie de "personalidad electrónica". ¿Podremos, entonces, encomendarles tareas, esperar que cumplan sus compromisos, hacerles un requerimiento notarial, en definitiva, tratarles como seres auto-responsables?

La primera cuestión que está sobre la mesa es la de su responsabilidad civil. ¿Habrá de responder el fabricante, el titular o el "educador" por los daños que cause un robot? En 2017, una Resolución del Parlamento Europeo instaba a crear un marco jurídico propio a los robots (Robolaw) y postulaba la responsabilidad conjunta de todos los operadores intervinientes, por los actos del robot; un seguro obligatorio similar al de los automóviles, y un fondo de compensación que hiciera frente a las indemnizaciones. 

Otra realidad que demanda respuesta es la inclusión de algoritmos en los consejos de administración de las sociedades mercantiles. Cómo tratar las posibles malas decisiones empresariales de esos administradores-robot. ¿Aplicaremos las normas de responsabilidad de la Ley de Sociedades de Capital? ¿A quién? 

También espera soluciones la responsabilidad penal. Hace unos meses, en Corea, un robot, aspirador doméstico, atacó a su propietaria mientras dormía. ¿Esto es solo responsabilidad civil, o alguien deberá responder penalmente por hechos como estos? Puede parecer exagerado, pero en 2010 llegó a España la responsabilidad penal de las personas Jurídicas y durante varios años, nadie le hizo ningún caso. Ahora, doce años después, se han convertido en parte esencial de nuestro sistema y las empresas responden penalmente por los delitos de sus empleados o administradores. ¿Responderán también penalmente en el futuro por los "delitos" de sus robots? 

Son cientos de interrogantes. 

En 2021, la UE abordó la cuestión de la Inteligencia Artificial en general con una Propuesta de Reglamento que parte de una clasificación entre actividades prohibidas (por ejemplo, las relacionadas con el abuso de grupos vulnerables de población o las de identificación biométrica); las denominadas de alto riesgo, que afectan bienes jurídicos de especial sensibilidad, como la salud o los derechos fundamentales de los ciudadanos, que quedan sujetas a una exigente regulación; y las que no se estiman de alto riesgo, cuyo control se confía, en principio, a simples códigos de conducta. Un diseño normativo completo y complejo, sometido, en último término, a una autoridad reguladora UE, el Comité Europeo de Inteligencia Artificial. Se aproxima un duro trabajo de control para los departamentos de compliance.

O quizá no. Porque el desarrollo eficiente de la función de compliance es ya inimaginable sin las herramientas de inteligencia artificial que aseguran el control de los riesgos, incluidas las que ayudan a prever, —y a adelantarse—, a los malos comportamientos de los empleados. Algo que nos trae inevitablemente a la mente a aquella unidad "pre-crimen" de la inolvidable película Minority Report, con la que Tom Cruise y su equipo conseguían conocer anticipadamente las malas intenciones de los delincuentes y detenerlos

Probablemente, es solo cuestión de tiempo que la propia función de compliance, como tal, tenga a su frente a un algoritmo, en vez de un ser humano. ¿Y por qué no?

Fuente: elconfidencial.com

Link: https://blogs.elconfidencial.com/juridico/tribuna/2023-03-01/un-robot-compliance-officer-y-por-que-no_3584524/

Quiénes Somos


 
Patrocinadores
Colaboradores
Entidades Asociadas