Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
Deseo suscribirme al Newsletter de la WCA
 

12/08/2019

La responsabilidad de empleados y sindicatos en el control ético de la inteligencia artificial

En los últimos 12 meses Google ha sufrido dos importantes crisis reputacionales.

Antes de conocerse esta noticia un grupo de empleados, pertenecientes al departamento Algorithmic Warfare Cross-Function Team, habían decidido no trabajar en el proyecto. Maven es un programa utilizado por las fuerzas armadas de ese país, que aprovecha la inteligencia artificial (IA) para mejorar la orientación de los drones y que tiene entre otros, el propósito desarrollar e integrar algoritmos de visión artificial, necesarios para ayudar a los analistas militares y civiles con el volumen total de datos de vídeo en movimiento recopilados todos los días, en apoyo a operaciones de contrainsurgencia y antiterrorismo.

Las razones que llevaron a los empleados de Google a renunciar a sus puestos y firmar la carta tienen que ver con la ética y con la posde que la dedicación de su empresa a determinados proyectos de IA, podría acabar dañando la confianza de sus clientes. La segunda crisis la vivió en abril de este año, cuando Google se vio obligada a comunicar la disolución de su recién creado consejo ético, Ateac (Advanced Technology External Advisory Council), integrado por expertos, cuyo rol era asesorar a Google sobre la aplicación de la ética a su IA. En esta ocasión, de nuevo los empleados cuestionaron la adecuación al puesto de consejero, de algunos de los elegidos.

Los hechos descritos nos llevan a una importante conclusión y es, la del relevante rol que empleados y sindicatos tienen y tendrán en el futuro, en el control del respeto por parte de sus empresas de los principios éticos a la Inteligencia Artificial. Y es que la realidad no deja de mostrarnos algo quizás no tan obvio: una cosa es enunciar principios, y otra muy diferente hacerlos realidad. A estas alturas, casi todas las grandes corporaciones que están detrás de los más importantes desarrollos de la IA, cuentan ya con sus declaraciones de principios éticos para la IA, pero no así con las políticas y acciones que pueden ayudarles a lograr que las declaraciones pasen de ser palabras a ser hechos.

En los últimos meses he tenido ocasión de charlar con varios responsables de la aplicación práctica de los principios de la IA y todos confiesan la complejidad de su misión. Estamos ante un campo donde no hay antecedentes, un área en la que hay que innovar y donde será necesario trabajar con el prueba-error. Las empresas que desarrollen y/o utilicen la IA en cualquier etapa de su cadena de valor, tendrán que trabajar en el diseño de estrategia y tácticas claras para hacer realidad el respeto de la ética en tres niveles: En primer lugar, el que se refiere al respeto de la ética en el Diseño (Ethics in Design) o lo que es lo mismo al desarrollo de métodos y normas que permitan el análisis y la evaluación de las implicaciones éticas de los sistemas de IA en la medida en que éstos integran o sustituyen las estructuras sociales tradicionales.

En segundo lugar, el que persigue la integración técnico-algorítmica de las capacidades de razonamiento ético como parte del comportamiento del sistema autónomo artificial, esto es la llamada, Ética de la máquina (Ethics by design). Y finalmente, el que persigue que los desarrolladores y usuarios respetan principios éticos en la investigación, diseño, construcción, empleo y gestión de los sistemas, esto es la llamada Ética para el diseño (Ethics for design), que demanda la creación de códigos de conducta, normas y procesos de certificación.

En la práctica la imbricación de la ética en la IA se está realizando en las empresas a través del desarrollo de varios tipos de acciones, entre otras, algunas formativas; otras dirigidas al desarrollo de software; otras consultivas e informativas y otra organizativas, como la creación de Consejos y Comités de expertos independientes.

Lo que a estas alturas, es indiscutible es que en el desarrollo de estas acciones han de participar activamente los sindicatos y no sólo porque va a ser necesario diseñar políticas de formación y recolocación de los empleados que perderán su empleo al ser sustituidos por robots, como recientemente ha señalado la OCDE en sus recomendaciones sobre el buen uso de la IA, sino también porque es posible que los empleados necesiten su apoyo en algunos supuestos, como ya ha pasado en el caso de Google, para defender un uso responsable de la IA, la seguridad y la calidad en el empleo.

En conclusión, el verdadero reto actual al que se están enfrentando quienes desarrollan y usan IA es el de la aplicación práctica de los principios éticos. Y es que no es fácil, pasar de los principios a los hechos. El vertiginoso desarrollo que está teniendo la IA debe venir acompañado no sólo de bellas enunciaciones de principios, nombramientos de consejeros y buenas palabras, sino, y, sobre todo, de realidades. Esta labor no es sencilla y por ello, el intercambio de buenas y malas prácticas, esto es la conversación sincera y abierta, incluyendo en ella a empleados y sindicatos, sobre las medidas reales que las empresas están adoptando para lograr que la IA sea buena, es posiblemente una de las formas más efectivas para lograr diseñar un futuro donde la IA responda de verdad a los más elevados estándares éticos

[Leer Más]

 
Patrocinadores
Colaboradores
Entidades Asociadas