Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
Deseo suscribirme al Newsletter de la WCA
 

14/05/2019

Inteligencia Artificial en el sector público (I): Amenazas

Artículo de Concepción Campos

Autora: Concepción Campos

Cuando pensamos en Inteligencia Artificial (IA), instintivamente nos vienen a la mente imágenes de robots humanoides que asemejan a seres humanos, que adoptan su misma imagen, y que, incluso, pueden llegar a adoptar actitudes similares a los sentimientos del ser humano, porque ese enfoque nos facilita la asimilación del concepto inteligencia en relación a una máquina, pero en realidad la inteligencia artificial tiene mucha más relación con un algoritmo que con Terminator, con C-3PO o cualquier otra imagen robótica que se nos venga a la cabeza.

Recientemente he tenido oportunidad de investigar y reflexionar sobre las posibilidades que ofrece la IA en la administración pública para preparar una ponencia para LocalTIC en el Congreso de Cunit (línea de investigación que comencé con 5 ejemplos de IA en la Administración Pública) y por ello, de un modo sintético me gustaría compartir una serie de ideas sobre la materia, que he materializado a través del binomio amenazas/oportunidades de la IA en el sector público y que para no hacer demasiado extenso dividiré en 2 entradas, nos ocupamos hoy de las

 I.- AMENAZAS

¿Por qué pensar en las amenazas? Parece que todos entremos en pánico en relación con este tema. Nada que ver. Soy muy defensora de la gestión de riesgos (quizás un efecto secundario de mi faceta investigadora sobre Compliance), de la planificación y la prevención y para ello me parece que antes de abordar cualquier proceso resulta necesario conocer a qué nos enfrentamos, empezando siempre por la parte negativa, para poder gestionar esos riesgos o amenazas, y minimizar su impacto en los outputs positivos.

1.- Falta de regulación

Alguien me dirá (y probablemente con razón) que las leyes no son una buena herramienta en materia de IA (cómo no recordar las 3 leyes de la robótica de Asimoov), porque el ritmo vertiginoso de su avance no permite acompasarse de una regulación coherente, pero existen determinados aspectos que en la actualidad están exentos de ningún tipo de control y la no regulación no es una opción.

Podríamos pensar en la autorregulación, pero tampoco parece suficiente, aspectos tales cómo quién responde de los daños que se puedan producir, por ejemplo, en la utilización de un vehículo autónomo en el servicio de transporte público, cómo determinar los procesos de toma de decisión, los límites en el diseño de los algoritmos para que no constituyan un límite en el ejercicio de mis derechos, no son una cuestión baladí (algunos países como EEUU están comenzando ya a plantearse    regular este ámbito, en este caso mediante un Proyecto de Ley de Responsabilidad Algorítmica).

Parafraseando al Conde de Romanones, “hagan ustedes las leyes, déjenme a mí los algoritmos”.

2.- Inseguridad ante el futuro

Deep learning y machine learning. Las posibilidades que alcanza el aprendizaje profundo de las máquinas sobre la base de incorporaciones masivas y continuas de datos que generan nuevos bucles de aprendizaje hacen que resulte difícil predecir con exactitud su reacción en toda la variedad de escenarios a los que podrían llegar. Puede parecerlo, pero no es ciencia ficción.

Un ejemplo, los boots conversacionales de Facebook, pensados para conversar entre sí y que una vez en modo activo, optaron por crear un lenguaje propio, más eficiente, pero imposible de comprender. O la adolescente Tay de Twitter, programada para ser encantadora e interactuar de un modo amable, y que, una vez expuesta a las masas transeúntes de la selva que son las redes sociales, se convirtió en xenófoba, machista, y nazi (y porque fue desconectada que sino a saber cómo habría acabado).

3.- Desaparición de puestos de trabajo

Esto es ya, a pesar de la novedad, todo un clásico. “Los robots nos van a robar el trabajo”, en mi entrada El futuro del empleo público ante los retos de la IA ya tuve oportunidad de reseñar el magnífico libro “El empleo del futuro” de Manuel Hidalgo, y cómo, en mi opinión, el valor que genera el empleado público no será sustituido por la IA. Al contrario, esta técnica serán una aliada para complementar y mejorar el desempeño de nuestras funciones, por ello deberíamos empezar a pensar en sumarnos al cambio antes de que el cambio nos convierta en sustituibles.

Desaparecerán puestos de trabajo, imposible negarlo, pero del mismo modo que ha sucedido en otros momentos de la historia, y siempre de un modo más llamativo vinculados a las revoluciones industriales, pero al tiempo aparecerán otros. Como bien señala Mikel Gorriti, habrá que distinguir entre sustitución y complementariedad, porque al lado de los puestos que desaparecerán aparecerán otros que serán necesarios para el nuevo modelo de gestión, para su implantación y para evolucionar en sus desarrollos. El hecho diferencial será el valor añadido que aporta el ser humano frente a la máquina.

4.- Limitación de la autonomía personal

¿En qué medida fiar nuestras decisiones a la IA? Pues depende, habrá en ocasiones en que la eficiencia que nos aportan los actos basados en la verdad pura y objetiva de los datos será lo más conveniente al interés general, pero, en otras, será necesario ponderar esas decisiones con otros factores a los que deben responder las administraciones públicas, cuando frente a la eficacia y a la eficacia haya que buscar el equilibrio con la existencia de determinados factores sociales que aconsejen otra decisión.

Un ejemplo banal e inocente. Los “drones cafeteros” de Microsoft. Drones que dotados de una serie de cámaras y sensores biométricos podrían enviar café a los empleados antes de que éstos lo soliciten. Puede que la dilatación de tus pupilas y tu expresión facial, unida a tu agenda de reuniones aconseje que te tomes una dosis de cafeína, pero quizás tú no quieras tomarte ese café.

Pensemos ahora en otros ejemplos no tan banales e inocentes. Es necesario establecer una serie de reglas y límites en la interacción máquina/persona.

5.- Sesgos éticos

Porque uno de esos límites es y debe ser la ética, una de las vías fundamentales para el correcto desarrollo de la IA. Porque la posibilidad de mayor discriminación en la utilización de la IA no es una hipótesis de futuro, es una realidad. EEUU es un buen ejemplo de ello, la utilización de asistentes legales basados en IA por el poder judicial ha dado ya buenos ejemplos (por ejemplo, Enrique Dans en Justicia robótica), al igual que su utilización por la policía, normalmente con perjudiciales efectos para las personas latinas o de raza negra, o el programa de reconocimiento facial de China y su posible utilización en una pretendida prevención del delito.

Pero no nos engañemos, en la mayoría de casos el sesgo está en el diseño y programación del algoritmo, cuestión que, de momento, es competencia humana, la cinematografía nos ofrece tenebrosos ejemplos, como la película Minority Report. El peligro no es la tecnología sino el uso que nosotros, las personas, podamos hacer de ella, si nosotros tenemos unos sólidos valores, transmitiremos la ética en todas sus dimensiones y evitaremos el peligro de los sesgos en todas sus dimensiones .

Muy pronto, abordaremos en la segunda parte de esta entrada las Oportunidades de la IA en el sector público, que ya adelanto, no son pocas…..

 


 
Patrocinadores
Colaboradores
Entidades Asociadas