Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
Deseo suscribirme al Newsletter de la WCA
 

14/05/2019

Se presenta en los Estados Unidos un proyecto de Ley de responsabilidad algorítmica (Algorithmic Accountability Act)

Esta norma obligará a las empresas a que evalúen el uso que hacen de los sistemas automatizados de toma de decisiones y sobre los sistemas de decisión automatizados de alto riesgo, para determinar su impacto en la precisión, la imparcialidad, los sesgos, la discriminación, la privacidad y la seguridad.

Carlos B Fernández. Los senadores demócratas norteamericanso Cory Booker y Ron Wyden, junto con la congresista del mismo partido Yvette D. Clarke, han presentado ante el Senado de ese país un proyecto de Ley de Responsabilidad Algorítmica (Algorithmic Accountability Act of 2019), para exigir que las empresas que apliquen técnicas de toma automatizada de decisiones, estudien y corrijan los algoritmos informáticos defectuosos que puedan generar decisiones inexactas, injustas, tendenciosas o discriminatorias para las personas.

El proyecto de ley está respaldado por grupos de derechos tecnológicos y civiles, incluyendo Data for Black Lives, el Center on Privacy and Technology at Georgetown Law y la National Hispanic Media Coalition.

Según sus promotores, el proyecto de ley es consecuencia de las numerosas noticias conocidas en los últimos tiempos sobre algoritmos informáticos que provocan resultados sesgados y discriminatorios. Por ejemplo, a principios de abril, el Departamento de Vivienda y Desarrollo Urbano de los EEUU (Department of Housing and Urban Development) acusó a Facebook de violar la Ley de Vivienda Equitativa (Fair Housing Act), al permitir a los anunciantes discriminar por motivos de raza, religión y discapacidad de los interesados. Igualmente, el año pasado, Reuters informó de que Amazon había cerrado una herramienta de reclutamiento automatizado que estaba sesgada en contra de las mujeres.

En este sentido, el senador Wyden indicó que los algoritmos están cada vez con mayor frecuencia involucrados en las decisiones más relevantes para la vida de las personas como comprar una casa, conseguir un trabajo o incluso ir a la cárcel. Pero con demasiada frecuencia estos algoritmos dependen de suposiciones o datos sesgados que en realidad pueden reforzar la discriminación contra las mujeres y las personas de color.

Y esta discriminación, añade Booker, puede ser hoy significativamente difícil de detectar, dando lugar a casas que nunca se sabe que están a la venta, a oportunidades de trabajo que nunca se presentan o a ofertas de financiación de las que nunca se tiene conocimiento, todo debido a algoritmos sesgados.

Por ello, explicó, este proyecto de ley exige que las empresas que utilizan software para tomar decisiones que pueden cambiar la vida de las personas, evalúen regularmente sus herramientas en cuanto a precisión, imparcialidad, parcialidad y discriminación, identifiquen los sesgos en estos sistemas y arreglen cualquier discriminación o sesgo que encuentren “Es un paso clave para asegurar una mayor responsabilidad por parte de estas entidades, añadió.

Según la congresista Clarke Los algoritmos no deberían estar exentos de nuestras leyes antidiscriminatorias. Nuestro proyecto de ley reconoce que los algoritmos tienen autores, y sin una supervisión diligente, pueden reflejar los sesgos de los que están detrás del teclado, Al exigir a las grandes empresas que no hagan la vista gorda ante los impactos no deseados de sus sistemas automatizados, la Ley de Responsabilidad Algorítmica garantiza que las tecnologías del siglo XXI son herramientas de empoderamiento, en lugar de marginación, al tiempo que refuerzan la seguridad y la privacidad de todos los consumidores.

Conforme indica el senador Booker en su página web, esta Ley de Responsabilidad Algorítmica permitirá:

  • Que la Comisión Federal de Comercio (Federal Trade Commision, FTC) elabore una normativa para exigir a las empresas bajo su jurisdicción que realicen evaluaciones de impacto sobre los sistemas de decisión automatizados altamente sensibles. Este requisito se aplicaría tanto a los sistemas nuevos como a los ya existentes.
  • Exigir a las empresas que evalúen el uso que hacen de los sistemas automatizados de toma de decisiones, incluidos los datos utilizados para el entrenamiento del sistema, para determinar su impacto en la precisión, la imparcialidad, los sesgos, la discriminación, la privacidad y la seguridad.
  • Exigir a las empresas que evalúen cómo sus sistemas de información protegen la privacidad y seguridad de la información personal de los consumidores.
  • Exigir a las empresas que corrijan cualquier problema que descubran durante las evaluaciones de impacto.

Ámbito de la propuesta

Esta ley se dirige a las entidades que hayan tenido más de 50.000.000 de dólares de ingresos brutos anuales promedio en los tres años tributarios anteriores; que posean o controlen información personal sobre más de 1.000.000 de consumidores o 1.000.000 de dispositivos de consumo, o que estén sustancialmente controladas por una de esas entidades o que sea un corredor de datos (data broker) u otra entidad comercial que, como parte sustancial de su negocio, recopile, reúna o mantenga información personal sobre personas distintas de sus empleados o clientes, con el fin de vender, comercializar o proporcionar acceso a terceros a esa información.

En el plazo de dos años a partir de la aprobación de esta Ley, la FTC deberá haber dictado las normas oportunas para que las entidades mencionadas anteriormente lleven a cabo evaluaciones de impacto:

A) sobre los sistemas automatizados de toma de decisiones de alto riesgo que utilicen, con la frecuencia que la Comisión considere necesaria, y sobre los nuevos sistemas automatizados de toma de decisiones de alto riesgo, antes de su aplicación.

B) sobre los sistemas de información de alto riesgo existentes, con la frecuencia que la Comisión considere necesaria, y sobre los nuevos sistemas de información de alto riesgo, antes de su aplicación.

Las entidades estarán obligadas a abordar de una manera razonable y oportuna los resultados de esas evaluaciones de impacto.

A estos efectos el texto de la propuesta introduce varias definiciones interesantes:

Sistema automatizado de toma de decisiones (Automated decision system)

Proceso computacional, incluido el derivado del aprendizaje automático –machine learning--, las estadísticas u otras técnicas de procesamiento de datos o de inteligencia artificial, que toma una decisión o facilita la toma de decisiones por parte de los seres humanos y que repercute en los consumidores.

Evaluación de impacto sobre sistemas automatizados de toma de decisiones (Automated decision systems impact assessment)

Estudio que evalúa un sistema automatizado de toma de decisiones y el proceso de desarrollo de un sistema automatizado de toma de decisiones, incluidos su diseño y los datos de entrenamiento, en lo que respecta a sus efectos sobre la exactitud, la equidad, la imparcialidad, la discriminación, la privacidad y la seguridad de sus decisiones.

Sistema automatizado de toma de decisiones de alto riesgo (High-risk automated decision system)

Sistema automatizado de toma de decisiones que:

A) teniendo en cuenta la novedad de la tecnología utilizada y la naturaleza, el alcance, el contexto y la finalidad de un sistema automatizado de toma de decisiones, plantea un riesgo significativo para (i) la privacidad o seguridad de la información personal de los consumidores; o (ii) de emitir o contribuir a emitir decisiones inexactas, injustas, sesgadas o discriminatorias que afecten a los consumidores;

B) toma decisiones, o facilita la toma de decisiones humanas, basadas en evaluaciones sistemáticas y extensas de los consumidores, incluyendo los intentos de analizar o predecir aspectos sensibles de sus vidas, tales como su desempeño en el trabajo, situación económica, salud, preferencias personales, intereses, comportamiento, ubicación o movimientos, que i) alteran los derechos legales de los consumidores, o ii) que tengan una repercusión significativa en los consumidores;

C) involucra la información personal de un número significativo de consumidores con respecto a su raza, color, origen nacional, opiniones políticas, religión, afiliación sindical, datos genéticos, datos biométricos, salud, género, identidad de género, sexualidad, orientación sexual, condenas penales o arrestos;

D) supervisa sistemáticamente un lugar físico grande y de acceso público; o

E) cumple con cualquier otro criterio establecido por la FTC.

Sistema de información de alto riesgo (High-risk information system)

Sistema de información que:

A) teniendo en cuenta la novedad de la tecnología utilizada y la naturaleza, alcance, contexto y finalidad del sistema de información, plantea un riesgo significativo para la privacidad o seguridad de la información personal de los consumidores;

B) involucra la información personal de un número significativo de consumidores con respecto a raza, color, origen nacional, opiniones políticas, religión, afiliación sindical, datos genéticos, datos biométricos, salud, género, identidad de género, sexualidad, orientación sexual, condenas penales o arrestos;

C) supervisa sistemáticamente un lugar físico grande y de acceso público.

D) cumple con cualquier otro criterio establecido por la FTC.

[Leer Más]

 
Patrocinadores
Colaboradores
Entidades Asociadas