Derecho a la explicación

De Wikipedia, la enciclopedia libre

El derecho a la explicación se refiere al derecho del usuario a conocer cómo funciona un sistema de inteligencia artificial y cómo llega a sus conclusiones. Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios[1]​.

Por ejemplo, si un solicitante de empleo es rechazado por un sistema automatizado de selección de currículums, tiene derecho a recibir una explicación clara y detallada sobre cómo se evaluó su currículum y por qué se tomó la decisión de rechazarlo. Esto permite que los usuarios comprendan cómo funcionan estos sistemas y cómo se llega a las decisiones, lo que a su vez fomenta la confianza en la tecnología y ayuda a prevenir la discriminación.

Sin embargo, el derecho a la explicación también plantea implicaciones jurídicas y éticas, ya que algunos sostienen que podría obstaculizar la innovación en I.A al dificultar a las empresas la protección de sus derechos de propiedad intelectual. Aunque otros argumentan que la responsabilidad y la transparencia en los sistemas automatizados son fundamentales para prevenir la discriminación y garantizar la equidad en la toma de decisiones[2]​. Además, consideran que, a pesar de su importancia, hay mucha resistencia a que el derecho a la explicación sea jurídicamente vinculante.

El derecho a la explicación es un tema de debate en la comunidad de I.A, ya que se trata de un equilibrio entre la innovación y la protección de los derechos de los usuarios. Pero, en última instancia, se busca garantizar la transparencia y la responsabilidad en el uso de sistemas de I.A para construir una tecnología que funcione para todos.

Debate[editar]

Margot E. Kaminski ha escrito extensamente sobre la responsabilidad algorítmica y el derecho a la explicación. En su artículo "The Right to Explanation, Explained", Kaminski sostiene que el derecho a la explicación es importante porque permite a las personas comprender cómo se toman las decisiones algorítmicas y cuestionarlas si son injustas o discriminatorias.Señala que la toma de decisiones algorítmicas puede ser opaca, compleja y estar sujeta a errores, prejuicios y discriminación, lo que puede tener importantes consecuencias para las personas en ámbitos como el crédito, el empleo y la educación.[3]​.

Uno de los principales beneficios del derecho a la explicación es una mayor transparencia en los procesos automatizados de toma de decisiones. El derecho a la explicación puede ayudar a resolver este algunos de los problemas mencionados por Kaminski explicando a los ciudadanos cómo se ha tomado una decisión, lo que puede contribuir a aumentar la confianza en los sistemas automatizados de toma de decisiones[4]​. La transparencia de los sistemas automatizados de toma de decisiones permite la supervisión e intervención humana cuando es necesario, garantizando que las decisiones se toman en consonancia con los valores y expectativas humanas[5]​. La transparencia puede agilizar los trámites de conformidad legal y evitar a las organizaciones posibles acciones legales en el futuro[6]​, ayudándolas a demostrar que cumplen la normativa y las directrices pertinentes[7]​.

Otro beneficio es la rendición de cuentas. Al exigir explicaciones a los sistemas automatizados de toma de decisiones, las personas pueden responsabilizar al sistema y a sus creadores de los errores que puedan haberse producido en el proceso y hace menos probable que las empresas hagan un uso indebido de los algoritmos con fines injustos o discriminatorios[8]​.

El derecho a la explicación también tiene beneficios para las compañías, puede ayudar en campos con un alto riesgo, como la medicina, las finanzas y el derecho, a reducir el impacto de las predicciones erróneas y/o sesgadas[9][10]​. También ayudar a mejorar el rendimiento de los sistemas proporcionando retroalimentación a los desarrolladores de forma constante[11]​ y fomenta el desarrollo de nuevas técnicas y tecnologías, como la IA explicable[5]​.

Mienstras tanto otros sostienen que el "derecho a la explicación" es, en el mejor de los casos, innecesario y, en el peor, perjudicial, y amenaza con ahogar la innovación. Las críticas específicas incluyen: favorecer las decisiones humanas sobre las decisiones de la máquina, ser redundante con las leyes existentes, y centrarse en el proceso sobre el resultado[12]​.

Los autores del estudio "Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For" Lilian Edwards y Michael Veale sostienen que el derecho a la explicación no es la solución a los perjuicios causados a las partes interesadas por las decisiones algorítmicas. También afirman que el derecho de explicación en el RGPD está estrechamente definido, y no es compatible con la forma en que se están desarrollando las modernas tecnologías de aprendizaje automático. Con estas limitaciones, definir la transparencia en el contexto de la responsabilidad algorítmica sigue siendo un problema. Por ejemplo, proporcionar el código fuente de los algoritmos puede no ser suficiente y puede crear otros problemas en términos de divulgación de la privacidad y de manipulación de los sistemas técnicos.. Para mitigar este problema, Edwards y Veale sostienen que un sistema de auditoría podría ser más eficaz, permitir a los auditores estudiar las entradas y salidas de un proceso de decisión desde fuera, en otras palabras, "explicar las cajas negras sin abrirlas"[13]​.

A un nivel más fundamental, muchos algoritmos utilizados en el aprendizaje automático no son fácilmente explicables. Por ejemplo, el resultado de una red neuronal profunda depende de muchas capas de cálculos, conectadas de forma compleja, y puede que ninguna entrada o cálculo sea un factor dominante. El campo de la IA explicable trata de ofrecer mejores explicaciones a partir de los algoritmos existentes, y algoritmos que sean más fácilmente explicables, pero es un campo joven y activo[14][15]​.

Del mismo modo, las decisiones humanas a menudo no pueden explicarse fácilmente: pueden basarse en la intuición o en una "corazonada" difícil de expresar con palabras. Se puede argumentar que a las máquinas no se les debe exigir un nivel de exigencia mayor que a los humanos.

Otros sostienen que las dificultades de la explicabilidad se deben a que se centra demasiado en las soluciones técnicas, en lugar de conectar la cuestión con los interrogantes más amplios que plantea un "derecho social a la explicación"[16]​.

Sugerencias[editar]

Edwards y Veale consideran que el derecho a la explicación proporciona algunos criterios para explicar decisiones concretas. Exponen dos tipos de explicaciones algorítmicas, las explicaciones centradas en el modelo y las explicaciones centradas en el sujeto, SCE por sus siglas en inglés, que se ajustan en líneas generales a las explicaciones sobre sistemas o decisiones[13]​.

Las SCE se consideran la mejor manera de poner remedio a algunos problemas, aunque con algunas limitaciones severas si los datos son demasiado complejos. Su propuesta consiste en desglosar el modelo completo y centrarse en cuestiones concretas mediante explicaciones pedagógicas a una consulta concreta, "que podría ser real, ser ficticia o exploratoria". Estas explicaciones implican necesariamente un compromiso con la precisión para reducir la complejidad.

Con el creciente interés por la explicación de los sistemas técnicos de toma de decisiones en el campo del diseño de interacción persona-ordenador, investigadores y diseñadores se esfuerzan por abrir la caja negra en términos de modelos matemáticamente interpretables, tan alejados de la ciencia cognitiva y de las necesidades reales de las personas. Los enfoques alternativos consistirían en permitir a los usuarios explorar libremente el comportamiento del sistema mediante explicaciones interactivas.

Una de las propuestas de Edwards y Veale consiste es eliminar parcialmente la transparencia como paso clave necesario para la rendición de cuentas y la reparación de daños. Argumentan que las personas que tratan de resolver problemas de protección de datos desean una acción, no una explicación. El valor real de una explicación no será aliviar o reparar el daño emocional o económico sufrido, sino comprender por qué ocurrió algo y ayudar a garantizar que un error no vuelva a repetirse[13]​.

A mayor escala, en el estudio Explainable machine learning in deployment, los autores recomiendan crear un marco explicable en el que se establezcan claramente los criterios de selección mediante la identificación de las partes interesadas, la colaboración con ellas y la comprensión de la finalidad de la explicación. Además, en el sistema deben tenerse en cuenta aspectos relacionados con la explicabilidad, como la causalidad, la privacidad y la mejora del rendimiento[17]​.

Derecho a la explicación en la legislación[editar]

Unión Europea[editar]

El artículo 22 del Reglamento General de Protección de Datos establece que los interesados tienen derecho a no ser objeto de decisiones basadas únicamente en el tratamiento automatizado de datos, incluida la elaboración de perfiles, que produzcan efectos jurídicos sobre ellos o les afecten significativamente de forma similar. Sin embargo, hay excepciones a este derecho, como cuando la decisión automatizada es necesaria para la celebración o ejecución de un contrato, está autorizada por la legislación de la Unión o de los Estados miembros, o se basa en el consentimiento explícito del interesado[18]​.

El artículo 15 también se considera una fuente potencial de este derecho, ya que ordena que los interesados reciban información significativa sobre la lógica implicada en los sistemas de toma de decisiones automatizadas, así como sobre el significado y las consecuencias previstas de dichos sistemas. Esto suele denominarse "derecho a ser informado"[19]​.

Sin embargo, existen debates y dudas sobre la existencia legal y la viabilidad de un derecho exhaustivo a la explicación en el RGPD[19][20][21]​. La polémica surge principalmente debido a cuestiones legales y a la falta de claridad en la redacción del reglamento. Aunque el derecho a la explicación está relacionado con el artículo 22 del RGPD, que aborda las decisiones automatizadas y la elaboración de perfiles, este derecho no se menciona explícitamente en los artículos vinculantes del texto, ya que fue eliminado durante el proceso legislativo[19]​.

Los académicos de Oxford Bryce Goodman y Seth Flaxman afirman que el RGPD crea un "derecho a la explicación", pero no profundizan mucho más allá de ese punto, señalando las limitaciones del actual RGPD. Los académicos Andrew D Selbst y Julia Powles afirman que el debate debería reorientarse hacia la discusión sobre si se utiliza o no la expresión "derecho a explicación", debe prestarse más atención a los requisitos expresos del RGPD y cómo se relacionan con sus objetivos de fondo, y debe reflexionarse más sobre la determinación de lo que realmente significa el texto legislativo[22]​.

Además, existen restricciones significativas en cuanto a los tipos de decisiones automatizadas cubiertas — que deben basarse "únicamente" en el tratamiento automatizado y tener efectos jurídicos o de importancia similar — lo que limita considerablemente la gama de sistemas y decisiones automatizados a los que se aplicaría el derecho[19]​. En particular, es poco probable que el derecho se aplique en muchos de los casos de controversia algorítmica que han aparecido en los medios de comunicación[13]​.

Estados Unidos[editar]

En virtud de la Ley de igualdad de oportunidades de crédito (Reglamento B del Código de Regulaciones Federales), Título 12, Capítulo X, Parte 1002,§1002.9, Los prestamistas están obligados a notificar a los solicitantes a los que se deniega un crédito los motivos concretos de la denegación. Como se detalla en §1002.9(b)(2):[23]

(2) Declaración de motivos específicos. La exposición de motivos de la acción desfavorable requerida por el párrafo (a)(2)(i) de esta sección debe ser específica e indicar el motivo o motivos principales de la acción desfavorable. Las explicaciones de que la acción desfavorable se basó en las normas o políticas internas del acreedor o de que el solicitante, el solicitante conjunto o la otra parte similar no alcanzaron una puntuación de aprobación en el sistema de puntuación crediticia del acreedor son insuficientes.

La interpretación oficial de esta sección detalla qué tipos de declaraciones son aceptables. Los prestamistas cumplen esta normativa facilitando una lista de motivos (generalmente un máximo de 4, según la interpretación de la normativa), consistente en un número correspondiente al código de motivo(como identificador) y una explicación asociada, en la que se identifican los principales factores que afectan a la puntuación crediticia[24]​. Un ejemplo podría ser:[25]

32:Saldos en tarjetas bancarias o cuentas corrientes demasiado elevados en comparación con los límites de crédito.

China[editar]

China ha incorporado el derecho a la explicación en su Ley de Protección de Datos Personales, promulgada en agosto de 2021[26]​.La ley pone límites a las plataformas de internet que toman decisiones automatizadas mediante algoritmos y amplía el derecho a saber de los usuarios de las plataformas. Los usuarios pueden solicitar a las autoridades públicas transparencia en los resultados de las decisiones automatizadas, así como una explicación a posteriori de las decisiones algorítmicas específicas[8]​.Sin embargo, la ley recoge algunas excepciones, las autoridades públicas no deben usar el derecho a la explicación como base de decisiones administrativas, en caso de que dar una explicación sea imposible, vulnere secretos comerciales o de terceras partes[27]​.

Francia[editar]

En Francia, la Loi pour une République numérique (Ley para una República Digital o loi numérique) de 2016 modifica el código administrativo del país para introducir una nueva disposición relativa a la explicación de las decisiones tomadas por los organismos del sector público sobre las personas[28]​. Señala que cuando se produzca "una decisión tomada sobre la base de un tratamiento algorítmico", las normas que definen dicho tratamiento y sus "características principales" deben comunicarse al ciudadano previa solicitud, cuando no exista una exclusión (por ejemplo, por seguridad nacional o defensa). Entre ellas deben figurar las siguientes:

  1. El grado y el modo de contribución del tratamiento algorítmico a la toma de decisiones.
  2. Los datos tratados y su fuente.
  3. Los parámetros del tratamiento, y en su caso, su ponderación, aplicados a la situación del interesado.
  4. Las operaciones efectuadas por el tratamiento.

Los estudiosos han señalado que este derecho, si bien se limita a las decisiones administrativas, va más allá del derecho de la RGPD al aplicarse explícitamente al apoyo a la toma de decisiones en lugar de a las decisiones basadas "únicamente" en el tratamiento automatizado, además de proporcionar un marco para explicar decisiones específicas[28]​. De hecho, en los derechos de toma de decisiones automatizadas del RGPD en la Unión Europea, uno de los lugares en los que se ha buscado un "derecho a una explicación", tienen su origen en la legislación francesa de finales de los años setenta[29]​.

Canadá[editar]

En Canadá, las personas tienen derecho a una explicación razonable y comprensible por parte del gobierno en relación con las decisiones administrativas tomadas por sistemas de decisión automatizados[30]​. La directiva del Consejo del Tesoro sobre la toma de decisiones automatizada tiene como objetivo principal regular y garantizar la implementación responsable de sistemas automatizados de toma de decisiones, con el propósito de minimizar los riesgos y asegurar la eficiencia, precisión y coherencia de dichas decisiones, de acuerdo con la legislación vigente en el país. Además, también exige una evaluación de las repercusiones de los algoritmos y el mantenimiento del derecho a acceder a los sistemas de decisión automatizados y a hacer las pruebas oportunas[31]​.

Corea del Sur[editar]

Los ciudadanos de Corea del Sur tienen derechos y salvaguardias para garantizar que las decisiones tomadas exclusivamente sobre la base de procesos automatizados o elaboración de perfiles sean justas, transparentes y responsables[32]​. La Ley de Protección de Datos Personales (PIPA) otorga a los interesados el derecho a rechazar, objetar o pedir explicaciones sobre las decisiones tomadas por medios totalmente automatizados[33]​.

Véase también[editar]

Referencias[editar]

  1. «El derecho al control humano: Una respuesta jurídica a la inteligencia artificial». https://analytics.scielo.org/. doi:10.5354/0719-2584.2021.58745. 
  2. Silvan Jongerius. «Artificial Intelligence and the right to explanation under the GDPR». 
  3. «The Right to Explanation, Explained». University of Colorado Law School. 22 de julio de 2019. doi:10.15779/Z38TD9N83H. 
  4. Yalçin, Orhan (2019). «Examination of Current AI Systems within the Scope of Right to Explanation and Designing Explainable AI Systems». International Conference on Legal Knowledge and Information Systems. doi:10.1145/3351095.3372870. 
  5. a b Lyn Nicholson, Clare Giugni (04-10-2022). «Automated decision-making: The importance of human oversight and transparency» (en inglés). 
  6. Aparna Dhinakaran (10-09-2021). «Overcoming AI’s Transparency Paradox» (en inglés). 
  7. Williams, Rebecca; Cloete, Richard; Cottrill, Caitlin; Edwards, Peter; Markovic, Milan; Naja, Iman; Ryan, Frances; Singh, Jatinder et al. (18 de febrero de 2022). «From transparency to accountability of intelligent systems: Moving beyond aspirations». Cambridge University Press (en inglés). doi:10.1017/dap.2021.37. 
  8. a b «Algorithm Interpretation Right—The First Step to Algorithmic Governance». Scientific Research Publishing Inc. (en inglés). 02-06-2022. doi:10.4236/blr.2022.132015. 
  9. Rishi Verma, Prajwal Ainapur (26 de abril de 2021). «Demystifying Explainable Artificial Intelligence: Benefits, Use Cases, and Models» (en inglés). 
  10. «What is explainable AI (XAI)?». 
  11. Aish Sankhe (12-04-2023). «What is explainable AI? 6 benefits of explainable AI». 
  12. «EU's Right to Explanation: A Harmful Restriction on Artificial Intelligence» (en inglés). 25 de enero de 2017. 
  13. a b c d Edwards, Lilian; Veale, Michael (24 de mayo de 2017). «Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For». SSRN. SSRN 2972855. 
  14. Miller, Tim (2017-06-22). «Explanation in Artificial Intelligence: Insights from the Social Sciences». arXiv:1706.07269  [cs.AI]. 
  15. Mittelstadt, Brent; Russell, Chris; Wachter, Sandra (2019). «Explaining Explanations in AI». Proceedings of the Conference on Fairness, Accountability, and Transparency - FAT* '19 (New York, New York, USA: ACM Press): 279-288. ISBN 978-1-4503-6125-5. S2CID 53214940. doi:10.1145/3287560.3287574. 
  16. Berry, David M. (2021). «Explanatory Publics: Explainability and Democratic Thought». En Balaskas, Bill, ed. Fabricating Publics: The Dissemination of Culture in the Post-truth Era. DATA browser (en inglés) (Open Humanities Press). pp. 211-233. ISBN 9781785421051. 
  17. Bhatt, Umang; Xiang, Alice; Sharma, Shubham; Weller, Adrian; Taly, Ankur; Jia, Yunhan; Ghosh, Joydeep; Puri, Ruchir; Moura, José M. F.; Eckersley, Peter (27 de enero de 2020). «Explainable machine learning in deployment». Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency. FAT* '20 (en inglés) (New York, NY, USA: Association for Computing Machinery): 648-657. ISBN 978-1-4503-6936-7. S2CID 202572724. doi:10.1145/3351095.3375624. 
  18. «EUR-Lex – Art. 22». eur-lex.europa.eu. Consultado el 14 de marzo de 2023. 
  19. a b c d Watcher, Sandra; Mittelstadt, Brent; Floridi, Luciano (24 de enero de 2017). «Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation». SSRN. doi:10.2139/SSRN.2903469. 
  20. Goodman, Bryce; Flaxman, Seth (2017). «European Union Regulations on Algorithmic Decision-Making and a 'Right to Explanation'». AI Magazine (en inglés) 38 (3): 50-57. S2CID 7373959. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741. 
  21. Is there a 'right to explanation' for machine learning in the GDPR?, Jun 1, 2017, Andrew Burt
  22. D Selbst, Andrew; Powles, Julia (19 de diciembre de 2017). «Meaningful information and the right to explanation». International Data Privacy Law. doi:10.1093/idpl/ipx022. 
  23. Consumer Financial Protection Bureau, §1002.9(b)(2)
  24. US FICO credit risk score reason codes: Fundamental document from FICO listing all of the FICO credit score reasons that a score is not higher, March 31, 2010, by Greg Fisher
  25. «ReasonCode.org | VantageScore Solutions». www.reasoncode.org. 
  26. Guodong Du 杜国栋 (28 de noviembre de 2021). «¿Cómo aborda China la responsabilidad de la plataforma en la toma de decisiones algorítmica?». 
  27. «A Right to an Explanation of Algorithmic Decision-Making in China». SSRN. 14 de febrero de 2023. 
  28. a b Edwards, Lilian; Veale, Michael (2018). «Enslaving the Algorithm: From a 'Right to an Explanation' to a 'Right to Better Decisions'?». IEEE Security & Privacy 16 (3): 46-54. S2CID 4049746. SSRN 3052831. doi:10.1109/MSP.2018.2701152. 
  29. Bygrave, L A (2001). «Minding the Machine: Article 15 of the EC Data Protection Directive and Automated Profiling». Computer Law & Security Review 17 (1). doi:10.1016/S0267-3649(01)00104-2. 
  30. Benoit Deshaies, Dawn Hall. «Responsible use of automated decision systems in the federal government» (en inglés). 
  31. «Directive on Automated Decision-Making» (en inglés). Consultado el 16 de mayo de 2023. 
  32. Hyejin Hwang, Iris; In Lee, Hye (08-07-2022). «Data Protection Laws and Regulations Korea». ICLG (en inglés). Consultado el 18 de mayo de 2023. 
  33. Doil Son, Sun Hee Kim, Seung Jin He, DaYeon Ahn (14 de marzo de 2023). «South Korea passes major overhaul of data protection law» (en inglés). Corea del Sur. Consultado el 18 de mayo de 2023.