Right to explanation in the algorithmic landscape: foundations and an outline for an ethical AI governance agenda

Authors

DOI:

https://doi.org/10.5902/2357797595074

Keywords:

Right to explanation, Algorithmic opacity, Explainable artificial intelligence (XAI), AI governance, Algorithmic black box

Abstract

This article investigates the right to explanation as a normative and strategic response to mitigate the opacity of artificial intelligence (AI), an invisible infrastructure already embedded in high-impact decision-making. It shows how algorithmic opacity amplifies risks (such as biases, “hallucinations,” and failures) and proposes the right to explanation as a relevant normative mechanism to ensure transparency and accountability in automated decisions. In this context, explainable artificial intelligence (XAI) is presented as a technical approach that helps make this guarantee feasible, whose consolidation as a structuring principle is demonstrated through the analysis of regulatory frameworks. The article concludes that the right to explanation is a cornerstone of ethical and democratic AI governance and, finally, outlines an agenda for implementing the right to explanation in Brazil, in a way that reconciles technological innovation with the principles of the Democratic Rule of Law.

Downloads

Download data is not yet available.

Author Biographies

Otávio Morato, Centro Universitário de Sete Lagoas

Doutor em Direito pela Universidade Federal de Minas Gerais; Professor, Centro Universitário de Sete Lagoas, Sete Lagoas, MG, Brasil.

Dierle José Coelho Nunes, Universidade Federal de Minas Gerais

Doutor em Direito Processual pela Pontifícia Universidade Católica de Minas Gerais; Professor, Universidade Federal de Minas Gerais, Belo Horizonte, MG, Brasil.

Viviane Ramone Tavares, AMBRA University

Especialização em Direito Processual Civil pela Universidade Federal de Uberlândia; Mestranda em Compliance pela Ambra University, Orlando, FL, USA.

References

AI INCIDENT DATABASE. Responsible AI Collaborative, 2025. Disponível em: https://incidentdatabase.ai. Acesso em: 24 nov. 2025.

ALVES, Marco Antônio Sousa; MORATO, Otávio. “Da ‘caixa-preta’ à ‘caixa de vidro’: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos”. Direito Público, vol. 18, n. 100, 2021. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/5973. Acesso em: 20 dez. 2025.

ANDERS, Christopher; WEBER, Leander; NEUMANN, David; SAMEK, Wojciech; MÜLLER, Klaus-Robert; LAPUSCHKIN, Sebastian. Finding and removing Clever Hans: Using explanation methods to debug and improve deep models. Information Fusion, vol. 77, 2022, pp. 261-95, Disponível em: https://doi.org/10.1016/j.inffus.2021.07.015. Acesso em: 24 nov. 2025.

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks. ProPublica, 23/5/2016, Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 24 nov. 2025.

ARRIETA, Alejandro; DÍAZ-RODRIGUEZ, Natalia; DEL SER, Javier; BENNETOT, Adrien; TABIK, Siham; BARBADO, Alberto; GARCIA, Salvador; GIL-LOPEZ, Sergio; MOLINA, Daniel; BENJAMINS, Richard; CHATILA, Raja; HERRERA, Francisco. Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI. Information Fusion, vol. 58, 2020, pp. 82-115. Elsevier. Disponível em: www.sciencedirect.com/science/article/pii/S1566253519308103. Acesso em: 20 nov. 2025.

BRASIL. Lei Geral de Proteção de Dados Pessoais (LGPD). Lei nº 13.709, de 14 de agosto de 2018. Planalto. Disoponível em: www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 20 nov. 2025.

BRASIL. Projeto de Lei n° 2338, de 2023 (Marco da Inteligência Artificial). Senado Federal. 3/5/2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/161795. Acesso em: 28 nov. 2025.

BRASIL. Senado Federal. Projeto de Lei nº 4, de 2025 (Reforma do Código Civil). Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/166998. Acesso em: 20 nov. 2025.

CANO, Rosa. O robô racista, sexista e xenófobo da Microsoft acaba silenciado. El País, 25/3/2016. Disponível em: www.elpais.com/tecnologia/2016-03-25/robot-racista-sexista-xenofobo-microsoft-tay. Acesso em: 20 out. 2025.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução n. 332, de 21 de agosto de 2020. Brasília: CNJ, 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 20 out. 2025.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 615, de 11 de março de 2025. Brasília: CNJ, 2025. Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em: 18 set. 2025.

DEGRAVE, Alex; JANIZEK, Joseph; LEE, Su-In. AI for Radiographic COVID-19 Detection Selects Shortcuts over Signal. Nature Machine Intelligence, vol. 3, 2021, pp. 610–619, Disponível em: www.nature.com/articles/s42256-021-00338-7. Acesso em: 28 nov. 2025.

DUARTE, Livia; SOUZA, Silene; AGUIRRE, Kevin; SOUSA, Keyla. Inteligência artificial no diagnóstico médico: entre precisão algorítmica e raciocínio clínico humano. Revista Caderno Pedagógico, vol. 22, no. 11, 2025, pp. 1–19. Disponível em: https://ojs.studiespublicacoes.com.br/ojs/index.php/cadped/article/view/19612. Acesso em: 28 nov. 2025.

ESTADOS UNIDOS DA AMÉRICA. Executive Office of the President. Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People. The White House, 2022. Disponível em: https://www.whitehouse.gov/ostp/ai-bill-of-rights/. Acesso em: 23 nov. 2025.

INFORMATION COMMISSIONER’S OFFICE (ICO). Explaining decisions made with AI. Londres, 2020. Disponível em: https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/artificial-intelligence/explaining-decisions-made-with-artificial-intelligence/. Acesso em: 23 nov. 2025.

GDPRHUB. CJEU - C-203/22 - Dun & Bradstreet Austria. 4/4/2025. Disponível em: https://gdprhub.eu/index.php?title=CJEU_-_C-203/22_-Dun%26_Bradstreet_Austria. Acesso em: 23 nov. 2025.

ISO. Policy Brief: Harnessing International Standards for responsible AI development and governance. Disponível em: https://www.iso.org/publication/PUB100498.html. Acesso em: 18 out. 2025.

KNIGHT, Will. The Apple Card Didn't ‘See’ Gender – and That’s the Problem. Wired, 19/11/2019, Disponível em: www.wired.com/story/the-apple-card-didnt-see-gender-and-thats-the-problem. Acesso em: 18 out. 2025.

MORATO, Otávio. Governamentalidade algorítmica: democracia em risco? 1. ed. São Paulo: Dialética, 2022.

MORATO, Otávio; Nunes, Dierle. Inteligência artificial: o desafio da explicabilidade. Salvador: Juspodivm, 2025.

NOVAES, Thiago; MORATO, Otávio. Máquinas abertas e rizomáticas: reflexões sobre o software livre e de código aberto (FLOSS). Revista da Faculdade de Direito da UFMG, vol. 87, 2025. https://revista.direito.ufmg.br/index.php/revista/pt_BR/article/view/3046. Acesso em: 09 dez. 2025.

NUNES, Dierle; MORATO, Otávio. O uso da inteligência artificial explicável enquanto ferramenta para compreender decisões automatizadas: possível caminho para aumentar a legitimidade e confiabilidade dos modelos algorítmicos? Revista Eletrônica do Curso de Direito da UFSM, vol. 18, no. 1, 2023. Disponível em: https://periodicos.ufsm.br/revistadireito/article/view/69329. Acesso em: 18 out. 2025.

ONETRUST DATAGUIDANCE. Canada: Bill C-27 dies after Parliament is prorogued. DataGuidance, 13/02/ 2025. Disponível em: https://www.dataguidance.com/news/canada-bill-c-27-dies-after-parliament-prorogued. Acesso em: 04 out. 2025.

PASQUALE, Frank. The Black Box Society: The secret algorithms that control money and information. Harvard University Press, 2015.

QLIK. The six principles of AI ready data. Qlik, 2024., Disponível em: https://pages.qlik.com/rs/049-DKK-796/images/The%20Six%20Principles%20of%20AI%20Ready%20Data.pdf. Acesso em 28 nov. 2025.

REIGELUTH, Tyler; VIANA, Diego; MORATO, Otávio. Openness and closure: explainable artificial intelligence and Simondon’s ‘technical mentality’. Journal of Human-Technology Relations, 3, 2025. Disponível em: https://journals.open.tudelft.nl/jhtr/article/view/8091. Acesso em: 02 jan. 2026.

UNIÃO EUROPEIA. Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho de 27 de abril de 2016. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=uriserv%3AOJ.L_.2016.119.01.0001.01.POR&toc=OJ%3AL%3A2016%3A119%3AFULL. Acesso em: 18 out. 2025.

UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial). Jornal Oficial da União Europeia, vol. 67, 12 de julho de 2024, http://data.europa.eu/eli/reg/2024/1689/oj. Disponível em: https://artificialintelligenceact.eu/ai-act-explorer/. Acesso em: 18 out. 2025.

VALE, Luis Manoel Borges do; PEREIRA, João Sérgio dos Santos Soares. Teoria Geral do processo tecnológico. São Paulo: Thompson Reuters Brasil, 2023.

ZHANG, Yuxiao; CARBALLO, Alexander; YANG, Hanting; TAKEDA, Kazuya. Perception and sensing for autonomous vehicles under adverse weather conditions: a survey. ISPRS Journal of Photogrammetry and Remote Sensing, vol. 196, 2023, pp. 146-177. Disponível em: https://doi.org/10.1016/j.isprsjprs.2022.12.021. Acesso em: 28 nov. 2025.

Published

2026-03-20

How to Cite

Morato, O., Nunes, D. J. C., & Tavares, V. R. (2026). Right to explanation in the algorithmic landscape: foundations and an outline for an ethical AI governance agenda. InterAção, 17(1), e95074. https://doi.org/10.5902/2357797595074