Direito à explicação no cenário algorítmico: fundamentos e esboço de agenda para uma governança ética da IA

Autores

DOI:

https://doi.org/10.5902/2357797595074

Palavras-chave:

Direito à explicação, Opacidade algorítmica, Inteligência artificial explicável (XAI), Governança de IA, Caixa-preta algorítmica

Resumo

Este artigo investiga o direito à explicação enquanto resposta normativa e estratégica para mitigar a opacidade da inteligência artificial (IA), infraestrutura invisível já consolidada em decisões de alto impacto. Mostra-se como a opacidade algorítmica amplifica riscos (vieses, “alucinações” e falhas) e propõe-se o direito à explicação como mecanismo normativo relevante para assegurar transparência e responsabilidade em decisões automatizadas. Nesse quadro, a inteligência artificial explicável (XAI) é apresentada enquanto abordagem técnica que contribui para viabilizar tal garantia, cuja consolidação como princípio estruturante é demonstrada pela análise de marcos regulatórios. Conclui-se que o direito à explicação é pilar para uma governança ética e democrática da IA, esboçando-se, ao final, uma agenda para a implementação do direito à explicação no Brasil, de modo a compatibilizar a inovação tecnológica com os princípios do Estado Democrático de Direito.

Downloads

Não há dados estatísticos.

Biografia do Autor

Otávio Morato, Centro Universitário de Sete Lagoas

Doutor em Direito pela Universidade Federal de Minas Gerais; Professor, Centro Universitário de Sete Lagoas, Sete Lagoas, MG, Brasil.

Dierle José Coelho Nunes, Universidade Federal de Minas Gerais

Doutor em Direito Processual pela Pontifícia Universidade Católica de Minas Gerais; Professor, Universidade Federal de Minas Gerais, Belo Horizonte, MG, Brasil.

Viviane Ramone Tavares, AMBRA University

Especialização em Direito Processual Civil pela Universidade Federal de Uberlândia; Mestranda em Compliance pela Ambra University, Orlando, FL, USA.

Referências

AI INCIDENT DATABASE. Responsible AI Collaborative, 2025. Disponível em: https://incidentdatabase.ai. Acesso em: 24 nov. 2025.

ALVES, Marco Antônio Sousa; MORATO, Otávio. “Da ‘caixa-preta’ à ‘caixa de vidro’: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos”. Direito Público, vol. 18, n. 100, 2021. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/5973. Acesso em: 20 dez. 2025.

ANDERS, Christopher; WEBER, Leander; NEUMANN, David; SAMEK, Wojciech; MÜLLER, Klaus-Robert; LAPUSCHKIN, Sebastian. Finding and removing Clever Hans: Using explanation methods to debug and improve deep models. Information Fusion, vol. 77, 2022, pp. 261-95, Disponível em: https://doi.org/10.1016/j.inffus.2021.07.015. Acesso em: 24 nov. 2025.

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks. ProPublica, 23/5/2016, Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 24 nov. 2025.

ARRIETA, Alejandro; DÍAZ-RODRIGUEZ, Natalia; DEL SER, Javier; BENNETOT, Adrien; TABIK, Siham; BARBADO, Alberto; GARCIA, Salvador; GIL-LOPEZ, Sergio; MOLINA, Daniel; BENJAMINS, Richard; CHATILA, Raja; HERRERA, Francisco. Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI. Information Fusion, vol. 58, 2020, pp. 82-115. Elsevier. Disponível em: www.sciencedirect.com/science/article/pii/S1566253519308103. Acesso em: 20 nov. 2025.

BRASIL. Lei Geral de Proteção de Dados Pessoais (LGPD). Lei nº 13.709, de 14 de agosto de 2018. Planalto. Disoponível em: www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 20 nov. 2025.

BRASIL. Projeto de Lei n° 2338, de 2023 (Marco da Inteligência Artificial). Senado Federal. 3/5/2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/161795. Acesso em: 28 nov. 2025.

BRASIL. Senado Federal. Projeto de Lei nº 4, de 2025 (Reforma do Código Civil). Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/166998. Acesso em: 20 nov. 2025.

CANO, Rosa. O robô racista, sexista e xenófobo da Microsoft acaba silenciado. El País, 25/3/2016. Disponível em: www.elpais.com/tecnologia/2016-03-25/robot-racista-sexista-xenofobo-microsoft-tay. Acesso em: 20 out. 2025.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução n. 332, de 21 de agosto de 2020. Brasília: CNJ, 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 20 out. 2025.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 615, de 11 de março de 2025. Brasília: CNJ, 2025. Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em: 18 set. 2025.

DEGRAVE, Alex; JANIZEK, Joseph; LEE, Su-In. AI for Radiographic COVID-19 Detection Selects Shortcuts over Signal. Nature Machine Intelligence, vol. 3, 2021, pp. 610–619, Disponível em: www.nature.com/articles/s42256-021-00338-7. Acesso em: 28 nov. 2025.

DUARTE, Livia; SOUZA, Silene; AGUIRRE, Kevin; SOUSA, Keyla. Inteligência artificial no diagnóstico médico: entre precisão algorítmica e raciocínio clínico humano. Revista Caderno Pedagógico, vol. 22, no. 11, 2025, pp. 1–19. Disponível em: https://ojs.studiespublicacoes.com.br/ojs/index.php/cadped/article/view/19612. Acesso em: 28 nov. 2025.

ESTADOS UNIDOS DA AMÉRICA. Executive Office of the President. Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People. The White House, 2022. Disponível em: https://www.whitehouse.gov/ostp/ai-bill-of-rights/. Acesso em: 23 nov. 2025.

INFORMATION COMMISSIONER’S OFFICE (ICO). Explaining decisions made with AI. Londres, 2020. Disponível em: https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/artificial-intelligence/explaining-decisions-made-with-artificial-intelligence/. Acesso em: 23 nov. 2025.

GDPRHUB. CJEU - C-203/22 - Dun & Bradstreet Austria. 4/4/2025. Disponível em: https://gdprhub.eu/index.php?title=CJEU_-_C-203/22_-Dun%26_Bradstreet_Austria. Acesso em: 23 nov. 2025.

ISO. Policy Brief: Harnessing International Standards for responsible AI development and governance. Disponível em: https://www.iso.org/publication/PUB100498.html. Acesso em: 18 out. 2025.

KNIGHT, Will. The Apple Card Didn't ‘See’ Gender – and That’s the Problem. Wired, 19/11/2019, Disponível em: www.wired.com/story/the-apple-card-didnt-see-gender-and-thats-the-problem. Acesso em: 18 out. 2025.

MORATO, Otávio. Governamentalidade algorítmica: democracia em risco? 1. ed. São Paulo: Dialética, 2022.

MORATO, Otávio; Nunes, Dierle. Inteligência artificial: o desafio da explicabilidade. Salvador: Juspodivm, 2025.

NOVAES, Thiago; MORATO, Otávio. Máquinas abertas e rizomáticas: reflexões sobre o software livre e de código aberto (FLOSS). Revista da Faculdade de Direito da UFMG, vol. 87, 2025. https://revista.direito.ufmg.br/index.php/revista/pt_BR/article/view/3046. Acesso em: 09 dez. 2025.

NUNES, Dierle; MORATO, Otávio. O uso da inteligência artificial explicável enquanto ferramenta para compreender decisões automatizadas: possível caminho para aumentar a legitimidade e confiabilidade dos modelos algorítmicos? Revista Eletrônica do Curso de Direito da UFSM, vol. 18, no. 1, 2023. Disponível em: https://periodicos.ufsm.br/revistadireito/article/view/69329. Acesso em: 18 out. 2025.

ONETRUST DATAGUIDANCE. Canada: Bill C-27 dies after Parliament is prorogued. DataGuidance, 13/02/ 2025. Disponível em: https://www.dataguidance.com/news/canada-bill-c-27-dies-after-parliament-prorogued. Acesso em: 04 out. 2025.

PASQUALE, Frank. The Black Box Society: The secret algorithms that control money and information. Harvard University Press, 2015.

QLIK. The six principles of AI ready data. Qlik, 2024., Disponível em: https://pages.qlik.com/rs/049-DKK-796/images/The%20Six%20Principles%20of%20AI%20Ready%20Data.pdf. Acesso em 28 nov. 2025.

REIGELUTH, Tyler; VIANA, Diego; MORATO, Otávio. Openness and closure: explainable artificial intelligence and Simondon’s ‘technical mentality’. Journal of Human-Technology Relations, 3, 2025. Disponível em: https://journals.open.tudelft.nl/jhtr/article/view/8091. Acesso em: 02 jan. 2026.

UNIÃO EUROPEIA. Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho de 27 de abril de 2016. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=uriserv%3AOJ.L_.2016.119.01.0001.01.POR&toc=OJ%3AL%3A2016%3A119%3AFULL. Acesso em: 18 out. 2025.

UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial). Jornal Oficial da União Europeia, vol. 67, 12 de julho de 2024, http://data.europa.eu/eli/reg/2024/1689/oj. Disponível em: https://artificialintelligenceact.eu/ai-act-explorer/. Acesso em: 18 out. 2025.

VALE, Luis Manoel Borges do; PEREIRA, João Sérgio dos Santos Soares. Teoria Geral do processo tecnológico. São Paulo: Thompson Reuters Brasil, 2023.

ZHANG, Yuxiao; CARBALLO, Alexander; YANG, Hanting; TAKEDA, Kazuya. Perception and sensing for autonomous vehicles under adverse weather conditions: a survey. ISPRS Journal of Photogrammetry and Remote Sensing, vol. 196, 2023, pp. 146-177. Disponível em: https://doi.org/10.1016/j.isprsjprs.2022.12.021. Acesso em: 28 nov. 2025.

Downloads

Publicado

2026-03-20

Como Citar

Morato, O., Nunes, D. J. C., & Tavares, V. R. (2026). Direito à explicação no cenário algorítmico: fundamentos e esboço de agenda para uma governança ética da IA. InterAção, 17(1), e95074. https://doi.org/10.5902/2357797595074