Baixe o material de estudo
“Responsible AI (IA Responsável) e Explainable AI (IA Explicável) são conceitos importantes no desenvolvimento de sistemas de inteligência artificial. A IA Explicável refere-se à capacidade de explicar como uma decisão foi tomada pelo modelo de IA, permitindo que os usuários entendam o processo de tomada de decisão. Já a IA Responsável envolve garantir que a IA seja desenvolvida e implementada de forma ética e legalmente responsável.”
Olá, caros alunos!
O texto acima refere-se a um comando de uma questão aplicada pela FGV, em 2023, sobre o desenvolvimento da Inteligência Artificial (IA), especialmente quanto aos temas da responsabilidade e da explicabilidade.
Considerando a relevância da Resolução nº 615/2025 do CNJ, que estabelece fundamentos e princípios de IA no contexto jurídico, é provável que esses temas passem a ser cobrados em futuras questões sobre Direito Digital e aplicação da tecnologia no Direito.
O gabarito da questão — que pedia a identificação da alternativa incorreta — afirmava que ambos os conceitos (responsabilidade e explicabilidade) eram sinônimos. No entanto, o próprio enunciado da questão já distinguia suas características específicas, conforme destacado acima.
Os demais itens, todos corretos, apresentavam conceitos importantes para compreender as possibilidades e os desafios trazidos por essa nova tecnologia. Assim, vamos explorar alguns aspectos relevantes da IA Responsável.
A IA responsável deve servir como princípio orientador para o desenvolvimento e o uso de sistemas de IA, observando sempre a ética e as leis. Nesse contexto, é indispensável considerar as implicações sociais e os potenciais impactos negativos que tais tecnologias podem gerar nas pessoas e na sociedade.
Um exemplo clássico de mau uso da IA é o COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), sistema que analisava informações sobre o histórico do réu — como antecedentes, escolaridade, emprego e ambiente familiar — e atribuía uma pontuação de risco (baixa, média ou alta) com base em dados estatísticos. Estudos demonstraram que o COMPAS superestimava o risco de reincidência de réus negros e subestimava o de réus brancos, revelando um viés racial e uma prática discriminatória, em afronta direta aos princípios da igualdade e da não discriminação.
Outro ponto importante, também previsto na Resolução do CNJ, é a observância da ética ao longo de todo o ciclo de vida de um sistema de IA — desde a concepção até a desativação —, assegurando a responsabilidade ética em cada etapa.
Além disso, mesmo quando responsável, o sistema deve permitir que suas decisões sejam explicáveis e auditáveis.
Esse princípio representa um dos grandes desafios atuais, pois muitos modelos de IA produzem respostas opacas, ou seja, de difícil interpretação, o que compromete a transparência. A explicabilidade é essencial, especialmente quando as decisões afetam direitos fundamentais, devendo ser compreensíveis e passíveis de auditoria.
Vale lembrar que a inteligência artificial não é neutra: ela aprende com os dados que recebe e, por isso, pode reproduzir preconceitos existentes na sociedade.
Dessa forma, é indispensável que decisões automatizadas sejam sempre revisadas por pessoas, com senso crítico e responsabilidade.
A tecnologia deve servir de apoio, nunca de substituição ao julgamento humano.
Por fim, leis e regras claras são fundamentais para garantir transparência, justiça e o uso ético da IA.
• Nome: Tiago Carneiro Rabelo
• Professor da Lei n. 11.419/2006 – Processo Judicial Eletrônico, Direito Digital e
Resoluções tecnológicas do CNJ no GRAN.
Rede social – Instagram: @prof.tiagorabelo
Fonte: Gran Cursos Online

