Ética na inteligência artificial: quem decide o que é certo?
A ética na inteligência artificial está nas mãos de quem programa, lucra e escala decisões automatizadas. Descubra quem define o que é certo — e por quê isso importa.
Felipe Pener
7/28/20254 min read


A IA virou sinônimo de progresso. Mas no embalo da inovação, pouca gente para pra fazer a pergunta mais básica: quem está decidindo o que a inteligência artificial deve considerar certo ou errado?
Porque sim, a IA precisa tomar decisões o tempo todo — e cada decisão carrega um julgamento ético.
Só que ela não “pensa” como um humano.
Ela age com base no que foi ensinado. E esse ensino tem dono, viés, interesse, pressa e, às vezes, muito pouco escrúpulo.
A promessa da neutralidade — e a realidade dos vieses
Existe uma fantasia de que algoritmos são frios, racionais e neutros. Afinal, “só seguem os dados”, certo? Errado.
Dados são reflexos da sociedade. E sociedade tem histórico de discriminação, exclusão e desigualdade.
Quando um sistema de IA é treinado com dados enviesados — e quase todos são —, ele aprende a reproduzir esses padrões.
Um caso famoso: o algoritmo COMPAS, nos Estados Unidos, usado para prever reincidência criminal.
Ele errava com muito mais frequência ao classificar pessoas negras como “alto risco”, mesmo quando tinham histórico igual ou melhor do que pessoas brancas.
Esse não é um problema técnico. É estrutural.
O que está em jogo quando deixamos a IA decidir?
Na prática, sistemas de IA já decidem:
Quem vai ser contratado (triagem automatizada de currículos)
Quem merece crédito (modelos preditivos no mercado financeiro)
Quem deve receber atendimento prioritário em hospitais
Quem será aceito numa faculdade, num plano de saúde ou num benefício social
Cada uma dessas decisões carrega consequências profundas.
E o mais assustador é que, muitas vezes, não sabemos exatamente com base em quê a IA decidiu.
A famosa “caixa preta” da IA ainda é uma realidade em muitos modelos — inclusive os mais populares, como GPT e Gemini.
IA ética não é IA neutra
Quando se fala em “ética na inteligência artificial”, muitos imaginam que a solução é criar uma IA imparcial. Mas ética não é sobre neutralidade — é sobre escolhas. E toda escolha parte de uma visão de mundo.
Qual valor vamos priorizar? Liberdade? Privacidade? Eficiência? Equidade?
E quem define essa hierarquia?
Na prática, quem decide são os desenvolvedores, gestores e diretores de produto. Ou seja, um grupo pequeno, geralmente branco, masculino e de classes privilegiadas.
Essa homogeneidade gera pontos cegos — e muitas vezes transforma exclusão em “feature”.
A ética que interessa (ou não) para as big techs
As grandes empresas de tecnologia dizem se preocupar com ética. Mas quando ela bate de frente com metas trimestrais de crescimento, adivinha o que perde?
Google, Meta, Amazon e outras já enfrentaram escândalos éticos envolvendo uso indevido de dados, manipulação de comportamento e até demissões de pesquisadores de ética (como o caso da Timnit Gebru, ex-Google).
O recado é claro: ética, sim — mas desde que não atrapalhe o roadmap.
E a IA generativa está indo pelo mesmo caminho.
Os modelos ficam cada vez mais poderosos e menos auditáveis, enquanto as equipes responsáveis por questionar esses sistemas são encolhidas ou ignoradas.
O papel da regulação — e onde estamos nisso
A União Europeia saiu na frente com o AI Act, aprovado em 2024.
Ele classifica sistemas de IA por risco (inaceitável, alto, limitado e mínimo) e define exigências claras para cada categoria — desde transparência até obrigação de explicabilidade e supervisão humana.
Nos Estados Unidos, o avanço é mais fragmentado, mas há diretrizes importantes sendo discutidas pela FTC e por grupos independentes.
No Brasil, o Marco Legal da IA ainda é brando.
A proposta atual foca mais em incentivar inovação do que em garantir direitos.
Há resistência a exigências como auditoria obrigatória ou responsabilização civil em casos de dano causado por IA.
O risco? Virar o paraíso da IA sem freio.
Caminhos possíveis para mitigar o problema
Enquanto a regulação não avança, algumas práticas são essenciais para evitar que a IA se torne um rolo compressor ético:
Diversidade nos times de desenvolvimento: para ampliar repertório e reduzir pontos cegos
Transparência de dados e processos: saber de onde vêm os dados e como a IA toma decisões
Explicabilidade: permitir que qualquer decisão automatizada possa ser compreendida e contestada
Auditorias independentes: não dá pra confiar que quem cria o sistema será o mesmo a fiscalizar
Responsabilização legal: se uma IA causar um dano real, alguém precisa ser responsabilizado
Esses princípios já são defendidos por organizações como a OECD, a UNESCO e a AI Now Institute.
Mas ainda engatinham fora da bolha acadêmica.
O risco de delegar a ética sem perceber
Talvez o ponto mais delicado seja esse: as pessoas estão delegando decisões éticas à IA sem nem perceber.
Desde o Waze que escolhe sua rota até o algoritmo do Instagram que define o que é “conteúdo sensível”, estamos terceirizando julgamento.
E essa terceirização tem um custo. Porque, aos poucos, deixamos de questionar, de criticar, de escolher.
Aceitamos a decisão como se fosse “natural”, “científica”, “objetiva”.
Quando, na verdade, ela só reflete quem apertou o botão.
O que a IA aprende diz mais sobre a gente do que sobre ela
A inteligência artificial não cria valores. Ela replica.
O que ela entende como certo ou errado depende de quem a ensinou, de quais dados ela teve acesso e, principalmente, de quem lucra com suas decisões.
Perguntar sobre a ética da IA é, no fundo, perguntar sobre quem detém o poder no século XXI.
E se a gente não participar dessa conversa agora, o futuro pode ser automatizado — mas só pra quem estiver dentro da bolha.
Se você acha que ética na inteligência artificial é só papo de filósofo, talvez já tenha sido avaliado por um algoritmo hoje e nem percebeu.
Segue o projeto, compartilha esse texto com quem precisa entender que IA é sim política — e a pergunta certa não é se ela pensa, mas quem está pensando por ela.
Ideias
Um espaço para compartilhar conhecimento e projetos.
contato@felipepener.com.br
© 2025. All rights reserved.