Agentes de IA sem governança podem se tornar uma ameaça jurídica quando dizem ‘sim’ para tudo

Agentes de IA sem governança podem se tornar uma ameaça jurídica quando dizem 'sim' para tudo

Os sistemas capazes de tomar decisões, interagir com clientes e executar tarefas sem intervenção humana direta se espalharam rapidamente pelo mercado. Do varejo ao mercado imobiliário, do atendimento ao crédito, com a promessa sedutora de trazer eficiência, escala e disponibilidade 24 horas por dia. Segundo a consultoria Research Nester, o mercado global de agentes autônomos, estimado em US$ 7,84 bilhões em 2025, pode alcançar US$ 783 bilhões até 2037.

Contudo, o ganho de eficiência proporcionado pela IA vem acompanhado de riscos reais. “Hoje, não basta apenas adotar a tecnologia, é preciso governá-la com responsabilidade, garantindo que ela potencialize o negócio em vez de se tornar um problema”, explica Carlos Lopes, sócio e diretor de novos negócios da Codeminer42, boutique brasileira de desenvolvimento de softwares, com atuação no Brasil e no exterior.

Para o especialista da empresa, que possui amplo conhecimento técnico e experiência aprofundada nessa tecnologia, o problema está na forma como a IA foi apresentada ao mercado. “No início, muita gente acreditou que bastava fazer uma pergunta e ela resolveria tudo sozinha, e isso é um equívoco. A IA precisa ser muito bem guiada para entregar respostas corretas, e é o humano quem faz isso”, afirma Carlos Lopes, sócio e diretor de novos negócios da empresa.

Carlos Lopes, sócio e diretor de novos negócios da empresa

A discussão ganhou contornos práticos, como no caso da empresária do setor imobiliário Renata Paula Armellini. Ela conta que, para otimizar o pré-atendimento, a empresa implantou um agente de IA que assumia a primeira interação com potenciais clientes, antes de repassar os leads para corretores humanos. “A ideia era automatizar o que pudesse ser automatizado, ganhar velocidade e filtrar melhor os interesses”, conta.

Em uma dessas interações, um casal interessado em alugar um imóvel foi atendido pela IA, que se apresentava como “Gabi”, uma tentativa de humanizar o contato. A conversa fluiu bem, a visita foi realizada e o contrato, assinado. Até ali, eficiência total.

O problema surgiu depois da mudança. Ao instalarem equipamentos elétricos sem utilizar o testador de voltagem fornecido pela imobiliária, os moradores queimaram o chuveiro e a máquina de lavar. Na segunda-feira seguinte, dia de equipe reduzida e alto volume de demandas, buscaram atendimento.

Enquanto um dos inquilinos tentava contato com o setor de manutenção, a parceira voltou a conversar com a IA e, entendendo que estava falando com a máquina, começou a dar elementos para que a IA respondesse “sim” para tudo.

“Sem compreensão real de cláusulas contratuais, responsabilidades técnicas ou implicações jurídicas, o agente de IA respondeu afirmativamente a praticamente todas as solicitações. A conversa extrapolou o escopo inicial, e a IA ofereceu voucher de hotel, sugeriu indenização pelos aparelhos danificados e chegou a orientar sobre como ajuizar ação judicial contra a própria imobiliária”, conta Renata.

O que começou como um pré-atendimento automatizado terminou em ameaça jurídica e crise reputacional. A empresa precisou mobilizar jurídico e atendimento para conter um problema que nasceu de um simples “sim”.

“A situação acabou fugindo do controle. A tecnologia é excelente, mas, quando os agentes autônomos operam sem limites e sem supervisão humana, qualquer decisão automatizada pode se tornar um risco para o negócio”, diz a empresária.

Os números mostram a necessidade dessa supervisão. Estudos do AI Now Institute mostram que sistemas de IA que operam sem acompanhamento de pessoas podem gerar até 2,4 vezes mais decisões injustas ou resultados que prejudicam determinados grupos, na comparação com modelos que passam por monitoramento humano. O Gartner prevê que mais de 40% dos projetos com agentic AI serão cancelados até 2027, devido a custos, falta de valor claro e governança insuficiente.

Para Lopes, episódios como esse ilustram o risco da autonomia sem governança. “No atendimento, agentes autônomos aumentam velocidade e escala, mas não substituem supervisão humana. Uma IA que diz ‘sim’ para tudo pode amplificar insatisfação, criar conflitos e gerar riscos. Políticas claras de governança, limites bem definidos e monitoramento contínuo são essenciais para transformar tecnologia em vantagem competitiva”, afirma.

O diretor da Codeminer destaca algumas ações que garantem que a IA trabalhe a favor do negócio:

1 – Dê limites à IA: defina parâmetros sobre o que a IA pode ou não decidir e garanta que a IA identifique situações que exigem intervenção humana.

2 – Implemente camadas de supervisão e monitoramento: crie alertas e gatilhos para escalar interações complexas para um operador real; mantenha painéis de monitoramento para acompanhar decisões críticas; e revise periodicamente as respostas da IA para detectar padrões de erro ou vieses.

3 – Alinhe requisitos legais e políticas internas: utilize técnicas para que os modelos respeitem limites legais, contratuais e de políticas internas.

4 – Audite e registre interações: mantenha logs detalhados de todas as interações, permitindo análise de problemas; e aplique métricas de desempenho e risco, avaliando onde a IA pode gerar impacto negativo.

5 – Invista em educação e consultoria para o cliente: treine equipes internas sobre como trabalhar junto da IA de forma segura; e auxilie na criação de fluxos híbridos humano + IA.

Segundo o executivo, a virada de chave para 2026, portanto, não deve estar na expansão irrestrita dos agentes, mas na construção de arquiteturas híbridas, humano + IA, em que algoritmos operem com parâmetros bem definidos, trilhas de auditoria e mecanismos de escalonamento.

Esse ponto ganha ainda mais relevância quando se observa o impacto estrutural da IA no mercado de trabalho. Um relatório do World Economic Forum (WEF, 2025) projeta que até 92 milhões de empregos podem ser substituídos por IA e automação até 2030, enquanto 170 milhões de novas funções devem ser criadas, resultando em um ganho líquido de 78 milhões de empregos globalmente.

Nos Estados Unidos, a SHRM Automation/AI Survey 2025 indica que 7,8% dos empregos já têm metade das tarefas realizadas com apoio de IA generativa, evidenciando como a automação já se integra ao dia a dia profissional sem necessariamente gerar demissões imediatas. Ao mesmo tempo, cerca de 40% dos empregadores esperam reduzir partes da força de trabalho ao introduzir IA em funções automatizáveis, apontando para a substituição de tarefas mais repetitivas.

“No fim das contas, a tecnologia continua sendo uma aliada necessária. Mas, no mundo dos negócios, autonomia não pode significar ausência de responsabilidade. Porque, quando a máquina aprende a dizer “sim” para tudo, quem paga a conta ainda é a empresa”, resume.

Mais informações: https://www.codeminer42.com/

referência: https://magai.co/human-oversight-in-ai-why-it-matters

https://forbes.com.br/forbes-tech/2025/07/40-dos-projetos-com-agentes-de-ia-serao-cancelados-ate-2027-segundo-gartner

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *