A essa altura, já não se discute mais se a inteligência artificial veio para ficar. A discussão real é outra: estamos sabendo usá-la ou apenas terceirizando nosso senso crítico para uma máquina?
A popularização das IAs generativas criou uma falsa sensação de domínio. Em poucos segundos, elas entregam e-mails, propostas comerciais, planejamentos estratégicos e, mais recentemente, contratos jurídicos “completos”. Tudo com aparência técnica, vocabulário sofisticado e uma segurança que, à primeira vista, convence.
Mas há um detalhe incômodo que muitos preferem ignorar: a IA não sabe o que está dizendo.
Ela não faz juízo de valor, não verifica a veracidade das informações e tampouco compreende o contexto específico de quem está perguntando. O que ela faz é organizar probabilisticamente conteúdos já existentes, uma espécie de “salada de frutas” de dados, textos e interpretações espalhadas pela internet.
E, como qualquer compilação massiva, isso inclui acertos, equívocos, distorções e, muitas vezes, verdadeiros absurdos com aparência de precisão.
O problema é que essa limitação técnica tem sido ignorada justamente onde o erro custa mais caro: no ambiente jurídico e empresarial.
Não são raros os casos de contratos elaborados integralmente por inteligência artificial, sem qualquer revisão técnica, sem adaptação ao caso concreto e, pior, sem que as partes compreendam o que está sendo assinado.
Cláusulas incompatíveis com a legislação brasileira, termos importados de outras jurisdições e previsões genéricas que não protegem nenhuma das partes têm se tornado cada vez mais comuns.
É uma sofisticação estética sem sustentação jurídica.
E enquanto isso acontece no micro, dentro de empresas e negociações privadas, no macro o movimento é o oposto.
A recente Lei nº 15.211/2025, conhecida como “Lei Felca”, que entrou em vigor em março de 2026, é um reflexo direto da necessidade de impor limites ao uso irrestrito da tecnologia. Ao estabelecer regras como verificação de idade, restrições a mecanismos de design viciante e responsabilização direta das plataformas, a legislação reconhece um ponto essencial: tecnologia sem critério gera dano.
A lógica é a mesma.
Se, por um lado, o Estado passa a exigir responsabilidade das grandes plataformas digitais, por outro, empresas e profissionais ainda tratam a inteligência artificial como uma solução automática, inclusive para decisões que exigem análise jurídica qualificada.
No Direito, não existe atalho seguro.
Um contrato não é uma mera formalidade ou, pior, uma parte “burocrática” a ser resolvida, mas sim um instrumento de alocação de riscos. Cada cláusula carrega implicações práticas, financeiras e, muitas vezes, judiciais. Ignorar isso em nome da conveniência é assumir um risco que, cedo ou tarde, se materializa.
Usar IA para revisar um texto, organizar ideias ou ganhar eficiência operacional é não apenas válido, mas desejável. O problema começa quando ela deixa de ser apoio e passa a ser fundamento.
Porque, diferente do que muitos parecem acreditar, responsabilidade não se terceiriza, muito menos para um algoritmo.