Pesquisar

Lei Felca e ChatGPT: estamos ignorando o mesmo erro?

Foto: divulgação

A essa altura, já não se discute mais se a inteligência artificial veio para ficar. A discussão real é outra: estamos sabendo usá-la ou apenas terceirizando nosso senso crítico para uma máquina?

A popularização das IAs generativas criou uma falsa sensação de domínio. Em poucos segundos, elas entregam e-mails, propostas comerciais, planejamentos estratégicos e, mais recentemente, contratos jurídicos “completos”. Tudo com aparência técnica, vocabulário sofisticado e uma segurança que, à primeira vista, convence.

Mas há um detalhe incômodo que muitos preferem ignorar: a IA não sabe o que está dizendo.

Ela não faz juízo de valor, não verifica a veracidade das informações e tampouco compreende o contexto específico de quem está perguntando. O que ela faz é organizar probabilisticamente conteúdos já existentes, uma espécie de “salada de frutas” de dados, textos e interpretações espalhadas pela internet.

E, como qualquer compilação massiva, isso inclui acertos, equívocos, distorções e, muitas vezes, verdadeiros absurdos com aparência de precisão.

O problema é que essa limitação técnica tem sido ignorada justamente onde o erro custa mais caro: no ambiente jurídico e empresarial.

Não são raros os casos de contratos elaborados integralmente por inteligência artificial, sem qualquer revisão técnica, sem adaptação ao caso concreto e, pior, sem que as partes compreendam o que está sendo assinado. 

Cláusulas incompatíveis com a legislação brasileira, termos importados de outras jurisdições e previsões genéricas que não protegem nenhuma das partes têm se tornado cada vez mais comuns.

É uma sofisticação estética sem sustentação jurídica.

E enquanto isso acontece no micro, dentro de empresas e negociações privadas, no macro o movimento é o oposto.

A recente Lei nº 15.211/2025, conhecida como “Lei Felca”, que entrou em vigor em março de 2026, é um reflexo direto da necessidade de impor limites ao uso irrestrito da tecnologia. Ao estabelecer regras como verificação de idade, restrições a mecanismos de design viciante e responsabilização direta das plataformas, a legislação reconhece um ponto essencial: tecnologia sem critério gera dano.

A lógica é a mesma.

Se, por um lado, o Estado passa a exigir responsabilidade das grandes plataformas digitais, por outro, empresas e profissionais ainda tratam a inteligência artificial como uma solução automática, inclusive para decisões que exigem análise jurídica qualificada.

No Direito, não existe atalho seguro.

Um contrato não é uma mera formalidade ou, pior, uma parte “burocrática” a ser resolvida, mas sim um instrumento de alocação de riscos. Cada cláusula carrega implicações práticas, financeiras e, muitas vezes, judiciais. Ignorar isso em nome da conveniência é assumir um risco que, cedo ou tarde, se materializa.

Usar IA para revisar um texto, organizar ideias ou ganhar eficiência operacional é não apenas válido, mas desejável. O problema começa quando ela deixa de ser apoio e passa a ser fundamento.

Porque, diferente do que muitos parecem acreditar, responsabilidade não se terceiriza, muito menos para um algoritmo.

Compartilhe

Advogada, especialista em registro de marca, Mestre em Propriedade Intelectual e Transferência de Tecnologia para a Inovação e fundadora da CRIA! Propriedade Intelectual.

Leia também