Search

IA, vídeos hiper-realistas e a responsabilidade jurídica: sua empresa está pronta?

Compartilhe

No último domingo, o Fantástico exibiu uma reportagem sobre a nova tecnologia de inteligência artificial do Google chamada Veo 3. A ferramenta é capaz de criar vídeos hiper-realistas com trilha sonora, movimentos naturais, sotaques e cenas complexas a partir de simples comandos de texto.

Em poucos segundos, a IA pode gerar um vídeo de alguém andando pelas pirâmides do Egito, mesmo que essa pessoa nunca tenha saído de casa. A fronteira entre realidade e ficção nunca foi tão fina. E isso levanta uma pergunta urgente: Quem é o responsável quando o vídeo parece real, mas é totalmente artificial?

Com a popularização de ferramentas como o Veo 3, deepfakes e outras tecnologias generativas, as possibilidades para o mercado são imensas. Empresas já usam IA para criar campanhas publicitárias, simular treinamentos, automatizar interações e até fazer apresentações para investidores. O problema não está no uso em si, mas na ausência de segurança jurídica para lidar com os riscos que vêm junto com essa inovação.

O primeiro risco é o uso indevido de imagem, voz ou semelhança de pessoas reais. A simples aparição de uma figura reconhecível, ainda que simulada, pode gerar um processo por violação de direitos de personalidade. No Brasil, a autorização para uso de imagem deve ser expressa e específica, inclusive no ambiente digital.

Outro ponto crítico é a propriedade intelectual. A IA pode gerar conteúdo com base em obras existentes, muitas vezes sem que o usuário perceba. Isso inclui roteiros, músicas, estilos visuais e até falas. Se a criação for considerada uma derivação de algo protegido por direito autoral, a responsabilidade pode recair sobre quem usou a ferramenta, não necessariamente sobre a plataforma que a criou.

Há também o risco reputacional. Um vídeo falso, mesmo criado sem intenção maliciosa, pode impactar a imagem de terceiros, gerar desinformação ou ser interpretado como manipulação. Em casos assim, a empresa pode ser responsabilizada tanto na esfera cível quanto na criminal.

Esse risco se amplifica ainda mais no contexto político. Imagine o impacto de um vídeo falso com falas simuladas de candidatos, ministros ou autoridades públicas. Em tempos eleitorais, isso pode espalhar desinformação em velocidade recorde e comprometer seriamente a integridade do processo democrático. Empresas que participam, mesmo que indiretamente, dessa cadeia de criação ou disseminação podem ser responsabilizadas.

Além dos riscos práticos, o tema já começa a ganhar atenção no Congresso Nacional. O Brasil ainda não tem uma lei específica sobre inteligência artificial, mas o Projeto de Lei 2.338/2023, já aprovado no Senado, propõe um marco legal baseado em níveis de risco. A proposta exige transparência, avaliação de impacto e impõe deveres a empresas que desenvolvem ou utilizam essas tecnologias. Enquanto essa nova legislação ainda avança lentamente, a União Europeia já aprovou o AI Act, uma lei robusta que impõe regras rigorosas para sistemas de IA de alto risco e exige a identificação obrigatória de conteúdos gerados por IA, como deepfakes. No Brasil, mesmo sem um marco específico, o uso da IA já pode gerar responsabilização com base em normas como o Código Civil, a LGPD e o Código de Defesa do Consumidor.

Diante desse cenário, é urgente que empresas adotem práticas mínimas de segurança jurídica. A primeira delas é revisar seus contratos, termos de uso e políticas internas, prevendo o uso da inteligência artificial, suas finalidades e seus limites. Também é essencial firmar cláusulas específicas de responsabilidade nos contratos com fornecedores de tecnologia.

Se a empresa utiliza IA para gerar conteúdos com imagem, voz ou dados de terceiros, deve obter consentimento formal e documentado. E, por fim, o time precisa estar preparado. Treinar colaboradores sobre os riscos legais da IA é tão importante quanto ensinar a usar as ferramentas em si.

A inteligência artificial pode ser uma grande aliada da inovação, mas também exige responsabilidade. Usar essas tecnologias sem pensar nos impactos jurídicos é como dirigir um carro em alta velocidade sem freios. Em tempos em que até os vídeos podem ser falsos, a segurança jurídica continua sendo o que há de mais real.

Compartilhe

Advogado especialista em startups e negócios inovadores. Fundador do Rubiño Advogados e idealizador do Selo Rocket Base, o primeiro selo de segurança jurídica para startups no Brasil. Há mais de 10 anos atuando no ecossistema de inovação, auxiliando empreendedores, fundadores e investidores a estruturarem negócios com estratégia, clareza e boas conversas.

Leia também