Na coluna desta semana para o Economia SC, vamos falar com a Taynara Rodrigues Bernardo sobre os principais desafios de uso de inteligência artificial (IA) à luz da Propriedade intelectual, além de mostrar um panorama do marco regulatório e dicas importantes para as startups que estão investindo em inteligência artificial.
Ela é fundadora da Data Guide, empresa especializada em governança digital, proteção de dados e segurança da informação. Atua diretamente na estruturação de programas de conformidade e gestão de riscos para empresas que desejam inovar sem comprometer segurança, reputação ou crescimento.
Com experiência na implementação de DPO-as-a-Service, Security-as-a-Service e projetos de certificação como ISO 27001 e SOC 2, ela acompanha de perto como o tema da IA vem impactando decisões estratégicas, captação de investimentos e posicionamento de mercado.
Quais são os principais desafios que as startups estão enfrentando quando falamos de marco regulatório para o uso de inteligência artificial? Este marco regulatório já existe?
O Brasil ainda não tem um marco regulatório de IA plenamente em vigor, como o AI Act europeu. Mas isso não significa que o uso de inteligência artificial esteja em um “território sem lei”. Na prática, a IA já está sendo impactada por regras que existem há anos: LGPD, legislação de Propriedade Intelectual e responsabilidade civil. O erro de muitas startups é achar que, por não existir uma lei específica de IA aprovada, o tema pode ficar para depois. Os principais desafios que vejo hoje são bem concretos: uso de dados para treinamento sem clareza de base legal, dúvidas sobre quem é titular do que é gerado pela IA, risco de violação de direitos autorais, decisões automatizadas sem governança mínima e contratos frágeis com fornecedores de tecnologia. O projeto de lei brasileiro de IA, que está em tramitação, tende a seguir uma lógica baseada em risco, exigindo mais responsabilidade para sistemas de alto impacto. Mas o mercado já começou a exigir maturidade antes mesmo da lei entrar em vigor, principalmente quando falamos de startups que vendem para grandes empresas ou investidores internacionais. Nesse cenário, certificações como a ISO/IEC 42001:2023, primeira norma internacional para Sistemas de Gestão de Inteligência Artificial, têm chamado atenção no mercado de tecnologia. Não porque “resolvam a IA”, mas porque demonstram algo essencial, especialmente em um contexto ainda marcado por incertezas regulatórias: estrutura, gestão de riscos e compromisso com governança.
Já existe parecer do INPI de que Inteligência Artificial não pode ser indicada como inventora em pedido de patente. Existe também um consenso de que obras protegidas por direitos autorais devem indicar como autor pessoa física, o que excluiria de proteção as obras criadas por IA Generativa. Quais alternativas restam para a proteção de criações geradas por inteligência artificial?
Hoje, tanto o INPI quanto a legislação autoral brasileira partem de uma premissa simples: autoria é humana. Na prática, isso significa que a Inteligência Artificial não pode ser indicada como inventora em um pedido de patente, nem como autora de uma obra protegida por direitos autorais. À primeira vista, pode parecer que isso inviabiliza qualquer proteção para criações feitas com IA. Mas não é exatamente assim. O que muda é a forma de estruturar essa proteção. No caso das patentes, o ponto central é demonstrar participação humana relevante na concepção da solução. Se houve definição do problema técnico, desenho da arquitetura ou aplicação prática da tecnologia por uma pessoa, essa pessoa pode ser indicada como inventora. A IA pode ser utilizada como ferramenta, mas o inventor precisa ser, obrigatoriamente, pessoa física. Já no campo dos direitos autorais, a proteção depende do grau de intervenção criativa humana. Se houve curadoria, direção, edição ou combinação original de elementos, é possível sustentar a autoria. Por outro lado, conteúdos integralmente autogerados, sem contribuição criativa identificável, tendem a enfrentar mais obstáculos. Além disso, muitas startups acabam protegendo seus ativos por caminhos que, na prática, podem até ser mais estratégicos: segredo de negócio, como algoritmos, bases de dados e prompts estruturados; contratos bem definidos sobre titularidade de outputs; proteção do software como programa de computador; e fortalecimento da marca. No fim, a discussão não é apenas se a IA pode ou não ser autora. A pergunta mais relevante é como estruturar juridicamente o processo para que o elemento humano e o ativo estratégico do negócio estejam efetivamente protegidos.
Está em tramitação o projeto de lei PL 2338/2023, que Dispõe sobre o uso da Inteligência Artificial que foi aprovado no Senado e segue para a Câmara, que possui em seu texto o seguinte: “Art. 65. O agente de IA que utilizar conteúdos protegidos por direitos de autor e conexos em processos de mineração, treinamento ou desenvolvimento de sistemas de IA deve remunerar os titulares desses conteúdos em virtude dessa utilização”. Na União Europeia já existe legislação que garante que o treinamento de IA depende de permissão prévia, ou seja, contratos de licenciamento dos direitos dos autores. Você concorda com esta proposta brasileira? Quais impactos ela pode gerar para os desenvolvedores e startups que estão desenvolvendo soluções nesta área? E os impactos para os criadores e criativos?
Eu vejo essa proposta como parte de um movimento global de reequilíbrio entre inovação tecnológica e proteção de direitos autorais. A ideia de exigir remuneração quando conteúdos protegidos forem usados para treinamento de IA faz sentido sob a ótica de proteção aos criadores. Afinal, modelos generativos não surgem do nada, eles são treinados com base em obras produzidas por pessoas. Por outro lado, o impacto para desenvolvedores e startups pode ser significativo. Exigir licenciamento amplo e remuneração obrigatória pode aumentar custos, criar barreiras de entrada e concentrar ainda mais o mercado nas grandes empresas que já têm capital para negociar bases licenciadas. Para os criadores, a proposta pode representar reconhecimento econômico e maior poder de negociação. Mas também levanta discussões práticas sobre rastreabilidade, critérios de remuneração e viabilidade operacional. No fim, o desafio é encontrar um ponto de equilíbrio. Proteger quem cria sem inviabilizar quem inova. O desenho regulatório vai definir se o Brasil cria um ambiente de segurança jurídica ou um ambiente de insegurança para ambos os lados.
IA é um tema que ainda gera muitos questionamentos quando à segurança e por isso existe um apelo muito grande para tornar as Inteligências Artificiais transparentes através de código aberto. Na sua opinião, quão transparente precisa ser um sistema de IA, a fim de garantia a segurança dos usuários, porém remunerar os seus desenvolvedores pelo esforço inventivo?
Transparência em IA é importante, mas precisamos tomar cuidado para não confundir transparência com obrigação de abrir código. Segurança do usuário não depende necessariamente de tornar o modelo “open source”. O que precisa ser transparente são os critérios de uso, as limitações do sistema, os riscos conhecidos, as bases gerais de funcionamento e os mecanismos de supervisão humana. O usuário precisa entender quando está interagindo com IA, quais dados estão sendo utilizados e quais são os possíveis impactos daquela decisão automatizada. Abrir integralmente o código pode, inclusive, gerar outros riscos, como exploração de vulnerabilidades ou perda de vantagem competitiva. Desenvolver modelos exige investimento alto em pesquisa, infraestrutura e capital humano. É legítimo que haja retorno econômico sobre esse esforço. Na minha visão, o equilíbrio está em transparência funcional e regulatória, não necessariamente transparência absoluta do código. Auditorias independentes, documentação técnica adequada, avaliação de riscos e mecanismos de accountability podem garantir segurança sem inviabilizar o modelo de negócio.
Você tem acompanhado os casos mais recentes de responsabilização de empresas de IA pelas criações de suas ferramentas ? Nestes casos, os termos de uso das plataformas não foram suficientes para remover a responsabilidade pelo conteúdo gerado. As startups brasileiras estão preparadas para esse cenário?
Sim, tenho acompanhado. Termos de uso não blindam empresas contra responsabilidade quando há dano concreto. Disclaimers ajudam, mas não substituem governança, gestão de risco e mecanismos reais de mitigação. Quando há violação de direitos autorais, discriminação ou prejuízo a terceiros, a análise vai muito além do contrato padrão da plataforma. No Brasil, poucas startups estão plenamente preparadas para esse cenário. Muitas ainda enxergam o tema como jurídico-formal, quando na verdade é estrutural. Estar preparado significa ter política clara de uso de IA, avaliação de riscos, monitoramento de outputs e documentação que comprove diligência. No fim, não é só sobre ter um bom termo de uso. É sobre ter uma estrutura capaz de sustentar o que você coloca no mercado.
Que recomendações práticas você pode deixar para as startups brasileiras que estão trabalhando com Inteligência Artificial e desejam mitigar riscos e se antecipar às tendências legislativas em vigor no mundo?
Para startups que trabalham com Inteligência Artificial, minha principal recomendação é: não esperem a lei entrar em vigor para estruturar governança. O mercado costuma exigir maturidade muito antes do legislador.
Algumas medidas concretas:
- Mapear o uso de IA internamente: onde ela é utilizada, para qual finalidade, com quais dados e com qual nível de impacto.
- Classificar riscos (jurídicos, reputacionais, técnicos e éticos), especialmente se houver decisões automatizadas que afetem pessoas.
- Documentar a participação humana no desenvolvimento e na supervisão dos sistemas.
- Revisar contratos com fornecedores de IA deixando claras responsabilidades, limites de uso e titularidade de outputs.
- Adotar uma política interna de governança em IA, mesmo que enxuta, com diretrizes sobre transparência, vieses e segurança da informação.
- Investir em estrutura de segurança e gestão de riscos, alinhada a boas práticas internacionais.
Quem começa cedo constrói vantagem competitiva. Startups que conseguem demonstrar diligência, controle e responsabilidade tendem a ganhar confiança de investidores, grandes empresas e parceiros globais.