Por Josiani Silveira, CEO da SoftExpert.
Ainda que representem um grande potencial de automatizar tarefas, reduzir custos e aumentar produtividade, as ferramentas de Inteligência Artificial (IA) também podem proporcionar riscos. Especialmente em mercados regulamentados, essa tecnologia pode afetar governança, conformidade e até reputação de companhias.
A origem desses problemas frequentemente se dá na velocidade de adoção da tecnologia nas corporações, superando a maturidade das estruturas de governança de IA projetadas para controlá-la. Segundo a consultoria McKinsey, a adoção de IA nas empresas saltou para mais de 72% globalmente em 2024. Contudo, o mesmo estudo revela que apenas 18% dessas organizações estabeleceram um conselho ou comitê formal dedicado à governança de IA no ano passado.
Ao mesmo tempo, uma pesquisa da consultoria Deloitte mostra que a conformidade regulatória se tornou a principal barreira na adoção de Inteligência Artificial.
Nesse novo cenário, executivos e gestores precisam compreender que utilizar a IA sem “trilhos de segurança” (ou seja, sem processos padronizados e uma governança robusta) transforma a tecnologia de um ativo estratégico em um perigo regulatório.
A Universidade de Stanford aponta que o número de incidentes éticos e falhas de segurança reportados envolvendo IA teve um salto de 56,4% em 2024 em comparação com o ano anterior. E esse número tende a continuar subindo conforme a adoção desestruturada da tecnologia amplifica proporcionalmente a escala dos erros.
Isso acontece porque o funcionamento da Inteligência Artificial é fundamentalmente diferente de outras ferramentas. Ao contrário de softwares tradicionais, que operam sob regras determinísticas (se X, então Y), os modelos de IA — especialmente os generativos e de aprendizado profundo — introduzem variáveis probabilísticas que desafiam os métodos convencionais de controle.
Portanto, ignorar as nuances desses novos vetores de risco é, em si, o maior perigo para um gestor focado em conformidade e governança.
O uso da inteligência artificial deve ser controlado e requer uma atenção imediata para exposições críticas, como vieses algorítmicos e risco reputacional; segurança da informação e o fenômeno da “Shadow AI” (sistemas desenvolvidos e operados de forma independente); alucinações e falhas na qualidade dos dados; e a falta de rastreabilidade.
A mitigação eficaz desses perigos exige que as ferramentas de Inteligência Artificial deixem de ser tratadas como um “projeto isolado de TI” e passem a ser geridas sob a óptica de Sistemas de Gestão Integrada. A recente publicação da norma ISO/IEC 42001:2023 — o primeiro padrão internacional para sistemas de gestão de IA — marcou o início de uma nova era de maturidade e exigência corporativa e traz estrutura para construir a governança dessa tecnologia.
O primeiro passo é entender que implementar controles internos não é apenas uma burocracia. Essa ação é a única forma de transformar a aleatoriedade algorítmica em previsibilidade de negócio.
Centralização com uma “única fonte da verdade”
A Inteligência Artificial é tão confiável quanto os dados que a alimentam. A dispersão de informações é o terreno fértil para inconsistências e “alucinações”. Sistemas integrados garantem que os modelos consumam dados saneados, aprovados e únicos, eliminando silos de informação.
A IA representa, inegavelmente, a maior alavanca de produtividade desta década. No entanto, para organizações que sustentam a economia global, como energia, finanças, saúde e manufatura, a inovação sem controle é um convite ao colapso.
Neste novo cenário, o papel do líder moderno não é frear o progresso, mas construir os trilhos seguros por onde ele deve passar. A tecnologia precisa acelerar as empresas, mas é a governança integrada que garante que elas permaneçam na estrada certa, protegida contra passivos regulatórios e danos reputacionais.