A IA já entrou no cotidiano das empresas: alguém pede […]
A IA já entrou no cotidiano das empresas: alguém pede ajuda para redigir um e-mail, um analista classifica documentos, o marketing rascunha peças. O ganho de eficiência é evidente, mas sem regras claras o risco jurídico e operacional cresce. O objetivo deste guia é mostrar como implementar IA corporativa com responsabilidade: unindo governança, LGPD e resultados de negócio,mas sem travar a inovação. A base normativa está na própria Lei Geral de Proteção de Dados, que disciplina princípios, direitos e deveres aplicáveis a qualquer tratamento, inclusive quando há automação ou modelos generativos.
O primeiro passo é tornar explícito “o que pode” e “o que não pode”.
Uma política de IA objetiva faz exatamente isso: define finalidades autorizadas, situações proibidas (por exemplo, incluir dados sensíveis em ferramentas públicas), papéis e responsabilidades e o canal de dúvidas.
Em paralelo, crie um inventário vivo dos casos de uso: para cada um, registre quais dados entram e saem, se há dados pessoais, qual a base legal, onde ficam logs, quem revisa e por quanto tempo os registros permanecem. Esse inventário conversa diretamente com a LGPD e com seus controles internos de segurança e classificação da informação. Quando o caso de uso envolver decisões que afetem pessoas, lembre que o titular tem direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado.
Nem todo projeto exige um relatório extenso, mas todo projeto merece uma triagem de risco. A regra é simples: quanto maior o impacto sobre direitos, reputação ou finanças, mais robusta deve ser a documentação.
A Autoridade Nacional (ANPD) explica que o Relatório de Impacto à Proteção de Dados (RIPD) descreve tratamentos que podem gerar alto risco e deve conter medidas e salvaguardas de mitigação. Isso se aplica também a projetos de IA. Além dos fundamentos legais, leve a sério os princípios da necessidade, segurança, responsabilização e prestação de contas e registre seu raciocínio: o porquê da escolha de um modelo, os testes de qualidade, as salvaguardas adotadas e quem aprovou.
Se a IA influencia decisões relevantes para pessoas físicas (por exemplo, priorização de atendimento, análises de fraude ou ofertas), aumente as salvaguardas: explique de forma acessível que há automação, mantenha trilhas de auditoria e permita revisão humana significativa quando houver contestação.
Trata-se de concretizar o direito de revisão e de evitar “opacidade por conveniência”, mesmo quando o modelo é complexo. A LGPD prevê esse direito expressamente; a cultura de prestação de contas completa o quadro.
Ao contratar plataformas de IA, avalie onde ocorre o processamento, quais suboperadores são envolvidos, como funciona a retenção de dados e qual o compromisso com segurança (criptografia, segregação de ambientes, controle de acesso e logs).
No contrato (incluindo o seu DPA), estabeleça resposta a incidentes, cooperação em auditorias e vedação ao uso dos seus dados para treinar modelos sem autorização.
Se houver transferência internacional de dados, a Resolução CD/ANPD nº 19/2024 traz mecanismos específicos (cláusulas-padrão, normas corporativas globais e decisões de adequação) e merece ser considerada desde a fase de compras.
Projetos de IA não substituem o básico de segurança da informação. Tenha política de classificação, restrinja inputs com dados pessoais, prefira anonimização quando possível, use ambientes corporativos e mantenha logs.
Se, apesar disso, ocorrer um incidente, a ANPD já aprovou regulamento específico de comunicação que detalha deveres e prazos e lembra que a obrigação legal de comunicar titulares e a Autoridade é do controlador.
Preparar previamente o fluxo (identificação, contenção, avaliação de risco, comunicação e remediação) evita improvisos e reduz dano.
A figura do Encarregado continua central. O guia da ANPD sobre a atuação do DPO reforça que ele orienta, facilita a interpretação da norma e ajuda a difundir boas práticas, sem assumir isoladamente a responsabilidade pela conformidade, que permanece com o controlador.
Em IA corporativa, envolva o DPO desde o desenho do caso de uso, especialmente quando há dados pessoais, para alinhar base legal, minimização e mecanismos de revisão.
Governança só ganha tração quando mostra resultado. Defina indicadores de qualidade (precisão, taxa de erro por categoria), segurança (eventos e tempo de correção), compliance (percentual de casos com revisão humana, RIPDs concluídos) e eficiência (tempo economizado, custo por entrega).
Audite em ciclos curtos, amostrando saídas e verificando aderência à política. Em contextos dinâmicos, a própria ANPD sugere revisão contínua de relatórios e salvaguardas quando surgem fatos novos. Trate sua governança de IA como um produto em evolução, não como política “para a gaveta”.
Nas duas primeiras semanas, publique a versão 1.0 da política de IA e cadastre os três a cinco casos de uso mais relevantes no inventário.
Entre a 3ª e a 6ª semana, execute pilotos com guardrails (dados não sensíveis, revisão humana obrigatória, logs ativos) e faça a triagem de risco, elaborando um RIPD quando houver alto risco.
Entre a 7ª e a 12ª semana, consolide KPIs, treine as equipes de negócio com exemplos reais e programe a primeira auditoria leve.
Esse ciclo rápido cria disciplina sem burocracia, mantendo a empresa em linha com os princípios e direitos previstos na LGPD e com as orientações oficiais da ANPD.
Próximo passo — Queremos te ajudar a ganhar velocidade com segurança. Fale conosco para implantar, em até 90 dias, a política de IA, o inventário de casos de uso, os KPIs e um ciclo de auditoria leve, tudo alinhado à LGPD e às orientações da ANPD.
Por
Erika Knochenhauer
Advogada