Artigos 17.10.25

IA corporativa com responsabilidade: guia prático para implantar, medir e auditar

A IA já entrou no cotidiano das empresas: alguém pede […]

A IA já entrou no cotidiano das empresas: alguém pede ajuda para redigir um e-mail, um analista classifica documentos, o marketing rascunha peças. O ganho de eficiência é evidente, mas sem regras claras o risco jurídico e operacional cresce. O objetivo deste guia é mostrar como implementar IA corporativa com responsabilidade: unindo governança, LGPD e resultados de negócio,mas sem travar a inovação. A base normativa está na própria Lei Geral de Proteção de Dados, que disciplina princípios, direitos e deveres aplicáveis a qualquer tratamento, inclusive quando há automação ou modelos generativos.

Comece pela política (simples) e por um inventário vivo

O primeiro passo é tornar explícito “o que pode” e “o que não pode”.

Uma política de IA objetiva faz exatamente isso: define finalidades autorizadas, situações proibidas (por exemplo, incluir dados sensíveis em ferramentas públicas), papéis e responsabilidades e o canal de dúvidas.

Em paralelo, crie um inventário vivo dos casos de uso: para cada um, registre quais dados entram e saem, se há dados pessoais, qual a base legal, onde ficam logs, quem revisa e por quanto tempo os registros permanecem. Esse inventário conversa diretamente com a LGPD e com seus controles internos de segurança e classificação da informação. Quando o caso de uso envolver decisões que afetem pessoas, lembre que o titular tem direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado.

Avalie riscos com proporcionalidade (e documente)

Nem todo projeto exige um relatório extenso, mas todo projeto merece uma triagem de risco. A regra é simples: quanto maior o impacto sobre direitos, reputação ou finanças, mais robusta deve ser a documentação.

A Autoridade Nacional (ANPD) explica que o Relatório de Impacto à Proteção de Dados (RIPD) descreve tratamentos que podem gerar alto risco e deve conter medidas e salvaguardas de mitigação. Isso se aplica também a projetos de IA. Além dos fundamentos legais, leve a sério os princípios da necessidade, segurança, responsabilização e prestação de contas e registre seu raciocínio: o porquê da escolha de um modelo, os testes de qualidade, as salvaguardas adotadas e quem aprovou.

Decisões automatizadas pedem transparência e revisão humana

Se a IA influencia decisões relevantes para pessoas físicas (por exemplo, priorização de atendimento, análises de fraude ou ofertas), aumente as salvaguardas: explique de forma acessível que há automação, mantenha trilhas de auditoria e permita revisão humana significativa quando houver contestação.

Trata-se de concretizar o direito de revisão e de evitar “opacidade por conveniência”, mesmo quando o modelo é complexo. A LGPD prevê esse direito expressamente; a cultura de prestação de contas completa o quadro.

Fornecedores e modelos: contrato, segurança e qualidade

Ao contratar plataformas de IA, avalie onde ocorre o processamento, quais suboperadores são envolvidos, como funciona a retenção de dados e qual o compromisso com segurança (criptografia, segregação de ambientes, controle de acesso e logs).

No contrato (incluindo o seu DPA), estabeleça resposta a incidentes, cooperação em auditorias e vedação ao uso dos seus dados para treinar modelos sem autorização.

Se houver transferência internacional de dados, a Resolução CD/ANPD nº 19/2024 traz mecanismos específicos (cláusulas-padrão, normas corporativas globais e decisões de adequação) e merece ser considerada desde a fase de compras.

Incidentes e comunicação: preparação antes do problema

Projetos de IA não substituem o básico de segurança da informação. Tenha política de classificação, restrinja inputs com dados pessoais, prefira anonimização quando possível, use ambientes corporativos e mantenha logs.

Se, apesar disso, ocorrer um incidente, a ANPD já aprovou regulamento específico de comunicação que detalha deveres e prazos e lembra que a obrigação legal de comunicar titulares e a Autoridade é do controlador.

Preparar previamente o fluxo (identificação, contenção, avaliação de risco, comunicação e remediação) evita improvisos e reduz dano.

Encarregado (DPO) como ponte entre negócio, jurídico e tecnologia

A figura do Encarregado continua central. O guia da ANPD sobre a atuação do DPO reforça que ele orienta, facilita a interpretação da norma e ajuda a difundir boas práticas, sem assumir isoladamente a responsabilidade pela conformidade, que permanece com o controlador.

Em IA corporativa, envolva o DPO desde o desenho do caso de uso, especialmente quando há dados pessoais, para alinhar base legal, minimização e mecanismos de revisão.

Medir para melhorar: KPIs e auditoria leve

Governança só ganha tração quando mostra resultado. Defina indicadores de qualidade (precisão, taxa de erro por categoria), segurança (eventos e tempo de correção), compliance (percentual de casos com revisão humana, RIPDs concluídos) e eficiência (tempo economizado, custo por entrega).

Audite em ciclos curtos, amostrando saídas e verificando aderência à política. Em contextos dinâmicos, a própria ANPD sugere revisão contínua de relatórios e salvaguardas quando surgem fatos novos. Trate sua governança de IA como um produto em evolução, não como política “para a gaveta”.

Um roteiro enxuto de 90 dias

Nas duas primeiras semanas, publique a versão 1.0 da política de IA e cadastre os três a cinco casos de uso mais relevantes no inventário.

Entre a 3ª e a 6ª semana, execute pilotos com guardrails (dados não sensíveis, revisão humana obrigatória, logs ativos) e faça a triagem de risco, elaborando um RIPD quando houver alto risco.

Entre a 7ª e a 12ª semana, consolide KPIs, treine as equipes de negócio com exemplos reais e programe a primeira auditoria leve.

Esse ciclo rápido cria disciplina sem burocracia, mantendo a empresa em linha com os princípios e direitos previstos na LGPD e com as orientações oficiais da ANPD.

Próximo passoQueremos te ajudar a ganhar velocidade com segurança. Fale conosco para implantar, em até 90 dias, a política de IA, o inventário de casos de uso, os KPIs e um ciclo de auditoria leve, tudo alinhado à LGPD e às orientações da ANPD.

Avatar Erika Knochenhauer

Por

Erika Knochenhauer


Advogada

Assine e receba nossas notícias

    Ao assinar você concorda automaticamente com nossa política de privacidade - clique aqui e saiba mais