Notícias 18.05.21

Comissão Europeia propõe novas regras para garantir segurança à Inteligência Artificial

Com o objetivo de transformar a Europa no centro global […]

Com o objetivo de transformar a Europa no centro global de Inteligência Artificial (IA) confiável, a Comissão Europeia propôs, no final de abril, novas regras e ações para garantir a segurança e os direitos fundamentais das pessoas e das empresas e, ao mesmo tempo, reforçar a aceitação, o investimento e a inovação da IA em toda a UE. Regras específicas para máquinas e equipamentos também foram propostas, a fim de aumentar a confiança dos usuários na nova geração de produtos.

“Com essas regras históricas, a União Europeia está liderando o desenvolvimento de novas normas globais para garantir que a IA seja confiável. Ao definir os padrões, podemos preparar o caminho para a tecnologia ética em todo o mundo e garantir que a UE permaneça competitiva ao longo do caminho. Preparadas para o futuro e propícias à inovação, as nossas regras intervêm onde for estritamente necessário: quando a segurança e os direitos fundamentais dos cidadãos da UE estão em jogo”, afirmou Margrethe Vestager, vice-presidente executiva da Comissão Europeia.

A justificativa considera que, embora a maioria dos sistemas de IA apresentem risco baixo ou nenhum, certos sistemas criam riscos que precisam ser tratados para evitar resultados indesejáveis. Por exemplo, a opacidade de muitos algoritmos pode criar incerteza e dificultar a aplicação efetiva da legislação existente sobre segurança e direitos fundamentais, argumenta a Comissão Europeia.

As novas regras seguem uma abordagem baseada nos níveis de riscos:

  • risco inaceitável – sistemas de IA considerados uma clara ameaça à segurança, meios de subsistência e direitos das pessoas serão banidos, como sistemas ou aplicativos que manipulam o comportamento humano para contornar o livre arbítrio dos usuários (por exemplo, brinquedos que usam assistência de voz incentivando o comportamento perigoso de menores) e sistemas que permitem “pontuação social” por parte dos governos.
  • alto risco – sistemas             de IA usados em Infraestruturas críticas, Formação educacional ou vocacional, Componentes de segurança de produtos, Emprego, gestão de trabalhadores, Serviços essenciais privados e públicos, Aplicação da lei que pode interferir com os direitos fundamentais das pessoas, Migração, asilo e gestão de controle de fronteiras, Administração da justiça e processos democráticos. Esses sistemas, antes de serem colocados no mercado, estarão sujeitos a obrigações como avaliação de risco adequada e sistemas de mitigação, alta qualidade dos conjuntos de dados que alimentam o sistema para minimizar riscos e resultados discriminatórios; log da atividade para garantir a rastreabilidade dos resultados; documentação detalhada fornecendo todas as informações necessárias sobre o sistema e sua finalidade para que as autoridades avaliem sua conformidade; informações claras e adequadas ao usuário; medidas de supervisão humana adequadas para minimizar o risco; alto nível de robustez, segurança e precisão.
  • risco limitado– sistemas de IA com obrigações específicas de transparência. Ao usar sistemas de IA, como chatbots, os usuários devem estar cientes de que estão interagindo com uma máquina para que possam tomar uma decisão informada de continuar ou recuar.
  • risco mínimo – a proposta permite o uso gratuito de aplicativos, como videogames habilitados para IA ou filtros de spam. A Comissão Europeia enfatiza que a grande maioria dos sistemas de IA se enquadra nesta categoria, na qual o regulamento não intervém por esses sistemas representarem apenas um risco mínimo ou nenhum risco para os direitos ou a segurança dos cidadãos.

Um Comitê Europeu de Inteligência Artificial deverá ser criado para facilitar a  implementação das regras, bem como impulsionar o desenvolvimento de normas para IA. Além disso, códigos de conduta voluntários são propostos para IA de alto risco, assim como áreas restritas regulatórias para facilitar a inovação responsável. As autoridades nacionais competentes de fiscalização do mercado deverão supervisionar o cumprimento das novas regras. E são previstas sanções, incluindo multas que podem chegar a 30 milhões de euros ou 6% do total do volume de negócios anual mundial do ano financeiro anterior (o que for mais alto) para infrações a práticas proibidas ou não conformidade relacionada a requisitos de dados. Considerando que as instituições, agências ou organismos da UE devem dar o exemplo, elas também estarão sujeitas às regras e a possíveis sanções. A Autoridade Europeia para a Proteção de Dados terá o poder de impor multas a eles.

Identificação biométrica e reconhecimento facial

Todos os sistemas remotos de identificação biométrica são considerados de alto risco e sujeitos a requisitos rígidos na proposta da Comissão Europeia. O uso ao vivo em espaços acessíveis ao público para fins de aplicação da lei é proibido, em princípio. Exceções restritas são consideradas como quando estritamente necessário para procurar uma criança desaparecida, para prevenir uma ameaça terrorista específica e iminente ou para detectar, localizar, identificar ou processar um perpetrador ou suspeito de um crime grave. Ainda assim, tal uso estará sujeito à autorização de um órgão judicial ou outro órgão independente e aos limites adequados de tempo, alcance geográfico e bases de dados pesquisadas.

A Comissão Europeia ressalta que a identificação biométrica pode ser utilizada para autenticação do usuário, ou seja, para desbloquear um smartphone ou para verificação da identidade de uma pessoa em relação aos seus documentos de viagem (correspondência um-para-um), por exemplo. E, também, pode ser usada remotamente, para identificar pessoas em uma multidão, onde, por exemplo, a imagem de uma pessoa é verificada em um banco de dados (correspondência um-para-muitos).

“A precisão dos sistemas de reconhecimento facial pode variar significativamente com base em uma ampla gama de fatores, como qualidade da câmera, luz, distância, banco de dados, algoritmo e etnia, idade ou sexo do sujeito”, destaca o documento. Mesmo reconhecendo que os sistemas estão cada vez mais avançados e com baixas taxas de erro, a Comissão Europeia alerta que: “embora uma taxa de precisão de 99% possa parecer boa em geral, é consideravelmente arriscado quando o resultado leva à suspeita de uma pessoa inocente. Mesmo uma taxa de erro de 0,1% é muito se diz respeito a dezenas de milhares de pessoas”.

O Parlamento Europeu e os Estados-Membros terão de aprovar as propostas da Comissão que, se aprovadas, serão aplicáveis ​​em toda a União Europeia. Paralelamente, a Comissão continuará a colaborar com os Estados-Membros para implementar as ações anunciadas no Plano Coordenado, o qual descreve as mudanças políticas e investimentos necessários para fortalecer a posição de liderança da Europa no desenvolvimento de IA centrada no ser humano, sustentável, segura, inclusiva e confiável.

Fonte: Comissão Europeia

Assine e receba nossas notícias

    Ao assinar você concorda automaticamente com nossa política de privacidade - clique aqui e saiba mais