A Inteligência Artificial tornou-se uma ferramenta-chave em setores estratégicos e na tomada de decisões. Até agora, a Europa não possuía um quadro regulatório comum, mas a aprovação do Regulamento (UE) 2024/1689, também conhecido como Regulamento de Inteligência Artificial (RIA), representa um marco histórico. O seu objetivo é combinar inovação com a proteção dos direitos fundamentais.
O que muda com a nova normativa?
O Regulamento UE 2024/1689 classifica a inteligência artificial de acordo com o nível de risco: inaceitável, alto, limitado e mínimo.
Os sistemas de risco inaceitável são proibidos, incluindo IA que manipule o comportamento humano, realize pontuação social, reconheça emoções no trabalho ou efetue identificação biométrica em tempo real, salvo exceções judiciais. Também se limita a criação de bases de dados biométricas sensíveis.
Os sistemas de alto risco, utilizados em setores críticos como saúde, educação ou segurança, só podem operar cumprindo requisitos de segurança e avaliações de conformidade. Os de risco limitado devem cumprir obrigações de transparência, e os de risco mínimo podem ser usados livremente, com códigos de conduta recomendados.
Além disso, todo conteúdo gerado ou manipulado por IA, incluindo deepfakes, deve ser claramente identificado. Esta abordagem baseada em níveis de risco protege os direitos fundamentais e promove uma IA segura e inovadora na Europa.
Datas-chave e sanções na Lei de IA da UE
A Lei de IA da UE estabelece um calendário claro: a partir de fevereiro de 2025, práticas incompatíveis com os valores democráticos são proibidas; em agosto de 2026, entram em vigor as obrigações para sistemas de alto risco; e a partir de agosto de 2027, o registo público desses sistemas será obrigatório.
Cada Estado-Membro poderá definir suas próprias multas e sanções, designando pelo menos uma autoridade nacional responsável por supervisionar a aplicação da normativa e a vigilância do mercado, assegurando o cumprimento da Lei de IA.
Como devem agir as empresas que utilizam sistemas de IA?
As empresas que implementam sistemas de inteligência artificial devem estabelecer estruturas sólidas de governação e gestão de riscos baseadas em ética, eficiência e legalidade. Isto é articulado através do modelo GRC (Governança, Risco e Conformidade):
- Governança: Alinhar processos e decisões com os objetivos estratégicos da organização.
- Risco: Identificar, avaliar e gerir os riscos associados à IA.
- Conformidade: Garantir que todas as atividades cumprem os requisitos legais e regulamentares.
No caso de sistemas de alto risco, a normativa exige ainda:
- Documentação técnica atualizada e registos automáticos de atividade.
- Informação clara aos utilizadores sobre capacidades, requisitos, âmbito de aplicação, precisão e supervisão humana.
- Possibilidade de supervisão humana durante a utilização.
- Nível adequado de precisão, robustez e cibersegurança, refletido na documentação.
É fundamental promover uma cultura de risco, formando e sensibilizando todas as partes sobre os possíveis impactos da IA. As empresas devem conhecer exatamente onde se inserem os seus sistemas, aplicar os quadros de governação correspondentes e cumprir rigorosamente as obrigações estabelecidas pela Lei de IA da UE.