Este portal utiliza "cookies". Se quiser saber mais sobre cookies, quais as suas finalidades e como geri‑los, consulte a nossa Política de privacidade

Regulamentação

Atualização 06.08.2025

Conheça todos pontos em destaque sobre a regulamentação do digital na Administração Pública.

Imagem ilustrativa

 

Modelo Baseado no Risco

ATUALIZAÇÃO  06.08.2025

O regulamento adota uma abordagem proporcional, baseada no nível de risco que diferentes aplicações de IA podem representar para os direitos dos cidadãos ou para a sociedade.

  • Sistemas de risco inaceitável são proibidos, como, por exemplo, sistemas de manipulação cognitiva subliminar ou pontuação social por entidades públicas.
  • Sistemas de alto risco, como os utilizados em áreas sensíveis como saúde, educação, justiça ou gestão de infraestruturas críticas, estão sujeitos a requisitos rigorosos, incluindo avaliação de conformidade, gestão de risco, documentação técnica, supervisão humana e monitorização contínua.
  • Sistemas de risco limitado devem cumprir obrigações de transparência, como a informação clara de que se está a interagir com uma IA.
  • Sistemas de risco mínimo podem ser desenvolvidos e utilizados livremente, sem requisitos específicos.

Além desta tipologia, o regulamento estabelece regras específicas para modelos de IA de uso geral (general-purpose AI models), incluindo obrigações de documentação, avaliação de riscos sistémicos e medidas de segurança específicas para os modelos mais avançados.

Para apoiar a correta aplicação do regulamento, a Comissão Europeia publicou já as Guidelines Oficiais para a Classificação de Sistemas de IA, com o objetivo de ajudar fornecedores e autoridades a determinar, de forma harmonizada, o nível de risco de cada sistema e os requisitos aplicáveis.

Em paralelo, foi também publicado o Código de Práticas para Modelos de IA de Uso Geral, que fornece orientações técnicas e organizacionais para os operadores destes modelos cumprirem voluntariamente os princípios do regulamento. A adoção deste código é incentivada como um mecanismo preparatório antes da entrada em vigor plena das obrigações legais, oferecendo maior previsibilidade e segurança jurídica às empresas envolvidas no desenvolvimento e disponibilização de modelos avançados de IA.