Retour aux Articles
Le règlement UE 2024/1689 et son impact sur l’utilisation de l’IA en Europe
Article

Le règlement UE 2024/1689 et son impact sur l’utilisation de l’IA en Europe 

L’intelligence artificielle est devenue un outil clé dans les secteurs stratégiques et dans la prise de décision. Jusqu’à présent, l’Europe ne disposait pas d’un cadre réglementaire commun, mais l’adoption du Règlement (UE) 2024/1689, également connu sous le nom de Règlement sur l’Intelligence Artificielle (RIA), constitue une étape historique. Son objectif est de combiner innovation et protection des droits fondamentaux. 

Qu’est-ce qui change avec la nouvelle réglementation ? 

Le règlement UE 2024/1689 classe l’intelligence artificielle selon le niveau de risque : inacceptable, élevé, limité et minimal

Les systèmes à risque inacceptable sont interdits, y compris l’IA qui manipule le comportement humain, effectue un classement social, reconnaît les émotions au travail ou réalise une identification biométrique en temps réel, sauf exceptions judiciaires. La création de bases de données biométriques sensibles est également limitée. 

Les systèmes à risque élevé, utilisés dans des secteurs critiques tels que la santé, l’éducation ou la sécurité, ne peuvent fonctionner que s’ils respectent les exigences de sécurité et les évaluations de conformité. Les systèmes à risque limité doivent se conformer aux obligations de transparence, et les systèmes à risque minimal peuvent être utilisés librement, avec des codes de conduite recommandés. 

De plus, tout contenu généré ou manipulé par l’IA, y compris les deepfakes, doit être clairement étiqueté. Cette approche par niveaux de risque protège les droits fondamentaux et favorise une IA sûre et innovante en Europe. 

Dates clés et sanctions prévues par la loi européenne sur l’IA 

La loi européenne sur l’IA établit un calendrier clair : à partir de février 2025, les pratiques incompatibles avec les valeurs démocratiques sont interdites ; en août 2026, les obligations pour les systèmes à haut risque entrent en vigueur ; et à partir d’août 2027, le registre public de ces systèmes sera obligatoire. 

Chaque État membre pourra fixer ses propres amendes et sanctions, en désignant au moins une autorité nationale chargée de superviser l’application de la réglementation et la surveillance du marché, garantissant le respect de la loi sur l’IA. 

Comment doivent agir les entreprises utilisant des systèmes d’IA ? 

Les entreprises qui mettent en œuvre des systèmes d’intelligence artificielle doivent établir des cadres solides de gouvernance et de gestion des risques basés sur l’éthique, l’efficacité et la légalité. Cela se structure selon le modèle GRC (Gouvernance, Risque et Conformité)

  • Gouvernance : Aligner les processus et les décisions avec les objectifs stratégiques de l’organisation. 
  • Risque : Identifier, évaluer et gérer les risques associés à l’IA. 
  • Conformité : Garantir que toutes les activités respectent les exigences légales et réglementaires. 

Pour les systèmes à haut risque, la réglementation exige également : 

  • Une documentation technique à jour et des enregistrements automatiques d’activité. 
  • Une information claire aux utilisateurs sur les capacités, exigences, champ d’application, précision et supervision humaine. 
  • La possibilité d’une supervision humaine pendant l’utilisation. 
  • Un niveau adéquat de précision, de robustesse et de cybersécurité, reflété dans la documentation. 

Il est essentiel de promouvoir une culture du risque, en formant et en sensibilisant toutes les parties aux impacts potentiels de l’IA. Les entreprises doivent savoir exactement où s’insèrent leurs systèmes, appliquer les cadres de gouvernance correspondants et respecter rigoureusement les obligations établies par la loi européenne sur l’IA.