08/07/2025
AI Act : 45 entreprises européennes plaident pour une « pause » dans son déploiement.
Adopté après des années de discussions intenses, l’AI Act est le premier cadre législatif complet au monde dédié à l’intelligence artificielle. Son objectif principal est de garantir que les systèmes d’IA soient sûrs, transparents, éthiques et respectueux des droits fondamentaux des citoyens européens, tout en stimulant l’innovation.
Pour ce faire, le règlement opte pour une approche basée sur le risque :
Risque inacceptable : Systèmes d’IA considérés comme une menace claire pour les droits fondamentaux (par exemple, la manipulation comportementale subliminale, la notation sociale à la chinoise), et donc interdits.
Haut risque : Systèmes d’IA utilisés dans des domaines critiques comme la santé, l’éducation, l’emploi, la gestion des infrastructures ou la justice. Ceux-ci sont soumis à des exigences strictes en matière de qualité des données, de transparence, de robustesse, de cybersécurité et de surveillance humaine.
Risque limité : Systèmes présentant un risque moindre, comme les chatbots, qui doivent simplement informer les utilisateurs qu’ils interagissent avec une IA.
Risque minimal ou nul : La grande majorité des systèmes d’IA, ne nécessitant pas de régulations spécifiques au-delà des législations existantes.
L’entrée en vigueur de l’AI Act est progressive, avec les premières obligations, notamment pour les IA à usage général (GPAI) comme les grands modèles de langage, fixées au 2 août 2025, et les dispositions pour les systèmes à haut risque devant être pleinement appliquées d’ici août 2026.
La demande de « pause » : Les craintes de l’industrie
Malgré l’intention louable de l’AI Act, la lettre ouverte signée par 45 entreprises européennes, parmi lesquelles on retrouve des noms influents de la tech et de l’industrie, a semé le trouble. Leur principale préoccupation est que le rythme actuel d’implémentation de la loi pourrait étouffer l’innovation sur le continent et nuire à la compétitivité des entreprises européennes face aux géants américains et chinois.
Leurs arguments sont multiples :
Coûts et complexité de la conformité : La mise en conformité avec les exigences de l’AI Act, particulièrement pour les systèmes à haut risque, représente un investissement significatif en temps, en ressources humaines et en capital. Les entreprises, surtout les plus petites et les startups, craignent de ne pas pouvoir absorber ces coûts rapidement, ce qui freinerait leur capacité à développer et déployer de nouvelles solutions d’IA.
Manque de clarté et de normes techniques : Bien que le texte législatif soit voté, la concrétisation des normes techniques et des lignes directrices détaillées pour son application est encore en cours. Ce manque de clarté rend difficile pour les entreprises de savoir précisément comment adapter leurs systèmes pour être conformes, engendrant incertitude et délais supplémentaires.
Vitesse de l’innovation : Le secteur de l’IA évolue à une vitesse fulgurante. Les entreprises estiment qu’un cadre réglementaire trop rigide et rapidement appliqué risque de devenir obsolète avant même d’avoir produit tous ses effets, ou pire, de contraindre des innovations prometteuses. Elles plaident pour un temps d’adaptation plus long afin de permettre à l’industrie de s’ajuster sans entraver le progrès technologique.
Compétitivité mondiale : L’Europe est le premier continent à adopter une régulation aussi stricte sur l’IA. Les entreprises craignent que cela ne crée un désavantage compétitif, incitant les talents et les investissements à se tourner vers des régions où l’environnement réglementaire est moins contraignant.
La position ferme de Bruxelles : Pas de report en vue
Face à cette demande pressante, la Commission européenne a maintenu une position ferme et catégorique. Thomas Regnier, porte-parole de la Commission, a déclaré qu’il n’y aurait « pas d’arrêt du temps, pas de période de grâce, pas de pause ». Les premières obligations, notamment celles concernant les IA à usage général, entreront bien en vigueur le 2 août 2025.
Bruxelles insiste sur la nécessité de cette régulation pour garantir une « IA de confiance » et protéger les citoyens. La Commission estime qu’un cadre clair et éthique est précisément ce qui distinguera l’Europe et lui permettra de devenir un leader mondial de l’IA responsable. Elle reconnaît la complexité mais souligne que des ajustements sont déjà prévus, notamment pour alléger certaines obligations administratives pour les petites entreprises, témoignant d’un effort pour trouver un équilibre.
De plus, l’UE voit l’AI Act comme une opportunité d’établir une norme mondiale. En fixant des standards élevés, l’Europe espère influencer la manière dont l’IA est développée et utilisée à l’échelle internationale, exportant ainsi ses valeurs.