Le bras de fer qui secoue Bruxelles
Septembre 2025 restera dans les annales comme le mois où l’Europe a révélé ses divisions profondes sur l’avenir de la régulation de l’intelligence artificielle. Au cœur de cette bataille : l’AI Act, cette législation pionnière qui ambitionne de réguler l’IA selon une approche basée sur les risques. D’un côté, Mario Draghi, l’ancien « sauveur de l’euro », aujourd’hui avocat d’une pause réglementaire. De l’autre, une Commission européenne inflexible, déterminée à maintenir le cap malgré les pressions croissantes.
Cette confrontation n’est pas qu’un débat technocratique. Elle cristallise une question fondamentale : l’Europe peut-elle se permettre d’être à la fois first mover en matière de réglementation IA et compétitive face aux géants américains et chinois ? La réponse façonnera l’écosystème technologique européen pour la décennie à venir.
L’AI Act (Intelligence Artificielle Act), entré en vigueur en août 2024, constitue la première réglementation mondiale exhaustive sur l’IA. Cette loi classe les systèmes d’intelligence artificielle selon quatre niveaux de risque : minimal, limité, élevé et inacceptable. Plus le risque est élevé, plus les obligations de conformité sont strictes, allant de simples obligations d’information jusqu’à l’interdiction pure et simple pour les systèmes jugés trop dangereux.
Draghi sonne l’alarme : « L’incertitude paralyse l’innovation »
Le 16 septembre, Mario Draghi a franchi le Rubicon. Lors d’une conférence sur l’implémentation de ses recommandations économiques de 2024, l’ancien président de la BCE a qualifié l’AI Act de « source d’incertitude » et appelé à suspendre spécifiquement l’application des règles concernant les systèmes à haut risque.
Cette prise de position n’est pas anodine. Draghi, architecte de la survie de la zone euro en 2012, jouit d’une crédibilité économique incontestable à Bruxelles. Quand il parle, les décideurs européens écoutent. « La prochaine étape – couvrant les systèmes d’IA à haut risque dans des domaines comme les infrastructures critiques et la santé – doit être proportionnée et soutenir l’innovation », a-t-il martelé.
Les systèmes à haut risque désignent des applications d’IA utilisées dans des secteurs sensibles : recrutement, éducation, forces de l’ordre, infrastructures critiques, dispositifs médicaux. Ces systèmes doivent respecter des exigences strictes en matière de gouvernance des données, traçabilité, transparence et surveillance humaine. L’enjeu ? Éviter les biais discriminatoires et garantir des décisions justes et explicables.

La position de Draghi s’appuie sur une réalité industrielle préoccupante : de nombreuses entreprises européennes se disent mal préparées aux échéances réglementaires. Les orientations de mise en œuvre promises par la Commission pour accompagner les entreprises ont été livrées en retard, créant un flou juridique problématique.
L’industrie européenne fait bloc
Draghi ne prêche pas dans le désert. Dès juillet 2025, plus de 40 PDG d’entreprises européennes majeures – incluant ASML, Philips, Siemens et la startup française Mistral – avaient déjà tiré la sonnette d’alarme. Dans une lettre ouverte à Ursula von der Leyen, ils réclamaient un « arrêt de deux ans » pour permettre « une mise en œuvre raisonnable par les entreprises et une simplification supplémentaire des nouvelles règles ».
Cette coalition industrielle révèle l’ampleur des défis opérationnels. Les entreprises pointent notamment les difficultés autour des systèmes d’IA à usage général (GPAI – General Purpose AI), catégorie qui englobe les modèles comme ChatGPT, Claude ou Gemini. Ces systèmes, capables de performer une variété de tâches, posent des défis réglementaires inédits.
Les codes de conduite volontaires censés encadrer ces GPAI ont été finalisés dans l’urgence, sans laisser aux entreprises le temps nécessaire pour adapter leurs processus. Google, Meta et d’autres ont ainsi demandé des périodes de grâce pour se mettre en conformité – révélant les failles du calendrier réglementaire.
Le problème s’aggrave au niveau institutionnel. Dans la plupart des États membres, les autorités de supervision restent à désigner. Cette fragmentation institutionnelle crée une incertitude juridique majeure : qui contrôlera quoi, selon quels critères, avec quelles sanctions ? La Commission européenne n’a toujours pas publié la liste officielle des organismes de surveillance nationaux.
Bruxelles refuse de céder : « Pas de moratoire général »
Face à cette levée de boucliers, la réponse de Bruxelles a été sans appel. Le 22 septembre, Yvo Volman, directeur des données à la Commission européenne, a tranché devant le Parlement : « Il n’y aura pas de moratoire général sur l’AI Act. Ce n’est pas sur la table. Nous nous concentrons sur faire fonctionner les règles en pratique. »
Cette fermeté s’explique par plusieurs considérations stratégiques. D’abord, l’Europe a investi massivement dans sa réputation de regulatory superpower. Après le succès du RGPD (Règlement Général sur la Protection des Données) qui s’est imposé comme standard mondial, l’AI Act représente la prochaine étape de cette stratégie d’influence normative.
Ensuite, toute pause risquerait d’être perçue comme une capitulation face aux pressions américaines. Donald Trump a menacé d’imposer des « tarifs supplémentaires substantiels » sur les pays dont la réglementation technologique pénalise les entreprises américaines. Céder maintenant enverrait un signal de faiblesse géopolitique.
La Commission mise sur son paquet omnibus numérique, prévu pour décembre 2025, pour répondre aux préoccupations industrielles sans remettre en cause l’architecture de l’AI Act. Ce paquet promet une simplification administrative : réduction des obligations de transparence, rationalisation des processus de reporting, clarification des interactions entre différentes réglementations numériques.
Volman a été clair : l’objectif est d' »aider les entreprises de l’UE à prospérer dans le monde » tout en maintenant le niveau d’exigence réglementaire. Une équation délicate qui nécessitera des arbitrages fins.
Les enjeux géopolitiques et technologiques
Cette bataille réglementaire s’inscrit dans un contexte géopolitique tendu. Les États-Unis et la Chine ont adopté des approches diamétralement opposées sur l’IA : innovation débridée pour les premiers, contrôle étatique pour les seconds. L’Europe tente une troisième voie basée sur les droits fondamentaux et la confiance numérique.
L’enjeu dépasse la simple conformité réglementaire. Il s’agit de définir quel modèle de développement technologique prévaudra : celui de la Silicon Valley, axé sur la disruption rapide, celui de Shenzhen, piloté par l’État, ou celui de l’Europe, fondé sur l’éthique et la responsabilité.
Les groupes de défense des droits numériques – Access Now, Centre for Democracy and Technology Europe, Organisation européenne des consommateurs – rappellent que l’enjeu démocratique est crucial. Ils mettent en garde contre toute déréglementation qui minerait les « mécanismes clés de responsabilité » inscrits dans l’AI Act.
Cette dimension démocratique explique pourquoi plus de 50 organisations civiles se sont mobilisées contre les appels à suspension. Pour elles, l’agenda de « simplification » ne doit pas servir de cheval de Troie à la déréglementation, surtout « en l’absence de preuves crédibles que cela serait nécessaire ou efficace ».
Décembre 2025 : le moment de vérité
Le paquet omnibus numérique de décembre constituera le test décisif pour la Commission européenne. Parviendra-t-elle à convaincre l’industrie sans sacrifier ses ambitions réglementaires ? Les enjeux sont multiples :
- Clarification des obligations : définir précisément ce qui est attendu des entreprises pour chaque catégorie de système IA
- Harmonisation européenne : coordonner les autorités nationales de supervision pour éviter la fragmentation
- Simplification administrative : réduire la charge bureaucratique sans affaiblir la protection des citoyens
- Dialogue transatlantique : résister aux pressions américaines tout en préservant la coopération technologique
L’approche par coalitions de volontaires suggérée par Draghi pourrait offrir une voie médiane. Plutôt qu’une pause générale, certains États membres pourraient expérimenter des modalités d’application allégées, créant des laboratoires réglementaires européens.
La France, l’Allemagne et les Pays-Bas, trois poids lourds technologiques européens, observent attentivement. Leur position finale pourrait faire basculer l’équilibre. Si ces pays rejoignent l’appel à suspension, la Commission devra reconsidérer sa stratégie.
Bibliographie pour approfondir
- AI Act : texte intégral – Règlement européen 2024/1689
- Rapport Draghi 2024 – The future of European competitiveness
- Position des entreprises – AI Champions Letter to Commission
- Analyse académique – Stanford HAI Policy Brief on EU AI Act
- Perspectives critiques – Access Now : AI Act Implementation Concerns
- Géopolitique de l’IA – Brookings : Global AI Governance
Ce contenu vous a plu ?
Inscrivez-vous gratuitement à notre newsletter et recevez chaque semaine l’actualité du SEO directement dans votre boîte email. Vous pouvez vous désabonner à tout moment !