Résumé

Glossaire des acronymes

Introduction

I.

Mise en contexte

1.

Définitions

2.

Risques généraux

3.

Réglementation

II.

Aspects économiques

1.

Conséquences éventuelles

2.

Politiques associées

3.

L’IA peut-elle contribuer à l’amélioration des politiques économiques ?

III.

Aspects financiers

1.

Conséquences éventuelles

2.

Politiques associées

3.

L’IA peut-elle contribuer à l’amélioration des politiques financières ?

Conclusion

Voir le sommaire complet Replier le sommaire

Résumé

L’intelligence artificielle (IA) étant encore relativement récente, ses conséquences économiques et financières restent à évaluer. Cela est d’autant plus vrai pour les politiques associées, pour lesquelles les recommandations ne peuvent être que provisoires. Toutefois, dans cette note, nous tentons d’aborder les deux aspects, d’abord en posant le cadre, puis en distinguant les aspects économiques et financiers.

Nous ne pensons pas que l’IA puisse déclencher un bouleversement de l’environnement économique ou financier. La présente étude veut aller à l’encontre de deux idées reçues. La première est celle du « cauchemar », où une grande partie de la population active pourrait être remplacée par des machines, ce qui entraînerait une hausse du chômage et des inégalités, ainsi que des crises financières de grande ampleur, les robots mettant librement en œuvre des algorithmes qui amplifieraient les mouvements du marché. La deuxième idée est celle du « conte de fées », où les robots remplaceraient les humains dans la plupart des tâches fastidieuses et physiquement épuisantes. Cela permettrait de réduire le temps de travail, à la fois quotidien et sur l’ensemble de la vie, en particulier pour les personnes les moins qualifiées, et de gérer les portefeuilles de manière totalement passive, en réduisant les risques mais pas les rendements.

Contrairement à ces idées qui relèvent largement de fictions, nous pensons que l’IA a principalement besoin d’un environnement favorable pour que son potentiel soit pleinement exploité. Ainsi, dans un monde régi avec les outils de l’IA, les politiques de concurrence devraient garantir que les rentes ne soient pas entièrement accaparées par quelques entreprises dominantes, tandis que l’environnement réglementaire ne devrait pas brider l’innovation. En outre, la réglementation du travail devrait permettre une flexibilité suffisante, tandis que l’éducation et la formation, la politique fiscale et la gestion des ressources humaines dans le secteur public devraient être adaptées. Il est en effet essentiel que le financement des entreprises innovantes soit abondant et alloué par les personnes et les institutions les plus compétentes, qui devraient également être individuellement responsables des décisions qu’elles prennent. Cela implique le développement du capital-risque et la création d’une Union des marchés de capitaux (UMC), complétée par une Union de l’épargne et de l’investissement (UEI). L’IA n’appelle pas d’instruments politiques spécifiques, que ce soit dans le domaine économique ou financier. L’IA est plutôt un indicateur des failles et des limites des politiques publiques actuelles et un outil pour y remédier en partie, à condition que soient mises en œuvre les réformes structurelles qui se font attendre depuis longtemps.

Françoise Drumetz,

Université de Paris-Nanterre - EconomiX.

Christian Pfister,

Université d'Orléans - LEO

Sciences Po et université Paris-I-Panthéon-Sorbonne

Glossaire des acronymes

AEAPP : Autorité européenne des assurances et des pensions professionnelles
ANC : Autorités nationales compétentes
BCE : Banque centrale européenne
BRI : Banque des règlements internationaux
CFIA : Commission française sur l’IA
CSF : Conseil de stabilité financière
Deep learning : Apprentissage approfondi
ETF : Fonds négociés en bourse
FMI : Fonds monétaire international
GenAI : IA générative
GFSR : Rapport du FMI sur la stabilité financière dans le monde
GPAI : Modèles d’IA à usage général
GPU : Processeur graphique
HLPE : Groupe d’experts de haut niveau
IA : Intelligence artificielle
LLM : Grands modèles de langage
Machine learning : Apprentissage autonome
OCDE : Organisation de coopération et de développement économiques
OIT : Organisation internationale du travail
ONU : Organisation des Nations Unies
RBU : Revenu de base universel
RGPD : Règlement général sur la protection des données
TIC : Technologies de l’information et de la communication
UE : Union européenne
UEI : Union de l’épargne et de l’investissement
UMC : Union des marchés de capitaux

Rack équipé de câbles ethernet cat. 5e standards, situé dans un vaste centre de données d’entreprise

Notes

1.

Les auteurs s’expriment en leur nom personnel. Leurs propos n’engagent pas l’Université de Paris – Nanterre – EconomiX ou l’Université d’Orléans – LEO. Toutes les références présentes dans cette note renvoient à des textes dans leur version en anglais dont la traduction en français a été validée par les auteurs de cette même note.

+ -

L’intelligence artificielle (IA) étant encore relativement récente, ses conséquences économiques et financières restent à évaluer. Cela est d’autant plus vrai pour les politiques associées, pour lesquelles les recommandations ne peuvent être que provisoires. Cependant, dans cette note, nous tentons d’aborder les deux aspects, d’abord en posant le cadre, puis en distinguant les aspects économiques et financiers.

I Partie

Mise en contexte

Après avoir défini l’IA, nous examinons les risques généraux associés et les réglementations existantes.

1

Définitions

Notes

2.

IBM, The history of AI, octobre 2024 [en ligne].

+ -

3.

BRI (Banque des règlements internationaux), “Artificial intelligence and the economy”, BIS Annual Economic Report 2024, juin 2024 [en ligne] ; Iñaki Aldasoro, Leonardo Gambacorta, Anton Korinek, Vatsala Sheeti et Merlin Stein, “Intelligent financial system: how AI is transforming finance”, BIS Working Papers, n°1194, juin 2024 [en ligne].

+ -

4.

BRI, op.cit., p. 93.

+ -

5.

Ibid.

+ -

6.

BRI, op. cit., p. 94.

+ -

7.

Ibid.

+ -

8.

Ibid, p. 119.

+ -

9.

Mario Draghi, L’avenir de la compétitivité européenne, septembre 2024 [en ligne].

+ -

10.

La Chine a adopté une approche à plusieurs volets pour établir une présence substantielle sur le marché de l’IA, en combinant des investissements gouvernementaux importants, un écosystème technologique national (solutions d’IA dans le cloud de Huawei, Baidu, Tencent, Alibaba, SenseTime, iFlytek, DeepSeek…) et une intégration de l’IA à l’échelle du secteur.

+ -

11.

Andrei Hagiu et Julian Wright, “Artificial intelligence and competition policy”, International Journal of Industrial Organization, janvier 2025 [en ligne].

+ -

12.

Rapport Draghi, op.cit., p.79.

+ -

13.

Groupe d’experts de haut niveau (HLPE) auprès du G7, Intelligence artificielle et élaboration des politiques économiques et financières, décembre 2024, p.26 [en ligne].

+ -

14.

BRI, op.cit., p. 97.

+ -

15.

Conseil de stabilité financière (CSF), The Financial Stability Implications of Artificial Intelligence, novembre 2024, p. 5 [en ligne].

+ -

16.

BRI, op.cit., p. 97.

+ -

Nous définissons l’IA et examinons si et comment elle diffère des autres innovations technologiques.

Qu’est-ce que l’IA ?
L’IA est un domaine de l’informatique qui fait référence à des systèmes informatiques effectuant des tâches associées à l’intelligence humaine. Le terme « intelligence artificielle » a été introduit pour la première fois par John McCarthy en 1956 lors d’une conférence au Dartmouth College pour décrire des « machines pensantes2 ». Toutefois, avant que des progrès majeurs ne soient réalisés, il aura fallu attendre les années 1990 et le développement du machine learning (apprentissage autonome) soutenu par un accès plus rapide à un grand nombre de données (plus il y a de données avec lesquelles un modèle est entraîné, plus il devient performant), et les années 2000 avec l’augmentation de la puissance des ordinateurs et de leur capacité de stockage. L’IA englobe un grand nombre de technologies et de domaines qui se développent rapidement3 :

– L’apprentissage autonome fait référence à des techniques (algorithmes et modèles statistiques) « conçues pour détecter des configurations dans les données et les utiliser à des fins de prédiction ou pour aider la prise de décisions4 ». Les systèmes d’apprentissage autonome peuvent apprendre et s’adapter sans suivre d’instructions explicites ;

– Le deep learning (apprentissage approfondi) utilise des réseaux neuronaux calqués sur le cerveau et composés de plusieurs couches qui peuvent saisir des relations de plus en plus complexes entre les données. Comme le souligne la BRI (Banque des règlements internationaux), « un avantage clé des modèles de deep learning est leur capacité à travailler avec des données non structurées5 » (mots, phrases, images…) ;

– La GenAI (IA générative) « désigne les IA capables de générer du contenu, y compris du texte, des images ou de la musique, à partir d’une commande en langage naturel6 » contenant des instructions en langage simple ou des exemples de ce que les utilisateurs attendent du modèle. La BRI précise que « les grands modèles de langage (LLM) sont un exemple majeur d’applications d’IA générative en raison de leur capacité à comprendre et à générer des réponses précises avec peu ou pas d’exemples préalables. Par conséquent, les LLM et l’IA générative ont permis à des personnes qui utilisent le langage ordinaire d’automatiser des tâches qui étaient auparavant effectuées par des modèles hautement spécialisés7 » ;

– Les agents d’intelligence artificielle (AI agents) constituent la prochaine frontière de l’IA. Les agents d’IA sont des systèmes d’IA qui deviennent de plus en plus autonomes. « Ils s’appuient sur des LLM avancés et sont dotés de capacités de planification, d’une mémoire à long terme et d’un accès à des outils externes tels que la capacité d’exécuter un code informatique, d’utiliser internet ou d’effectuer des transactions sur le marché8 ». Ce qui les distingue des agents de négociation autonomes déjà déployés, par exemple, dans le trading à haute fréquence, c’est qu’ils ont l’intelligence et les capacités des LLM de pointe, avec la capacité d’analyser de manière autonome les données, d’écrire du code pour créer d’autres agents, de les tester et de les mettre à jour comme ils le jugent approprié.

Comme le souligne le rapport Draghi9, l’Union européenne occupe une position faible dans le développement de l’IA et est à la traîne par rapport aux États-Unis et à la Chine10. Les applications d’IA sont construites sur une pile11 qui commence par le matériel spécialisé utilisé pour former et exécuter les modèles d’IA générative. La couche correspondant au matériel informatique de la pile est dominée par les processeurs graphiques (GPU) fournis par la société américaine Nvidia, qui propose également le logiciel pour leur utilisation. Au niveau suivant, on trouve les entreprises qui proposent des services de cloud (nuage informatique) qui sont essentiels au développement et au déploiement de l’IA. Cette couche est dominée par Amazon Web Services, Microsoft Azure et Google Cloud Platform (les autres concurrents sont les clouds de Nvidia, d’IBM, d’Alibaba, etc.). Selon le rapport Draghi, ces trois opérateurs américains représentent plus de 65% du marché de l’Union européenne (UE), tandis que le plus grand opérateur de cloud de l’UE (Deutsche Telekom) ne représente que 2%. En ce qui concerne les données utilisées pour former les modèles, les cinq grandes entreprises technologiques américaines (Apple, Amazon, Google, Meta, Microsoft) sont des fournisseurs potentiels de données. Enfin, à propos des modèles d’IA générative, les principaux acteurs sont OpenAI (ChatGPT), Google DeepMind (Gemini), xAI (Grok), Anthropic (Claude), Meta (Meta-Llama), tous basés aux États-Unis. Au total, depuis 2017, 73% des modèles d’IA générative ont été développés aux États-Unis et 15% en Chine. Le rapport Draghi12 note que « les quelques entreprises qui construisent des modèles d’IA générative en Europe, notamment Aleph Alpha et Mistral, ont clairement besoin d’investissements importants pour devenir des alternatives compétitives aux acteurs américains ».

L’adoption croissante des techniques d’IA, notamment de ChatGPT par les ménages, les entreprises et l’industrie des services financiers, cette dernière étant plus avancée à cet égard que les entreprises non financières, est-elle correctement mesurée par les indicateurs macroéconomiques conventionnels tels que le PIB ? Selon le rapport du Groupe d’experts de haut niveau (High-Level Panel of Experts, HLPE) auprès du G713, « à l’instar du “paradoxe de la productivité” observé aux débuts de l’informatique, la contribution de l’IA à la productivité et à la croissance économique pourrait ne pas apparaître immédiatement dans le PIB » pour trois raisons principales :

– « L’IA crée de la valeur par des moyens non traditionnels tels que des améliorations de la qualité des biens ou services et des gains d’efficacité qui ne sont pas reconnus par les indicateurs conventionnels ou qui sont reconnus avec un long décalage » ;

– « La création de valeur peut également être invisible parce que le service offert est gratuit et ne donne lieu à aucune transaction monétaire et, par conséquent, n’est pas comptabilisé dans le PIB » ;

– Le développement de l’IA « entraîne l’émergence de nouvelles activités » et entreprises qui « ne s’intègrent pas parfaitement dans les cadres statistiques existants, ce qui complique davantage les efforts visant à mesurer son impact ».

Il serait donc utile de mettre au point d’autres méthodes de mesure pour compléter les techniques et mesures habituelles.

L’IA diffère-t-elle des autres innovations technologiques ?

L’IA est souvent considérée comme une technologie qui pourrait s’étendre à un usage général, comme l’électricité ou l’internet, c’est-à-dire une technologie qui deviendrait omniprésente, s’améliorerait avec le temps et génèrerait des effets d’entraînement susceptibles d’optimiser d’autres technologies. Toutefois, la BRI souligne deux différences entre l’IA et les technologies classiques à usage général14 :

– La courbe en J de l’IA est plus raide. « Le modèle d’adoption des technologies à usage général suit généralement une courbe en J, d’abord lente » – il a fallu des décennies pour que l’électricité ou le téléphone soient largement adoptés – « elle finit par s’accélérer ». L’IA est différente à cet égard, affichant une « vitesse d’adoption remarquable, reflétant une facilité d’utilisation et un coût négligeable pour les utilisateurs, d’où une utilisation répandue à un stade précoce par les ménages ainsi que par les entreprises dans toutes les industries » ;

– Contrairement aux technologies classiques à usage général, les capacités à long terme de l’IA générative sont très incertaines. Les « LLM actuels peuvent échouer à effectuer des tâches relevant d’un raisonnement logique élémentaire », ainsi qu’à mener un « raisonnement contrefactuel ». En outre, « les LLM souffrent également d’un problème d’hallucination : ils peuvent présenter une réponse factuellement incorrecte comme si elle était correcte, et même inventer des sources secondaires pour étayer leurs fausses affirmations ». La BRI souligne que « les hallucinations sont une caractéristique plutôt qu’un bug de ces modèles » car, comme le note le Conseil de stabilité financière15 (CSF), « leurs productions sont le fruit d’un processus stochastique » (c’est-à-dire d’une probabilité statistique) « plutôt que d’une compréhension profonde du texte sous-jacent ». La BRI pose une question encore ouverte : ces problèmes sont-ils dus à « des limites posées par la taille des ensembles de données d’entraînement et le nombre de paramètres du modèle ou reflètent-ils des limites fondamentales à la connaissance acquise par le seul biais du langage16 » ?

Dans l’ensemble, il semble que les arguments en faveur de l’IA en tant que technologie à usage général ne soient pas encore totalement fondés.

2

Risques généraux

Notes

17.

CSF, op.cit., p. 28.

+ -

18.

Marinela-Daniela Filip, Daphne Momferatou et Susana Parraga Rodrigues, European competitiveness: the role of institutions and the case for structural reform, Bulletin économique de la BCE, numéro 1/2025 [en ligne].

+ -

19.

Richard May, Artificial intelligence,data and competition, OECD Artificial Intelligence Papers, mai 2024, p. 29 [en ligne].

+ -

20.

Anton Korinek et Jai Vipra, Concentrating intelligence: scaling and market structure in artificial intelligence, NBER Working Paper 33139, novembre 2024 [en ligne].

+ -

Trois risques généraux sont associés à l’IA : les risques climatiques, les questions de protection des données et les inquiétudes à propos de la concurrence.

Risques climatiques

Le CSF note que « la consommation d’énergie liée à l’IA est actuellement estimée à environ 1% de la consommation mondiale d’énergie, devrait encore augmenter à l’avenir et pourrait avoir des effets sur la demande d’énergie ». En outre, « la formation, le développement et l’exécution de grands modèles et applications d’IA nécessitent de grandes quantités d’énergie fiable et compétitive ». Par conséquent, « la consommation accrue et durable d’énergie liée au fonctionnement de l’IA pourrait avoir une incidence sur les risques liés au changement climatique si elle ne provient pas de sources d’énergie propres ». Cependant, « des facteurs d’atténuation potentiels existent », tels que « les innovations en matière d’énergie propre axées sur les centres de données ainsi que le développement d’une structure d’entraînement des modèles plus efficaces sur le plan énergétique17 ».

Questions relatives à la protection des données

L’IA ayant besoin de données en grandes quantités pour obtenir des résultats fiables, les décideurs publics prennent [peu à peu] conscience de l’importance de la protection des données personnelles telles que l’identité, la localisation et les habitudes des individus. De plus, les systèmes d’IA peuvent être utilisés pour tromper et manipuler les individus, par exemple au moyen de « deepfakes » et de profilages psychologiques, ce qui donne lieu à des formes complexes et de plus en plus convaincantes de fraude et de désinformation. Les efforts visant à promouvoir la sécurité des données à caractère personnel sont de la plus haute importance, mais il peut être nécessaire de les mettre en balance avec d’autres types de considérations, telles que les préoccupations en matière de compétitivité. Filip et al.18 soulignent que le cadre réglementaire des États-Unis est généralement considéré comme plus favorable aux entreprises et plus orienté sur la réduction des obstacles bureaucratiques que celui de l’UE afin d’encourager l’innovation et l’investissement. Par exemple, les États-Unis ont un cadre de protection des données moins strict que le règlement général sur la protection des données (RGPD) de l’UE.

Cela peut permettre aux entreprises américaines d’exercer leurs activités et d’investir plus facilement dans les nouvelles technologies.

Inquiétudes à propos de la concurrence

Les risques potentiels pour la concurrence dans l’offre d’IA générative comprennent, indépendamment d’un comportement anticoncurrentiel, des économies d’échelle ou de gamme et des effets de réseau qui pourraient « fournir des avantages au premier entrant et rendre plus difficile la concurrence des nouveaux entrants19 », compte tenu également de l’inertie du comportement des utilisateurs, conduisant à des marchés « basculant » irrévocablement en faveur de certaines entreprises. Le basculement, qui s’est produit dans le marché des plateformes numériques au début des années 2000, a commencé avec un premier entrant, puis a connu une entrée rapide et une concurrence féroce qui a entraîné des pertes importantes parmi les acteurs concernés. Finalement, les pertes sont devenues insoutenables et seul un petit nombre de plateformes ont survécu, sont devenues des acteurs dominants et ont commencé à gagner d’importantes rentes de monopole. Selon Korinek et Vipra20, qui analysent l’évolution de la structure et de la dynamique concurrentielle du marché en expansion rapide des LLM, il existe des similitudes avec le marché des plateformes numériques des années 2000, donc des raisons de s’inquiéter. Par exemple, si la dynamique concurrentielle est actuellement intense, le risque de basculement du marché est en fait élevé. La structure des coûts des LLM, comparée à celle des plateformes numériques, donne lieu à des économies d’échelle et de gamme d’une ampleur similaire. En outre, les coûts des modèles de dernière génération et leurs capacités augmentent beaucoup plus rapidement, de sorte que les exigences d’investissement croissantes pour les modèles de pointe impliquent que le nombre d’acteurs qu’un marché d’une taille donnée peut supporter se réduit rapidement. Toutefois, cette tendance au monopole naturel est atténuée par le fait que le marché de l’IA générative devrait également se développer. De nombreuses autorités de la concurrence ont lancé des initiatives concernant la concurrence dans le domaine de l’IA générative. Korinek et Vipra soulignent la complexité du défi des autorités dans une perspective à moyen terme : les efforts visant à promouvoir la concurrence devront être soigneusement équilibrés par rapport à d’autres considérations telles que la sécurité de l’IA. Par exemple, la publication de modèles d’IA en code source ouvert, qui est souhaitable d’un point de vue économique, peut nuire aux efforts visant à réglementer la sécurité de l’IA.

3

Réglementation

Notes

21.

Résumé de haut niveau de la loi sur l’IA, loi de l’UE sur l’intelligence artificielle, mai 2024 [en ligne].

+ -

Avec l’adoption de la loi sur l’IA, dont les conséquences se feront sentir à partir d’août 2025, l’Union européenne s’est positionnée à l’avant-garde de la réglementation de l’IA d’un point de vue international.

La loi sur l’IA21 classe cette dernière en fonction de ses risques : les risques inacceptables sont interdits (par exemple, les systèmes de notation sociale et l’IA manipulatrice) ; les systèmes d’IA à haut risque sont réglementés (y compris deux questions liées aux banques et aux sociétés d’assurance, voir ci-dessous) ; les systèmes d’IA à risque limité sont soumis à des obligations de transparence plus légères (par exemple, les utilisateurs finaux doivent être conscients qu’ils interagissent avec un chatbot) ; les risques minimes ne sont pas réglementés. La majorité des obligations incombe aux fournisseurs de systèmes d’IA à haut risque, qu’ils soient basés dans un pays de l’UE ou non. Ces fournisseurs de modèles d’IA à usage général (GPAI) doivent proposer une documentation technique et des instructions d’utilisation, et publier un résumé du contenu utilisé pour l’entraînement du modèle. Tous les fournisseurs de GPAI qui présentent un risque systémique doivent également procéder à l’évaluation des modèles ainsi que suivre et signaler les incidents graves. Les fournisseurs de GPAI à licence libre et gratuite doivent uniquement respecter les droits d’auteur et publier le résumé des données d’entraînement de l’IA.

Korinek et Vipra donnent une vision nuancée de la loi sur l’IA, en soulignant que l’UE se trouve dans une position délicate puisqu’elle cherche à réglementer l’IA alors qu’elle ne dispose pas d’une industrie de l’IA forte sur son territoire, contrairement aux États-Unis. La loi pourrait faire fuir les entreprises étrangères si les règles sont jugées trop lourdes. Selon les auteurs, les retards dans la publication en Europe de la première version des modèles d’IA par Google et Anthropic soulignent ce risque. En outre, des réglementations trop strictes pourraient entraver davantage les producteurs nationaux d’IA dans leurs efforts pour rattraper les leaders mondiaux. Toutefois, selon les auteurs, la loi sur l’IA est particulièrement remarquable pour ses dispositions relatives aux GPAI. Ces dispositions peuvent contribuer à accroître la concurrence en obligeant les fournisseurs de GPAI à être plus transparents sur les capacités et les limites de leurs modèles, ce qui permet aux petites entreprises et aux nouveaux venus de mieux comprendre les modèles établis et de leur faire éventuellement concurrence. D’un autre côté, les strictes exigences en matière de gestion des risques et la nécessité d’une documentation abondante pourraient constituer une charge importante que les fournisseurs de GPAI ne pourraient pas supporter.

II Partie

Aspects économiques

Nous étudions d’abord les conséquences éventuelles d’une utilisation croissante de l’IA, puis la manière dont les politiques pourraient remédier aux potentielles conséquences négatives de l’IA, tout en préservant, voire en renforçant, ses effets positifs.

1

Conséquences éventuelles

Notes

22.

Voir, par exemple, le rapport de la Commission française sur l’intelligence artificielle (CFIA), IA : Notre ambition pour la France, mars 2024 [en ligne]. Voir également Antonin Bergeaud, “The past, present and future of European productivity”, Contribution to the ECB forum on Central Banking Monetary policy in an era of transformation, 1-3 juillet 2024 [en ligne].

+ -

23.

Erik Brynjolfsson, Danielle Li et Lindsey R. Raymond, Generative AI at Work, document de travail du NBER n° 31161, avril 2023, p. 1 révisé en novembre 2023 [en ligne].

+ -

24.

Shakked Noy and Whitney Zhang, “Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence”, Science, juillet 2023, [en ligne].

+ -

25.

Dell’Acqua, Fabrizio and McFowland III, Edward and Mollick, Ethan R. and Lifshitz-Assaf, Hila and Kellogg, Katherine and Rajendran, Saran and Krayer, Lisa and Candelon, François and Lakhani, Karim R., Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality, Harvard Business School Technology & Operations Mgt. Unit Working Paper No. 24-013, The Wharton School Research Paper, 15 septembre 2023 [en ligne].

+ -

26.

Ibid.

+ -

27.

HLPE, op.cit., p. 28.

+ -

28.

Daron Acemoglu, The Simple Macroeconomics of AI, document de travail du NBER n° 32487, mai 2024 [en ligne].

+ -

29.

Philippe Aghion et Simon Bunel, AI and Growth : Where Do We Stand?, juin 2024 [en ligne].

+ -

Les conséquences éventuelles de l’IA sur l’économie sont examinées en trois étapes. Premièrement, l’IA peut avoir des répercussions sur la productivité et la croissance économique. Deuxièmement, elle peut également avoir des répercussions sur l’emploi, qui est lié à la productivité et à la croissance par une relation simple (dans les évolutions de l’emploi et de la productivité, la croissance étant elle-même un changement : Δ Emploi = Croissance – Δ Productivité/Personne employée). Troisièmement, les répercussions de l’IA sur les pressions inflationnistes dans l’économie dépendront de l’évolution de la demande globale par rapport à l’offre.

Comme on le verra dans la suite, le degré d’incertitude des conséquences de l’IA sur l’économie augmente lorsqu’on passe d’une étape à l’autre. Globalement, cette incertitude est alimentée par les méthodes utilisées par les auteurs pour estimer les répercussions de l’IA sur l’économie. Les preuves de répercussions étant jusqu’à présent peu nombreuses et ne pouvant être appréhendées qu’au niveau des tâches effectuées par les employés ou au niveau des entreprises, les observations sont étendues à l’ensemble de l’économie. Comme deuxième méthode, les économistes établissent aussi souvent un parallèle avec des percées technologiques antérieures, telles que la machine à vapeur, les chemins de fer, l’électricité ou les technologies de l’information et de la communication (TIC). De fait, l’IA peut être considérée comme un nouvel épisode de la révolution des TIC. Cependant, le parallèle avec les révolutions technologiques antérieures n’est pas sans difficultés car, comme nous l’avons vu plus haut, les arguments en faveur de l’IA en tant que technologie à usage général ne sont pas encore totalement fondés.

Productivité et croissance

L’IA pourrait contribuer à l’accélération de la croissance économique par le biais de deux mécanismes principaux22.

Premièrement, l’IA permet de robotiser et d’augmenter la production de biens et services, donc d’accroître la productivité. Ce mécanisme devrait se matérialiser progressivement à moyen terme et être transitoire. Deuxièmement, dans un avenir probablement plus lointain, l’IA pourrait faciliter la production de nouvelles idées, contribuant ainsi à une accélération plus durable de la croissance. Toutefois, comme ce fut le cas pour les percées technologiques précédentes, telles que l’électricité, ce dernier effet serait très probablement conditionné à une adaptation de l’organisation du travail et des entreprises.

IA et productivité

Il existe des preuves du rôle positif de l’IA dans l’amélioration de la productivité au niveau des tâches et des entreprises. Les évaluations des effets de l’IA sur la croissance économique au sens large, bien qu’également positives, sont toutefois plus incertaines :

– Au niveau des entreprises, dans l’un des articles les plus souvent cités sur le sujet, Brynjolfsson et al.23 étudient « l’adoption d’un outil d’IA générative qui fournit des conseils conversationnels » pour 5.179 agents d’assistance à la clientèle. Ils constatent que « l’assistance de l’IA augmente la productivité des travailleurs, ce qui se traduit par une augmentation de 14% du nombre de chats qu’un agent réussit à résoudre par heure », mais avec une hétérogénéité significative entre les travailleurs, puisque cette amélioration est principalement concentrée sur les travailleurs novices et peu qualifiés. Dans les professions plus qualifiées, Noy et Zhang24 ont mené « une expérience qui a recruté des professionnels ayant fait des études supérieures pour effectuer des tâches d’écriture soumises à incitation ». Ils ont constaté que « les participants assignés à l’utilisation de ChatGPT étaient plus productifs et efficaces, et que les participants avec des compétences plus faibles avaient bénéficié le plus de ChatGPT ». Dans le même ordre d’idées, Dell’Aqua et al.25 ont mené une expérience avec 758 consultants du Boston Consulting Group et ont constaté que « les consultants utilisant l’IA étaient nettement plus productifs, accomplissant 12,2% de tâches en plus en moyenne et terminant les tâches 25,1% plus rapidement26 ». À un niveau plus global, la CFIA et le HLPE se réfèrent à une enquête réalisée en 2023 par Pôle Emploi, sur la base d’un échantillon représentatif pour la France de 3.000 établissements de 10 salariés ou plus. Selon cette enquête, « 72% des employeurs qui ont intégré l’IA dans leurs activités ont signalé un impact positif sur la performance des employés », principalement grâce à « la réduction des tâches fastidieuses et répétitives (citée par 63% des employeurs) et une diminution des taux d’erreur (51%)27 » ;

– En ce qui concerne l’impact de l’IA sur la croissance économique au sens large, les évaluations des économistes sont très dispersées. Au bas de l’échelle, Acemoglu28, utilisant les estimations existantes sur l’exposition à l’IA et les améliorations de la productivité au niveau des tâches, estime que la productivité totale des facteurs (PTF, la partie de la croissance de la production qui ne peut être imputée à une augmentation du volume de travail ou du capital) pourrait augmenter de 0,66% au cours des dix prochaines années. Cette estimation pourrait être abaissée à 0,53% au cours de cette période, car jusqu’à présent, l’IA a été déployée principalement pour des tâches faciles à apprendre ; son application à des tâches plus complexes d’apprentissage s’annonce plus difficile. Cependant, Aghion et Bunel29 parviennent à des chiffres beaucoup plus élevés, en utilisant deux approches différentes. Dans la première approche, ils établissent un parallèle avec les percées technologiques précédentes et constatent que la productivité pourrait augmenter chaque année de 1,3% (dans le parallèle avec la vague d’électricité des années 1920 en Europe) ou de 0,8% (dans le parallèle avec la vague de technologie numérique de la fin des années 1990 et du début des années 2000 aux États-Unis). Bien entendu, le fait que l’Europe n’ait pas été en mesure de récolter les mêmes gains de productivité que les États-Unis dans ce dernier cas soulève des questions quant à sa capacité à faire un usage plus fructueux de l’IA au cours de la prochaine décennie. Dans la seconde approche, les auteurs suivent le cadre d’Acemoglu fondé sur les tâches, mais intègrent des données empiriques plus récentes. Ils constatent que l’IA pourrait accroître la croissance de la productivité globale de 0,07 à 1,24 point de pourcentage par an, avec une estimation médiane de 0,68 point de pourcentage sur 10 ans. Le HLPE soutient également que, par rapport à l’électrification, la courbe d’adoption de l’IA pourrait être plus courte car les outils d’IA générative sont relativement faciles à intégrer dans divers secteurs (le rapport donne l’exemple de l’industrie des jeux vidéo).

Notes

30.

HLPE, op.cit., p. 35-36.

+ -

31.

Voir, par exemple, Gilbert Cette et Christian Pfister, “Challenges of the ‘New Economy’ for Monetary Policy”, 2004, International Productivity Monitor, 8, p. 27-36 [en ligne].

+ -

32.

BRI, op.cit., p. 112.

+ -

33.

Iñaki Aldasoro, Sebastian Doerr, Leonardo Gambacorta et Daniel Rees, The impact of artificial intelligence on output and inflation, BIS Working Paper No 1179, avril 2024, p. 3 [en ligne].

+ -

34.

Cette analyse a été menée en utilisant la Classification européenne des aptitudes/compétences, certifications et professions (ESCO) de la Commission européenne [en ligne]. L’étude a utilisé un niveau de granularité moyen en distinguant les professions par sous-sous catégories. ex. 111 : Membres des corps législatifs et cadres supérieurs de l’administration publique.

+ -

35.

Stefania Albanesi, António Dias da Silva, Juan F. Jimeno, Ana Lamo, Alena Wabitsch, New technologies and jobs in Europe, Working Paper Series, No 2831, 2023 [en ligne].

+ -

36.

CFIA, op.cit.

+ -

37.

Paweł Gmyrek, Janine Berg et David Bescond, Generative AI and jobs: A global analysis of potential effects on job quantity and quality, document de travail de l’OIT 96, août 2023 [en ligne].

+ -

38.

Antonin Bergeaud (2024), Exposition à l’intelligence artificielle générative et emploi : une application à la classification socioprofessionnelle française, document de travail [en ligne].

+ -

39.

BRI, op.cit.

+ -

40.

CFIA, op.cit. ; HLPE, op.cit.

+ -

41.

BRI, op.cit., p. 109.

+ -

42.

Ibid, p. 110.

+ -

43.

Stefania Albanesi, António Dias da Silva, Juan F. Jimeno, Ana Lamo, Alena Wabitsch, AI and Women’s Employment in Europe, NBER Working Paper No. 33451, février 2025 [en ligne].

+ -

44.

BRI, op.cit., p. 112.

+ -

45.

HLPE, op.cit., p. 37.

+ -

46.

Molly Kinder, Xavier de Souza Briggs, Mark Muro et Sifan Liu, “Generative AI, the American worker, and the future of work”, Brookings, 10 octobre 2024 [en ligne].

+ -

47.

BRI, op.cit., p. 113.

+ -

48.

Piero Cipollone, “Artificial Intelligence: a central bank’s view”, 4 juillet 2024 [en ligne].

+ -

49.

BRI, op.cit., p. 113.

+ -

L’IA et la génération de nouvelles idées

Selon le CFIA, « l’IA pourrait automatiser la génération de nouvelles idées, ou du moins la faciliter. Elle nous aidera ainsi à générer de nouvelles inventions et à résoudre des problèmes complexes […] L’impact de l’IA sur la science et l’innovation est difficile à quantifier […] À tout le moins, l’IA facilitera le travail des chercheurs […] Près d’un article de recherche sur dix mentionne déjà l’utilisation de l’IA. […] L’IA ouvre un champ de possibilités difficilement imaginable. Ces effets conduisent à une augmentation permanente du taux de croissance de la productivité. L’ampleur de cet effet est cependant impossible à quantifier30 ».

L’IA et la croissance

Selon un processus analogue à celui de la « nouvelle économie », largement évoqué dans la littérature économique il y a plus de 30 ans31, les gains de productivité découlant du recours à l’IA devraient se traduire par une croissance plus élevée à long terme. À court et moyen termes, deux mises en garde s’imposent :

– L’IA doit bénéficier d’un environnement favorable. En particulier, les politiques de concurrence devraient garantir que les rentes ne soient pas entièrement accaparées par quelques entreprises dominantes, mais que l’innovation profite aux utilisateurs, soutenant ainsi la demande en technologie de l’IA et sa diffusion dans l’économie. En outre, l’environnement réglementaire ne doit pas étouffer l’innovation, le droit du travail doit être suffisamment flexible. De plus, l’éducation et la formation professionnelle devraient être repensées pour prendre en compte ces nouveaux outils et mieux répondre aux nouveaux besoins du monde du travail. Le financement des entreprises doit être abondant et alloué par les personnes et les institutions les plus compétentes en la matière, également individuellement responsables des décisions qu’elles prennent ;

– Les attentes des ménages pourraient jouer un rôle important. En particulier, comme le montre une étude réalisée par le personnel de la BRI, « si les ménages et les entreprises anticipent pleinement qu’ils seront plus riches à l’avenir, ils augmenteront la consommation au détriment de l’investissement, ce qui ralentira la croissance de la production32 ». Inversement, s’ils n’anticipent pas l’augmentation de la productivité due aux futurs développements de l’IA, celle-ci augmentera considérablement « la production, la consommation et l’investissement à court et à long terme33 ».

Emploi

L’une des craintes souvent exprimées à propos de l’IA est que les robots pourraient remplacer les humains, créant ainsi un chômage massif. Toutefois, cette crainte semble en grande partie infondée, comme le montrent des études tant au niveau désagrégé qu’au niveau agrégé.

Niveau désagrégé

La principale contribution des études au niveau fin est de mettre en lumière les hétérogénéités entre les secteurs, les entreprises, les professions, l’âge et le sexe :

– En utilisant des données pour les professions34 dans 16 pays européens sur la période 2011-2019, un document de la Banque centrale européenne35 (BCE) constate qu’en moyenne les parts d’emploi ont augmenté dans les professions plus exposées à l’IA, en particulier pour les professions avec une proportion relativement plus élevée de jeunes et de travailleurs qualifiés. En outre, les auteurs constatent que le lien entre l’évolution des parts d’emploi et le degré d’exposition à l’automatisation par l’IA est hétérogène d’un pays à l’autre. Cela pourrait s’expliquer à la fois par le rythme de diffusion des technologies et de l’éducation et par le niveau de réglementation du marché des produits (concurrence) et les lois de protection de l’emploi, en ce sens qu’une plus grande diffusion, une meilleure éducation et moins de rigidités dans l’économie favorisent l’impact positif de l’IA sur l’emploi ;

– De même, la CFIA rapporte les résultats d’une enquête menée annuellement par l’Insee sur les effets de l’adoption de l’IA par les entreprises en France. L’Insee constate que l’emploi total dans les entreprises qui ont adopté l’IA augmente davantage que dans les entreprises qui ne l’ont pas adoptée, alors que ces deux groupes suivaient une tendance antérieure similaire. L’enquête montre également que cette relation résulte principalement de la création de nouveaux emplois et qu’il n’y a pas d’effets différenciés sur les emplois occupés par les hommes par rapport à ceux occupés par les femmes. Toutefois, l’impact de l’IA n’est pas homogène selon les professions, le volume d’emplois dans les « professions intermédiaires administratives et commerciales36 » étant affecté négativement ;

– En effet, en utilisant une approche par tâche, une étude de l’Organisation internationale du travail37 (OIT) montre que la proportion des emplois à potentiel d’augmentation (13% au niveau mondial, et 13,4% dans les pays à revenu élevé), donc qui pourraient être enrichis par l’utilisation de l’IA, est beaucoup plus élevée que celle des emplois à potentiel d’automatisation (respectivement, 2,3% et 5,1%), qui pourraient être remplacés par l’utilisation de l’IA. Dans le cas de la France, Bergeaud38, cité par la CFIA, montre que, parmi les professions les plus exposées à l’IA et qui comportent le plus de tâches assez facilement automatisables, figurent les comptables, les télévendeurs et les secrétaires. Les emplois dans ces professions pourraient donc être remplacés par l’IA. À l’inverse, des professions telles que celles d’interprète, de journaliste, d’architecte, d’avocat, de graphiste ou de médecin, qui combinent une forte exposition à l’IA et une proportion élevée de tâches peu susceptibles d’être automatisées, semblent promises à d’importants changements, mais pourraient tirer parti de l’IA. Il existe également de nombreuses professions, telles que photographe, coiffeur, garde d’enfants, aide-ménagère, couvreur ou cuisinier, qui ne sont pas très exposées à l’IA ;

– L’un des principaux facteurs d’hétérogénéité de l’impact de l’IA sur l’emploi pourrait être l’âge. Dans cette optique, le rapport annuel 2024 de la BRI39 cite les résultats d’une étude récente menée en collaboration par la BRI avec Ant Group, dont les résultats concordent avec ceux des études précédentes CFIA40. Cette étude constate que « les gains de productivité sont immédiats et plus importants parmi le personnel moins expérimenté et junior41 ». La BRI en déduit que : « La “fracture numérique” pourrait s’élargir, les personnes n’ayant pas accès à la technologie ou ayant une faible culture numérique étant encore plus marginalisées. Les personnes âgées sont particulièrement exposées au risque d’exclusion42 ».

– Les disparités entre les effets de l’IA selon le sexe pourraient également être importantes. À cet égard, le HLPE note que si, par le passé, les hommes étaient plus vulnérables à l’automatisation, qui avait lieu principalement dans des secteurs tels que l’industrie manufacturière, les choses pourraient en aller différemment avec l’IA. En effet, les femmes ont tendance à effectuer des tâches dans le secteur des services, comme le travail de bureau et la vente au détail, qui pourraient être automatisées par l’IA. Dans ce sens, l’étude de l’OIT citée ci-dessus souligne que le pourcentage d’emplois susceptibles d’être automatisés est deux fois plus élevé pour les femmes (3,5% au niveau mondial et 8,5% dans les pays à revenu élevé) que pour les hommes (respectivement 1,6% et 3,9%). De manière plus spécifique, le HLPE souligne que les femmes sont sous-représentées dans l’industrie de l’IA, en particulier dans le codage, l’ingénierie et la programmation, et qu’elles ne représentent que 22% des professionnels de l’IA dans le monde, alors que cette industrie se développe très rapidement. Toutefois, en utilisant la même approche que dans le document de la BCE cité ci-dessus, les parts d’emploi des femmes ont, en moyenne, augmenté dans les professions les plus exposées à l’IA43.

Niveau agrégé

On peut faire la distinction entre les volumes et les prix (c’est-à-dire les salaires et, plus largement, les revenus).

– En ce qui concerne les volumes, l’emploi total augmenterait-il ou les entreprises utilisant intensivement l’IA accroîtraient-elles leur part de marché et l’emploi uniquement au détriment d’autres entreprises ? Les indications relatives aux effets de l’IA sur l’emploi au niveau des entreprises ou des tâches, évoquées précédemment, donnent des raisons d’espérer, puisque les effets positifs globaux l’emportent sur les effets négatifs. Toutefois, cela dépendra beaucoup de la mesure dans laquelle les augmentations de productivité générées par l’IA se traduiront par une croissance plus élevée sur le site. En outre, même lorsque l’effet sur les emplois et les tâches est susceptible d’être positif, les employés seront souvent confrontés à des difficultés pour adapter leurs compétences à un nouvel environnement (voir II.2). Selon la BRI : « Si l’IA est une véritable technologie à usage général qui augmente la productivité totale des facteurs dans toutes les industries dans une mesure similaire, la demande de main-d’œuvre devrait augmenter de manière générale […]. Comme les technologies polyvalentes précédentes, l’IA pourrait également créer des tâches entièrement nouvelles, ce qui augmenterait encore la demande de main-d’œuvre et stimulerait la croissance des salaires […]. Dans ce cas, l’IA augmenterait la demande globale44».

– En ce qui concerne les salaires et les revenus, l’impact de l’IA sur le niveau général des salaires dépendra de son impact sur la croissance. En ce qui concerne la structure des salaires, les travailleurs dont l’emploi est complété par l’IA seront en mesure d’obtenir un salaire plus élevé, à condition qu’ils maîtrisent suffisamment bien la technologie, tandis que ceux dont l’emploi peut être remplacé par l’IA verront probablement leur salaire relatif diminuer. En outre, comme le note le HLPE, « les gains de productivité que l’IA apporte aux entreprises sont susceptibles d’accroître le rendement du capital, ce qui profitera davantage aux hauts revenus et contribuera à un transfert de revenus au détriment du travail45 », et les experts de haut niveau en technologie de l’IA seront probablement recherchés sur le marché du travail dans les années à venir. En revanche, une étude de la Brookings Institution46 montre que l’IA est susceptible de perturber toute une série de tâches « cognitives » et « non routinières », en particulier dans les professions à rémunération moyenne ou élevée. En outre, l’utilisation de l’IA augmente surtout la productivité des jeunes et des moins qualifiés. Par conséquent, la question de savoir si l’inégalité des revenus augmentera du fait de l’IA reste ouverte. Cependant, les employés de bureau à revenu moyen verront probablement leur position relative se détériorer.

L’inflation

L’IA pourrait avoir un impact sur le niveau des pressions inflationnistes donc, en l’absence de réaction de la politique monétaire, sur le niveau de l’inflation, ainsi que sur sa volatilité (pour rappel, la politique monétaire ne peut contrôler la volatilité de l’inflation qu’à moyen terme, c’est-à-dire entre 2 à 5 ans, en la stabilisant autour de la cible d’inflation, tandis qu’à court terme, jusqu’à 2 ans, elle doit accepter que l’inflation puisse être volatile).

En ce qui concerne le niveau des pressions inflationnistes, comme nous l’avons laissé entendre lors de l’examen de l’impact de l’IA sur la croissance à court et moyen terme, il dépendra, en premier lieu, des anticipations des agents économiques. S’ils n’anticipent pas pleinement les gains de productivité permis par l’IA, la production augmentera plus que la demande globale et les pressions inflationnistes s’atténueront. Au contraire, s’ils anticipent pleinement l’accélération de la croissance, donc leur enrichissement permanent, ils consommeront et investiront davantage. Cela pourrait alimenter les pressions inflationnistes si l’augmentation de la demande globale est supérieure à celle de l’offre.

De tels mécanismes étaient déjà à l’œuvre à la fin des années 1990 et au début des années 2000, avec la « Goldilocks Economy » ou « New Economy ». Dans le passé, les anticipations ne se sont que partiellement adaptées à l’accélération de la productivité induite par l’essor des technologies d’usage général, ce qui pourrait à nouveau être le cas pour l’IA. En outre, comme le note la BRI, les inadéquations sur le marché du travail pourraient jouer un rôle, avec un impact global peu clair sur les pressions inflationnistes : « Plus l’inadéquation des compétences est importante (toutes choses égales par ailleurs), plus la croissance de l’emploi sera faible, car il faut plus de temps aux travailleurs remplacés pour trouver un nouvel emploi. Il se peut également que certains segments de la population restent inemployables de manière permanente sans recyclage. Cela implique à son tour une baisse de la consommation et de la demande globale, ainsi qu’un impact désinflationniste plus long de l’IA47 ». Cipollone48, membre du directoire de la BCE, souligne également un impact potentiel sur les prix de l’énergie, dont le signe est globalement ambigu. D’une part, une meilleure gestion du réseau, une consommation d’énergie plus efficace et de meilleurs outils de comparaison des prix (ce dernier facteur jouant également pour d’autres biens et services) pourraient exercer des pression sur les prix de l’énergie. D’autre part, l’IA, en tant qu’industrie fortement consommatrice d’énergie, pourrait faire grimper les prix de l’énergie ;

En ce qui concerne la volatilité de l’inflation, la BRI note que : « Les grandes entreprises de détail qui vendent principalement en ligne utilisent largement l’IA dans leurs processus de fixation des prix. Il a été démontré que la fixation algorithmique des prix par ces détaillants augmente à la fois l’uniformité des prix entre les différents sites et la fréquence des changements de prix […]. Cela peut en fin de compte modifier la dynamique de l’inflation ». Cependant, la BRI souligne également que : « Un aspect important à considérer est la manière dont ces effets pourraient différer en fonction du degré de concurrence sur le marché des modèles et des données d’IA, ce qui pourrait influencer la variété des modèles utilisés49 ».

2

Politiques associées

Notes

50.

Acemoglu, op.cit., p. 48.

+ -

51.

CFIA, op.cit., p. 37.

+ -

52.

HLPE, op.cit., p. 1.

+ -

53.

L’auteur examine la réglementation de l’orientation de l’innovation technologique dans un contexte d’incertitude quant aux dommages potentiels, tout en tenant compte des avantages potentiels. Il constate que les instruments réglementaires ex post sont généralement plus performants que les restrictions ex ante. Il conclut en suggérant la nécessité de cadres réglementaires sensibles à l’information pour réglementer les technologies émergentes telles que l’IA. Joshua S. Gans, Regulating the Direction of Innovation, 7 janvier 2025 [en ligne].

+ -

54.

Bergeaud, op.cit., p. 50-51.

+ -

55.

À propos de l’Europe, Bergeaud (2024) précise : « Premièrement, elle dispose d’un vaste marché et d’une population riche et instruite dont l’épargne devrait être réorientée vers le financement de l’innovation, en particulier pour les jeunes entreprises, par le biais d’un marché des capitaux plus intégré. Deuxièmement, l’Europe a une forte capacité à générer des idées importantes et des connaissances cruciales qui ont été à la base d’innovations significatives développées ailleurs. Le renforcement du lien entre les universités et les entreprises et la réorientation des dépenses publiques de R&D vers des projets plus risqués et à long terme permettraient de tirer parti de ce réservoir d’excellence scientifique. Troisièmement, l’Europe occupe une position relativement importante dans la production d’innovations vertes et la réduction des émissions de CO2 » (p. 51).

+ -

56.

CFIA, op.cit., p. 51.

+ -

57.

HLPE, op.cit., p. 36.

+ -

58.

Ibid, p. 37.

+ -

59.

Jason Furman et Robert Seamans, “AI and the Economy”, in Innovation Policy and the Economy, University of Chicago Press, vol. 19(1), p. 161-191, 2019 [en ligne].

+ -

60.

Jason Furman et Robert Seamans, op. cit., p.181.

+ -

61.

Eva Vivalt, Elizabeth Rhodes, Alexander W. Bartik, David E. Broockman, Patrick Krause et Sarah Miller, The Employment Effects of a Guaranteed Income: Experimental Evidence from Two U.S. States, NBER Working Paper No. 32719, juillet 2024, révisé en janvier 2025 [en ligne]. Voir aussi Robin Rivaton : « Retour sur une étude de juillet 2024 détaillant les impacts du revenu universel » dans Dominique Reynié (dir.), Fondapol. Des idées pour la cité. L’aventure d’un think tank, Paris, éd. du Cerf, 2024, p. 263.

+ -

62.

Voir Eva Vivalt et al., ibid.

+ -

63.

Francesca Borgonovi, Flavio Calvino, Chiara Criscuolo, Julia Nania, Julia Nitschke, Layla O’Kane, Lea Samek et Helke Seitz, Emerging Trends in AI Skill Demand Across 14 OECD Countries, OECD Artificial Intelligence Papers, n° 2, octobre 2023 [en ligne].

+ -

64.

UMC : Union des marchés de capitaux.

+ -

65.

CFIA, op.cit., p. 91-92.

+ -

66.

« Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE (Texte présentant de l’intérêt pour l’EEE.) », Eur-Lex [en ligne].

+ -

67.

CFIA, op.cit., p. 50.

+ -

68.

Solal Chardon-Boucaud, Arthur Dozias et Charlotte Gallezot, The Artificial Intelligence Value Chain: What Economic Stakes and Role for France?, ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique – direction générale du Trésor, Trésor-Economics, n° 354, décembre 2024 [en ligne].

+ -

69.

Ibid, p. 104.

+ -

70.

Ibid, p. 105.

+ -

71.

Olivier Redoulès, « La surfiscalisation du travail qualifié en France », document de travail, Rexecode, 13 janvier 2025 [en ligne].

+ -

72.

Sandra Kfourza, « Agrégation externe 2025 : nette baisse du nombre d’inscrits », vousnousils, l’e-mag de l’education, 18 février 2025 [en ligne].

+ -

Nous indiquons d’abord certaines orientations générales qui ont été suggérées dans la littérature sur l’IA, puis nous examinons comment elles pourraient s’appliquer à des politiques ou à des secteurs spécifiques; enfin, nous nous demandons comment l’IA pourrait contribuer à améliorer les politiques gouvernementales. En d’autres termes, nous envisageons les rôles potentiels des pouvoirs publics dans le domaine de l’IA en tant que stratèges, décideurs et utilisateurs.

Orientations générales

Les auteurs qui ont contribué à la littérature sur l’IA estiment qu’une intervention publique est nécessaire. C’est particulièrement le cas en Europe, où l’on constate un retard dans l’adoption et le développement des technologies de l’IA. Dans ce qui suit, nous présentons et discutons différentes positions qui ont été défendues publiquement et soutenues par des économistes, en commençant par les suggestions les plus dirigistes :

– Acemoglu préconise un « “principe réglementaire de précaution” pour ralentir l’adoption des technologies de l’IA, principalement lorsqu’elles ont un impact sur le discours politique et la politique démocratique50 ». Selon nous, cette approche n’est pas la bonne : comme nous l’avons montré plus haut, l’IA est une innovation technologique potentiellement très puissante. Il n’y a aucune raison claire de ralentir son adoption, ni même de savoir comment y parvenir, puisque la technologie est disponible à l’échelle mondiale. En outre, tenter de ralentir l’adoption de l’IA à un niveau régional, par exemple celui de l’Europe, impliquerait que l’écart avec les économies leaders dans ce domaine, principalement les États-Unis, se creuserait. Enfin, d’un point de vue plus politique ou éthique, il pourrait être dangereux de juger quand et dans quelle mesure les technologies de l’IA ont un impact sur le discours politique et la politique démocratique. Après tout, l’IA est un instrument et ce qui importe n’est pas tant l’instrument utilisé pour diffuser un discours politique que le discours lui-même ;

– La CFIA insiste sur l’importance de la concurrence et des institutions. À cet égard, elle note : « La différence entre la révolution des TIC et celle de l’IA est que cette fois-ci, les GAFAM sont dominants dès le départ, et peuvent donc immédiatement décourager l’entrée de nouvelles entreprises innovantes […]. D’où l’importance d’adapter nos institutions, et en particulier nos politiques de concurrence, pour que la révolution de l’IA puisse pleinement agir comme un moteur de croissance51 ». Si nous soutenons pleinement l’idée selon laquelle la concurrence doit être encouragée, dans le domaine de l’IA comme ailleurs, alors penser que les institutions doivent jouer un rôle est à notre avis ambiguë.

En effet, nous ne pensons pas que nos institutions doivent soutenir la restriction de la concurrence en Europe, en réponse à une concurrence insuffisante aux États-Unis ou sur le marché mondial. Ce serait un jeu perdant-perdant. Avant tout, la CFIA expose un ensemble complet de politiques économiques en relation avec l’IA (voir ci-dessous) ;

– Le HLPE suggère que « les pouvoirs publics ont trois rôles à jouer dans le développement de l’IA : l’activation de l’IA (R&D, éducation, infrastructure, et financement), l’utilisation de l’IA par les pouvoirs publics eux-mêmes, et la promulgation de lois et de règlements pour le secteur privé garantissant que l’utilisation des technologies de l’IA facilite les objectifs des pouvoirs publics en matière de croissance économique, de stabilité, d’équité et de bien-être52 ». Nous sommes d’accord sur le fait que l’IA pourrait être utilisée par les gouvernements afin de mener des politiques plus efficaces. Toutefois, nous émettons davantage de réserves quant à son rôle dans le domaine réglementaire, dans la mesure où elle viserait de nombreux objectifs différents, tels que « la croissance économique, la stabilité, l’équité et le bien-être », sans établir de priorités. En outre, comme nous l’avons vu plus haut, la question de savoir si l’IA pourrait avoir un impact sur la stabilité, l’équité et le bien-être n’est pas très claire à ce stade encore précoce, ce qui rend la définition d’objectifs peu utile. Par conséquent, nous pensons que la priorité devrait être donnée à l’adoption des technologies d’IA et que la réglementation devrait principalement encourager cette adoption en évitant les restrictions ex ante, qui risquent d’étouffer l’innovation, comme l’a montré théoriquement Gans53. Enfin, en ce qui concerne l’activation, nous estimons que le financement relève du secteur privé, à l’exception bien sûr des utilisations par le secteur public qui découlent de fonctions régaliennes (police, justice, armée et diplomatie). Il en va de même, en partie, pour la R&D, l’éducation et les infrastructures. Les politiques publiques dans ces domaines devraient être adaptées pour faciliter l’adoption de l’IA, en réaffectant les ressources publiques existantes en vue de les réduire. À la fois parce que cette action est nécessaire, notamment au regard de la situation des finances publiques en France et en Europe, mais aussi parce que, comme nous le verrons plus loin, les technologies de l’IA sont l’occasion d’une refonte des politiques économiques ;

– Bergeaud54 propose quatre grandes orientations, dont deux concernent une approche européenne de l’IA. Il suggère tout d’abord de renforcer la coordination entre les pays européens dans le domaine de l’innovation, et plus particulièrement des technologies de l’IA. Dans un deuxième temps, il propose de repenser l’attribution des subventions à la R&D et de se concentrer sur des projets orientés vers une mission. Il mentionne également la nécessité d’améliorer l’adoption et la génération de technologies d’IA, notamment en investissant dans l’éducation et la formation pour utiliser l’IA et en favorisant un environnement qui soutienne les startups d’IA et encourage l’investissement en capital-risque, qui sont des étapes cruciales. Il propose enfin de se concentrer sur les avantages comparatifs de l’Europe55. Tout en gardant à l’esprit la nécessité de préserver la concurrence sur le marché des technologies d’IA, nous sommes tout à fait d’accord avec ces orientations, en particulier parce qu’elles envisagent les politiques d’IA dans une perspective plus large. En effet, selon nous, les politiques publiques ne doivent pas servir de prétexte pour développer de nouveaux outils « ciblés » et substituer l’offre du secteur public à celle du secteur privé. Au contraire, l’adoption des technologies de l’IA est l’occasion de revoir de nombreuses politiques publiques, en donnant aux marchés un rôle plus important dans l’allocation des ressources.

Conséquences pour des politiques économiques ou des secteurs spécifiques

Les propositions peuvent être divisées en trois domaines principaux : les politiques du marché du travail, les politiques d’éducation (y compris la formation continue) et les politiques industrielles. La plupart d’entre elles se trouvent dans le rapport de la CFIA et celui du HLPE.

Politiques du marché du travail

– En ce qui concerne le droit du travail, la CFIA note que : « le cadre juridique définit un socle de droits incontournables (droit du travail, droit de la protection des données personnelles, etc.), qui semble pour l’instant suffisant pour assurer un déploiement de l’IA favorable aux travailleurs56 ». Aucune nouvelle réglementation ne semble donc nécessaire à ce stade ;

– En ce qui concerne l’impact de l’IA sur l’emploi par sexe et par âge, le HLPE souligne que : « Il est crucial que les décideurs politiques prennent des mesures immédiates pour éliminer les obstacles à l’éducation et au développement des compétences des femmes57 ». En ce qui concerne l’emploi par âge, il note que: « Les travailleurs plus âgés pourraient subir des impacts négatifs disproportionnés de l’automatisation induite par l’IA en l’absence d’efforts de requalification en temps opportun. Alors que les pays du G7 sont confrontés au vieillissement de leur population, l’IA présente des risques et des opportunités pour gérer les défis du marché du travail. Des pays comme le Japon et l’Italie, où plus de 37% de la population sera âgée de 65 ans ou plus d’ici à 2050, doivent examiner comment l’IA peut soutenir, plutôt que remplacer les travailleurs âgés58 ». Bien que les deux orientations puissent être considérées comme positives, nous trouverions risqué d’essayer d’orienter les effets du progrès technologique en faveur des travailleurs âgés, au risque de perdre une partie des avantages de l’IA. En outre, les travailleurs âgés peuvent bénéficier d’une formation continue et utiliser l’IA, même s’ils sont remplacés par celle-ci dans un premier temps ;

– Le HLPE s’inquiète également de l’impact potentiel de l’IA sur les inégalités, en particulier dans les scénarios où l’IA « pourrait entraîner un remplacement des travailleurs à tous les niveaux de compétences, les machines devenant des substituts parfaits du travail humain. Bien que la production et la productivité soient susceptibles d’augmenter rapidement dans de tels scénarios, les bénéfices pourraient revenir principalement aux propriétaires du capital et des technologies d’IA, ce qui pourrait créer des niveaux sans précédent de concentration des revenus […]. Cela suggère que les mécanismes actuels d’assurance sociale et de distribution des revenus, qui sont largement liés à l’emploi, pourraient devoir être fondamentalement réimaginés ». Nous considérons ce scénario comme très futuriste. En outre, il n’y a aucune raison valable pour que les politiques existantes, dans le domaine de la concurrence ou de la fiscalité, ne suffisent pas à résoudre ces problèmes ;

– À cet égard, la position exprimée par le HLPE semble faire écho aux propositions visant à créer un revenu de base universel (RBU). Cette nouvelle prestation sociale remplacerait partiellement ou totalement les programmes existants par un transfert monétaire unique et inconditionnel à chaque adulte. Le RBU est examiné par Furman et Seamans59. Les auteurs notent qu’il soulève un certain nombre de questions. Parmi elles figure l’argument selon lequel le RBU pourrait stimuler l’esprit d’entreprise et l’innovation. Mais il y a peu de preuves d’une augmentation de l’esprit d’entreprise et de l’innovation dans les régions dotées de programmes similaires au RBU, comme les régions riches en pétrole qui fournissent des revenus à la plupart des résidents, y compris en Alaska, en Norvège et dans certains États du Golfe60 ». Une étude s’appuie également sur une expérience parrainée par Sam Altman, président d’OpenAI et fervent défenseur du RBU, « dans laquelle 1.000 personnes à faible revenu ont été retenues au hasard pour recevoir 1.000 dollars par mois sans condition pendant trois ans61 ». L’étude révèle que « le transfert a entraîné une baisse du revenu individuel total, à l’exclusion des transferts d’environ 2.000 dollars par an par rapport au groupe de contrôle et une diminution de 3,9 points de pourcentage de la participation au marché du travail62 ». Il est à noter que les transferts n’ont eu qu’un faible impact sur la participation au marché du travail. Par conséquent, ils ne décourageraient pas les salariés remplacés par l’IA de chercher un emploi et équivaudraient plutôt à une augmentation des allocations de chômage, à moins que ces allocations ne soient réduites en conséquence. En outre, à notre connaissance, aucune étude n’a encore pris en compte le coût du financement du RBU en termes d’augmentation de la fiscalité et de perte de croissance correspondante.

L’éducation

– En ce qui concerne la formation initiale, la CFIA s’appuie sur les résultats d’une étude de l’OCDE63 pour conclure que les postes vacants dans le domaine du développement et du déploiement de l’IA (profils dits « X + IA ») devraient représenter respectivement 1% et 0,5% de l’ensemble des postes vacants en 2034, avec un besoin d’environ 56.000 postes par an dans le domaine du développement de l’IA et de 25.000 postes par an dans le domaine du déploiement de l’IA à cet horizon. Cela implique que le nombre de places dans les formations spécialisées en IA au niveau du troisième cycle devrait au moins tripler au cours de la même période et qu’environ 15% de l’ensemble des étudiants de l’enseignement supérieur devraient être formés chaque année aux compétences « X + IA ». Par ailleurs, la CFIA note qu’il serait nécessaire de former tous les étudiants des filières spécialisées en informatique aux enjeux de l’IA pertinents pour leur activité, afin qu’ils puissent déployer au mieux les solutions d’IA au sein des entreprises. Enfin, pour rendre les formations spécialisées accessibles et attractives, elle recommande de généraliser le déploiement de l’IA dans toutes les formations de l’enseignement supérieur et d’acculturer les étudiants dès l’enseignement secondaire. Bien que nous ne soyons pas en mesure de confirmer les chiffres précis, toutes ces orientations nous semblent tout à fait raisonnables : il n’y aura pas d’adoption généralisée de l’IA dans l’économie si un effort très important n’est pas fait pour former les futurs travailleurs ;

– En ce qui concerne la formation continue, la CFIA a mené une enquête de la mi-décembre 2023 à la mi-janvier 2024 pour mieux comprendre les attentes et les craintes du public à l’égard de l’IA. La CFIA note qu’un des résultats de l’enquête est le besoin d’information et de formation sur l’IA dans le milieu professionnel. La Commission recommande donc très logiquement d’investir dans la formation professionnelle continue de la main-d’œuvre et dans des actions de formation autour de l’IA. Nous ne pouvons que soutenir une telle conclusion, tout en notant qu’elle n’implique pas que davantage de ressources soient consacrées à la formation continue, mais plutôt que les ressources existantes soient redéployée. En particulier, la formation continue serait très utile dans la fonction publique comme nous l’expliquons plus loin.

Politiques industrielles

Si le recours au protectionnisme direct est à juste titre rejeté par tous les auteurs, car il découragerait l’adoption des technologies de l’IA dans lesquelles de nombreux pays ou zones, dont l’Europe, sont déjà en retard, la CFIA préconise la mise en œuvre de politiques industrielles énergiques en France. Ces politiques comporteraient quatre « piliers », le financement des entreprises privées, la construction d’une puissance de calcul souveraine, l’accès aux données et l’attraction de talents :

1) Le financement des entreprises privées : la CFIA suggère de développer le capital-risque, mais regrette que les investissements en capital-risque dans l’IA soient actuellement insuffisants. Le rapport cite un volume de 2,8 milliards de dollars en 2022, contre 56,8 milliards de dollars aux États-Unis, et suggère que 15 milliards de dollars soient ciblés pour la France. Selon le rapport, cela pourrait se faire en réorientant une partie de l’épargne privée (modification des incitations fiscales pour les contrats d’assurance-vie ou du mode de gestion des retraites complémentaires). Le rapport évoque également la mise en place d’une véritable UMC64 en Europe, le renforcement de l’attractivité des fonds d’investissement étrangers, afin qu’ils s’installent à Paris et non plus seulement à Londres, et la création d’un fonds d’investissement « France & AI ». Ce fonds mobiliserait 7 milliards d’euros de fonds propres d’entreprises et 3 milliards d’euros de soutien public. Un tel cocktail de mesures ne nous semble pas totalement cohérent. En effet, certaines mesures, comme le développement du capital-risque et la mise en place d’une UMC, complétée par une UEI, semblent faire confiance aux mécanismes de marché. Nous les soutenons pleinement, en tant qu’orientations générales, et non spécifiquement dans le contexte de l’IA. Cependant, jouer avec les règles d’allocation d’actifs par les compagnies d’assurance-vie ou les retraites complémentaires ou créer un fonds d’investissement « France & AI » impliquerait un retour aux politiques en vogue dans la période de l’après-Seconde Guerre mondiale, politiques qui ont conduit à une fragmentation et à un sous-développement des marchés de capitaux français et à une mauvaise allocation des capitaux sous l’égide des pouvoirs publics. Enfin, bien que nous pensions que les fonds d’investissement étrangers sont les bienvenus en France, nous ne considérons pas cela comme une condition préalable pour qu’ils investissent dans le pays ;

2) Une puissance de calcul souveraine : la CFIA est d’avis que « Compte tenu de l’ampleur des investissements nécessaires, des risques associés et des délais inhérents au développement d’une industrie des semi-conducteurs optimisée pour l’IA, une intervention publique apparaît nécessaire […]. Nous proposons d’agir simultanément sur l’offre et la demande de calcul. Du côté de l’offre, nous recommandons d’accélérer la montée en puissance des supercalculateurs exascale français et européens, de lancer à court terme une opération d’achat groupé pour l’écosystème, et de fixer un objectif d’implantation de centres de calcul en Europe, avec une garantie publique pour l’utilisation de la puissance de calcul, ainsi qu’une aide à la mise en œuvre et au raccordement électrique […]. Du côté de la demande, un crédit d’impôt IA soutiendrait les projets de recherche et développement dans la location de puissance de calcul, à condition qu’ils utilisent un centre de calcul implanté en France65 ». Le rapport fournit également des estimations de 7,7 milliards d’euros pour le développement de composants semi-conducteurs en Europe et de 1 milliard d’euros de puissance de calcul installée, apparemment financée avec des fonds publics. Si nous pensons que le secteur public peut jouer un rôle dans la coordination des initiatives du secteur privé, comme cela a été le cas avec l’annonce le 7 février 2025 d’un investissement de 30 à 50 milliards d’euros par les Émirats arabes unis (EAU) dans un centre de données en France, nous ne pensons pas que l’intervention publique doive aller plus loin, sauf pour l’hébergement au niveau européen de données sensibles, dans le cas où aucune assurance de protection contre l’intrusion de pays étrangers ne peut être fournie par un contractant privé. Les initiatives précédentes en ce sens, comme le plan Calcul, ont donné des résultats très minces dans le passé pour un coût élevé en termes de dépenses publiques et privées ;

3) L’accès aux données : la CFIA opère une distinction fondée entre les données privées (et plus particulièrement les données de santé), les données patrimoniales et les données protégées par des droits de propriété littéraire ou artistique. L’accès aux données soulève de nombreuses questions éthiques et juridiques qui n’entrent pas dans le cadre de cette note. Il soulève également des questions liées aux droits de propriété, avec des conséquences économiques. Il existe actuellement une tension entre, d’une part la nécessité d’un large accès aux contenus protégés par le droit d’auteur pour entraîner les systèmes d’IA, qui est réglementé par la directive (UE) 2019/79066, d’autre part la possibilité offerte par ce même texte de refuser l’autorisation d’utiliser leur contenu. Dans le même sens, la CFIA note que de nombreux procès ont été intentés aux États-Unis pour l’utilisation non autorisée et donc non rémunérée de contenus protégés par le droit d’auteur lors de l’entraînement d’IA génératives67. Cependant, ni la direction générale du Trésor ni la CFIA ne fournissent d’indications claires sur la manière de réduire cette tension68 ;

4) Les talents : la CFIA considère que « sur les trois à cinq mille profils internationaux hautement qualifiés susceptibles d’avoir un impact significatif sur la croissance de l’écosystème de l’IA, la France doit en attirer entre 10 et 15%69 ». Elle estime également que « l’État doit créer les conditions pour faciliter l’installation des profils qualifiés, notamment par une aide aux formalités administratives : visas, scolarisation des enfants, information sur le régime fiscal des impatriés, etc.70 ». Enfin, en ce qui concerne l’emploi public des chercheurs, elle recommande la mise en place d’une « Exception IA », notamment pour permettre de revaloriser les rémunérations, et d’au moins doubler le financement de la recherche publique en IA. Nous pensons que les questions soulevées ici sont plus générales et qu’il y a deux problèmes principaux à résoudre pour attirer dans la recherche des talents non seulement étrangers mais aussi nationaux. Le premier problème concerne la surtaxation du travail qualifié en France71. Le second est la rémunération inférieure au marché du travail qualifié dans le secteur public français, comme l’illustre la chute brutale du nombre de candidats à l’enseignement dans les lycées au cours des 35 dernières années72, ce qui montre qu’il s’agit d’un problème ancien et structurel. La résolution de ces problèmes, au lieu de fragmenter davantage le marché du travail français, devrait à notre avis être une priorité, dans le but de favoriser la croissance économique à moyen et long termes.

3

L’IA peut-elle contribuer à l’amélioration des politiques économiques ?

Notes

73.

Chiara Osbat, What micro price data teach us about the inflation process: web-scraping in PRISMA, SUERF Policy Brief, No 470, novembre 2022 [en ligne].

+ -

74.

Michele Lenza, Ines Moutachaker et Joan Paredes, Forecasting euro area inflation with machine learning models, BCE, Bulletin de recherche, n° 112, 17 octobre 2023 [en ligne].

+ -

75.

CFIA, op.cit., p. 78.

+ -

76.

HLPE, op.cit., p. 44-45.

+ -

77.

HLPE, op. cit., p. 39.

+ -

78.

Zach Meyers et John Springford, How Europe can make the most of AI, Centre for European Reform, Policy Brief, septembre 2023 [en ligne].

+ -

L’IA pourrait contribuer à améliorer les politiques économiques de deux manières principales : en comprenant mieux, et en faisant comprendre au public, les évolutions économiques, et en augmentant la productivité des fonctionnaires et l’efficacité des actions publiques. Nous nous demandons également si une certaine coordination serait justifiée au niveau mondial.

Meilleure compréhension des évolutions économiques

Cipollone donne les exemples suivants concernant l’utilisation de l’IA à la BCE, qui s’appliquent également aux missions gouvernementales, en particulier dans les domaines économique et financier :

– Dans le domaine des statistiques, l’IA permet d’identifier et de hiérarchiser les observations anormales et les valeurs aberrantes qui nécessitent une attention, une évaluation et un traitement potentiels plus poussés. Les LLM permettent également d’utiliser des données non structurées telles que des textes, des images, des vidéos ou des sons, afin de compléter et d’améliorer les collectes de données existantes;

– Dans le domaine de l’analyse économique, le personnel de la BCE utilise l’IA pour extraire des données du web et prévoir l’inflation73. Ils utilisent également des modèles d’apprentissage autonome, capables de saisir les non-linéarités, pour prévoir l’inflation dans la zone euro, avec des performances proches de celles des prévisions conventionnelles74 ;

– Dans le domaine de la communication : l’IA permet d’analyser très rapidement d’importants volumes de comptes rendus et de commentaires de marché, de faciliter et d’accélérer les traductions vers et depuis les différentes langues de la zone euro. Elle permet aussi d’élargir la diffusion de la communication de la BCE en simplifiant les messages clés permettant une communication ciblée en direction des publics les moins adeptes de ces questions financières.

Augmenter la productivité des fonctionnaires et l’efficacité de l’action publique

Le HLPE note qu’il existe des obstacles à l’adoption de l’IA dans les administrations publiques. Il s’agit notamment d’un déficit de compétences, de la difficulté d’attirer et de retenir les talents en matière d’IA, les salaires des fonctionnaires étant trop bas, de l’infrastructure souvent obsolète, et de la complexité des réglementations. Toutefois, comme nous l’avons expliqué plus haut à propos des salaires, cette situation devra changer, non seulement à cause de l’IA, mais aussi plus généralement pour adapter les services publics et les rendre plus efficaces. Par exemple, les règles relatives aux marchés publics pourraient être simplifiées.

En effet, l’utilisation de l’IA offre une bonne opportunité d’augmenter la productivité des administrations publiques, à condition qu’un effort soit fait pour former les agents publics. A cet égard, la CFIA recommande à juste titre de « renforcer la capacité technique et l’infrastructure du numérique public afin de définir et d’amplifier une véritable transformation des services publics par le numérique et l’IA, pour les agents et au service des usagers75 ». Le HLPE donne l’exemple de la gestion des prestations gouvernementales, pour laquelle « l’IA pourrait accroître la productivité des employés du gouvernement dans le traitement des demandes, la vérification de l’éligibilité et le respect des règles du programme, car les systèmes d’IA dotés d’un traitement du langage naturel et d’une analyse avancée des données peuvent automatiser des parties importantes de ces flux de travail. L’IA peut examiner les demandes pour s’assurer qu’elles sont complètes, croiser les données avec d’autres dossiers gouvernementaux pour vérifier l’éligibilité, et même répondre aux questions de routine des demandeurs par le biais de chatbots alimentés par l’IA. Cela permettrait aux gouvernements de gérer un nombre croissant de dossiers avec moinsd e personnel tout en améliorant la rapidité et la précision des services76 ». D’autres exemples donnés par le HLPE concernent la conception et la collecte des impôts où « l’IA peut analyser de grands ensembles de données pour identifier des régularités indicatives de fraude ou de non-conformité77 » et l’efficacité des dépenses où elle permet de suivre et d’évaluer la performance des programmes publics en temps quasi réel.

Coordination au niveau mondial

Comme le notent Meyers et Springford, les efforts internationaux visant à établir un « code de la route » pour l’IA contribueront jusqu’à un certain point à renforcer la confiance dans la technologie. Mais ces mesures reposent avant tout sur la confiance, de sorte qu’elles profitent aux entreprises bien établies et jouissant d’une bonne réputation. La réglementation joue un rôle important dans l’application des règles convenues au niveau mondial78 ». Ainsi, un certain degré de réglementation, dont la définition serait coordonnée au niveau mondial, pourrait favoriser la diffusion des technologies de l’IA dans un environnement concurrentiel. Cela pourrait notamment être le cas avec l’adoption de normes, qui faciliteraient l’interopérabilité. Une approche coordonnée pourrait également contribuer à limiter le coût du contrôle de l’utilisation des technologies d’IA et de leurs producteurs et faciliter l’échange d’informations entre les autorités nationales compétentes, rendant ainsi ces services publics plus efficaces. Une organisation internationale existante, telle que l’Organisation de coopération et de développement économiques (OCDE) pourrait se voir confier cette mission.

III Partie

Aspects financiers

Notes

79.

Aldasoro et al., op.cit.

+ -

80.

Donald Bernhardt et Marshall Eckblad, “Stock Market Crash of 1987”, Federal Reserve History, novembre 2013 [en ligne].

+ -

Historiquement, le secteur financier, qui s’appuie fortement sur le big data et l’automatisation des processus, a été à la pointe des avancées technologiques et, corrélativement, a été l’un des premiers à relever les défis qu’elles posent. Les techniques d’apprentissage autonome ont été répandues dans le secteur financier bien avant l’émergence de l’IA générative. Même avec des capacités limitées, les progrès informatiques découlant des modèles d’apprentissage autonome normalisés peuvent avoir entraîné des conséquences importantes pour la stabilité financière, comme l’illustre le krach boursier de 1987 aux États-Unis79. Le déclin marqué des prix des actions a été attribué en grande partie à la dynamique créée par des algorithmes fondés sur des règles qui plaçaient des ordres de vente automatiques lorsque les prix des titres tombaient en dessous de niveaux prédéterminés. Le krach a conduit les régulateurs à élaborer de nouvelles règles, connues sous le nom de « coupe-circuits », permettant aux bourses d’arrêter temporairement les transactions en cas de baisse exceptionnellement importante des cours80. Nous étudions tout d’abord les conséquences éventuelles d’une utilisation croissante de l’IA dans le secteur financier, puis la manière dont les politiques pourraient remédier aux conséquences négatives potentielles de l’IA.

1

Conséquences éventuelles

Notes

81.

CSF, op.cit., p. 1.

+ -

82.

Fonds monétaire international, Powering the digital economy, IMF Departmental Papers, octobre 2021 [en ligne].

+ -

83.

La technologie réglementaire (RegTech) désigne l’utilisation des technologies par les entités financières réglementées pour numériser les processus de conformité et de reporting afin de répondre à leurs exigences réglementaires, entre autres pour calculer le capital réglementaire et soutenir la conformité AML/CFT – lutte contre le blanchiment d’argent et le financement du terrorisme –, améliorant ainsi la qualité de la conformité et réduisant les coûts.

+ -

84.

Juan Carlos Crisanto, Cris Benson Leuterio, Jermy Prenio et Jeffery Yong, Regulating AI in the financial sector: recent developments and challenges, FSI Insights n°63, décembre 2024 [en ligne].

+ -

85.

Fonds monétaire international, Rapport sur la stabilité financière dans le monde, chapitre 3, “Advances in Artificial Intelligence: Implications for capital market activities”, octobre 2024, p. 80 [en ligne].

+ -

86.

FMI, op.cit., p. 83.

+ -

87.

Ibid.

+ -

88.

Le risque systémique désigne la possibilité qu’un événement survenant au niveau d’une institution financière déclenche une grave instabilité ou un effondrement de l’ensemble du système financier.

+ -

89.

HLPE, op.cit. ; CSF, op.cit. ; GFSR, op.cit. ; Crisanto et al., op.cit. ; Aldasoro et al., op.cit. ; Georg Leitner, Jaspal Singh, Anton van der Kraaj et Balasz Zsamboki, “The rise of artificial intelligence: benefits and risks for financial stability”, European Central Bank Stability Review, mai 2024 [en ligne].

+ -

90.

Le comportement grégaire désigne la tendance des investisseurs ou des traders à suivre les actions de leurs pairs plutôt que de prendre des décisions indépendantes fondées sur leur propre analyse et leurs propres informations.

+ -

91.

La procyclicité fait référence aux interactions dynamiques entre les secteurs financier et réel de l’économie. Ces interactions, qui se renforcent mutuellement, tendent à amplifier les fluctuations du cycle économique et à provoquer ou à exacerber l’instabilité financière.

+ -

92.

CSF, op.cit., p. 15.

+ -

93.

HLPE, op.cit., p. 54.

+ -

94.

CSF, op.cit., p. 15.

+ -

95.

HLPE, op.cit., p. 53.

+ -

96.

Ibid.

+ -

97.

HLPE, op.cit., p. 56.

+ -

98.

CSF, op.cit., p. 25.

+ -

99.

Ibid.

+ -

100.

Ibid., p. 26

+ -

101.

Leitner et al. , op.cit.

+ -

L’utilisation plus large de l’IA a le potentiel d’apporter des avantages transformateurs aux entreprises de services financiers et aux marchés de capitaux en termes d’augmentation de la productivité et d’efficacité, d’amélioration de l’évaluation des risques et de réduction des coûts pour les consommateurs, mais elle peut aussi amplifier les risques existants.

Cas d’usage de l’IA dans le secteur financier

Comme le note le CSF, « le manque de données sur l’adoption de l’IA par les entreprises de services financiers complique une évaluation approfondie des cas d’usage. Les données disponibles suggèrent une accélération notable de l’adoption de l’IA ces dernières années81 » dans le secteur bancaire qui était en retard par rapport aux sociétés d’assurance et au secteur de la gestion d’investissement pour des raisons liées aux incertitudes entourant les attentes réglementaires (responsabilité, éthique et opacité des modèles d’IA, en particulier pour les applications liées aux consommateurs) et à la nature propriétaire des données bancaires. En revanche, selon le Fonds monétaire international (FMI), le secteur de la gestion des investissements utilise la technologie depuis des décennies dans les opérations de négociation, les services à la clientèle et les opérations de back-office pour gérer d’importants flux de données de négociation et exécuter des opérations à haute fréquence82. La plupart des cas d’usage dans le secteur bancaire semble actuellement se concentrer sur l’amélioration de l’efficacité opérationnelle interne et de la conformité réglementaire RegTech83, plutôt que sur les activités de base ou les activités à haut risque. Toutefois, l’accessibilité croissante des technologies d’IA générative pourrait faciliter une intégration plus rapide.

Banques et sociétés d’assurance

L’IA peut faciliter la souscription de crédit, en augmentant la précision des modèles prédictifs qui peuvent aider à traiter l’évaluation du crédit, en renforçant la capacité des prêteurs à calculer le risque de défaut, et à améliorer les relations avec les clients (chatbots, banque mobile alimentée par l’IA), le soutien au back-office, la gestion des risques et le placement des produits. Selon Crisanto et al.84, qui fournissent un aperçu de l’utilisation de l’IA sur la base des commentaires de certains acteurs du secteur et par le biais d’enquêtes sectorielles, les banques ont accéléré leurs investissements dans l’IA au sein de leurs organisations, notamment en raison d’une anticipation d’adoption plus large de l’IA générative. Une grande partie de l’augmentation des dépenses concerne l’infrastructure informatique et les effectifs de « talents » en IA, alors qu’elles réduisent les effectifs ailleurs, ce qui suggère que les gains de productivité attendus de l’IA pourraient remplacer des ressources humaines. Les cas d’usage signalés par les banques sont actuellement liés principalement au back-office et aux perspectives d’exploitation. Les cas d’usage en production signalés pour les activités commerciales tournées vers l’extérieur sont moins fréquents et concernent principalement les grandes banques. Les sociétés d’assurance semblent plus avancées que les banques : elles utilisent déjà l’IA pour faciliter des processus tels que la souscription, l’évaluation des risques et la gestion des sinistres.

Marchés des capitaux et intermédiaires financiers

L’utilisation de l’IA pourrait avoir des effets bénéfiques considérables sur l’efficacité des marchés de capitaux. Selon une enquête, menée pour le Rapport du FMI sur la stabilité financière dans le monde85, du GFSR, les institutions financières (courtiers, gestionnaires d’actifs, fonds d’investissement, fonds spéculatifs, sociétés d’infrastructure de marché…) utilisent activement l’apprentissage autonome et d’autres méthodes de calcul liées à l’IA dans leurs processus d’investissement depuis 20 ans, tandis que « l’utilisation courante d’IA générative ne remonte qu’à quelques années ». Toutefois, si les stratégies d’investissement fondées sur l’IA générative, telles que les services de conseil en ligne ou les fonds négociés en bourse (Exchange-Traded Funds, ETF) basés sur l’IA, « où l’IA est utilisée pour construire et ajuster le portefeuille d’un ETF », n’en sont encore qu’à leurs débuts, elles ont connu une croissance explosive dans le cas des actifs gérés par les conseillers en ligne, et devraient continuer à croître. Les participants à l’enquête s’attendent, à un horizon de 3 à 5 ans, « à une augmentation de l’utilisation de l’IA dans le commerce et l’investissement et à un degré plus élevé d’autonomie des décisions basées sur l’IA, en particulier sur le marché des actions86 ». Cependant, « bien que la tendance soit à la diminution de l’interaction humaine, l’autonomie complète n’est pas attendue pour bientôt : des changements plus importants ne sont une source de préoccupation que dans les moyen et long termes87 ».

Risques liés à l’utilisation de l’IA par le secteur financier

Des risques systémiques et d’autres types de risques, liés par exemple à une nouvelle utilisation par des acteurs malveillants ou à la discrimination des clients, pourraient nuire à la stabilité financière.

Risques systémiques88

Cinq vulnérabilités liées à l’IA sont particulièrement notables en raison de leur capacité éventuelle à accroître le risque systémique89. Ces cinq vulnérabilités concernent la concentration et la concurrence entre fournisseurs tiers et/ou entre banques, l’opacité des modèles d’IA, le risque de comportement grégaire automatisé90 et de procyclicité91, la manipulation des marchés et les cyber-risques :

1) Concentration, concurrence et risques liés à l’IA : se reposer excessivement sur un nombre limité de fournisseurs d’IA (c’est-à-dire les producteurs de puces accélérées, de services de cloud, de modèles d’IA tiers pré-entraînés et de grands ensembles de données financières indispensables pour entraîner ces modèles) augmenterait la dépendance du système financier à l’égard des fournisseurs tiers liés à l’IA. À son tour, comme le note le CSF, cette « concentration du marché parmi les fournisseurs de services technologiques et d’IA pourrait accroître les interconnexions nationales et internationales, car les principaux fournisseurs de services ne sont situés que dans quelques juridictions, exposant les institutions financières à des pertes découlant de dégradations opérationnelles et de perturbations de la chaîne d’approvisionnement affectant des fournisseurs clés92 » ; ensuite, il pourrait être plus facile pour les grandes entreprises financières disposant d’une infrastructure de données et de réseaux de tiers bien établis que pour les petites entreprises de réaliser les investissements nécessaires pour intégrer l’IA dans leurs structures commerciales, « conduisant à une concentration des capacités d’IA dans un petit nombre de grandes institutions financières. Cette concentration technologique pourrait créer une nouvelle forme de risque systémique où la défaillance du système d’IA d’une seule institution pourrait avoir des effets démesurés sur l’ensemble du système financier93 » ; enfin, cela pourrait se traduire par une diminution du nombre d’institutions financières restant sur le marché, augmentant les préoccupations liées à la notion de « too big to fail » (trop gros pour faire faillite) ;

2) Opacité des modèles d’IA : les algorithmes peuvent découvrir des corrélations inconnues dans des ensembles de données qui peuvent ne pas être facilement compréhensibles parce que la causalité sous-jacente est inconnue ; ensuite, ces modèles peuvent être peu performants en cas de mouvements importants et soudains dans les données d’entrée entraînant la rupture des corrélations établies (par exemple, en réponse à une crise). Cela pourrait potentiellement motiver des décisions inexactes, avec des résultats négatifs pour les institutions financières ou leurs clients ; enfin, l’« explicabilité limitée de certaines méthodes d’IA et la difficulté d’évaluer la qualité des données sous-jacentes à des modèles d’IA plus largement utilisés pourraient augmenter le risque de modèle pour les institutions financières94 ». Corrélativement, il pourrait être difficile pour les autorités de surveillance d’évaluer la pertinence de ces modèles ou de repérer les risques systémiques à temps ;

3) Comportements mimétiques automatisés et procyclicité : premièrement, si des modèles de plus en plus similaires sont utilisés pour comprendre la dynamique des marchés financiers, cela pourrait contribuer à accroître la volatilité des marchés et l’illiquidité en période de tensions ; deuxièmement, le risque de comportement mimétique serait exacerbé par l’utilisation d’agents capables de prendre rapidement des décisions à grande échelle entraînant des mouvements de marché involontaires. La « vitesse, combinée au potentiel des modèles d’IA à réagir de la même manière aux signaux du marché, crée un risque de comportement mimétique automatisé et de procyclicité accrue95 ». Toutefois, les coupe-circuits arrêteraient de toute façon les transactions en cas de fluctuations de prix exceptionnellement importantes ;

4) Manipulation du marché : le HLPE note que « Les systèmes d’IA pourraient permettre des formes plus sophistiquées de manipulation des marchés. Leur capacité à traiter de grandes quantités de données et à identifier des modèles subtils pourrait être utilisée pour créer ou exploiter des inefficacités du marché à une échelle et à une vitesse difficile à détecter et à contrer96 » ;

5) Les cyber-risques : les cyber-incidents représentent de potentielles menaces systémiques pour le système financier si de nombreuses institutions financières sont touchées en même temps (lorsqu’un programme ou un fournisseur de services largement utilisé est impliqué) ou si un incident survenu dans une entité se propage à l’ensemble du système ; ensuite, le HLPE note que, d’une part, les technologies de l’IA peuvent améliorer la cyberdéfense en « analysant de vastes quantités de données pour identifier les anomalies et les failles de sécurité potentielles plus rapidement et plus précisément que les méthodes traditionnelles », tandis que, d’autre part, les technologies de l’IA permettent également de mener des cyberattaques plus sophistiquées. « L’IA peut être utilisée pour créer des tentatives d’hameçonnage plus convaincantes, automatiser la découverte de vulnérabilités logicielles ou lancer des attaques par déni de service distribué (distributed denial-of-service – DDoS) plus efficaces97». Les risques systémiques évolueront en fonction du niveau de concentration des fournisseurs, du rythme de l’innovation et du degré d’intégration de l’IA dans les services financiers. En ce qui concerne le rythme de l’innovation, l’apprentissage autonome a déjà ajouté de nouvelles dimensions aux préoccupations en matière de stabilité financière, principalement en raison du fait qu’il y a généralement peu de fournisseurs d’IA, d’où un risque plus élevé d’uniformité et de procyclicité, et de la nature de boîte noire des modèles d’IA. Les caractéristiques de l’IA générative, c’est-à-dire sa capacité à fonctionner et à prendre des décisions de manière indépendante, et sa rapidité et son omniprésence par rapport à l’apprentissage autonome, sont susceptibles d’exacerber les problèmes de stabilité financière qui découlent de l’uniformité des ensembles de données, du mimétisme des modèles et de l’interconnexion des réseaux. L’utilisation d’agent d’IA, caractérisés par une action directe sans intervention humaine, peut amplifier ces risques, ce qui implique que les objectifs relatifs aux réglementations applicables doivent être explicitement précisés.

Autres risques

Quatre autres risques pourraient avoir un impact sur la stabilité financière : la fraude et la désinformation, la discrimination des clients, la fuite des données des clients et les conditions macroéconomiques résultant d’une adoption rapide de l’IA :

1) Fraude et désinformation : l’IA a déjà facilité les systèmes de fraude ; en outre, « les capacités d’IA générative en matière de génération vocale et vidéo98 » pourraient être utilisées pour « générer des “deepfakes”, pour contourner les contrôles de sécurité, frauder les clients ou créer de fausses demandes d’indemnisation d’assurance99 » ; ensuite, « l’IA générative pourrait permettre des campagnes de désinformation plus sophistiquées qui ont des implications sur la stabilité financière si elles provoquent des crises aiguës, telles que des ruées sur les banques100 » ;

2) Discrimination des clients : l’IA dans les opérations en contact avec la clientèle (communication, gestion des réclamations, fonctions de conseil – à l’aide d’assistants numériques ou de conseillers robotisés, les robo-advisors – ou segmentation et ciblage de la clientèle) peut améliorer l’adéquation entre le produit et le client, mais son utilisation pourrait également conduire à une discrimination de la clientèle si elle n’est pas contrôlée. Les biais algorithmiques peuvent conduire à un traitement discriminatoire des clients et être difficiles à identifier et à contrôler101 ;

3) Fuite de données sur les clients : la question de la fuite de données est particulièrement sensible dans le cas de l’IA entraînée sur des données propres aux clients, ce qui soulève des questions de protection des consommateurs et pourrait également exposer les institutions à un risque accru en termes de réputation ou de droit ;

4) Conditions macroéconomiques : dans une perspective à moyen et long termes, l’adoption accrue de l’IA pourrait entraîner des changements dans l’économie, en affectant les sources de revenus de certaines catégories de travailleurs et d’entreprises. À son tour, cela pourrait amplifier les faiblesses du secteur financier en augmentant les impayés des entreprises et les ratios d’endettement, ce qui entraînerait des risques pour la stabilité financière.

2

Politiques associées

Notes

102.

CSF, op.cit., p. 29.

+ -

103.

Crisanto et al., op.cit.

+ -

104.

Denis Beau, “The foundations of trustworthy AI in the finance sector”, discours de Denis Beau, premier sous-gouverneur de la Banque de France, février 2025 [en ligne] ; Autorité européenne des assurances et des pensions professionnelles (AEAPP), AI Act and its impacts on European financial sector, contribution au magazine Eurofi, février 2024 [en ligne].

+ -

105.

Crisanto et al., op.cit., p. 31.

+ -

106.

Beau, op.cit.

+ -

Nous dressons d’abord un état des lieux de la réglementation de l’IA et des orientations réglementaires dans le secteur financier, puis nous examinons la nécessité d’une coordination/coopération européenne/ internationale. Enfin, nous nous demandons comment l’IA pourrait contribuer à améliorer les politiques de surveillance et de réglementation.

Réglementer ou ne pas réglementer ? Réglementation de l’IA et orientations réglementaires dans le secteur financier

« Les politiques financières existantes remédient aux vulnérabilités associées à l’adoption de l’IA102 » et aucun outil ad hoc n’est nécessaire.

Les autorités nationales de nombreuses juridictions ont introduit des politiques couvrant l’ensemble des secteurs spécifiques à l’IA, mais les autorités financières ont été moins actives dans l’élaboration de réglementations spécifiques, peut-être parce que :

1) elles suivent généralement une approche neutre sur le plan technologique en raison du caractère évolutif de la technologie ;

2) et/ou les risques que pose l’IA sont déjà connus des autorités financières, même si l’utilisation de l’IA peut les accentuer (comme évoqué ci-dessus). Par conséquent, les thèmes communs des orientations trans-sectorielles spécifiques à l’IA sont déjà largement couverts par la réglementation financière existante. Bien entendu, des travaux supplémentaires pourraient être nécessaires pour s’assurer que les cadres réglementaires existants sont suffisamment exhaustifs. En revanche, les pouvoirs publics, l’UE en tête, élaborent des lois ou des règlements pour garantir une utilisation sûre de l’IA, compte tenu de ses implications sociétales (égalité, respect de la vie privée et environnement103).

L’UE s’est positionnée à l’avant-garde de la réglementation de l’IA d’un point de vue mondial, en adoptant le premier cadre juridique au monde dont l’effet se fera sentir à partir d’août 2025104. La loi sur l’IA aura une répercussion sur le secteur financier à plusieurs égards. Le règlement distingue plusieurs niveaux de risque, parmi lesquels les « risques élevés », qui constituent le cœur du texte, s’appliquent au secteur financier à au moins deux égards. Les évaluations de la solvabilité des clients basées sur l’IA réalisées par les banques lorsqu’elles accordent des crédits aux particuliers, ainsi que la tarification et l’évaluation des risques dans le domaine de l’assurance-vie et de l’assurance-maladie, sont considérées comme des cas d’utilisation de l’IA à haut risque et devront donc se conformer à des exigences renforcées pour ces applications de l’IA. Ces exigences devraient être développées par les organismes de normalisation européens. Par la suite, les autorités nationales compétentes (ANC) devront veiller à ce que les institutions financières respectent les nouvelles exigences et normes en matière de gouvernance et de gestion des risques liés à l’IA, tout en évaluant dans quelle mesure des orientations sectorielles plus détaillées pourraient être nécessaires. Le développement et la mise en œuvre des autres utilisations de l’IA dans le secteur des services financiers s’effectueraient pour l’essentiel en conformité avec la législation existante, sans obligations légales supplémentaires découlant de la loi sur l’IA. Toutefois, étant donné que l’utilisation de l’IA dans la gestion des sinistres, la lutte contre le blanchiment d’argent ou la détection des fraudes dans le secteur des services financiers est déjà très répandue, les autorités de surveillance doivent évaluer dans quelle mesure les règles existantes sont suffisantes et où des orientations supplémentaires peuvent être nécessaires.

Une coopération/coordination européenne/internationale est-elle nécessaire ?

Des besoins de coopération et de coordination apparaissent aux niveaux régional et international. Ainsi, « la présence de diverses définitions de l’IA dans les différentes juridictions doit faire l’objet d’une collaboration internationale. L’absence d’une définition mondialement acceptée de l’IA empêche une meilleure compréhension des cas d’utilisation de l’IA dans le secteur financier mondial et l’identification de domaines spécifiques où les risques peuvent être accrus105 ». À ce titre, les efforts de collaboration internationale entre les secteurs public et privé peuvent être axés sur l’adoption d’un lexique de l’IA et sur la poursuite des travaux visant à mettre en place des cadres de réglementation et de surveillance capables de s’adapter aux progrès rapides de la technologie de l’IA.

Par nature, la régulation de l’IA est un enjeu mondial106. C’est dire l’intérêt des nombreuses initiatives internationales (CSF, OCDE, ONU, etc.), qu’il convient désormais de fédérer. Il est nécessaire de mettre en place une coordination efficace afin de fournir un cadre de surveillance pour l’utilisation de l’IA, au niveau européen, avec la création d’une méthodologie commune pour l’audit des systèmes d’IA dans le secteur financier afin de réduire les risques microprudentiels.

3

L’IA peut-elle contribuer à l’amélioration des politiques financières ?

Notes

107.

Salman Bahoo, Marco Cucculelli, Xhoana Goga et Jasmine Mondolo, Artificial Intelligence in Finance: a comprehensive review through bibliometric and content analysis, Springer Nature Business and Economics, janvier 2024 [en ligne].

+ -

108.

Andrea L. Eisfeldt et Gregor Schubert, AI and Finance, NBER Working Paper n° 33076, octobre 2024 [en ligne].

+ -

109.

Bahoo et al., op.cit.

+ -

110.

BRI, op.cit., p. 5.

+ -

111.

Kenton Beerman, Jermy Prenio et Raihan Zamil, SupTech tools for prudential supervision and their use during the pandemic, FSI Insights on policy implementation, Décembre 2021 [en ligne]. Voir aussi Aldasoro et al., op. cit.

+ -

112.

La détection des violations potentielles en matière de lutte contre le blanchiment d’argent (AML) et le financement du terrorisme (CFT) est un domaine où les applications SupTech semblent les plus avancées selon Rodrigo Coelho, Marco de Simoni et Jermy Prenio, Suptech applications for anti-money laundering, FSI Insights on policy implementation n°18, août 2019 [en ligne].

+ -

113.

Conseil de stabilité financière, The use of supervisory and regulatory technology by authorities and regulated institutions: market developments and financial stability implications, octobre 2020 [en ligne].

+ -

114.

Elizabeth McCaul, “From data to decisions: AI and supervision”, Article de E. McCaul, membre du conseil de surveillance de la BCE pour Revue Banque, février 2024 [en ligne].

+ -

115.

BRI, op.cit. ; McCaul, op.cit.

+ -

116.

BRI, op.cit. ; McCaul, op.cit.

+ -

117.

Jon Danielsson, Robert Macrae et Andreas Uthemann, “Artificial Intelligence and systemic risk”, Journal of Banking and Finance, vol 140, juillet 2022 [en ligne].

+ -

L’IA peut contribuer à améliorer les politiques financières en aidant à mieux comprendre les évolutions financières et à préparer les décisions de politique économique. Cependant, l’exploitation de l’IA s’accompagne d’une série de défis.

Une meilleure compréhension des évolutions financières

Les outils de l’analyse bibliométrique offrent une revue de littérature de la recherche déjà abondante (publiée jusqu’en mars 2021) sur l’utilisation de l’IA en finance107. L’IA est appliquée au marché boursier (par exemple, prédiction du cours des actions), aux modèles de négociation (pour construire des systèmes de négociation automatisés intelligents), à la prévision de la volatilité, à la gestion de portefeuille (modèles d’allocation d’actifs), à l’évaluation des performances, des risques et des défaillances (prédiction des entreprises en difficulté financière, des défaillances de prêts hypothécaires et de prêts), aux risques de crédit dans les banques (prédiction des faillites bancaires, détection des fraudes financières et systèmes d’alerte précoce), à l’analyse du sentiment des investisseurs, à la gestion des devises étrangères. Eisfeldt et Schubert108 analysent les outils d’IA générative plus récents comme un choc technologique pour la recherche en finance, susceptible de réduire les coûts en temps et en argent des modèles de recherche existants en finance109 et de permettre de nouveaux types d’analyses. La BRI donne des exemples de pistes actuelles de recherche des banques centrales dans les domaines bancaire, financier et des systèmes de paiement : l’IA « est utilisée pour rechercher des standards et des innovations qui peuvent améliorer la résilience et la robustesse des systèmes de paiement, analyser l’impact des réglementations bancaires, calculer les mesures de complexité des réglementations prudentielles et bancaires etc.110 ».

Une amélioration des décisions de politique économique

L’IA a le potentiel d’aider les autorités de surveillance à identifier les anomalies en temps réel et à mieux anticiper l’impact des changements de réglementation. Par conséquent, les investissements des autorités financières dans les compétences et les ressources doivent suivre le rythme des évolutions afin de pouvoir évaluer de manière critique les développements de l’IA et l’utilisation de l’IA par les institutions financières. Toutefois, comme le notent le FMI, la BRI111, l’exploitation de l’IA pour les politiques micro et macroprudentielles s’accompagne d’une série de défis.

En ce qui concerne la politique microprudentielle, qui se concentre sur la surveillance des institutions financières individuelles, l’utilisation d’applications SupTech alimentées par l’IA, l’application de la technologie financière par les autorités à des fins de réglementation, de surveillance, de contrôle et de lutte contre le blanchiment de capitaux et le financement du terrorisme112, rend la surveillance prudentielle plus efficace en permettant de développer des modèles d’évaluation des risques plus sophistiqués, y compris pour les risques de crédit et de liquidité, et en améliorant la prédiction des risques émergents pour les institutions financières. Les outils SupTech sont utilisés par une majorité d’autorités113, par exemple la BCE114. Toutefois, comme le soulignent la BRI et McCaul115, les autorités doivent être conscientes des risques associés. Cela implique qu’elles doivent être en mesure d’expliquer le fonctionnement de leurs outils SupTech, compte tenu de leur opacité , tout comme les banques doivent être en mesure d’expliquer le fonctionnement de leurs modèles internes, et de fournir des lignes directrices claires pour l’utilisation de l’IA dans la supervision. En outre, avec la mise en œuvre opérationnelle d’outils ciblant des évaluations de risques complexes qui impliquent un jugement, et pour éviter que les superviseurs se fient moins à leur propre jugement, la BRI et McCaul116 soulignent que les outils SupTech soutiennent, plutôt qu’ils ne remplacent, le jugement des superviseurs, afin d’éviter les angles morts de la supervision et une perte plus large de connaissances institutionnelles. En fait, l’efficacité de la surveillance dépendra toujours en dernier ressort du jugement humain et de la culture du risque d’une organisation.

En ce qui concerne la politique macroprudentielle, qui se concentre sur la supervision du système financier dans son ensemble, il y aurait trois limites principales au recours par le superviseur à l’IA dans son état actuel de développement117. Tout d’abord, la critique de Lucas, c’est-à-dire le fait que les agents modifient leur comportement lorsque leur environnement change. À cet égard, l’introduction d’une « macro IA » constituerait un changement d’environnement et conduirait les agents à modifier leurs règles de décision. Cela rendrait imprévisibles les conséquences de l’adaptation des institutions financières à l’utilisation de l’IA. Deuxièmement, le caractère unique des crises financières : chaque crise a ses propres déclencheurs/facteurs de risque spécifiques, qui ne sont pas compris ex ante. Troisièmement, le caractère rare des crises financières, qui conduit à des prédictions incorrectes lors de l’extrapolation à partir de quelques points. Ces lacunes semblent impliquer que, du moins au stade actuel, la politique macroprudentielle n’a pas grand-chose à dire, voire rien du tout, sur les conséquences de la diffusion de l’IA dans le cadre de ses attributions. Des progrès futurs, tels que les modèles d’IA capables de raisonnement contrefactuel et d’inférence causale sont attendus. Ils pourront contribuer à améliorer la rapidité, la portée et la précision de la réglementation macroprudentielle, même si l’utilisation courante de ces méthodes est encore loin d’être acquise. En effet, l’IA donne la possibilité d’analyser de grandes quantités de données de surveillance et de marché et peut aider à mener des évaluations de risques plus rigoureuses afin d’identifier les vulnérabilités plus rapidement et d’envisager un plus large éventail de scénarios potentiellement perturbateurs. Elle peut ainsi améliorer la capacité des autorités à modéliser les tensions financières que de tels scénarios peuvent générer afin de garantir des réponses prudentielles opportunes aux nouvelles menaces. Ces considérations suggèrent que, même si l’IA contribuera à la collecte d’informations et à la modélisation de certaines parties des problèmes, la prise de décision en cas de crise restera probablement un domaine humain dans un avenir prévisible.

Notes

118.

Union de l’épargne et de l’investissement.

+ -

En conclusion, nous ne pensons pas que l’IA puisse déclencher un bouleversement de l’environnement économique ou financier. Cela va à l’encontre de deux idées reçues. La première est celle du « cauchemar », où une grande partie de la population active pourrait être remplacée par des machines, ce qui entraînerait une hausse du chômage et des inégalités, ainsi que des crises financières de grande ampleur, les robots mettant librement en œuvre des algorithmes qui amplifieraient les mouvements du marché. La deuxième idée relève du « conte de fées », dans lequel les robots remplaceraient les humains dans la plupart des tâches fastidieuses et physiquement épuisantes. Cela permettrait de réduire le temps de travail, à la fois au quotidien et tout au long de la vie, en particulier pour les personnes les moins qualifiées, et de gérer les portefeuilles de manière totalement passive, en réduisant les risques mais pas les rendements.

Dans l’ensemble, un environnement favorable devrait être fourni à l’IA. Les politiques de concurrence devraient garantir que les rentes ne sont pas entièrement accaparées par quelques entreprises dominantes, tandis que l’environnement réglementaire ne devrait pas étouffer l’innovation.

En outre, la réglementation du travail doit permettre une flexibilité suffisante, tandis que l’éducation et la formation, la politique fiscale et la gestion des ressources humaines dans le secteur public doivent être adaptées. Il est essentiel que le financement des entreprises innovantes soit abondant et alloué par les personnes et les institutions les plus compétentes, qui devraient également être individuellement responsables des décisions qu’elles prennent. Cela implique le développement du capital-risque et la création d’une UMC, complétée par une UEI118. L’IA n’appelle pas d’instruments politiques spécifiques, que ce soit dans le domaine économique ou financier. Au contraire, l’IA est à la fois un indicateur des failles et des limites des politiques publiques et un outil pour y remédier en partie, parallèlement à la mise en œuvre de réformes structurelles qui se font attendre depuis longtemps.

Nos dernières études
Commentaires (0)
Commentaires (0)
Commenter

Aucun commentaire.