L’intelligence artificielle

Union européenne
Politique économique
Autrices, auteurs
Date de publication

28 octobre 2024

Compte rendu de la Journée d’études « L’intelligence artificielle» du 2 février 2024 à Sciences Po Paris, dans le cadre du séminaire Théorie et économie politique de l’Europe organisé par le Cevipof et l’OFCE.

Le séminaire « Théorie et économie politique de l’Europe », organisé conjointement par le Cevipof et l’OFCE (Sciences Po), vise à interroger, au travers d’une démarche pluridisciplinaire systématique, la place de la puissance publique en Europe, à l’heure du réordonnancement de l’ordre géopolitique mondial, d’un capitalisme néolibéral arrivé en fin du cycle et du délitement des équilibres démocratiques face aux urgences du changement climatique. La théorie politique doit être le vecteur d’une pensée d’ensemble des soutenabilités écologiques, sociales, démocratiques et géopolitiques, source de propositions normatives tout autant qu’opérationnelles pour être utile aux sociétés. Elle doit engager un dialogue étroit avec l’économie qui elle-même, en retour, doit également intégrer une réflexivité socio-politique à ses analyses et propositions macroéconomiques, tout en gardant en vue les contraintes du cadre juridique.

Réunissant des chercheurs d’horizons disciplinaires divers, mais également des acteurs de l’intégration européenne (diplomates, hauts fonctionnaires, prospectivistes, avocats, industriels etc.), chaque séance du séminaire donnera lieu à un compte rendu publié sur les sites du Cevipof et de l’OFCE.

Intervenants : Céline ANTONIN (OFCE), Gilles BABINET (Conseil national du numérique), David FOREST (Université Paris-I Panthéon-Sorbonne) et Winston MAXWELL (Télécom Paris)

La perspective économique : effet de productivité et effet de remplacement de l’IA

Céline Antonin, enseignante-chercheuse à l’OFCE, chercheuse associée au Collège de France et membre du Conseil national de productivité, soulève la question de savoir si l’intelligence artificielle (IA) constitue une nouvelle forme de révolution industrielle, une nouvelle forme d’automatisme ou quelque chose de différent, considérant le fait que l’IA générative permet de créer de manière autonome des contenus originaux.

Est-ce que l’IA augmente la productivité ? On distingue deux effets de l’automatisation : l’effet d’éviction (remplacement de certaines tâches du travail humain) et l’effet de productivité (libération de temps créatif humain augmentant la productivité des salariés, gain de compétitivité, augmentation des parts de marché et donc de l’emploi). Selon l’économiste américain Richard Baldwin, les salariés vont être davantage productifs grâce à l’IA.

Une étude1 s’intéresse à l’IA dans les logiciels pour PME : elle étudie les salariés chargés du conseil aux PME. La conséquence de l’introduction de IA générative sur la productivité est de +14 % de productivité dès le premier mois. L’IA permet d’augmenter le nombre de tâches effectuées. Une autre étude2 observe l’effet de l’IA sur des diplômés du supérieur ayant des tâches de rédaction à réaliser : l’IA permet de réduire de 40% le temps de rédaction. De manière générale, on constate que l’IA a un effet d’homogénéisation : les moins bons salariés vont rattraper la productivité des bons salariés.

1 Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at work (No. w31161). National Bureau of Economic Research.

2 Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science381(6654), 187-192.

3 Pawel, G., Berg, J., & David, B. (2023). Generative AI and jobs a global analysis of potential effects on job quantity and quality. International Labour Organization.

4 Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). Gpts are gpts: An early look at the labor market impact potential of large language models. arXiv preprint arXiv:2303.10130.

En matière d’emploi, observe-t-on un effet complémentaire ou de substitution ? Quelles sont les tâches potentiellement automatisables par l’IA ? Selon une étude de l’Organisation internationale du travail (OIT)3 , l’IA a un potentiel d’augmentation de productivité pour les managers (libération du temps par l’IA pour des tâches créatives) mais également un potentiel de remplacement pour les salariés de bureau. Sur l’ensemble des emplois, l’IA génère davantage de potentiel d’augmentation, quel que soit le niveau de revenu. Une étude d’Eloudou et al. (2023) estime qu’environ 20 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées par l’introduction des grands modèles de langage de type ChatGPT4 . Le potentiel de remplacement de l’IA semble surtout concerner les emplois intermédiaires.

Les enjeux de l’IA portent sur la formation, la technique, le droit, la géopolitique et l’éthique. En matière de politique de formation, pour la formation initiale, il faut anticiper les métiers de demain en formant les gens à la partie créative du travail. L’IA entraîne une plus forte demande de main d’œuvre qualifiée capable de produire du contenu non généré par IA. Sur les enjeux techniques, il faut être vigilant sur les biais algorithmiques. Sur le plan du droit, l’IA soulève des problématiques en droit de la concurrence avec une distanciation des entreprises de l’IA (notamment les GAFAM) grâce aux mégadonnées qui créent des barrières à l’entrée des marchés. Faudra-t-il repenser le droit de la concurrence à la lumière des conséquences de l’IA ? En droit du travail, l’IA pose le problème du travail précaire (plateformisation). L’IA soulève également des problématiques de protection juridique des données personnelles. Enfin, sur le plan éthique, l’IA pose la question quelle société voulons-nous, au regard des usages possibles de l’IA : souhaitons-nous être jugés, soignés par une IA ?

La perspective des acteurs : la valeur naît dorénavant de la transversalisation du processus de production

Gilles Babinet, co-président du Conseil national du numérique (président du CNNum), souligne que la productivité s’affaisse (stagnation séculaire), avec le paradoxe frustrant pour le monde du numérique quand on parle de révolution numérique mais sans observer de gain de productivité depuis la fin des années 1990 (pas de traduction réelle dans le monde économique). Or il n’y a pas de révolution sans gain de productivité. C’est la fameuse joute entre Brennan Johnson et Anthony Gordon. Mais Gordon reconnaît qu’il se passe sans doute quelque chose avec l’IA. L’IA produirait-il les gains de productivité tant attendus par l’économie numérique ?

Il faut rappeler que la productivité n’est pas qu’une histoire de technique. En effet, les révolutions technologiques systémiques sont liées à un contexte systémique social. Par exemple, pour le moteur à explosion, il a fallu attendre 50 ans entre son invention et sa généralisation à la société. Le capital humain est toujours long à former. De même, il faut faire attention dans la mesure de la productivité : on ne peut pas prendre une échelle de temps de 6 mois. Nous avons à ce jour beaucoup d’études contradictoires sur le sujet de l’IA : certaines concluent que ce sont les gens moins productifs qui voient leur productivité remonter. Mais d’autres études concluent à l’inverse : ce sont les gens très qualifiés qui vont être affectés par l’IA (exemple : les avocats spécialisés) tandis que les tâches peu qualifiées (la livraison, par exemple) ne seront pas remplacées dès demain par la robotique. D’autre part, la productivité de l’IA mesurée aujourd’hui ne sera pas celle des prochains outils d’IA.

L’enjeu est celui de la nature du système productif : on passe d’un système productif structuré sur la notion de taylorisation et silo-isation à un système transversal. La valeur se fait dorénavant dans la capacité à comprendre l’ensemble de la production de valeur et non dans ses éléments. C’est le phénomène de plateformisation : la valeur se fait sur l’ensemble du processus, et non dans les éléments du processus. Or les frottements du système productif se produisent dans ses différentes phases et l’IA permet de réduire ces frottements. L’IA joue ainsi une fonction de « soudure » des phases de production. Par exemple, pour les aciéristes en 2030, une partie significative de la valeur se fera dans le recyclage (avec un taux de 60%), avec alors l’enjeu d’être capable de suivre l’ensemble du circuit de l’acier. C’est une illustration de la transversalisation du processus de production. Il est à noter la similitude entre les enjeux d’environnement et les enjeux de data (IA).

L’enjeu de l’IA se décline en 4 points principaux :

  • l’enjeu de formation ;

  • la notion de mutation du système productif : clusterisation par types d’acteur (par exemple, pour Dunkerque et son industrie lourde, l’enjeu est de « souder » les données (data) des acteurs) ;

  • l’enjeu d’un anti-trust quasi-politique, extrêmement fort : car on assiste à l’émergence d’un monde inverse de l’ancien monde de la globalisation, et pour autant ce nouveau monde nécessite de la coopération internationale. L’Europe a alors besoin d’une Commission européenne dotée d’une vision politique, capable de défendre l’anti-trust européen ;

  • l’enjeu de préserver l’efficacité du marché : dans un moment où l’on parle à tout va de souveraineté, il y a un mépris pour le marché qui peut être négatif. La spécialisation des nations est très efficace et il ne faut pas rejeter cela. Raconter aux citoyens européens qu’on va se remettre à industrialiser des puces en Europe n’est pas réaliste quand on connaît le très faible taux de succès des plans industriels européens (un seul cas de réussite en 70 ans : Airbus). La notion de spécialisation est importante : dans un contexte de falaise d’investissements pour la transition écologique, l’Europe a l’opportunité de se spécialiser dans l’articulation entre IA et services environnementaux. Mais on souffre malheureusement d’une méconnaissance par les pouvoirs politiques de ces sujets fondamentaux.

La perspective juridique : l’enjeu de la mise en cohérence du nouveau régime normatif de l’IA

David Forest, maître de conférences HDR associé à l’Université Paris-I Panthéon-Sorbonne, qui rappelle que le Comité permanent des représentants (COREPER) va adopter aujourd’hui le règlement sur l’IA, à la suite du document adopté par le trilogue en décembre 2023, propose la mise en perspective suivante. On peut identifier une première période (2016-2018) qui se caractérise par une approche par l’algorithme, avec un examen de la méthode (et non un examen comme produit). L’algorithme constitue une « boîte noire » : il faut alors rendre cette boîte noire transparente afin de l’auditer et garantir le respect des droits des tiers. Cette approche modifie la loi CNIL de 1978. On adopte le biais de l’éthique (et non une approche normative contraignante) : c’est, entre autres, le rapport Villani de 2018 sur la gouvernance de l’IA. Les Etats-Unis éditent de leur côté un guide de référence pour les ingénieurs de la tech.

La période actuelle se caractérise par une densification normative : directive de 2019 sur les données ouvertes, Digital Market Act, Digital Service Act, Digital Governance Act (2023), Data Act (11 janvier 2024). Dans cette veine, le Conseil de l’Europe travaille à une convention sur l’IA et les droits fondamentaux5. L’enjeu de ce mouvement est de donner une cohérence d’ensemble sur ces normes juridiques.

5 Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit a été adoptée le 17 mai 2024 par le Comité des ministres du Conseil de l’Europe.

Il faut avoir à l’esprit que l’IA générative date, pour le grand public et l’opinion, de ChatGPT (novembre 2022). Les systèmes d’IA reposent sur l’entraînement d’algorithme sur de vaste banque de données, à très grande échelle. Le règlement européen sur l’IA du 13 juin 2024 complète les règlements existants, dont le RGPD, d’où la complexité de l’environnement normatif actuel sur l’IA. L’approche retenue est celle d’une approche souple basée sur le risque, avec une gradation des sanctions (4 catégories de risques : risque minimal, risque limité, risque élevé, risque inacceptable). Sont considérés comme constituant un risque inacceptable : les usages de l’IA en médecine, pour la reconnaissance des émotions, ou scoring pour l’attribution de crédits.

Un problème majeur posé par l’IA est le pillage silencieux par les systèmes d’IA de droits exclusifs (droits d’auteur) qui supposent une autorisation préalable (c’est le procès du New York Times contre OpenAI). L’entrainement et le sourçage par l’algorithme correspond-il à un acte de reproduction ? Y compris si l’IA ne produit pas un contenu similaire aux sources sur lesquelles elle s’est exercée ? La directive de 2019 donne une définition modifiée de la reproduction qui suppose une communication indirecte à un public au terme d’un processus de transformation par l’IA. Une exception à ce droit de reproduction peut-elle être invoquée pour contourner par le principe de l’autorisation préalable ? Exception sur le principe de fouille de données : pour la recherche scientifique, mais peut aussi être invoqué en dehors de la recherche scientifique à la condition que le titulaire n’a pas exercé un droit d’opposition. Mais comment vérifier cela ?

La perspective de la souveraineté numérique : une alchimie complexe de dimensions économiques, régaliennes et sociales

Winston Maxwell, Professeur de droit à Télécom Paris (Institut Polytechnique de Paris), traite de la question de la souveraineté numérique et de l’IA. Qu’est-ce que la souveraineté numérique avec l’IA ? L’enjeu est de protéger trois types d’intérêt : 1/ les intérêts économiques : comment garantir une industrie de l’IA forte en France et en Europe ? Comment y favoriser l’innovation et garder les talents ? 2/ Les intérêts régaliens : comment se protéger contre les cybermenaces, contre la dépendance excessive en matière numérique et d’IA (semi-conducteurs). 3/ Les intérêts sociaux : comment protéger les valeurs européennes, l’État de droit ?

Les trois dimensions de la souveraineté numérique sont : 1/ la couche « infrastructures » : disposer de ressources d’informatique ; 2/ la couche « données » : avoir une très grande masse de données d’apprentissage (mais obstacle de la RGPD, comparé aux USA) ; 3/ couche « talents/innovations » : avoir des scientifiques et des ingénieurs de top niveau, avec une appétence pour l’innovation.

Comment les États-Unis assurent-ils leur propre souveraineté numérique ? Les États-Unis se sentent menacés par la Chine sur l’IA et font beaucoup d’effort pour garantir une souveraineté numérique, avec entre autres la création d’un National Artificial Intelligence Research Resource Pilot (NAIRR) doté de 2 milliards de dollars afin de créer des clusters centres calculs et bases de données mis à dispo des chercheurs et des start-ups, selon l’objectif que ces données et cette puissance de calcul ne soient pas uniquement accessibles aux grandes entreprises (contre la fermeture du marché par l’intégration verticale). Les États-Unis mènent également un politique de concurrence forte (enquête contre Microsoft, OpenAI…) et d’immigration ouverte aux ingénieurs et data scientists (avec des campagnes publicitaires à l’étranger afin d’attirer les talents).

Pour conclure avec un point historique, Winston Maxwell rappelle que la technologie à la base d’Internet a été inventée pour partie par des chercheurs français, que le Plan Minitel n’a pas été un franc succès, que la France a dépensé beaucoup d’argent pour soutenir Alcatel, en vain. Quelle leçon tirer de cet échec dans le numérique ? Il faut être très prudent en matière de grands investissements qui peuvent, en apparence, concourir à la souveraineté, mais qui se révèlent rapidement inutiles en raison de la rapidité de l’évolution technologique.