Pour une régulation équilibrée de l'intelligence artificielle

Laurence Daziano | 28 septembre 2023

L'intelligence artificielle génère chaque année 4,3 milliards d'euros et emploie 50.000 personnes. Bien qu'une régulation soit nécessaire, elle devra garantir une liberté d'action pour innover, estime Laurence Daziano.

Les députés européens ont conclu le 14 juin dernier un accord sur la régulation de l’intelligence artificielle (IA). L’Union européenne veut être la première à se doter d’un cadre juridique complet pour limiter les dérives de l’IA. Le projet européen prévoit d’offrir une sécurité juridique aux entreprises pour l’innovation, mais aussi d’interdire la reconnaissance faciale dans les lieux publics et de soumettre les robots conversationnels, de type ChatGPT, à des obligations de transparence. L’IA génère chaque année 4,3 milliards d’euros et emploie 50.000 personnes. Les capacités infinies de l’IA nécessitent une régulation repensée. Avec l’IA, nous passons de l’interaction entre l’homme et la machine à une intelligence générative qui permet une collaboration et structure des données sans connexion entre elles avant. L’IA sait apprendre et peut évoluer : avec ses capacités de connexions « autoapprenantes », l’IA va devenir de plus en plus intelligente et pertinente.

Eviter la désinformation

Pour maîtriser la génération de ces nouvelles informations et leur utilisation, une régulation est nécessaire pour assurer la précision, la fiabilité et la non-discrimination des données utilisées. Il s’agit d’éviter des usages qui permettraient la désinformation et la manipulation de l’information et également de conforter les valeurs démocratiques, la pluralité de l’information et d’assurer la sécurité des données des utilisateurs.

Comment traduire numériquement la volonté de donner des réponses qui reprennent des valeurs « européennes » ? Pour fonctionner, l’IA a besoin de collecter le plus d’informations possible qu’elle assemble ensuite. Si une IA ne s’entraîne qu’à assembler des données « européennes », ses résultats seront biaisés car les sources manqueront de diversité et ses résultats ne seront plus utilisés en dehors de l’Europe. L’IA se trouve également au cœur d’une injonction contradictoire concernant les droits d’auteur. Certaines parties prenantes souhaitent verrouiller l’accès aux données en imposant des droits d’auteur au motif que l’IA, ChatGPT, Midjourney ou LLaMA, plagie les œuvres. L’IA ne pourrait plus s’entraîner sur ces données, alors que les réponses générées par l’IA ne sont, par nature, pas une copie des textes existants.

Copier-coller

Plus l’IA se perfectionnera, plus les réponses seront construites et élaborées, et éloignées du « copier-coller ». Demander une autorisation d’utiliser des données disponibles reviendrait à faire circuler moins d’informations et à ralentir l’apprentissage del’IA. Si l’IA ne peut plus collecter ces données, « apprises » dans les livres ou dans la presse, elle cherchera ses informations ailleurs, par exemple sur les réseaux sociaux, les sites gouvernementaux et académiques avec des conséquences sur la diversité de l’information. Les opportunités de l’IA sont infinies. Dans le domaine de la santé, l’IA permettra de réaliser des diagnostics pour créer rapidement de nouveaux médicaments. Dans le domaine industriel, l’IA conduira des projets de grande ampleur, mais aidera aussi de petites entreprises pour accéder à de nouveaux marchés. Pour le climat, l’IA optimisera le déplacement des transports afin de moins consommer de carburant. La régulation de l’IA devra garantir l’innovation, la libre utilisation et la pleine capacité de cette nouvelle technologie révolutionnaire.

Laurence Daziano, maître de conférences à Sciences Po, est membre du conseil scientifique de la Fondapol.
Retrouvez l’article sur lesechos.fr 
Commentaires (0)
Commenter

Aucun commentaire.