Rédigé par Emile Dev
24 mai 2023
L'Intelligence Artificielle (IA) est devenue une partie intégrante de notre vie quotidienne, transformant de nombreux secteurs, de la santé à la finance, en passant par l'éducation et le divertissement. Cependant, avec son évolution rapide et son potentiel d'impact significatif sur la société, la nécessité d'une réglementation appropriée est devenue de plus en plus évidente. Dans ce contexte, l'Europe a pris des mesures pour élaborer des règles autour de l'IA. Cet article explore l'état actuel de la réglementation de l'IA en Europe.
L'Union européenne a récemment franchi une étape importante dans la réglementation de l'IA avec l'approbation du projet de loi ambitieux appelé "AI Act" par les principales commissions du Parlement européen. Ce projet de loi vise à classer les systèmes d'IA selon quatre niveaux de risque, allant de minime à inacceptable.
Un niveau de risque "inacceptable" signifie que l'utilisation de l'IA est interdite. Par exemple, le système de crédit social en Chine, où les gouvernements locaux classent les "bons" et les "mauvais" citoyens, serait considéré comme inacceptable. D'autres utilisations inacceptables comprennent l'identification biométrique en temps réel dans les espaces publics, où l'IA scanne votre visage et vous identifie automatiquement.
Les systèmes d'IA utilisés dans des catégories à haut risque, telles que l'emploi et l'éducation, qui pourraient affecter le cours de la vie d'une personne, seront également soumis à des exigences strictes. Les infractions à ces règles pourraient entraîner des amendes pouvant aller jusqu'à 6% du chiffre d'affaires annuel mondial de l'entreprise.
Cependant, l'élaboration de cette loi n'est pas sans défis. Les législateurs doivent trouver un équilibre délicat entre la réglementation des dommages et des risques potentiels et la garantie de ne pas étouffer l'innovation. De plus, la définition de l'IA a été un sujet de controverse tout au long du processus d'élaboration de la loi. Une définition trop étroite pourrait ne pas couvrir certains dommages potentiels, tandis qu'une définition trop large pourrait être trop inclusive et étouffer l'innovation.
Malgré ces défis, l'Europe est sur la bonne voie pour mettre en place une réglementation solide de l'IA. Une fois adopté, le projet de loi n'entrera probablement pas en vigueur immédiatement. Une période de grâce devrait être accordée aux acteurs du marché pour se conformer aux nouvelles règles.
Le Parlement a également mis en place une commission spéciale sur l’intelligence artificielle à l’ère du numérique (AIDA), qui a pour objectif d’analyser les impacts et les opportunités de l’IA pour l’économie et la société européennes. La commission AIDA a adopté son rapport final en mai 2022, qui propose une feuille de route pour une stratégie européenne cohérente et ambitieuse sur l’IA.
En parallèle, OpenAI, l'entreprise qui développe ChatGPT, a récemment exprimé son inquiétude quant aux risques existentiels que pourraient représenter les intelligences artificielles superintelligentes. Ils ont appelé à une régulation mondiale de ces systèmes, incluant des inspections, des audits et des restrictions pour assurer la sécurité de l'humanité.
Selon OpenAI, il est plausible que, dans les dix prochaines années, les systèmes d'IA dépassent les compétences des experts dans la plupart des domaines et soient aussi productifs qu'une grande entreprise. La superintelligence pourrait ainsi devenir la technologie la plus puissante jamais confrontée par l'humanité, avec des avantages considérables, mais également des inconvénients majeurs. Ils estiment qu'il est impératif de gérer les risques de manière proactive et de ne pas se contenter de réagir aux événements.
Le trio de dirigeants demande une coordination entre les entreprises travaillant sur l'IA de pointe afin de garantir le développement harmonieux de modèles toujours plus performants tout en assurant la sécurité. Cette coordination pourrait prendre la forme d'un projet gouvernemental ou d'une convention collective visant à limiter la croissance des capacités de l'IA.
Le Center for AI Safety (CAIS), basé aux États-Unis, identifie huit catégories de risques catastrophiques et existentiels liés à l'IA. Outre la crainte d'une IA puissante détruisant délibérément, ou accidentellement, l'humanité, le CAIS souligne également d'autres conséquences néfastes. Par exemple, une dépendance croissante à l'IA pourrait entraîner une perte de capacité d'autogouvernance de l'humanité, ainsi qu'une centralisation du pouvoir entre les mains d'un petit groupe de personnes, créant ainsi des inégalités de pouvoir durables. Sans parler des 300 millions d'emplois en danger.
Malgré ces risques, les dirigeants d'OpenAI estiment que le développement continu de systèmes puissants en vaut la peine, car cela peut conduire à un avenir meilleur, même si les risques doivent être gérés avec précaution. En France, la CNIL a commencé à prendre des mesures à l'encontre de ChatGPT.
Néanmoins, certains internautes s’indignent de cette règlementation sur l’IA qui serait selon eux prématurée. D’autres critiquent le fait que l’Europe ne fait rien d’autre que réguler tout en se targuant d’être le “premier continent à proposer une règlementation sur l’IA”, pendant que les autres continents eux sont en train de construire ce que sera le futur :
Un autre internaute compare directement l’UE avec les USA en raillant le mode de fonctionnement européen :
En conclusion, l'Europe fait des progrès significatifs dans la réglementation de l'IA. Bien que le processus soit complexe et plein de défis, l'importance de mettre en place des règles appropriées pour réguler l'IA est indéniable. Avec l'adoption de l'AI Act, l'Europe est en bonne voie pour établir un cadre réglementaire solide qui protège les citoyens tout en favorisant l'innovation.
1. Qu'est-ce que l'AI Act ? L'AI Act est un projet de loi ambitieux de l'Union européenne qui vise à réglementer l'utilisation de l'IA. Il classe les systèmes d'IA selon quatre niveaux de risque, allant de minime à inacceptable.
2. Quelles sont les utilisations inacceptables de l'IA selon l'AI Act ? Les utilisations inacceptables de l'IA comprennent le système de crédit social où les gouvernements classent les "bons" et les "mauvais" citoyens, et l'identification biométrique en temps réel dans les espaces publics.
3. Quels sont les défis de la réglementation de l'IA ? Les défis de la réglementation de l'IA comprennent la nécessité de trouver un équilibre entre la réglementation des dommages et des risques potentiels et la garantie de ne pas étouffer l'innovation. De plus, la définition de l'IA a été un sujet de controverse.
4. Quand l'AI Act entrera-t-il en vigueur ? Une fois adopté, l'AI Act n'entrera probablement pas en vigueur immédiatement. Une période de grâce devrait être accordée aux acteurs du marché pour se conformer aux nouvelles règles.
5. Quel est l'avenir de la réglementation de l'IA en Europe ? L'Europe est sur la bonne voie pour mettre en place une réglementation solide de l'IA. Malgré les défis, l'importance de mettre en place des règles appropriées pour réguler l'IA est indéniable.