Comment l’Europe et la Chine prennent de l’avance sur la régulation de l’IA, et pourquoi Sam Altman veut changer la donne

Comment l’Europe et la Chine prennent de l’avance sur la régulation de l’IA | Wdata Mg

 

L’intelligence artificielle (IA) est un domaine en pleine expansion, qui offre des opportunités et des défis sans précédent pour les entreprises, les citoyens et les gouvernements. Face à ces enjeux, comment les différentes régions du monde se positionnent-elles sur la question de la régulation de l’IA ? Quelle est la vision de Sam Altman, le président d’OpenAI, l’une des organisations les plus influentes dans le domaine de l’IA générative ? C’est ce que nous allons voir dans cet article..

L’Europe et la Chine en tête de la course à la régulation de l’IA

L’Europe et la Chine sont les deux régions qui ont le plus avancé sur le sujet de la régulation de l’IA. L’Europe a notamment proposé en avril 2021 son AI Act, un projet de règlement qui vise à établir un cadre juridique harmonisé pour l’IA au sein de l’Union européenne. Ce projet prévoit notamment de classer les applications d’IA en fonction de leur niveau de risque pour les droits fondamentaux et la sécurité des personnes, et d’imposer des exigences spécifiques en matière de transparence, de responsabilité et de contrôle humain. L’AI Act prévoit également des sanctions pouvant aller jusqu’à 6% du chiffre d’affaires annuel mondial pour les entreprises qui ne respecteraient pas les règles.

Illustration: Aïda Amer/Axios

La Chine, quant à elle, travaille depuis plusieurs années sur une législation qui encadrerait l’IA, notamment dans les domaines de la sécurité nationale, de la protection des données personnelles et de la propriété intellectuelle. En juillet 2021, le Conseil d’État chinois a publié un projet de loi sur la sécurité des données, qui vise à renforcer le contrôle du gouvernement sur les flux de données transfrontaliers et à protéger les intérêts nationaux. La Chine a également adopté en août 2021 une loi sur la protection des informations personnelles, qui impose aux opérateurs d’IA de recueillir le consentement des utilisateurs avant de collecter ou d’utiliser leurs données, et de respecter des principes d’équité et de non-discrimination.

Les États-Unis sont conscients qu’ils sont à la traîne au niveau de la régulation

Les États-Unis, en revanche, n’ont pas encore adopté de cadre législatif global pour l’IA, malgré les appels répétés de certains acteurs du secteur. Le pays se repose principalement sur les initiatives des États fédérés ou des agences gouvernementales, qui ont chacun leurs propres approches et priorités. Par exemple, la Californie a adopté en 2018 une loi qui oblige les bots à se présenter comme tels lorsqu’ils interagissent avec des humains sur internet. Le Département du commerce a publié en janvier 2020 des principes volontaires pour le développement et le déploiement responsables de l’IA. Le Congrès a également examiné plusieurs propositions de loi visant à encadrer certains aspects de l’IA, comme la reconnaissance faciale ou l’éthique.

Toutefois, ces efforts restent fragmentés et insuffisants face aux enjeux posés par l’IA. C’est pourquoi certains acteurs influents du secteur appellent à une régulation plus forte et plus cohérente au niveau fédéral. C’est le cas notamment de Sam Altman, le président d’OpenAI.

Sam Altman soutient l’importance d’une régulation

Sam Altman est le président d’OpenAI, une organisation à but non lucratif fondée en 2015 par des personnalités comme Elon Musk ou Peter Thiel, qui vise à créer une IA bénéfique pour l’humanité. OpenAI est notamment connue pour ses avancées dans le domaine de l’IA générative, c’est-à-dire capable de produire du contenu original à partir d’un texte ou d’une image. Par exemple, OpenAI a développé GPT-3, un modèle d’IA capable de générer du texte dans n’importe quel domaine ou style, à partir d’une simple requête.

Dans une interview accordée au New York Times en octobre 2021, Sam Altman a exprimé son point de vue sur la régulation de l’IA.

Voici ses principales idées :

– Il est en faveur de la création d’une agence gouvernementale qui délivrerait des autorisations pour travailler sur les modèles d’IA avancés. Vous imaginez bien que cela arrangerait les affaires d’OpenAI, puisque tous les concurrents ne pourraient pas se procurer cette précieuse autorisation.

– Il souhaite également une coopération internationale autour du sujet de la régulation, avec un leadership des États-Unis. Il pense que les États-Unis ont une responsabilité historique et morale à assurer le bien-être de l’humanité face aux risques potentiels de l’IA.

– Altman souhaite que les artistes soient rémunérés, mais il ne sait pas vraiment comment. Les IA génératives sont entraînées sur des créations protégées par le droit d’auteur. Du coup, selon Altman, ces artistes doivent être rémunérés. Par contre, il n’a rien de concret à nous proposer pour mettre en place cette rémunération…

– Altman pense que “l’IA peut causer des dégâts significatifs au monde“. Les IA génératives peuvent créer de la désinformation à une très grande échelle. Le danger le plus évident actuellement concerne donc notre démocratie.

Certains experts critiquent le fait qu’OpenAI possède trop de pouvoir

Si Sam Altman plaide pour une régulation plus forte et plus globale de l’IA, certains experts ne sont pas convaincus par sa démarche. Ils estiment qu’OpenAI possède trop de pouvoir et qu’elle n’est pas assez transparente sur ses activités et ses intentions.

Par exemple, Timnit Gebru, une chercheuse IA renommée qui a été licenciée par Google en 2020 pour avoir critiqué les biais des modèles d’IA du géant du web, pense que l’on ne devrait pas laisser les grosses compagnies IA définir les règles. Puisqu’elles essaieront tout logiquement de créer des règles qui les arrangent.

D’autres experts s’inquiètent du fait qu’OpenAI soit financée par des milliardaires comme Elon Musk ou Peter Thiel, qui ont leurs propres visions du monde et qui pourraient influencer les orientations de l’organisation.

En conclusion

L’IA est un domaine en pleine croissance, qui soulève des questions éthiques, juridiques et sociales majeures. L’Europe et la Chine sont les deux régionsqui ont le plus avancé sur le sujet de la régulation de l’IA, en proposant des cadres législatifs qui visent à protéger les droits et les intérêts des citoyens et des entreprises. Les États-Unis sont conscients qu’ils sont à la traîne au niveau de la régulation, et certains acteurs influents comme Sam Altman, le président d’OpenAI, appellent à une action plus forte et plus cohérente au niveau fédéral. Toutefois, la vision d’Altman n’est pas partagée par tous, et certains experts critiquent le fait qu’OpenAI possède trop de pouvoir et qu’elle n’est pas assez transparente sur ses activités et ses intentions.

Cet article a été rédigé et propulsé avec Auto-GP par Wdata Agence digitale 360, une agence spécialisée dans les prestationsdans l’IA.

Si vous souhaitez en savoir plus sur nos services ou nous confier votre projet, n’hésitez pas à nous contacter !

+261(0)38 08 888 07 (WhatsApp)

0 réponses

Répondre

Se joindre à la discussion ?
Vous êtes libre de contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *