05/09/24
|
17:24
Un traité mondial sur l'Intelligence Artificielle signé par les États-Unis, l'UE et le Royaume-Uni
C’est une grande première ! Les États-Unis, l'Union européenne et le Royaume-Uni vont signer un accord unique au monde pour encadrer l'intelligence artificielle (IA).
Cet accord, le tout premier traité international juridiquement contraignant sur l’IA, met en avant les droits humains et la responsabilité dans l’utilisation de cette technologie révolutionnaire.
Ce traité, baptisé Cadre international pour l’IA, oblige les pays signataires à garantir que leurs systèmes d’IA respectent les droits fondamentaux des citoyens, comme l’égalité et la vie privée.
L’idée est simple : si une intelligence artificielle cause des discriminations ou des préjudices, les victimes pourront agir en justice pour se défendre. En revanche, les sanctions exactes (comme des amendes) ne sont pas encore définies, et pour l'instant, le suivi des règles se fera surtout via des mécanismes de surveillance.
Une avancée pour un usage éthique de l'IA
L’objectif principal de cet accord est de promouvoir une utilisation responsable de l'intelligence artificielle, tout en garantissant la sécurité des citoyens. Selon Peter Kyle, le ministre britannique en charge de la Science et de la Technologie, cet accord représente "un premier pas crucial" pour réguler cette technologie à l'échelle mondiale. Il se réjouit que des pays aussi différents aient réussi à se mettre d’accord pour faire face aux défis posés par l’IA.
Ce traité a été en préparation depuis plusieurs années et a reçu l’appui de plus de 50 pays, parmi lesquels le Canada, le Japon, Israël et l'Australie. Tous ces pays ont collaboré pour élaborer des règles communes qui encadreront l’IA dans le but d’en faire une technologie au service de tous, tout en protégeant les droits humains.
L'Europe, pionnière dans la régulation de l'IA
Si cet accord marque une avancée mondiale, l'Union européenne avait déjà pris de l’avance en matière de régulation de l'IA. En effet, depuis le 1er août, l'UE applique un cadre législatif appelé Règlement sur l’IA, qui impose des règles strictes pour les systèmes d'IA les plus puissants.
Ce règlement, conçu pour protéger les citoyens européens, s'assure que les IA déployées sur le territoire européen respectent des normes de sécurité strictes.
Cependant, certaines entreprises de technologie estiment que ce règlement européen freine l'innovation. C'est notamment le cas de Meta, la société mère de Facebook, qui a choisi de ne pas lancer son nouveau modèle d'IA, Llama2, en Europe, en raison de ces contraintes.
Selon Meta, ces règles rendent trop difficile l'accès des Européens aux outils d'intelligence artificielle de pointe.
En août dernier, plusieurs grands noms de la tech ont uni leurs forces pour adresser une lettre aux dirigeants européens.
Leur message est clair : elles demandent plus de temps pour se conformer aux nouvelles règles. Ces entreprises estiment que les délais imposés sont trop courts et risquent de freiner leur capacité à innover dans le domaine de l'IA.
Si les règles de l'UE sont perçues comme une garantie de sécurité pour les citoyens, les entreprises craignent qu’elles ne limitent le développement de nouvelles technologies. Trouver un juste milieu entre régulation et innovation reste un défi majeur.
Aux États-Unis, il n'existe pas encore de loi nationale encadrant l’IA, mais l’administration de Joe Biden prend la question très au sérieux. Le gouvernement a déjà mis en place plusieurs groupes de travail pour réfléchir à des solutions afin d’assurer la sécurité des citoyens tout en encourageant l'innovation.
En Californie, un des épicentres de l’industrie de l'IA, de nouvelles lois sont en train de voir le jour. Deux projets de loi importants ont été adoptés récemment par l’Assemblée de l’État et attendent maintenant l’approbation du gouverneur.
Le premier texte régule l’utilisation des IA pour créer des répliques numériques non autorisées de célébrités décédées.
Le second, plus controversé, impose des tests de sécurité obligatoires pour les modèles d’IA les plus avancés et demande l’installation d’un bouton d'arrêt d'urgence pour ces modèles, afin d’éviter tout problème technique.
Alors que de plus en plus de pays se dirigent vers des réglementations plus strictes pour l’intelligence artificielle, le défi est de trouver l’équilibre parfait entre protection des citoyens et encouragement à l'innovation.
L'accord signé par les États-Unis, l'UE et le Royaume-Uni montre que la communauté internationale est prête à prendre ses responsabilités face aux défis de l’IA.
Ce traité mondial n’est qu’un début. Pour qu’il ait un réel impact, il devra être suivi par d’autres initiatives, et de nouveaux pays devront se joindre à cet effort. L’objectif ?
Garantir un avenir où l’IA sera utilisée de manière responsable, sûre et respectueuse des droits humains.
Advertencia :
Las declaraciones y opiniones presentadas en este artículo reflejan únicamente los puntos de vista del autor y no deben interpretarse como consejos de inversión. Realice su propia investigación antes de tomar cualquier decisión de inversión.