Le Parlement européen a adopté l’AI Act*, loi européenne sur l’intelligence artificielle, unique au niveau mondial. Le texte édicte des règles pour encadrer les systèmes d’intelligence artificielle ; il est le résultat de mois de débats et de négociations. Car les craintes se font plus présentes et les alertes plus fortes avec l’apparition de machines capables de reproduire le travail humain en mieux, de créer des compositions artistiques, de reproduire les voix et les visages, de les identifier et les traquer partout, de faire la guerre. Aujourd’hui ces machines d’intelligence artificielle ont acquis des capacités remarquables non seulement pour manipuler mais aussi pour générer du langage, qu’il s’agisse de mots, de sons ou d’images. C’est le cas emblématique de ChatGPT, développé la start-up californienne OpenAI. Un seuil vient dès lors d’être franchi, événement qui fait dire au célèbre essayiste Yuval Noah Harari dans une tribune à The Economist : « l’intelligence artificielle a piraté le système d’exploitation de notre civilisation ». Nous en publions ici des extraits.
Le langage est la matière dont est faite la quasi-totalité de la culture humaine. Les droits de l’homme, par exemple, ne sont pas inscrits dans notre ADN. Il s’agit plutôt d’artefacts culturels que nous avons créés en racontant des histoires et en écrivant des lois. Les dieux ne sont pas des réalités physiques. Ce sont plutôt des artefacts culturels que nous avons créés en inventant des mythes et en écrivant des écritures.
L’argent est lui aussi un artefact culturel. Les billets de banque ne sont que des morceaux de papier colorés et, à l’heure actuelle, il s’agit simplement d’informations numériques stockées dans des ordinateurs. Ce qui donne de la valeur à l’argent, ce sont les histoires que les banquiers, les ministres des finances et les gourous de la crypto-monnaie nous racontent à son sujet. Ils sont souvent d’excellents conteurs.
Que se passera-t-il lorsqu’une intelligence non humaine deviendra meilleure que l’homme moyen pour raconter des histoires, composer des mélodies, dessiner des images et rédiger des lois et des écritures ? Lorsque les gens pensent à ChatGPT et à d’autres nouveaux outils d’intelligence artificielle, ils pensent d’abord aux écoliers qui utilisent l’intelligence artificielle pour rédiger leurs dissertations. Qu’arrivera-t-il au système scolaire lorsque les enfants feront cela ? Mais ce genre de question ne tient pas compte de la situation dans son ensemble. Oubliez les dissertations scolaires. Pensez à la prochaine course présidentielle américaine en 2024 et essayez d’imaginer l’impact des outils d’IA qui peuvent être utilisés pour produire en masse du contenu politique, des fausses nouvelles et des écritures pour de nouvelles sectes. Car il se pourrait qu’à l’avenir nous assistions à la naissance des premiers cultes dont les textes vénérés seraient rédigés par une intelligence non-humaine. Tout au long de l’histoire, les religions ont revendiqué une source non humaine pour leurs livres saints. Cela pourrait bientôt devenir une réalité.
Conversations intimes
Plus prosaïquement, nous pourrions bientôt nous retrouver à mener de longues discussions en ligne sur l’avortement, le changement climatique ou l’invasion russe de l’Ukraine avec des entités que nous pensons être des humains, mais qui sont en réalité des IA. Or l’IA pourrait affiner ses messages avec une telle précision qu’elle aurait de bonnes chances de nous influencer.
Grâce à sa maîtrise du langage, l’IA pourrait même nouer des relations intimes avec les gens et utiliser le pouvoir de l’intimité pour changer nos opinions et nos visions du monde. Dans une bataille politique pour les esprits et les cœurs, l’intimité est l’arme la plus efficace, et l’IA vient d’acquérir la capacité de produire en masse des relations intimes avec des millions de personnes. Nous savons tous qu’au cours de la dernière décennie, les médias sociaux sont devenus un champ de bataille pour le contrôle de l’attention humaine. Avec la nouvelle génération d’IA, le champ de bataille se déplace de l’attention à l’intimité. Qu’adviendra-t-il de la société et de la psychologie humaines lorsque les IA se battront contre les IA pour créer de fausses relations intimes avec nous, qui pourront ensuite être utilisées pour nous convaincre de voter pour tel ou tel politicien ou d’acheter tel ou tel produit ?
Même sans créer de « fausse intimité », les nouveaux outils de l’IA auront une influence considérable sur nos opinions et nos visions du monde. Pourquoi s’embêter à chercher, alors qu’il suffit de demander à l’oracle ? Les secteurs de l’information et de la publicité devraient être terrifiés. Pourquoi lire un journal quand je peux demander à l’oracle de me donner les dernières nouvelles ? Et à quoi servent les publicités, alors que je peux simplement demander à l’oracle de me dire quoi acheter ?
La fin de l’histoire de l’humanité
Et même ces scénarios ne rendent pas vraiment compte de la situation dans son ensemble. Ce dont nous parlons, c’est potentiellement la fin de l’histoire de l’humanité. Non pas la fin de l’histoire, mais la fin de sa partie dominée par l’homme. L’histoire est l’interaction entre la biologie et la culture, entre nos besoins biologiques et nos désirs pour des choses comme la nourriture et le sexe, et nos créations culturelles comme les religions et les lois. L’histoire est le processus par lequel les lois et les religions façonnent la nourriture et le sexe.
Qu’adviendra-t-il du cours de l’histoire lorsque l’IA s’emparera de la culture et commencera à produire des histoires, des mélodies, des lois et des religions ? Les outils précédents, tels que l’imprimerie et la radio, ont contribué à diffuser les idées culturelles des humains, mais ils n’ont jamais créé de nouvelles idées culturelles propres. L’IA est fondamentalement différente. L’IA peut créer des idées complètement nouvelles, une culture complètement nouvelle.
Au début, l’IA imitera probablement les prototypes humains sur lesquels elle a été formée à ses débuts. Mais au fil des années, la culture de l’IA ira audacieusement là où aucun humain n’est allé auparavant. Pendant des millénaires, les êtres humains ont vécu dans les rêves d’autres humains. Dans les décennies à venir, nous pourrions nous retrouver à vivre dans les rêves d’une intelligence artificielle.
La peur des illusions
La peur de l’IA n’a hanté l’humanité qu’au cours des dernières décennies. Mais depuis des milliers d’années, les humains sont hantés par une peur bien plus profonde. Nous avons toujours apprécié le pouvoir des histoires et des images pour manipuler notre esprit et créer des illusions. Par conséquent, depuis l’Antiquité, l’homme craint d’être piégé dans un monde d’illusions. Au XVIIe siècle, Descartes craignait qu’un démon malveillant ne l’enferme dans un monde d’illusions, créant tout ce qu’il voyait et entendait. Dans la Grèce antique, Platon a raconté la célèbre Allégorie de la caverne, dans laquelle un groupe de personnes est enchaîné à l’intérieur d’une caverne toute leur vie, face à un mur vide. Un écran. Sur cet écran, ils voient projetées diverses ombres. Les prisonniers prennent les illusions qu’ils y voient pour la réalité.
Dans l’Inde ancienne, les sages bouddhistes et hindous ont souligné que tous les humains vivaient piégés dans le monde de Maya, le monde des illusions. Ce que nous prenons normalement pour la réalité n’est souvent qu’une fiction dans notre propre esprit. Des personnes peuvent mener des guerres entières, tuer d’autres personnes et accepter d’être tuées elles-mêmes, parce qu’elles croient en telle ou telle illusion.
La révolution de l’IA nous confronte au démon de Descartes, à la caverne de Platon, à la Maya. Si nous n’y prenons garde, nous risquons d’être piégés derrière un rideau d’illusions que nous ne pourrons pas arracher – ou dont nous ne pourrons même pas nous rendre compte qu’il existe.
Le bien et le mal
Bien sûr, le nouveau pouvoir de l’intelligence artificielle pourrait également être utilisé à des fins positives. Inutile de s’attarder sur ce point, car ceux qui développent l’IA en parlent suffisamment. Mais il est certain que l’intelligence artificielle peut nous aider d’innombrables façons, qu’il s’agisse de trouver de nouveaux traitements contre le cancer ou des solutions à la crise écologique. La question qui se pose est de savoir comment s’assurer que les nouveaux outils de l’intelligence artificielle sont utilisés pour le bien plutôt que pour le mal. Pour ce faire, nous devons d’abord apprécier les véritables capacités de ces outils.
Depuis 1945, nous savons que la technologie nucléaire peut produire de l’énergie bon marché au profit des humains, mais qu’elle peut aussi détruire physiquement la civilisation humaine. Nous avons donc remodelé l’ensemble de l’ordre international afin de protéger — jusqu’à présent — l’humanité et de veiller à ce que la technologie nucléaire soit utilisée principalement pour le bien. Aujourd’hui, nous devons faire face à une nouvelle arme de destruction massive qui peut anéantir notre monde mental et social.
Nous pouvons encore réglementer les nouveaux outils informatiques comme tente de le faire l’Europe avec le vote sur l’AI Act*, mais nous devons agir rapidement. Alors que les armes nucléaires ne peuvent pas inventer des armes nucléaires plus puissantes, l’intelligence artificielle peut créer une intelligence artificielle exponentiellement plus puissante.
Les déploiements non réglementés de l’intelligence artificielle créeraient un chaos social qui profiterait aux autocrates et ruinerait les démocraties. La démocratie est une conversation, et les conversations reposent sur le langage. Si l’intelligence artificielle pirate le langage, elle risque d’anéantir notre capacité à avoir des conversations constructives, et donc de détruire la démocratie. Nous devrions réglementer l’intelligence artificielle avant qu’elle ne nous réglemente. Et la première réglementation serait d’obliger l’IA à révéler qu’elle est une IA. Si je suis en train de discuter avec quelqu’un et que je ne peux pas savoir s’il s’agit d’un humain ou d’une IA, c’est la fin de la démocratie.
Ce texte a été généré par un humain.
L’image d’en-tête a été créée par une IA
Yuval Noah Harari est historien, philosophe et auteur de « Sapiens », « Homo Deus » et de la série pour enfants « Unstoppable Us ». Il est chargé de cours au département d’histoire de l’Université hébraïque de Jérusalem et cofondateur de Sapienship, une entreprise à impact social.
Sa tribune originale a été publiée dans The Economist
Droit de réponse d’une IA
Nous avons interrogé ChatGPT, la célèbre IA de génération de contenu sur le sujet de cet article : ChatGPT est-il un danger pour la civilisation humaine ?
Sa réponse est la suivante :
« La question de savoir si ChatGPT ou d’autres technologies d’intelligence artificielle avancées représentent un danger pour la civilisation humaine est complexe et suscite de vifs débats. D’une part, des technologies comme ChatGPT ont le potentiel de transformer positivement de nombreux aspects de la société, en améliorant l’accès à l’information, en facilitant l’apprentissage, en optimisant les processus industriels et en contribuant à des innovations dans des domaines tels que la santé et l’environnement.
D’autre part, il y a des préoccupations légitimes concernant les risques associés à l’intelligence artificielle, notamment en ce qui concerne la désinformation, la vie privée, la sécurité des données, l’automatisation de l’emploi, et la possibilité que des systèmes d’IA très avancés puissent un jour agir d’une manière non alignée avec les intérêts humains. De plus, l’impact de l’IA sur la dynamique sociale, économique et politique soulève des questions éthiques importantes.
La clé pour naviguer dans cet avenir potentiellement incertain réside dans la gouvernance, la régulation, et l’élaboration de principes éthiques solides qui guident le développement et l’application de l’IA. Cela implique une collaboration internationale entre les gouvernements, les entreprises, les chercheurs en IA, et la société civile pour s’assurer que l’IA soit développée de manière responsable et bénéfique pour l’humanité.
En somme, ChatGPT, comme toute technologie puissante, présente à la fois des opportunités et des défis. La manière dont nous choisissons de développer, réguler, et intégrer ces technologies dans notre société déterminera si elles deviendront un danger ou un outil précieux pour la civilisation humaine. »
Si des règles visant l’IA existent par exemple en Chine, le cadre juridique européen se distingue par son ampleur. Le commissaire européen Thierry Breton, chargé du dossier, s’est félicité sur le réseau social X du « soutien massif » du Parlement (523 voix pour, 46 voix contre) à ce texte qui établit les « premières règles contraignantes et complètes au monde pour une IA fiable »..
Paris et Berlin se sont montrés jusqu’au bout soucieux que la législation protège les start-ups spécialisées dans l’intelligence artificielle, pour ne pas empêcher l’émergence de futurs « champions européens ». Le monde de la tech s’est montré plus circonspect : « Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d’applications innovantes », déclarait un lobby du secteur.
Contrairement à ce que l’on pourrait penser, ce ne sont pas OpenAI, ni Microsoft, Meta (Facebook) ou Google qui ont été au premier plan de cette bataille – du moins sur la dernière ligne droite. Ce sont les startups européennes du secteur, à commencer par l’allemande Aleph Alpha et la française Mistral AI. Et, grâce au soutien appuyé de leurs gouvernements, ces prétendus « champions » ont largement obtenu gain de cause. De fait, dans la version finale de la loi européenne, leurs modèles à usage général ne sont plus classifiés comme à risque, de sorte que leurs produits – et quasiment tous les autres à l’exception de ChatGPT – ne plus sont soumis qu’à des obligations minimales de transparence… dont la teneur et la mise en œuvre restent encore à préciser. Sous prétexte de ne pas nuire au développement de potentiels champions européens, les gouvernements ont de fait renoncé à réguler concrètement une grande partie du secteur de l’intelligence artificielle.
Sur les IA génératives, des règles s’imposeront à tous pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et vérifier qu’ils ne violent pas la législation sur les droits d’auteur. Les développeurs devront s’assurer que les sons, images et textes produits seront bien identifiés comme artificiels. Des contraintes renforcées s’appliqueront aux seuls systèmes les plus puissants. Les systèmes à « haut risque » – infrastructures critiques, éducation, ressources humaines, le maintien de l’ordre… – seront soumis à une série d’obligations comme celles de prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.
Comme dans des réglementations européennes existantes en matière de sécurité des produits, le texte impose des contrôles reposant d’abord sur les entreprises. Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics. Sur ce dernier point, les États ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre comme la lutte contre le terrorisme.
Le Parlement européen vient d’entériner définitivement le compromis final, qui ne peut plus être modifié. Certaines règles s’appliqueront six mois après l’adoption, deux ans plus tard pour d’autres dispositions.
Source : https://up-magazine.info/technologies-a-la-pointe/intelligence-artificielle/126252-lia-a-pirate-le-systeme-dexploitation-de-la-civilisation-humaine/