HKOWT news

Think straight, talk straight

Le chercheur en IA Max Tegmark estime qu’il faut mettre un terme aux progrès de l’IA et empêcher la création des AGI

En veillant à ce que l’IA ne devienne qu’un outil et non une superintelligence

 

Max Tegmark, physicien et chercheur en apprentissage automatique, affirme qu’il faut mettre un terme aux progrès de la technologie de l’IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences. Il ajoute qu’il n’y a pas autant de temps que nous le pensions pour réfléchir à tout cela.

Max Tegmark est un physicien suédo-américain, chercheur en apprentissage automatique et auteur. Il est surtout connu pour son livre Life 3.0, qui décrit ce à quoi le monde pourrait ressembler à mesure que l’intelligence artificielle continue de s’améliorer. Tegmark est professeur au Massachusetts Institute of Technology (MIT) et président du Future of Life Institute. Dans son livre, Tegmark soutient que les risques de l’IA ne proviennent pas de la malveillance ou d’un comportement conscient en soi, mais plutôt d’un mauvais alignement des objectifs de l’IA sur ceux des humains.

En effet, l’IA est une avancée technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivité économique. Cependant, elle n’est pas sans risque. En 2023, pour contrer les effets négatifs de l’IA, Max Tegmark a organisé une lettre ouverte. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.

Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

Dans la ligné de ses propos, récemment, Max Tegmark a affirmé qu’il faut mettre un terme aux progrès de la technologie de l’IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences.

Utiliser l’IA pour améliorer l’éducation, utiliser l’IA pour guérir le cancer, etc., c’est ce que j’appelle l’IA outil : l’IA que l’on peut, si l’on est sage, fabriquer de manière à ce qu’elle devienne notre outil et que nous n’ayons jamais à nous inquiéter d’en perdre le contrôle.

Il y a aussi, indépendamment de cela, la quête de l’AGI, la superintelligence. En fait, il s’agit de la nouvelle espèce dont Alan Turing nous avait prévenus que nous perdrions le contrôle. Et même s’il semble tout à fait insensé que nous nous précipitions pour la construire, c’est l’objectif commercial déclaré d’OpenAI, de Google DeepMind, d’Anthropic et d’autres entreprises. Vous pouvez lire sur le site web d’Anthropic que leur objectif est de rendre tout travail humain obsolète, en gros. Et nous avons entendu dire que de nombreuses personnes, dont le PDG d’Anthropic, Dario Amodei, pensent que cela se produira dans deux ans.

Nous n’avons donc pas autant de temps que nous le pensions pour réfléchir à tout cela. Pour moi, la solution à tout cela est vraiment très, très évidente et nous saute aux yeux. C’est la même solution que nous, en tant que société, avons adoptée à maintes reprises pour toutes les autres technologies. Nous avons inventé toutes sortes de biotechnologies et nous avons tracé une ligne. Nous avons dit, d’un point de vue moral, la pénicilline c’est bien, les armes biologiques non, le clonage humain non.

Pour toute autre technologie, nous aurons une FDA ou une FAA ou une sorte de normes de sécurité qui devront être respectées avant que la technologie ne soit diffusée dans le monde. C’est le cas pour tous les domaines, à l’exception de l’IA, à l’heure actuelle en Amérique.

Le point de vue de Max Tegmark est intéressant, et il est en général rejoint par les chercheurs en IA. Un chercheur en sécurité de l’IA, le Dr Roman V. Yampolskiy, soutenu par Elon Musk, a averti que l’IA ne peut actuellement être contrôlée en toute sécurité, mettant en garde contre le développement de cette technologie sans preuve de son contrôle. Yampolskiy propose des solutions, notamment classer les IA comme contrôlables ou incontrôlables et envisager des moratoires ou des interdictions partielles. Il souligne l’importance de poursuivre la recherche sur la sécurité de l’IA pour minimiser les risques tout en maximisant les avantages potentiels.

Dans le même ordre d’idée, le PDG d’Arm craint également que les humains ne perdent le contrôle de l’IA. Il met en avant l’importance d’avoir un moyen de neutraliser ou d’arrêter le système. Il souligne la nécessité d’un moyen de neutralisation ou d’arrêt du système. Ces avis confirment que l’AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle, et la prudence et la prévoyance sont nécessaires pour guider nos pas dans ce domaine complexe.

Source: developpez.com

Translate »
YouTube
YouTube
Set Youtube Channel ID
LinkedIn
Share
Instagram
Telegram
WeChat
WhatsApp
Tiktok