La lettre ouverte compte actuellement plus d’un millier de signataires, dont le PDG de Stability AI Emad Mostaque, Steve Wozniak, le professeur Marcus à l’Université de New York et Elon Musk.
Une lettre conjointe signée par plus d’un millier de personnes influentes appelant au blocage de toute intelligence artificielle (IA) plus puissante que GPT-4 a été rendue publique mercredi.
Plus de 1 000 personnes influentes ont affirmé avoir exigé une suspension immédiate du développement de systèmes d’IA plus puissants que le GPT-4, avec un « moratoire » minimum de 6 mois, une interdiction temporaire, selon la lettre.
« Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable et inclure tous les acteurs clés », lit-on dans la lettre.
« Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire. »
Selon la lettre ouverte, de nombreuses recherches ont démontré que les systèmes d’IA dotés d’une intelligence humaine compétitive approuvés par les principaux instituts d’IA peuvent représenter de graves dangers pour la société et les personnes.
La lettre a reçu 1125 signatures depuis sa publication sur Future of Life (FLI), une organisation à but non lucratif qui s’efforce de réduire les risques catastrophiques et existentiels mondiaux auxquels l’humanité est confrontée, en particulier le risque existentiel de l’IA avancée.
« Un gros problème : @elonmusk , Y. Bengio, S. Russell, @tegmark , V. Kraknova, P. Maes, @Grady_Booch , @AndrewYang , @tristanharris et plus de 1 000 autres, dont moi , ont appelé à une pause temporaire sur les systèmes de formation dépassant GPT-4″, a tweeté mercredi Gary Marcus, scientifique et voix de premier plan dans le domaine de l’IA.
S’inquiète de l’expansion des capacités de l’IA
Les capacités des systèmes d’IA se développent rapidement car il y a plus de données et de puissance de calcul. Les grands modèles sont de plus en plus capables de surpasser les humains dans de nombreux domaines. Ce que cela implique pour nos sociétés ne peut être prédit par une seule entreprise, raisonne la lettre.
« Prenons un exemple : vous pouvez utiliser un modèle d’IA destiné à découvrir de nouveaux médicaments pour créer des agents pathogènes à la place », a écrit FIL sur Twitter, annonçant la lettre .
« Ce modèle générera rapidement plus de 40 000 agents pathogènes – dont le VX, l’agent neurotoxique le plus meurtrier de tous les temps – en environ six heures. »
L’institut faisait référence à une conférence internationale sur la sécurité qui a examiné l’exploitation potentielle des technologies d’IA pour la découverte de médicaments afin de créer des armes biologiques à partir de zéro. « Une expérience de pensée s’est transformée en une preuve informatique », l’article de la revue Nature cité par FIL dans le fil de tweets pour affirmer la gravité du problème.
Avec l’IA, l’humanité peut espérer un avenir prospère. Nous pouvons maintenant vivre un «été d’IA» dans lequel nous récoltons les bénéfices, concevons ces systèmes pour l’avantage évident de tous et laissons à la société le temps de s’adapter après avoir développé avec succès des systèmes d’IA robustes, note la lettre.
« La société a fait une pause sur d’autres technologies avec des effets potentiellement catastrophiques sur la société », conclut la lettre. « Nous pouvons le faire ici. Profitons d’un long été d’IA, ne nous précipitons pas sans préparation dans une chute. »