La dernière version en date du générateur de texte de la société OpenAI, fondée par Elon Musk, est capable d’écrire des articles scientifiques ou de délivrer un diagnostic médical. Un pas de plus vers une intelligence artificielle générale ?
Nous sommes peut-être en train de vivre une nouvelle révolution en matière d’intelligence artificielle. Les progrès de traitement et de reconnaissance d’images avaient marqué les années 2012, ouvrant la voie à la reconnaissance faciale ou la voiture autonome. Aujourd’hui, c’est la rédaction de texte qui connaît un bouleversement sans précédent. En témoigne GPT-3, la troisième version logicielle d’un générateur de texte de la société OpenAI, fondée en 2015 par Elon Musk.
Une quantité considérable de données
Le programme a été formé sans supervision à partir d’un corpus immense de textes provenant du Web et de livres numérisés. À titre d’exemple, l’intégralité des articles de Wikipédia en anglais (soit six millions d’articles) ne représenterait que 0,6% des données avec lesquelles il s’est entraîné. Cela comprend aussi bien des recettes de cuisine, que des fictions ou des manuels d’informatique. Mais GPT-3 n’a été entraîné à accomplir aucune tâche spécifique.
Cet outil de saisie semi-automatique a été mis à disposition dans sa version bêta il y a quelques jours. Des chercheurs s’en sont aussitôt emparés pour mener diverses expériences avec des résultats très impressionnants de par leur cohérence. Certains ont réussi à générer du code informatique, des articles scientifiques, un chatbot faisant dialoguer des personnages historiques, des pastiches littéraires d’Emilie Dickinson et de T.S. Eliot, ou ont encore obtenu des diagnostics médicaux comme on peut le voir ci-dessous.
Des réserves peuvent toutefois être formulées. The Verge souligne notamment que les scientifiques n’ont partagé que ce qui fonctionnait. Or, certains tests ont produit des réponses farfelues. Toutefois, certains experts pensent que le programme s’améliorera à chaque fois que ses bases de données changeront d’échelle. Jusqu’à aboutir un jour à une intelligence artificielle générale, c’est-à-dire ayant les mêmes capacités cognitives que les humains.
Si GPT-3 peut aboutir à ce type de résultat, c’est parce qu’il s’est formé sans supervision. Cela lui a permis d’engranger une quantité de données rapidement et à une échelle inégalée, car il s’est passé d’un tri fastidieux et coûteux opéré par des humains. Or, cette force est aussi une faiblesse.
Un corpus biaisé
GPT-3 s’est nourri aussi bien d’articles scientifiques que de contenus racistes, complotistes ou sexistes non filtrés. Ses bases de données sont donc biaisées.
Le Français Jérôme Pesenti, qui travaille pour Facebook, a donné sur Twitter des exemples effrayants de posts générés par GPT-3 à partir de mots clefs comme juif, noir, femme ou holocauste.
GPT-3 a montré des facultés exceptionnelles mais il pourrait devenir une arme redoutable de propagande s’il tombait dans de mauvaises mains.
Source : The Verge