D’après le cryptologue Bruce Schneier, les IA vont avoir la capacité de trouver des failles dans les systèmes de nos sociétés, qu’ils soient financiers, sociaux, politiques, etc. Un risque qu’il faut d’ores et déjà prendre en considération.
Des Afro-Américains trop souvent jetés en prison, des salariés qui n’obtiennent plus de prêts bancaires, des tensions exacerbées en raison de contenus toujours plus clivants sur les réseaux sociaux… L’intelligence artificielle est déjà en train d’influer de façon négative sur notre vie. Mais ce n’est là qu’un début, estime le cryptologue et expert en sécurité Bruce Schneier.
Dans un récent essai intitulé The coming of AI hackers (L’arrivée des intelligences artificielles hackers), il pense que les algorithmes d’intelligence artificielle vont continuer à créer du désordre à grande échelle, car ils ont une tendance naturelle à subvertir n’importe quel système, c’est-à-dire à l’utiliser d’une manière qui n’était pas prévue au départ. Ce qui est aussi une excellente définition du terme « hacking ».
Les IA trouveront toujours la petite bête
La raison, selon Bruce Schneier, est simple. Il y a une différence énorme entre les hommes et les intelligences artificielles quand il s’agit de définir et d’explorer un système.
« Les IA ne résolvent pas les problèmes de la même manière que le font les gens. Elles vont forcément trouver des solutions que nous, les humains, n’aurons jamais anticipées », explique Bruce Schneier.
D’une part, les IA sont capables d’explorer des champs de solutions beaucoup plus vastes et variés, en raison de leur puissance de calcul.
« Elles explorent des chemins que nous n’aurions jamais pris en considération », souligne l’auteur.
D’autre part, les humains sont incapables de définir d’une manière complète les limites d’un système ou les objectifs d’une IA.
« Nous ne décrivons jamais toutes les options. Nous n’indiquons jamais toutes les mises en garde, exceptions et réserves. Nous n’identifions jamais toutes les possibilités de hacking. Nous ne le pouvons pas », constate Bruce Schneier.
Les chercheurs en intelligence artificielle sont confrontés à ce genre de situation tous les jours. Ainsi, l’un d’entre eux a voulu entraîner l’IA de son robot aspirateur pour qu’il ne heurte pas d’objets, autrement dit que ses capteurs de chocs soient le moins sollicités possible. Résultat : l’IA a appris à rouler vers l’arrière… où le robot était dépourvu de capteurs.
La société se numérise… et donc se fragilise
Cet exemple peut sembler un peu ridicule, mais imaginez ce qu’une IA serait capable de faire avec des systèmes qui structurent notre vie quotidienne. Elle pourrait trouver les failles dans les lois sur l’imposition que personne n’a jamais vue et qui permettrait à coup sûr de frauder le fisc. Dans le domaine du débat politique en ligne, une IA telle que GPT-3 pourrait manipuler à grande échelle les biais cognitifs de dizaines de millions d’électeurs sans que ces derniers ne puissent s’en apercevoir.
Évidemment, les humains n’ont pas attendu l’intelligence artificielle pour faire de la fraude fiscale ou faire de la propagande. Mais comme ces systèmes sont désormais informatisés, l’IA est clairement avantagé. Il pourra trouver beaucoup plus de failles et beaucoup plus vite. Et ce risque concernera aussi tous les autres aspects de notre vie, car presque tout est désormais informatisé et connecté, d’une manière ou d’une autre, à une intelligence artificielle.
« Les voitures, les appareils domestiques, les téléphones : ce sont tous des ordinateurs. Tous nos systèmes sociaux — finance, impôts, réglementations, élections — sont des systèmes sociotechniques complexes qui s’appuient sur des réseaux et des ordinateurs. Ils sont donc vulnérables au hack », estime Bruce Schneier.
La bonne nouvelle, c’est que ces IA-hackers peuvent également servir à tester et durcir un système avant sa mise en œuvre opérationnelle et tout au long de son utilisation.
Cela se fait déjà dans le domaine des logiciels et des réseaux. En 2016, des chercheurs de Pittsburgh ont gagné les Cyber Grand Challenge organisés par la Darpa, qui consistait à créer une IA capable de trouver automatiquement des failles logicielles. Ils en ont fait un produit qui est désormais utilisé, entre autres, par Cloudflare et l’armée américaine pour trouver des bugs.
Mais une telle approche ne fonctionne que si le système peut être rapidement corrigé. Avec les logiciels, c’est le cas. Patcher un système financier, d’imposition ou de sécurité sociale est déjà une autre paire de manche, car il faut toujours beaucoup de temps pour les changer.
« Nous avons besoin de lois et de réglementations qui peuvent être patché de la même manière », estime ainsi Bruce Schneier.
Bon, il n’y a pas encore le feu au lac, car les IA ne sont pas encore suffisamment intelligentes pour s’attaquer à nos systèmes sociétaux. Mais c’est une idée à ne pas perdre de vue. D’autant plus qu’il y a certains systèmes dans notre monde qui sont particulièrement difficiles à patcher : nous-mêmes.