Peut-on faire la morale aux robots avec les avancés de l’intelligence artificielle

Avec le développement de plus en plus avancé de l’intelligence artificielle, une question se pose : quelle éthique inculquer à ces robots qui auront à prendre constamment des décisions? C’est justement à cette question que s’intéresse le philosophe Martin Gibert dans son essai Faire la morale aux robots : une introduction à l’éthique des algorithmes.

Selon Martin Gibert, l’intelligence artificielle, ce n’est pas qu’une question de calculs mathématiques. Les machines ont à prendre des décisions qui nécessitent un certain questionnement moral. Le philosophe cite l’exemple des voitures autonomes. En cas d’accident inévitable, qui la voiture épargnera-t-elle : l’enfant ou le vieillard?

On n’a pas le choix de se demander quelle est la bonne chose à faire, estime Martin Gibert.

Certains diront que ce choix devrait être purement aléatoire, mais un important sondage mené par le Massachusetts Institute of Technology partout dans le monde semble indiquer que les gens préfèrent sauver l’enfant. Ce qu’on va évaluer, ce n’est pas la valeur de la vie de l’enfant par rapport à celle du vieillard, c’est plus la quantité de bien-être, explique Martin Gibert. Et ce que les gens se disent, c’est que, si on sacrifie le vieillard, on perd moins de quantité de bien-être, parce qu’il lui reste moins de temps à vivre que l’enfant.

Pour le philosophe, il est impératif d’établir des ententes collectives sur un code moral qui guidera la programmation des robots afin d’éviter que ces décisions importantes soient laissées à la discrétion des entreprises privées.

Il insiste aussi sur l’importance que les comités chargés d’établir ce code soient diversifiés et représentatifs de la population mondiale afin d’éviter le plus possible les biais.

Martin Gibert s’inquiète du fait que l’apprentissage des machines se fasse à l’aide de données obtenues dans le monde réel qui ont déjà un grand potentiel de biais : Comme le monde réel est biaisé à plusieurs égards, il y a vraiment un risque que les systèmes qu’on développe automatisent ces biais et se retrouvent à faire des discriminations.

SOURCE: ici.radio-canada.ca

 

VOUS POUVEZ EN APPRENDRE PLUS SUR MICROSOFT 365 ICI

VOUS POUVEZ EN APPRENDRE PLUS SUR MICROSOFT TEAM ICI