Les véhicules autonomes, assistants virtuels et autres systèmes d’intelligence artificielle sont conçus pour prendre eux-mêmes des décisions. Alors qu’ils sont appelés à occuper une place grandissante dans nos vies, nous devons nous demander en fonction de quels principes moraux nous voulons les programmer, ce qui soulève des questions inédites. Qu’est-ce qu’un agent moral artificiel? Existe-t-il de bons et de mauvais robots? Et s’il est vrai que les machines reflètent les valeurs de ceux qui les conçoivent, comment éviter de reproduire certains biais et préjugés?