logo_blanc
Rechercher

Vivre Ou Mourir, Et Si L’ IA Décidait

IACrédit : Pexels

Dans quelle mesure devons-nous laisser les décisions importantes aux robots ? Alors que les machines sont aujourd’hui capables d’accéder à énormément de données, celles-ci doivent tout de même être programmées par les humains afin d’accéder à ces informations. Cela signifie que, en tant qu’êtres humains, nous devons enseigner aux machines comment prendre des décisions aussi importantes que celle du droit de vie ou de mort. Des voitures autonomes aux drones, nous en arrivons au stade où les robots doués d’ IA peuvent prendre de telles décisions, si nous les laissons faire, si nous les y aidons.

La Moral Machine du MIT

Dans un premier temps, les décisions que les machines doivent prendre ne semblent pas poser de problème. Mais une étude –la plus grande jamais entreprise en matière d’éthique- réalisée par les cherches du Media Lab du MIT, la Moral Machine, soulève des considérations éthiques auxquelles il faudra faire face dès lors que les véhicules autonomes rouleront à grande échelle sur nos routes. Ainsi, un véhicule autonome devra-t-il enfreindre la loi pour ne pas heurter un piéton ? Et si cet acte mettant en danger les passagers ? Quelle vie est la plus importante, dans un tel cas de figure ? Est-ce que la réponse serait différente si le piéton est en tort ? Difficile de répondre à ces questions, car il existe rarement un consensus en matière de morale, d’une culture à l’autre, d’une classe d’âge à l’autre, d’une personne à l’autre, cela varie.

Prise de décision autonome des voitures intelligentes

Bien que les véhicules autonomes devraient réduire le nombre d’accidents sur les routes de 90%, selon un rapport de McKinsey & Company, les accidents sont toujours possibles et nous devons envisager comment programmer les machines si cela arrive. En outre, nous devons déterminer qui est responsable de la programmation des appareils : les consommateurs, les politiciens, le marché, les compagnies d’assurance ou quelqu’un d’autre ?

Imaginons qu’une voiture autonome rencontre un obstacle sur la route. Elle peut alors réagir de diverses manières. La première, en restant sur le parcours et en risquant de dévier de voie et de heurter une voiture qui finirait par tuer les passagers. Est-ce que la décision de changer de voie dépend des individus dans le véhicule ? Peut-être que la personne mise en danger est un parent ou un scientifique remarquable. Et s’il y a des enfants dans la voiture ? Peut-être que la décision d’éviter l’obstacle devrait être choisie au hasard parmi plusieurs options. Ce sont tous des dilemmes auxquels nous devons faire face aujourd’hui, lorsque nous construisons et concevons des systèmes autonomes. Les algorithmes liés à la prise de décision doivent inclure des accidents qui pourraient causer des dommages physiques, mentaux, et tout autre handicap.

Les drones militaires décident des cibles

Récemment, l’armée américaine a annoncé développer des drones capables de repérer et cibler des véhicules et des personnes ayant recours à l’intelligence artificielle. La perspective de machines capables de « tuer » n’est plus un scénario de science-fiction, mais bien une réalité. Pour l’heure, les drones sont contrôlés et pilotés par les hommes, qui sont ainsi en mesure de prendre les décisions finales, par exemple lorsqu’il faut larguer une bombe, ou tirer un missile. Le droit humanitaire international autorise les systèmes à « double usage », facilitant ainsi la création de produits à usage civil mais aussi militaire. Si des drones prennent part à des combats, les entreprises technologiques et leurs employés sont-ils considérés comme des cibles équitables ? Une caractéristique clé des systèmes autonomes est qu’ils s’améliorent au fil du temps en fonction des données et du retour qu’ils reçoivent. Est-il plausible que, à mesure que la technologie des drones autonomes se peaufine, nous devrons déterminer une étape acceptable d’auto-développement afin d’éviter de créer une machine à tuer ?

Quelles implications ?

On a énormément parlé des décisions médicales que les systèmes d’IA sont capables de faire, dans le cadre des diagnostiques de maladies, jusqu’aux plans de traitement personnalisés et aux protocoles médic

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC