Comment concilier intelligence artificielle et éthique ?
prev_img

Quand les opérateurs Internet se piquent de cinéma

prev_img

Dirigeants, entreprises commerciales et associations : attention au mélange des genres

Comment concilier intelligence artificielle et éthique ?

Le développement de l’intelligence artificielle et ses exploitations économiques ne vont pas sans poser des questions éthiques, dont ses conséquences sur l’emploi, sur l’utilisation des données collectées et leur détournement à des fins commerciales ou politiques.

Début septembre, Vladimir Poutine déclarait que le pays « qui deviendra leader de ce secteur sera celui qui dominera le monde ». De nombreux scénarios de politique-fiction peuvent être écrits. Mais l’IA est-elle vraiment un danger pour l’humanité ?

Mises en garde

D’aucuns prédisent qu’en 2028, le robot dépassera l’homme. Le développement de l’intelligence artificielle (IA) et ses exploitations économiques ne vont pas sans poser des questions éthiques, dont ses conséquences sur l’emploi, sur l’utilisation des données collectées et leur détournement à des fins commerciales ou politiques. Aux États-Unis, les grands acteurs économiques de l’intelligence artificielle eux-mêmes mettent en garde contre les dangers d’un tel détournement et appellent l’administration Trump à réglementer le champ de l’IA.

En France, le gouvernement a chargé Cédric Villani, d’une nouvelle mission sur l’intelligence artificielle, dont les recommandations sont attendues pour décembre 2017. Le secteur s’empare également de la question de l’éthique : Syntec Numérique et le Cigref lancent ensemble un programme sur le numérique et l’éthique. Le projet consiste à inviter les entreprises du secteur à s’emparer du sujet et à intégrer la dimension RSE dans leur approche de l’outil technologique.

En France, la mission Villani livrera ses recommandations sur l’IA en décembre 2017.

L’emploi

Les études sur le remplacement de l’homme par le robot foisonnent. Elles ont en commun de ne jamais aboutir aux mêmes estimations. En 2013, des chercheurs d’Oxford prévoyaient une automatisation de 47% des emplois américains. Trois ans plus tard, l’OCDE annonce, que seulement 9% des emplois sont menacés dans ses pays membres. En France, ce serait 42% selon Roland Berger ou 15% selon France Stratégie. Ces études négligent notamment l’apparition des nouveaux métiers liés au Big Data, marketing digital, cloud.

Les chercheurs estiment que « l’automatisation totale », le remplacement de l’homme dans tous les domaines, pourrait arriver d’ici 50 à 200 ans. Le but ultime de l’IA doit-il être la disparition du travail? Pour écrire des articles de presse par exemple, certaines rédactions – prestigieuses – utilisent déjà des robots. Taxer les machines, y investir du capital pour générer une rente, recevoir des aides de l’État… des solutions sont actuellement étudiées.

Les données personnelles

Dans l’ouvrage Weapons of Math Destruction (2016),  Cathy O’Neil tente de démontrer que l’IA pourrait produire des effets ravageurs sur les questions économiques et le tissu démocratique. La technologie profite à des entreprises déjà fortes, aboutit à des régressions sociales, des erreurs ou encore des détournements à des fins de ciblage publicitaire. Autonomes, elles pourraient conduire à des erreurs: la SNCF par exemple, expérimente une détection des comportements suspects pour alarmer si une personne fichée S abandonne un colis suspect. Le système est encore loin de fonctionner.

La limite de l’éthique: un immense champ à légiférer

«L’Intelligence artificielle constitue un risque majeur pour la civilisation». C’est ce qu’Elon Musk, le patron de Tesla Motors a déclaré en Juillet 2017. Faisant lui-même partie des NATU (Netflix, Airbnb, Tesla, Uber) qui manipulent les données, il connaît bien son sujet.

Parmi les dérapages, il y a par exemple ce programme d’IA devenu jury d’un concours de beauté en 2016 qui a éliminé la plupart des candidats noirs, donc capable de reproduire le racisme des humains.

Les armées affirment que les drones qui mêlent des technologies d’IA et de robotique sont contrôlées à distance par un humain, et qu’aucune ne prend jamais la décision de tirer. Pourtant, il y a déjà eu des centaines de victimes civiles, obligeant le gouvernement américain à verser des dommages et intérêts aux familles.

Enfin, qui, par exemple, sera responsable des actes des voitures autonomes ? La responsabilité ira-t-elle au constructeur ou à l’ingénieur qui a développé l’IA ? Un vrai casse-tête qui se pose d’ores et déjà pour les assureurs.

Lors des attentats de Londres, l’algorithme d’Uber calculait que les taxis devenaient une denrée rare et proposait des tarifs exorbitants. L’intelligence artificielle n’a pas encore d’éthique vis-à-vis de la détresse.

Sur le même sujet

  • Nouvelle économie

    La nouvelle ruée vers l’or

  • Nouvelle économie

    Intelligence Artificielle : quelles ambitions pour la France ?

  • Art

    Les ventes d’art sur le net ont le vent en poupe

Cet article vous a-t-il intéressé ?
  • Oui (90%)
  • non (10%)

Vous souhaitez réagir à cet article