Il y a vingt ans, nous parlions de technologie. Aujourd’hui, nous abordons la question de l’intelligence artificielle et des ADM, Automate Decision Making ou outil de prise de décision. Ils inondent notre quotidien, privé comme professionnel. Mais quels sont-ils ?
Les algorithmes sont-ils intrusifs ?
On sait depuis une décennie que la traduction automatique est très sexiste. Malgré un intérêt académique accru pour le sujet, de nombreux chercheurs du domaine ne considèrent toujours pas le problème comme pertinent !
La loi française autorise les personnels de police à utiliser la reconnaissance faciale en cas de “nécessité absolue” (notamment dans les transports publics). En 2019, ils l’ont utilisée 375 000 fois…
Un utilisateur de TikTok comptant près de 100 000 followers, qui utilisait le service à titre professionnel, a été banni de la plateforme, vraisemblablement parce qu’un système automatisé a décidé qu’il avait moins de 13 ans. ce n’était pas le cas…
Les algorithmes vont-ils résoudre le problème du changement climatique ?
Peu probable. Néanmoins, plus de données nous permettent de surveiller la terre, de sauver nos forêts, d’optimiser les panneaux solaires et, plus généralement, de comprendre les problèmes. A contrario, les centres de données ne consomment-ils pas aussi beaucoup d’énergie ? Peut-on imaginer un outil de prise de décision qui saurait fixer un curseur pour préserver notre planète, créer une société vivable pour tous les humains et ne point accroître les inégalités ?
Depuis le déclenchement de la pandémie, l’utilisation d’outils de surveillance envahissant les foyers des travailleurs a considérablement augmenté. De même s’est accéléré la tendance à l’utilisation de l’intelligence artificielle au travail.
Mais à qui la faute quand l’IA discrimine quelqu’un ?
Qui est à blâmer, quand un ordinateur prend une décision contraire à l’éthique ? Qui peut assurer que l’IA ne nuit à personne ?
En septembre 2020, des ingénieurs de toute l’Europe ont été « réunis » dans le cadre d’une collaboration internationale parce que les défis éthiques de l’IA s’étendent au-delà des frontières et doivent être abordés non seulement au niveau national, mais aussi au niveau européen et international. Que retenir du rapport publié ?
Il est bien entendu nécessaire de mettre en place un cadre de gouvernance et définir et répartir les responsabilités comme de s’engager avec les parties prenantes lors de la conception du système. Il faut également créer une documentation et une certification technique (pour relever les défis éthiques). Le quotidien et l’expérience acquise doivent permettre d’élaborer et de partager des normes et des pratiques exemplaires. Pour nos ingénieurs, il faut des espaces pour les aider à identifier, discuter et traiter les questions éthiques. Enfin, après explication il faut procéder aux tests des systèmes d’IA avant le lancement du système et tout au long du cycle de vie du système.
Ces défis éthiques ne peuvent donc être abordés que par la discussion et la négociation. Pour assurer le développement éthique de l’IA, il est nécessaire d’avoir un débat public et des lois urgentes sur les cadres de gouvernance, de responsabilité et de sécurité. Les ingénieurs et autres professionnels de l’IA devraient pouvoir compter sur leurs organisations professionnelles et leurs syndicats pour créer des espaces de discussion et de délibération partagée.
Si nous ne prenons pas ces mesures, qui sera alors à blâmer lorsque l’IA prendra les mauvaises décisions ? Il est temps d’assumer la responsabilité des algorithmes, ensemble!