Éclairer le futur est notre métier

Les Tendances de l'informatique, le séminaire suivi par plus de 30.000 professionnels.

En savoir plus !

Ces technologies numériques qui font rupture, un nouveau séminaire de 2 jours.

En savoir plus !

Taille du texte: +

Concrètement, comment rendre les algorithmes responsables et équitables ?

Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d’apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l’AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions ». La question à laquelle sont confrontés les ingénieurs consiste à trouver les modalités pour rendre les systèmes techniques plus responsables, plus équitables. Les initiatives en ce sens se multiplient : en mai, le conseil municipal de New York, sous la responsabilité de Carmelyn Malalis, responsable de la Commission sur les droits de l’homme de la ville, a adopté un projet de loi et lancé un groupe de travail sur les biais algorithmiques, rapporte Nature en évoquant également les promesses du président français de rendre le code des algorithmes publics ouvert, ou les appels du gouvernement britannique à rendre les données utilisées par les services publics transparents et responsables, en se dotant d’un cadre éthique des données. Ce cadre éthique rappelle quelques grandes évidences, comme inviter les concepteurs à être clairs sur leurs objectifs, à utiliser les données d’une manière proportionnée aux besoins en cherchant à les minimiser, à en comprendre les limites et à avoir une approche responsable… et complète les principes émis par le Nesta pour améliorer la prise de décision algorithmique . Mais rendre les algorithmes équitables, responsables et efficaces n’est pas si simple. Ces questions ne sont pas nouvelles, rappelle l’article de Nature, mais à mesure que de grands ensembles de données et des modèles plus complexes se répandent, « il devient de plus en plus difficile d’ignorer leurs implications éthiques », explique le spécialiste de la justiciabilité des algorithmes Suresh Venkatasubramanian (@geomblog, blog).

L’article de Nature revient bien sûr sur la difficulté à créer des services algorithmiques responsables en évoquant notamment l’outil de prédiction du risque de maltraitance et d’agression d’enfants développés par le bureau de l’enfance, de la jeunesse et des familles du comté d’Allegheny en Pennsylvanie, qu’avait étrillé le livre de Virginia Eubanks, dont nous avions rendu compte ou les limites des logiciels de police prédictive (dont nous avons également déjà beaucoup parlé). Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.

Page d'accueil de l'AI Now Institude

Comment traquer les biais ?

Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet. Ce travail d’évaluation de l’impact algorithmique rappelle que les systèmes de décision automatisés sont déjà nombreux. L’initiative AI Now a appelé à la fin de l’utilisation de systèmes opaques pour les décisions publiques, afin d’assurer l’équité et la régularité des procédures et se prémunir contre la discrimination. Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres. Cela permettrait également aux organismes publics de développer des procédures de médiation, d’appel ou de réfutation des décisions prises. Obliger les systèmes à publier des analyses d’impact de leurs outils de décision automatisé pourrait enfin permettre au public d’évaluer les outils et la transparence des services.

La question de la mesure d’impact avait déjà été pointée par le travail original de Nicholas Diakopoulos (@ndiakopoulos) et Sorelle Friedler (@kdphd) pour Data & Society réalisé en 2016 dont nous avions rendu compte. Le rapport de l’AI Now Institute a depuis tenté de compléter la proposition, mais il demeure difficile de saisir, pratiquement, à quoi pourrait ressembler une déclaration d’impact. Pour cela, le chercheur Andrew Selbst (@aselbst) recommande, dans un de ses articles, de s’inspirer des études d’impact environnementales (voir également les explications sur le site du Ministère de la transition écologique et solidaire), afin de faire établir un rapport sur l’efficacité et le caractère discriminatoire des systèmes automatisés, qui seraient soumis à évaluation publique (ou qui pourrait fonctionner sur le modèle des Analyses d’impact relatives à la protection des données de la Cnil). Bien sûr, Andrew Selbst n’en est pas moins critique sur les études d’impact. Dans le cadre environnemental, ces études s’avèrent longues, coûteuses (jargonneuses) et pas toujours très utiles. Cependant, elles permettent de responsabiliser le producteur de traitement automatisé, d’explorer des alternatives argumentées (et donc de mieux comprendre les options choisies comme celles rejetées) et de mieux expliciter les conséquences des systèmes.

Matrice de déclaration d'impact relative à la protection des données par la CNIL

Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review. Accenture a également lancé un outil de ce type. D’autres chercheurs, comme Christo Wilson (@bowlinearl), travaillent à construire des outils pour simuler des systèmes afin d’en découvrir les biais, via des formes de rétro-ingénierie très convaincantes, à l’image de ce qu’il a construit pour comprendre l’algorithme de tarification d’Uber ou du travail réalisé pour comprendre les biais de genre des moteurs de recherche d’emplois. Wilson est notamment responsable d’un groupe de recherche sur l’audit algorithmique créé par le collège d’informatique de l’université Northeastern. En mai, Rayid Ghani (@rayidghani), directeur du Centre pour la Science des données et les politiques publiques de l’université de Chicago a lancé un logiciel open source, Aequitas, pour aider les ingénieurs à auditer leurs modèles.

L'arbre de décision équitable d'Aequitas

La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants. L’article de Wired rappelle que s’il n’existe pas de protocole standard pour ces audits réalisés par des entreprises indépendantes, ceux-ci sont rarement altruistes. « Les entreprises peuvent avoir à prouver aux régulateurs que leur technologie ne discrimine pas une catégorie de personnes protégée. Pour d’autres, un audit pourrait empêcher de futurs litiges. Pour d’autres encore, recevoir un sceau d’approbation de la part d’un tiers est un outil marketing, suggérant aux clients potentiels qu’ils peuvent avoir confiance… Quelle que soit la raison, de plus en plus d’entreprises se soumettent à des audits externes, signe qu’ils peuvent devenir la norme ». Mais si l’audit est une pratique courante, ce n’est pas encore le cas de l’audit des systèmes algorithmiques.

Tant et si bien que certains chercheurs et activistes en appellent à un moratoire à l’utilisation d’algorithmes dans certains domaines, comme la justice pénale, à l’exemple du Centre sur la race, l’inégalité et la loi de l’école de droit de l’université de New York.

Comment passer des serments éthiques à leur implémentation concrète ?

Autre réponse aux difficultés actuelles, ces derniers temps, la publication de déclarations éthiques a connu une rare inflation. Google a notamment proposé des objectifs et principes très généraux pour cadrer ses développements en intelligence artificielle. Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ». Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.

La matrice éthique de Cathy O'Neil
Image : la matrice éthique de Cathy O’Neil, présentée sur la scène de la Now You Know Conference de mai 2018 à Chicago via Giles Palmer.

Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger. Même sur la question de l’audit des algorithmes, explique-t-elle, elles n’ont pas nécessairement besoin de dévoiler leurs codes magiques. Il suffirait d’effectuer des tests avec des données pas nécessairement d’avoir accès au code source de leurs systèmes.

Pour l’instant, Cathy O’Neil a refusé de signer les serments d’Hippocrate pour les datascientists qui lui ont été soumis. Pour elle, trop souvent, ils n’insistent pas assez sur la responsabilité du datascientist.

Bon, cela n’a pas refroidi les initiatives. En février, Tom Simonite pour Wired rapportait les échanges qui avaient lieu lors de la conférence Data For Good Exchange, organisée par DJ Patil, l’ancien datascientist de l’administration Obama, et qui avaient donné lieu à une première liste de principes éthiques (qui a visiblement abouti depuis à ce code de conduite sur l’éthique des pratiques des données). Un des participants est demeuré sceptique : « Le projet de code ressemble à une liste de principes généraux avec lesquels personne ne serait en désaccord ». Simonite souligne que le milieu ne dispose ni d’autorité ni de législation pour faire respecter des règles de pratique de toute façon. Et si les formations de datascientist se multiplient, nombre de ceux qui font ce travail sont des autodidactes. Dans son long rapport sur l’IA et la société, Microsoft estime que des principes de base pourraient être utiles. « Mais le président de Microsoft, Brad Smith, suggère que l’entreprise ne s’attend pas à ce que les clients qui construisent des systèmes d’intelligence artificielle en utilisant les services d’informatique en nuage de Microsoft répondent nécessairement aux mêmes normes. »

Code de conduite sur l'éthique des données

Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues. Sur Forbes, Lori Sherer de Bain & Company proposait également de transcrire le serment d’Hippocrate à l’intention des datascientists. Le think tank britannique qui milite pour un internet plus équitable DotEveryOne (@doteveryone) en a recensé des centaines (sous forme de principes, serments, manifestes… voir la liste) et en a proposé un très court. La France n’est pas en reste, rapportait récemment Le Monde : l’association Data for good (@dataforgood_fr) a publié un serment d’Hippocrate pour datascientists et un collectif d’entrepreneurs franco-américains ont publié le serment Holberton-Turing.

Les principes du serment d'Hippocrate de Data for Good

Les deux initiatives s’inspirent du serment d’Hippocrate que les médecins prêtent à la fin de leurs études. Ce rite de passage qui a plus valeur morale que portée juridique (par rapport au code de déontologie par exemple) rappelle aux médecins qu’ils ont des obligations légales, morales et éthiques. Mais, comme l’explique très bien l’écrivain et médecin Martin Winckler (blog, @MartinWinckler) dans l’édifiant Les brutes en blanc (2016), son ouvrage sur la maltraitance médicale, l’éthique n’a cessé d’évoluer. Dans le serment d’Hippocrate originel, il est ainsi interdit aux médecins d’offrir aux femmes la possibilité d’avorter sans que leur mari l’ait décidé. L’éthique se définit toujours par rapport à la morale dominante… rappelle Winckler. Pour lui, le serment d’Hippocrate derrière lequel se cache le corps médical est devenu une barrière à l’évolution des pratiques éthiques (comme de reconsidérer les questions de fin de vie ou de maltraitance). Le serment ne protège pas de la culture propre à chaque discipline, et le prêter ne protège pas de l’asymétrie de la relation entre le médecin et le patient, pas plus qu’elle ne protège de l’asymétrie entre le système de calcul et le calculé. Les règles de conduite ne suffisent pas toujours à créer des repères moraux. Dans son livre, Winckler finalement propose une autre approche qu’il faudrait certainement explorer, en donnant des conseils pratiques aux patients. Est-ce à dire qu’il faudrait plutôt construire des principes pour les calculés plutôt que pour les calculeurs ?

Sur O’Reilly Media, Mike Loukides (@mikeloukides), Hilary Mason (@hmason) et DJ Patil (@dpatil, blog), l’ancien datascientist de l’administration Obama, rappellent que les spécialistes des données n’ont pas attendu les problèmes récents pour se doter de codes d’éthique, à l’image du code d’éthique de l’ACM, l’une des grandes associations du secteur informatique, qui date de 1993, ou celui (.pdf) de l’Association américaine de statistique… Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur… L’enjeu consiste à réfléchir « à la mise en oeuvre pratique des principes éthiques », et à partager les meilleures pratiques. Comment par exemple concevoir une expérience utilisateur équitable sans rendre l’application inutilisable ? Faut-il mieux montrer aux utilisateurs une fenêtre pop-up avec des informations juridiques ou guider longuement l’utilisateur dans des explications sur les choix qu’il peut faire ? (Pas sûr que l’un ou l’autre ne soient de bonnes options ni qu’ils ne rencontrent une grande approbation des utilisateurs comme des concepteurs d’ailleurs). Comment vérifier que les applications soient équitables si nous décidons de ne plus recourir à des données sensibles ? … « En tant que technologues, nous partageons fréquemment de bonnes pratiques dans les conférences, sur nos blogs, via les technologies open source que nous développons, mais nous discutons rarement de problèmes tels que comment obtenir un consentement éclairé de l’utilisateur ».

Pour les trois auteurs, il est nécessaire de créer des cultures d’entreprises où l’on peut avoir ces discussions. Il nous faut réfléchir aux conséquences involontaires produites par ce que nous imaginons. Cela nécessite de créer ces espaces et ces temps dans les calendriers mêmes des projets. Il est nécessaire également de pouvoir arrêter la chaîne de production en cas de problème, surtout à l’heure de l’agilité et du déploiement en temps réel. L’autre problème, soulignent les auteurs, est bien sûr que les environnements d’entreprises sont souvent hostiles à tout autre chose qu’à la rentabilité à court terme. Si, comme le disait Susan Etlinger l’éthique est un bon investissement, les changements de la culture d’entreprise, eux, prendront du temps. Reste, rappellent-ils, que les utilisateurs préfèrent s’engager avec des entreprises auxquelles ils peuvent faire confiance pour qu’elles n’en tirent pas un avantage injuste, au détriment de l’utilisateur. Les utilisateurs préféreront traiter avec des entreprises qui les traiteront et traiteront leurs données de manière responsable, et pas seulement pour en tirer un profit à court terme ou un engagement à maximiser. Et ces entreprises-là seront celles qui créeront un espace éthique au sein de leurs organisations, pas seulement en engageant des éthiciens, mais en faisant que les datascientists, les ingénieurs, les spécialistes de l’IA au sein de ces entreprises y travaillent de concert.

la checklist de contrôle du développement de systèmes automatisésDans un autre article pour O’Reilly Media, les 3 mêmes auteurs pointent les limites des serments et déclaration d’intention. On ne les prête qu’une fois et on évalue donc insuffisamment et peu régulièrement si on est à la hauteur des enjeux. Les serments sont très généraux : souvent, ils déclarent ne pas vouloir nuire, mais les médecins en ont fait beaucoup, même en prêtant serment, sans savoir tout le temps qu’ils faisaient du mal. Ces principes généraux sont une bonne idée, mais restent vides sur l’exécution, et les systèmes automatisés sont avant tout des questions d’exécution. Ces principes sont certes importants, mais « ils ne nous amènent pas au point final que nous voulons atteindre. Ils ne relient pas nos idées sur ce qui est bien ou juste aux pratiques qui créent le bien ou la justice. Nous pouvons parler longtemps de l’importance d’être juste et impartial sans savoir comment être juste et impartial. Le serment peut-être finalement dangereux : il devient un outil pour vous convaincre que vous quelqu’un de bien, que vous faites de bonnes choses… quand vous ne savez pas. »

Par contre, ces serments et principes sont utiles pour susciter des discussions, pour sensibiliser à ces enjeux, pour comprendre que le travail réalisé n’est pas neutre. D’où leur démultiplication.

Les 3 auteurs s’inspirent de la célèbre liste de contrôle imaginée par le chirurgien Atul Gawande pour réduire les erreurs dans les salles d’opération. « Contrairement aux serments, les listes de contrôle relient le principe à la pratique » En cochant une case sur un formulaire après avoir fait ce que vous deviez faire, vous ne risquez pas de l’oublier. La liste de contrôle n’est pas quelque chose qu’on récite une fois et qu’on oublie, c’est quelque chose que vous travaillez à chaque procédure. Leur efficacité est liée à leur simplicité. Les 3 auteurs sont partis du travail du manuel d’éthique des données du gouvernement britannique pour en proposer une. Elle n’est pas sans faille, mais ils l’a proposent comme une version à améliorer.

Audit, déclaration d’impact social, matrices, checklists… sont autant d’outils pratiques à construire pour rendre les développements logiciels responsables et équitables. Espérons que ces méthodes continuent à se développer.

Hubert Guillaud

Pour rappel, avec la Fing, éditeur d’InternetActu.net, via le groupe de travail NosSystèmes nous avons également établi des principes pour rendre les systèmes techniques plus responsables, qui recoupent en grande partie certains des enjeux esquissés dans cet article. Des méthodes, outils et techniques qui devraient permettre d’améliorer et préciser notre grille de lecture.

Vidéo : Conférence Bitcoin Biarritz (première part...
Feed Import (19 juillet 2018)
 

Commentaires

Pas encore de commentaire
Already Registered? Login Here
Guest
vendredi 17 août 2018

Image Captcha

Copyright © 2018 SLA
167 Chemin des Combes 74110 Essert-Romand - tel : 04.50.83.06.79 - Mobile : 06.75.23.84.11

Mentions légales    -    Politique de confidentialité    -    Plan du site

IMPORTANT

copyright

 Notre blog est un blog de Curation, aussi les articles publiés proviennent-ils de différents flux RSS et nous ne prétendons, en aucune manière, nous en attribuer la paternité. Si vous souhaitez lire l'article original sur le site d'origine, il vous suffit de cliquer sur "Lien d'origine " qu se trouve à la fin de l'article.

Traduire

frendeitptrues

Rechercher

CES 2018

Un CES qui fait whoa !

Regard sur le CES 2018

Témoignages

Ils ont assisté à nos séminaires et ils donnent leurs avis.

Ce que les participants en pensent

Programme 2018

Aller au haut