L'algorithme et ses biais... Définitions et généralités puis ...notes prises dans l'article passionnant (lien : electropublication.net )d'Antoinette Rouvroy et Thomas Berns : ''l'hégémonie de la nouvelle statistique algorithmique'' Une nouvelle gouvernementalité.

Publié le par Claire Antoine

Help ! Toutes petites modifications ( notamment dans l'introduction moins personnelle le 30) par rapport au texte sur le même sujet datant du 13 octobre. Après la suppression de 2 liens très intéressants, aussi, j'ai décidé de garder les deux ( 13 et 30) !!!!

Le/s transhumanisme/s, lié/s aux avancées technoscientifiques  a/ont besoin des algorithmes pour créer et accompagner l'avancée, la (grande) marche, la progression, la montée ?, vers ''l'humanité nouvelle''. 

L'ancienne est trop faillible, il faut la parfaire, grâce à un ''solutionnisme'' technique, en laissant de côté les ''droits humains'', pour retrouver une sorte ''de pureté de l'espèce qui n'est pas étrangère à l'eugénisme''. Il faut donc dégager l'humain de son corps à l'espace et à la vie limité·e, le rendre ''libre''. Quant aux enjeux éthiques et politiques de cette nouvelle humanité, tout dépend ...De nouvelles ''vertus '' sont donc à atteindre. 

Un algorithme est une méthode générale, une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes.  Son efficacité est mesurée. 

  • ''Un algorithme, selon Gérard Berry chercheur en science informatique, c’est tout simplement une façon de décrire dans ses moindres détails comment procéder pour faire quelque chose. Toutes les actions mécaniques se prêtent à une telle ''décortication''. Le but est d’évacuer la pensée du calcul, afin de le rendre exécutable par une machine numérique (ordinateur…). '' Les entrées sont généralement associées à des capteurs et les sorties à des actions. 
L'algorithme est censé, dans l'idéal, être neutre et universel, « dire ce qu'il fait et faire ce qu'il dit »,  comme dans les meilleures méthodes des manageurs des ''certifications Iso'' sans renforcer ou reproduire de discriminations. On lui demande des qualités humaines comme l'équité, la loyauté...Or, il existe ce qu'on appelle des ''biais'' algorithmiques, (des préjudices) qui posent problème, puisqu'ils reproduisent des structures préexistantes précisément, de discrimination, de surveillance et de marchandisation. Le terme de ''biais'' est, par ailleurs, contesté par la chercheuse Kinjal Dave et aussi par Catherine D'Ignazio et Laureen F. Klein. En effet, issu de la psychologie sociale il renvoie à une imperfection, susceptible donc d'être corrigée, alors qu'il constitue une force institutionnelle.  Plutôt que de parler de biais, il est préférable, pour eux, de parler ''d'oppression'' algorithmique.  

Si l'on considère que '' l'intelligence coïncide avec l'absence de préjugés'' les algorithmes ne sont pas encore assez ''intelligents'' pour se corriger eux-mêmes. En attendant des humains, conscients de ce qu'est un préjugé, doivent les contrôler afin d'éviter qu'ils n'aggravent ''les biais'' potentiellement déjà présents dans les données avec lesquelles ils sont entraînés.

                                               Pour atteindre l'idéal, il faut lutter contre ...

... ces biais/ces discriminations, tout d'abord en les évaluant, ensuite en diversifiant les données,  en rendant les algorithmes ''transparents'' et interprétables .   

La lutte contre ''le biais'' est  rendue difficile du fait de l’opacité du fonctionnement des algorithmes. Celle-ci peut venir - du secret intentionnellement mis en place par les entreprises qui veulent protéger leur propriété intellectuelle, - de l’inculture des utilisateurs et des chercheurs, - mais aussi de leur complexité et pour certains de leur gigantisme.

Mais on peut quand même chercher à améliorer leur  transparence, soit en les considérant comme des objets isolés, soit, en considérant qu'ils appartiennent à de grands assemblages culturels et socio-techniques.

Il faudrait, pour les combattre efficacement, par exemple,
- d'un côté, les envisager selon une approche historique et culturelle en s'appuyant, par exemple, sur une sociologie critique qui les reconsidèrerait dans des séquences longues,
- ou selon une approche ethnographique qui permettrait de déterminer quelles sont les forces structurelles permettant leur émergence; et de l’autre côté, considérer comment ils sont influencés par leurs usages quotidiens. 

 

Comment savoir si l'algorithme est équitable, neutre, loyal ? Il existe des scores de biais - comme des sortes de nutriscores qui traquent les glucides -, pour révéler ces préjugés numériques cachés. Le score de biais est une méthode quantitative permettant de mesurer la présence et l'étendue de biais dans les systèmes.                                                            L' équité des algorithmes

L'équité, c'est de ne pas prendre en compte les variables susceptibles de discriminer (par exemple le genre ou la race).  L'équité individuelle garantit que les individus aux caractéristiques similaires sont pris en compte de la même manière, tandis que l'équité de groupe garantit que les personnes de groupes différents sont prises en compte différemment.  

                                                           La neutralité des algorithmes

La neutralité c'est l'idée que les systèmes informatiques automatisés  ne doivent pas introduire de biais ou de discrimination envers les individus ou les groupes d'individus. Ils doivent fonctionner de manière impartiale et traiter toutes les personnes de manière équitable, indépendamment de l'origine ethnique, du genre, de l'orientation sexuelle, de la religion, de la race. Les biais psychologiques humains Ils peuvent être reproduits par ''prolongements lexicaux'', par associations implicites (entre des mots) porteuses de préjugés liés au sexe, à la religion, à l'âge, à l'ethnie, à l'apparence physique ( poids, beauté...) 

                                                                ______________

On parle de biais algorithmiques cognitifs, statistiques, économiques si le résultat de l'utilisation de l'algorithme n'est pas neutre, loyal ou équitable, pour des raisons inconscientes ou délibérées de la part de ses concepteurs et dans ce cas, ils conduisent à des discriminations (racistes, sexistes, culturelles, générationnelless ...). Les biais posent la question du manque de retro-contrôle des concepteurs/utilisateurs d'algorithmes.

                                     Biais cognitifs :exemples... 

- ''Le biais du mouton de Panurge'' qui  utilise une modélisation sur laquelle les gens s'accordent sans s'adapter au contexte. 

- ''Le biais de confirmation'' consiste à favoriser la vision du monde des concepteur·rice·s sans prendre en compte les données qui ne vont pas dans son sens].

- ''Le biais social'' provient d’une influence extérieure au développeur impliqué dans la collecte, la sélection, ou l'utilisation de ces données[]].

- ''Le biais de présentation'' se réfère au design d’une interface qui incite à faire un choix, par exemple l'acceptation ou non  des cookies sur un site internet.

Certaines ''data scientists''développent des algorithmes ne sont pas représentatifs de la population générale ( par exemple la surreprésentation des hommes, blancs). Il existe alors un « risque de privilège ». Les données - qui entrainent un algorithme d'apprentissage automatique - peuvent refléter un sous-échantillon non représentatif eu égard aux valeurs implicites des humains impliqués.  

                                                               

                                                    Les biais statistiques peuvent provenir :

- des données contenues en entrée de l'algorithme ou de l'algorithme lui même. Les résultats ne fourniront donc pas une représentation exacte de la population et seront erronés.

- de la méthode. Ils sont issus des données fournies en entrée de l’algorithmique en raison de leur qualité ou représentativité, ou du modèle prédictif.

                                                 Par exemple ...

-  ''le biais de la variable omise'' découle de l’absence de variables pertinentes dans un modèle pouvant rendre ce modèle inutilisable.

- ''le biais d'échantillonnage'', l’échantillon du test n’est pas représentatif de la réalité.

- ''Le biais de sélection'' se produit quand la sélection de données est erronée et que le travail algorithmique s’opère avec un sous-ensemble spécifique du groupe et non un sous-ensemble aléatoire.

- ''Le biais d'endogénéité'' quand les variables endogènes sont déterminées au sein du modèle et sont corrélées avec le terme d’erreur.

- ''Le biais temporel'' apparaît lorsque le comportement de l’utilisateur change rapidement (effet d’accoutumance à une publicité).

- ''Le biais d’évaluation'' met en cause le modèle évalué selon une référence inappropriée.

- ''Le biais d’agrégation'' implique un modèle jugé sur sa performance globale.

- ''Le biais historique'' consiste à répéter un biais qui était déjà présent.

                                       Les biais économiques

Ils touchent les marchés et sont liés aux incitations économiques émanant d’un objectif financier par une entreprise qui se développe.

Un algorithme peut donc être fondé sur une stratégie commerciale constituant volontairement ou involontairement un biais.

Ainsi l’optimisation du rapport coût-efficacité de la diffusion d’offres d’emploi, qui vise à minimiser les coûts de recrutement pour une entreprise, a mené à discriminer les femmes.

Les biais économiques sont en partie la conséquence des économies que l'investisseur souhaite faire dans la réalisation du projet.

''Il n’y a jamais entre passé — même lointain — et présent de discontinuité absolue'', écrivait Fernand Braudel, ''les expériences du passé ne cessent de se prolonger dans la vie présente''.

Les algorithmes ne sont pas des ruptures radicales, ils prolongent certaines logiques anciennes ''industrielles'' avec mécanisation des gestes, standardisation des comportements, rationalisation des flux. Ils découpent, trient, anticipent. Mais là où l’usine et l'atelier disciplinaient les corps, c'est l’algorithme qui façonne  les possibles, dans une gouvernementalité sans visage et sans injonction directe. 

C’est ce glissement que théorise Antoinette Rouvroy, dans l'article en lien. Elle décrit une nouvelle forme de pouvoir, fondée sur l’anticipation statistique des comportements, la modulation des environnements, la production de profils, autant de manières de gouverner sans gouverner, d’agir sans dire.

                                                                Notes ou extraits

''Le concept de ''gouvernementalité'' venu de Foucault se transforme ''au travers de l'hégémonie de la nouvelle statistique algorithmique''

La gouvernementalité algorithmique “s’appuie sur une série de dispositifs technologiques de détection, de classification et d’évaluation anticipative des comportements humains : une informatique qui prend de plus en plus « d’autonomie », une biométrie qui devient « dynamique » ou encore des environnements et une vidéosurveillance toujours plus « intelligents “ .

Elle passe d’abord par la collecte massive de données sur les individus, rendue banale par l’enregistrement simple et parfois anodin des comportements. 
Puis par leur traitement via le “data mining” (“application de la technologie et des techniques de banque de données dans le but de découvrir des structures cachées et des relations entre données et d’en inférer les règles permettant la prédiction de résultats futurs.”)


                                                    Le tout géré par un ou des algorithmes.

'...)''Ce ne sont plus les phénomènes observables qui donnent le sens de l’action mais le traitement automatisé d’informations massives et provenant de contextes hétérogènes. ''L’individu statistique'', ainsi profilé, issu des catégories de l’algorithme est proche de ''l’individu cybernétique'' ( intégré à un système, où les deux communiquent et se régulent )

. Et ce sont les formes de gouvernementalité qui sont touchées par cette nouvelle rationalité statistique : le « gouvernement statistique» ne s’intéressant plus à l’actuel et au factuel mais au potentiel et au possible « le résultat en est que l’on assiste à l’abandon progressif, par le pouvoir, de l’axe topologique – orienté vers la contrainte des corps et la maîtrise du territoire – au profit de l’axe temporel – la structuration du champ d’action possible des corps, la maîtrise, à un stade préconscient si possible, de ce que peuvent être les corps »

C’est même un gouvernement sans contrainte qui se contente de gérer des “dividus”- des êtres divisés en différentes fonctions -  issus des croisements statistiques opérés par l’algorithme, individus - des êtres uniques et indivisibles, des entités distinctes et autonomes -eux mêmes portés à laisser des traces sur tous les supports que le data mining pourra toucher… les sujets se prêtent à leur propre gouvernement statistique, par les traces qu’ils laissent, par la répétition et/ou le fléchissement de ces traces,

sans qu’aucune instance extérieure de surveillance active,

aucune règle,

aucune médiation

– sinon une intermédiation purement technologique –

ne soient désormais plus nécessaires''.

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article