Les algorithmes (et leurs ''biais'' préjudiciables) gèrent ''l'individu statistique''. 3 Liens :1) electropublication.net : Antoinette Rouvroy et Thomas Berns, ''Gouvernementalité algorithmique'' ; 2) shs.cairn.info/revue-hermes, ''De la cybernétique aux NBIC'', Bernard Claverie ; 3) hal.science, Loyauté des Décisions algorithmiques, Philippe Besse , Céline Castets-Renard & Aurélien Garivie
''Aujourd’hui, les modèles mathématiques et les algorithmes prennent des décisions majeures, servent à classer et catégoriser les personnes et les institutions, influent en profondeur sur le fonctionnement des États sans le moindre contrôle extérieur'', Cathy O'Neil, mathématicienne américaine.
Quand, depuis 8 jours, dès que j'ouvre mon ordinateur me sautent aux yeux des dizaines ( à la fin de la journée c'est des centaines ) de publicités vantant les bienfaits d'un oreiller plus ergonomique que les autres, du genre ''c'est bon, très bon, pour ce que t'as''. Achète-moi.'', afin de combattre l'apnée du sommeil, alors que j'ai commandé, précisément, un tel oreiller sur internet, il y a peu,
je me dis que j'ai mis le doigt, avec cet oreiller, sur un fléau dévastateur à la une de l'actualité. Qu'il faut traiter ça, que ça urge , que tout le monde en parle !!!
J'en ai parlé autour de moi, et on m'a dit : Ah ! Que veux-tu, ''C'est l'algorithme'' !
D'ailleurs, même la et les politique·s y sont accros. (Pas à l'oreiller bien sûr !)
Ils ne peuvent plus s'en passer pour tenter de gagner des élections, faire passer des messages de toutes sortes à tous ''les voyageurs (perdus, errants et aveugles) du Web'', pour les guider, les orienter, leur montrer le nord...quitte à les contraindre au final. C'est à ce prix-là, ''la bonne éducation''. Et elle doit être permanente. C'est pas ce dont on rêvait, les boomeu·r·se·s ? Tout au long de sa vie.
Mais trêve de banale et mauvaise ironie...
la gouvernementalité algorithmique selon Antoinette Rouvroy et Thomas Berns
Antoinette ROUVROY va reprendre le concept foucaldien de "gouvernementalité" pour en voir la mutation au travers de l'hégémonie de la nouvelle statistique algorithmique par les gouvernements . L...
( Notes prises dans les articles cités, entre autres)
Le pouvoir ou plutôt la ''gouvernementalité''* se transforme au travers de l'utilisation par les gouvernements des algorithmes qui s’appuient sur une série de dispositifs technologiques de détection, de classification et d’évaluation anticipative des comportements humains.
* Le concept vient de Michel Foucault, pour qui le pouvoir n’est pas décelable en un lieu précis mais se définit au contraire par son ubiquité, comme une sorte de flux électrique qui traverse et connecte tous les éléments du corps social.
Ce serait, en fait, une méthode générale, de plus en plus intelligente, informatique, dynamique, de plus en plus autonome, une suite finie et ''non ambiguë'' d'instructions et d’opérations permettant de résoudre une classe de problèmes.
L'algorithme gère, profile ''l'individu statistique'':
- Au départ, il y a la collecte massive de données ( big data) sur les individus, banalisée par l’enregistrement simple, d'apparence anodine des comportements.
- Puis leur traitement par la technologie dans ''le but de découvrir des structures cachées, des relations entre données et d'en déduire des règles qui vont permettre de prédire des résultats futurs.” Ils réalisent des classements, sélectionnent des informations et en déduisent un profil, en général de consommation, qui est ensuite utilisé ou exploité commercialement.
Mais les libertés individuelles et collectives pourraient être finalement mises en péril. Des auteur·e·s alertent sur les décisions majeures que nous déléguons aujourd'hui aux algorithmes dans des domaines aussi variés que l'éducation, la santé, l'emploi et la justice...
... sous prétexte qu'ils seraient neutres et objectifs, alors que, dans les faits, ils donnent lieu à « des choix éminemment subjectifs, des opinions, voire des préjugés insérés dans des équations mathématiques ».
L'algorithme est censé, c'est sa mission « dire ce qu'il fait et faire ce qu'il dit », sans renforcer ou reproduire de discriminations.
On lui demande les qualités ( humaines ) suivantes : Equité/Neutralité/ loyauté ...
- Une équité individuelle garantit que les individus aux caractéristiques similaires sont pris en compte de la même manière. Une équité de groupe garantit que les personnes de groupes différents sont prises en compte différemment].
- concernant la neutralité, ils doivent fonctionner de manière impartiale et traiter toutes les personnes de manière équitable, indépendamment de l'origine ethnique, du genre, de l'orientation sexuelle, de la religion, de la race.
- Quant à la loyauté ...cf. lien 3
Or ... comment savoir si c'est le cas ?
C'est un idéal à atteindre nécessitant de lutter contre ce qu'on appelle ''des biais'' (terme contesté par certains dans la mesure où, issu de la psychologie sociale, il renvoie à quelque chose comme une imperfection humaine, alors qu'il constitue une force institutionnelle) qui sans qu'on en soit toujours conscient reproduisent des structures préexistantes de discrimination, de surveillance et de marchandisation. Elles sont tellement sous-entendues qu'on ne les repère pas.
pouvoir les évaluer en les envisageant selon une approche historique et culturelle en s'appuyant, par exemple, sur une sociologie critique, ou selon une approche ethnographique sans les considérer comme des objets isolés, mais plutôt comme faisant partie de grands assemblages culturels et socio-techniques. Ce qui permettrait de déterminer quelles sont les forces structurelles favorisant leur émergence et aussi comment ils sont influencés par leurs usages quotidiens.
Loyauté des Décisions Algorithmiques Contribution au débat public initié par la CNIL : Éthique et Numérique. Philippe Besse , Céline Castets-Renard & Aurélien Garivier
Pour révéler les préjugés numériques cachés, il existe des ''scores de biais'' comme des sortes de nutriscores ( ceux qui traquent les glucides).
Mais, passons en revue quelques biais
On parle de biais algorithmiques cognitifs, statistiques, économiques, psychologiques si le résultat de l'utilisation de l'algorithme n'est pas neutre, loyal ou équitable, pour des raisons inconscientes ou délibérées de la part de ses concepteurs et dans ce cas, ils conduisent à des discriminations (racistes, sexistes, culturelles, générationnelless ...). Les biais posent la question du manque de retro-contrôle des concepteurs/utilisateurs d'algorithmes].
Biais cognitifs : exemples...
- ''Le biais du mouton de Panurge'' qui utilise une modélisation sur laquelle les gens s'accordent sans s'adapter au contexte.
- ''Le biais de confirmation'' consiste à favoriser la vision du monde des concepteur·rice·s sans prendre en compte les données qui ne vont pas dans son sens.
- ''Le biais social'' provient d’une influence extérieure au développeur impliqué dans la collecte, la sélection, ou l'utilisation de ces données.
- ''Le biais de présentation'' se réfère au design d’une interface qui incite à faire un choix, par exemple l'acceptation ou non des cookies sur un site internet.
Certaines ''data scientists''développent des algorithmes ne sont pas représentatifs de la population générale ( par exemple la surreprésentation des hommes, blancs). Il existe alors un « risque de privilège ». Les données - qui entrainent un algorithme d'apprentissage automatique - peuvent refléter un sous-échantillon non représentatif eu égard aux valeurs implicites des humains impliqués.
Les biais statistiques peuvent provenir :
- des données contenues en entrée de l'algorithme ou de l'algorithme lui même]. Les résultats ne fourniront donc pas une représentation exacte de la population et seront erronés.
- de la méthode. Ils sont issus des données fournies en entrée de l’algorithmique en raison de leur qualité ou représentativité, ou du modèle prédictif.
Par exemple ...
- ''le biais de la variable omise'' découle de l’absence de variables pertinentes dans un modèle pouvant rendre ce modèle inutilisable.
- ''le biais d'échantillonnage'', l’échantillon du test n’est pas représentatif de la réalité.
- ''Le biais de sélection'' se produit quand la sélection de données est erronée et que le travail algorithmique s’opère avec un sous-ensemble spécifique du groupe et non un sous-ensemble aléatoire.
- ''Le biais d'endogénéité'' quand les variables endogènes sont déterminées au sein du modèle et sont corrélées avec le terme d’erreur.
- ''Le biais temporel'' apparaît lorsque le comportement de l’utilisateur change rapidement (effet d’accoutumance à une publicité).
- ''Le biais d’évaluation'' met en cause le modèle évalué selon une référence inappropriée.
- ''Le biais d’agrégation'' implique un modèle jugé sur sa performance globale.
- ''Le biais historique'' consiste à répéter un biais qui était déjà présent.
Les biais économiques
Ils touchent les marchés et sont liés aux incitations économiques émanant d’un objectif financier par une entreprise qui se développe.
Un algorithme peut donc être fondé sur une stratégie commerciale constituant volontairement ou involontairement un biais.
Ainsi l’optimisation du rapport coût-efficacité de la diffusion d’offres d’emploi, qui vise à minimiser les coûts de recrutement pour une entreprise, a mené à discriminer les femmes.
Les biais économiques sont en partie la conséquence des économies que l'investisseur souhaite faire dans la réalisation du projet.
Les biais psychologiques humains Ils peuvent être reproduits par ''prolongements lexicaux'', par associations implicites (entre des mots) porteuses de préjugés liés au sexe, à la religion, à l'âge, à l'ethnie, à l'apparence physique ( poids, beauté...)
Revue Hermès De la cybernétique aux NBIC : l'information et les machines vers le dépassement humain Par Bernard Claverie
Loyauté des Décisions Algorithmiques Contribution au débat public initié par la CNIL : Éthique et Numérique. Philippe Besse , Céline Castets-Renard & Aurélien Garivier
/image%2F0994950%2F20251102%2Fob_4352cc_bonjour-je-suis-un-algorithme.jpg)