Catégories
Technologie

Faut-il essayer de corriger les biais des IA ?

On ne compte plus les études démontrant combien les intelligences artificielles sont biaisées. Mais est-ce un problème en soit ?

De quoi parle-t-on ?

D’abord, le terme Intelligence Artificielle (IA) recouvre souvent deux concepts assez différents et ayant des causes de biais qui leur sont propres.

La fausse IA : l’algorithme

Programmée de A à Z pour reproduire des comportements prédéfinis. C’est la plus répandue, car la plus accessible. On la rencontre souvent dans les chat-bots, ces outils de messagerie instantanée censés remplacer toute ou partie de la relation client.

Leur « intelligence » est considérablement limitée, car ces algorithmes sont réduits à une association question/réponse ou un enchaînement de si/sinon.

Leurs biais viennent du fait que le marché du développement informatique est encore trop peu hétérogène : des hommes, majoritairement blancs de classe supérieure, tant pour la conception que la réalisation.

Ces fausses IA traduisent basiquement un mode de pensée dominant, reproduisant inconsciemment les discriminations sociétales courantes.

La vraie IA : autodidacte

La « véritable » intelligence artificielle est issue du deep-learning. Quand un programme est exposé à une grande masse de données et qu’il en déduit une logique qui lui est propre mais souvent pertinente. C’est une logique dite « statistique ». C’est l’un des grand enjeux du big data.

Dans ce cas, le biais vient des données qui sont proposées pour l’apprentissage. Si le panel n’est pas représentatif, la vision sera déformée, avec encore une fois une hypertrophie du panel mâle blanc.

On ne compte plus les articles démontrant ces biais dans les programmes de reconnaissance faciale, justice, santé, objets connectés, voitures autonomes etc…

Les biais sont bien connus : sexisme, élitisme, ou racisme, comme par exemple l’algorithme de Twitter qui privilégie les photos d’hommes blancs. A noter, que ce type de biais a des pendants dans d’autres domaines comme par exemple la non prise en compte de la pharmacocinétique pour la santé.

Maintenant, est-ce une fatalité, et peut-on corriger prévenir les biais ?

Regarder de biais

Internet, nos applications quotidiennes et les futures IA ont donc une vision orientée de notre monde.

N’en déplaise aux adeptes de l’Internet originel, le web n’est plus un libre espace d’échange mais une ZAD (zone à défendre) manipulée.

Lorsque Hubert Guillaud se demande si internet est de droite, il pointe les dérives de l’effet de loupe.

Jen Schradie 

« plutôt que de permettre de réparer la démocratie, l’activisme numérique a reproduit, voire intensifié, le déséquilibre de puissance préexistant »

Une impossible correction

Philosophiquement, il paraît impossible de créer une IA neutre, car elle sera toujours programmée par des humains, à un instant T.

On peut éventuellement imaginer une IA créant une autre IA, elle même créant une autre IA et ainsi de suite jusqu’à diluer l’influence humaine, mais on perdrait sans doute le sens et l’utilité du programme.

En effet, la raison d’être d’une IA est son utilité pour automatiser des traitements existants. Ces traitements sont à l’origine faits par et pour des humains, par exemple le tri de CV en phase de recrutement. Et cela répond à des critères humains.

Une IA est dans ce sens, par définition, biaisée. C’est sa raison d’être.

Citons Awa Ndiaye, coanimatrice du podcast Tête à tech :

Awa Ndiaye

«Les algorithmes non biaisés, ça n’existe pas […] Ils sont pensés et produits par des êtres humains, donc imparfaits. Ces modèles automatisés représentent nos sociétés qui sont elles-mêmes discriminantes.»

Le bonheur est dans le cloud

Les IA sont donc, et doivent être biaisées. Mais cela pose un problème de représentativité, comme exposé en introduction.

Ce problème est il soluble ? Sans doute.

Si l’on ne voit le numérique pour ce qu’il est – un outil étendant les capacités humaines – une des solutions s’impose alors :

Il faut multiplier les algorithmes, les IA. Que celles-ci soient conçues et développées par une multitude de personnes aux profils différents. Que les données personnelles qui les nourrissent viennent de panels hétéroclites.

Ainsi, la masse d’outils, le cloud, devrait pouvoir tendre vers une image plus représentative et noyer les biais.

Pour les panels, c’est assez facile. L’extraction des données personnelles via les réseaux sociaux et outils numériques est tellement répandue qu’il n’est pas incongru de les penser représentatives.

C’est la partie conception / développement qui va être compliquée. En effet, cet aspect requiert des compétences techniques et des moyens financiers qui créent de fait un élitisme.

Heureusement, il semble qu’une démocratisation, voire vulgarisation, du numérique soit à l’œuvre dans nos sociétés. Depuis presque 20 ans que je suis dans le métier du Web, j’ai constaté une diversification dans les CV que l’on reçoit régulièrement. Brassage générationnel, ethnique, de genre, de classe.

Cette tendance est croissante, avec une accélération ces 5 dernières années.

Il faudra du temps avant que ce métissage des profils remonte la hiérarchie pour atteindre les équipes de direction et de conception, mais le processus semble enclenché.

On voit des initiatives de syndicats d’employés, comme AWU, pour peser sur les orientations des groupes, espérons que les dominants actuels ne se barricaderont pas pour protéger leur fief comme on a pu le voir avec la Ligue du LOL.


Il faudra également qu’en bout de chaîne, on ait la présence d’esprit de sortir de nos bulles cognitives pour voir ce qui se passe en dehors et favoriser ce brassage.

Par Bastien Ho

Une réponse sur « Faut-il essayer de corriger les biais des IA ? »

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s