Soif d'expertise ?

Abonnez-vous à notre newsletter Tea O'Clock !

Je m'abonne

Le processus décisionnel : une vue d'ensemble - Partie 6. Entre les processus de décision humains et artificiels

Sabrine Hamroun
Publié le
12/6/2024
Découvrez la dernière partie de la série d'articles sur les sciences cognitives.

Avez-vous interagi avec une intelligence artificielle aujourd'hui ? La réponse est probablement oui, et à de nombreuses reprises. Si vous avez consulté les médias sociaux, lu ou écrit un courriel, consulté votre application météo, écouté de la musique ou réservé un taxi en ligne, vous avez interagi avec un système d'intelligence artificielle. Il en va de même pour cet article : à moins que quelqu'un ne vous ait envoyé un lien direct, vous l'avez probablement trouvé grâce à un système de recommandation, un type d'intelligence artificielle. Une étape après l'autre, l'intelligence artificielle fait désormais partie intégrante de notre vie quotidienne, allant même jusqu'à façonner notre mode de vie. Les interactions entre les humains et les IA ont connu de nombreuses itérations, dont certaines seront explorées dans cet article.

I- Prise de décision humaine et artificielle : cousins germains ou parents éloignés ?

1- Quand la recherche en IA rencontre les sciences cognitives

On considère généralement que l'intelligence artificielle a été fondée après le projet de recherche d'été de Dartmouth de 1956, au cours duquel plusieurs scientifiques et mathématiciens ont réfléchi à la manière de créer une machine capable de penser comme un être humain. Depuis lors (et même avant), la prise de décision humaine et artificielle a longtemps été un sujet d'intérêt pour les chercheurs dans de nombreux domaines. Herbert Simon, scientifique lauréat du prix Nobel, a introduit le concept de rationalité limitée. Sa théorie stipule qu'en tant que décideurs, les êtres humains sont limités dans leur rationalité et ont tendance à ne pas choisir l'option optimale, mais plutôt l'option suffisante dans son contexte. Simon lui-même a été l'un des premiers pionniers dans le domaine de l'intelligence artificielle. Il a co-créé le Logic Theorist, le programme informatique considéré comme la première IA. Basé sur un arbre de recherche et des processus logiques, le Logical Theorist a été capable de prouver 38 théorèmes mathématiques.

2- Réseaux de neurones biologiques et artificiels

La structure biologique du cerveau a été une source d'inspiration pour le développement de l'intelligence artificielle. Par exemple, les travaux de deux neurophysiologistes lauréats du prix Nobel, Hubel et Wiesel, sur le cortex visuel des chats ont inspiré la structure des réseaux neuronaux convolutifs (CNN), un type de réseau neuronal largement utilisé dans le traitement des images, notamment pour prédire le contenu d'une image. Leurs recherches ont montré que lorsqu'on leur présentait différentes lignes, les cellules du cortex visuel se déclenchaient différemment en fonction de leur inclinaison, de leur angle et de leur couleur. Les CNN utilisent des filtres pour la reconnaissance des formes, c'est-à-dire qu'ils permettent à des neurones spécifiques de reconnaître des formes particulières (bords, angles, etc.) dans des blocs de pixels.

3- Évaluer l'intelligence artificielle par rapport à l'intelligence humaine

On s'intéresse depuis longtemps à la création d'un système capable de penser comme un être humain. Mais la question initiale au cœur de ce projet, "Les machines peuvent-elles penser ?", aussi controversée que complexe, a été remplacée par des questions plus simples, telles que : "Les machines peuvent-elles faire ce que nous (en tant qu'entités pensantes) pouvons faire ? " Les machines peuvent-elles faire ce que nous (en tant qu'entités pensantes) pouvons faire?" C'est pour répondre à cette dernière qu'Alan Turing a proposé ce que l'on a appelé plus tard le "test de Turing", un test réalisé pour évaluer si les gens pouvaient faire la distinction entre des discussions générées par des humains et des discussions générées par des machines.

Une autre façon d'évaluer la prise de décision "rationnelle" d'une intelligence artificielle est présentée dans cet article. Ses auteurs voulaient déterminer si différentes versions de grands modèles de langage (LLM) seraient sujettes à la même prise de décision irrationnelle que les humains. Ils ont soumis les algorithmes à une série de tests cognitifs largement utilisés pour évaluer la prise de décision humaine, tels que le test de réflexion cognitive, un test psychologique utilisé pour évaluer la capacité d'une personne à passer outre des réponses erronées "instinctives" et à s'engager dans une réflexion plus approfondie. Les résultats ont montré que "les modèles de la famille "Da Vinci" (GPT-3 et GPT-3.5) présentaient des signes de raisonnement limité ou heuristique et étaient généralement moins performants que les participants humains. En revanche, les modèles plus récents (ChatGPT et GPT-4) ont affiché des performances surhumaines" lorsqu'ils ont été comparés à un échantillon de participants humains, comme l'indique l'article.

II- L'interaction entre l'homme et l'intelligence artificielle : la solution à la prise de décision erronée ?

1- L'IA peut nous aider à surmonter nos biais de décision

L'IA a été appliquée dans différents domaines en tant qu'outil prometteur pour aider les décideurs à prendre de meilleures décisions. En d'autres termes, cette technologie peut nous aider à prendre des décisions objectives basées sur l'interprétation des données de l'environnement et, par conséquent, aider le décideur humain à dépasser toute heuristique dans le processus de décision. 

Prenons le domaine médical comme cas d'utilisation. Obligés de traiter une grande quantité d'informations et d'effectuer plusieurs tâches chaque jour - parfois en parallèle - les médecins peuvent s'épuiser mentalement et leur analyse peut être biaisée. Par exemple, ils peuvent être sujets à un biais de confirmation. Ce biais se produit lorsque nous sélectionnons et interprétons les informations d'une manière qui confirme nos croyances.

Cela peut conduire les médecins à mal interpréter les analyses médicales et à se concentrer sur les éléments qui confirment le diagnostic qu'ils ont choisi. Plusieurs solutions basées sur l'IA ont vu le jour pour faciliter le diagnostic médical. Grâce à la reconnaissance d'images, à la classification et au traitement du langage naturel, pour n'en citer que quelques-unes, l'IA peut analyser différents points de données médicales afin d'établir un diagnostic médical plus "objectif". 

2- Mais l'IA peut elle-même être biaisée

Bien qu'il ait été dit que l'IA pourrait perfectionner le processus de prise de décision en tant que décideur objectif et efficace capable d'analyser une énorme quantité de données en peu de temps, tout n'est pas aussi parfait qu'il n'y paraît. En fait, l'intelligence artificielle peut elle-même être biaisée. 

Un modèle d'IA peut être biaisé par l'ensemble de données utilisé pour son apprentissage, par exemple lorsque l'ensemble de données est déséquilibré entre les classes prédites. Prenons l'exemple d'un modèle visant à prédire si un consommateur va se désabonner (cesser de faire affaire avec l'entreprise) ou non - dans ce cas, le modèle doit prédire une variable binaire, avec 1 si désabonnement et 0 sinon. Un scientifique des données formera un tel modèle sur l'historique des données disponibles pour chaque client à chaque étape, en indiquant si le client s'est désabonné ou non. Par conception, les données d'entraînement contiennent plus de zéros que de uns, suivant un client chaque jour depuis le jour de son abonnement jusqu'au jour de son désabonnement. En dehors de ce jour de désabonnement, tous les autres jours seront marqués comme des zéros. Et s'il y a beaucoup plus de zéros que de uns, c'est-à-dire si le modèle peut à peine percevoir et apprendre un comportement d'activité de désabonnement, il aura du mal à prédire quand le désabonnement se produira - il pourrait même ne jamais prédire le comportement de désabonnement pour qui que ce soit et à n'importe quel moment.

De même qu'il existe des solutions permettant de dépasser les biais cognitifs humains, il existe également de bonnes pratiques à appliquer pour surmonter les biais de l'IA. Une façon de débiaiser l'algorithme dans l'exemple ci-dessus est d'équilibrer les données, par exemple en ne sélectionnant que quelques observations où la variable cible est fixée à 0 ou en créant des observations synthétiques où la cible est fixée à 1.

Le biais peut également provenir d'autres aspects : le modèle peut être trop compliqué, ce qui entraîne un surajustement de l'ensemble de données d'apprentissage, c'est-à-dire qu'il apprend beaucoup de spécificités à son sujet, y compris les aspects "bruyants", et ne peut pas être étendu aux comportements non observés. La régularisation du modèle est une technique qui permet d'éviter le surajustement en pénalisant les poids des variables bruyantes dans les modèles de régression et en abandonnant ou en fermant certains neurones au cours du processus d'apprentissage d'un réseau neuronal.

3- Si elle est mal gérée, l'IA peut renforcer nos préjugés

L'un des problèmes des biais basés sur les données est qu'ils peuvent refléter les biais et les stéréotypes humains. Le modèle peut apprendre à interpréter le monde comme nous le faisons et le documenter. Le traitement du langage naturel est la technique machine learning de traitement et d'interprétation du contenu écrit. Cette technique utilise l'intégration, c'est-à-dire la transformation des mots d'un document en vecteurs interprétables par la machine. Une fois les vecteurs présentés, la machine peut apprendre les relations entre les différents mots, créant ainsi différents contextes. Par exemple, elle peut apprendre que Paris a la même signification pour la France que Tokyo pour le Japon. Word2vec est un algorithme populaire qui permet de créer de tels enchâssements. Dans cet article, les chercheurs ont utilisé cet algorithme pour intégrer un corpus de 3 millions de mots provenant de Google News. Les résultats ont montré un biais professionnel lié au sexe dans l'intégration, comme le montre la figure ci-dessous. 

Les emplois les plus extrêmes liés à un genre "il" ou "elle" par l'algorithme. Figure tirée de l'article cité.

En d'autres termes, l'algorithme associe certains emplois à des sexes spécifiques. S'ils sont utilisés de manière brute, ces algorithmes entraînés pourraient accentuer les disparités entre les sexes, par exemple en proposant des offres d'emploi inégales à des personnes à la recherche de nouvelles opportunités. Cet article et une grande partie de la littérature proposent des techniques pour traiter les biais et les stéréotypes d'origine humaine détectés dans les algorithmes, comme l'identification des variables (ou des dimensions, dans le cas de l'intégration) qui capturent les biais (comme les biais de genre) et les éliminent. Une autre technique mentionnée dans l'article cité ci-dessus consiste à égaliser les dimensions spécifiques au genre, c'est-à-dire à créer une nouvelle dimension d'intégration de mots qui soit neutre du point de vue du genre. Ces vérifications doivent être effectuées régulièrement, en particulier dans les domaines sensibles, afin d'éviter de générer des contenus renforçant ces stéréotypes. 

Les systèmes de recommandation constituent un autre type d'intelligence artificielle avec lequel les humains interagissent fréquemment. Comme leur nom l'indique, les systèmes de recommandation sont des algorithmes utilisés pour recommander de nouvelles options à un utilisateur en fonction du contenu qu'il a consommé précédemment. Par exemple, sur une plateforme musicale, en fonction de ce que j'ai écouté et de mon profil, des titres spécifiques parmi l'énorme quantité de morceaux disponibles me seront présentés, probablement différents des suggestions qu'un autre utilisateur recevrait sur la même plateforme. 

Il en va de même pour les médias sociaux : le contenu suggéré correspond aux centres d'intérêt de l'utilisateur et stimule donc son engagement sur la plateforme. Toutefois, le fait d'être constamment exposé à des contenus qui correspondent à ses centres d'intérêt peut poser un problème de partialité, car cela pourrait renforcer le biais de confirmation. Comme indiqué précédemment, ce biais se produit lorsque nous sélectionnons et interprétons les informations d'une manière qui confirme nos croyances antérieures. Bien que l'algorithme puisse suggérer à l'utilisateur un contenu aléatoire, ce dernier pourrait avoir tendance à l'ignorer pour consommer le contenu qui correspond exclusivement à ses préjugés antérieurs et qui les renforce donc. Cet effet est connu sous le nom de " chambre d'écho". Il est intéressant de noter que l'effet de chambre d'écho fait l'objet de vifs débats, les avis divergeant sur la question de savoir si les recherches consacrées à ce phénomène sont suffisamment solides pour confirmer son existence... Et si ce comportement est dû aux idées préconçues de l'algorithme ou à la nature même de la prise de décision humaine. 

Cet article conclut notre série d'articles sur le processus de prise de décision. Nous espérons que vous avez apprécié votre lecture et qu'elle vous a aidé à comprendre à quel point la prise de décision peut être complexe et fascinante, et à quel point la science de la décision peut s'avérer utile.

N'hésitez pas à vous inscrire à notre newsletter Tea O'Clock pour rester informé de la parution de nouveaux articles et des dernières tendances du marché → la lettre d'information fifty-five .

Tous les articles

Articles similaires

Le processus de prise de décision : une vue d'ensemble - Partie 5. Sciences cognitives et durabilité

7 minutes
Sabrine Hamroun

The decision-making process: an overview - Part 4: Nudging: the mechanisms of influence

5 minutes
Sabrine Hamroun

Le processus décisionnel : une vue d'ensemble - Partie 3 : La prise de décision en situation de risque

05 minutes
Sabrine Hamroun

Soif d'expertise ? Abonnez-vous à notre newsletter.

Découvrez les dernières actualités, articles, replays de webinars et événements fifty-five dans notre newsletter mensuelle Tea O’Clock.

Prénom*
Nom de famille*
Entreprise*
Langue préférée*
Email*
Merci !

Votre demande d'abonnement a bien été prise en compte.
Oups ! Un problème est survenu lors de la soumission du formulaire.