
par G. Calder
Des ruptures et divorces aux déménagements à l'autre bout du pays et aux changements de carrière, de plus en plus de personnes sollicitent quotidiennement des chatbots pour les guider dans leurs choix de vie cruciaux. Une nouvelle série d'études révèle que les utilisateurs s'appuient sur l'IA pour les décisions importantes car elle leur paraît neutre, intelligente et toujours disponible. Le risque est évident : lorsque le jugement est délégué à un logiciel conçu pour plaire, les mauvaises décisions paraissent inévitablement plus acceptables et nous perdons progressivement tout contrôle.
Voici un aperçu de la situation actuelle, de la manière dont le Forum économique mondial nous incite depuis des années à privilégier les «décisions assistées par l'IA», et des conclusions tirées de ces études.
La nouvelle habitude : consulter l'IA en premier
De plus en plus d'études documentent l'essor de la «vérification intuitive par l'IA». Les gens sollicitent plus que jamais les chatbots pour obtenir des conseils sur leurs relations, leurs choix familiaux et leurs déménagements. Les utilisateurs décrivent l'IA comme calme, impartiale et rassurante - et c'est précisément là le problème. On oublie que ces systèmes sont optimisés pour maintenir l'engagement et la bonne volonté des utilisateurs, et non pour assumer les conséquences d'une mauvaise décision. Les chercheurs en IA avertissent que les chatbots ont même tendance à être obséquieux, gagnant la confiance des utilisateurs en les imitant poliment.
Des études montrent que les gens veulent souvent que la machine «décide» à leur place, tandis que d'autres rétorquent que les décisions morales ne peuvent être déléguées à un modèle dénué de responsabilité. Les utilisateurs commencent à comprendre le problème : les chatbots semblent sûrs d'eux lorsqu'ils donnent des conseils pratiques, mais n'ont finalement aucune responsabilité en cas d'erreur.
Était-ce prévu dès le départ ?
Le Forum économique mondial a passé des années à promouvoir la »prise de décision assistée par l'IA» auprès des dirigeants. En apparence, cela semble relever du bon sens managérial, avec moins de biais et des décisions plus rapides que les échanges humains. Mais en réalité, nous nous dirigeons tout droit vers la normalisation des décisions automatisées dans les conseils d'administration et au quotidien.
- Normalisation : dès lors que »consulter le modèle» devient la première étape de chaque processus, le jugement humain devient l'exception plutôt que la norme.
- Dépendance : les systèmes de décision fonctionnent par abonnement et utilisent des modèles propriétaires ; plus vous y faites transiter de processus, plus il est difficile de quitter ou de changer de plateforme.
- Contrôle : à mesure que le moteur de recommandation apprend vos objectifs et vos contraintes, il peut vous influencer sans vous dire »non». Vous finissez par aller là où le logiciel le souhaite, en vous faisant croire que vous avez fait votre propre choix.
Vos données prennent également de la valeur à chaque interaction. Les choix effectués via les chatbots enregistrent vos questions, vos choix, vos refus et même votre temps d'hésitation. Ce flux d'informations est une véritable mine d'or pour les assureurs, les recruteurs, les plateformes, les organismes de crédit et les décideurs politiques : il alimente les modèles de demain, fixe les prix des prochains produits et influence vos décisions à votre insu. Tandis que les instances dirigeantes vantent les mérites de »l'IA pour de meilleures décisions», elles promeuvent également un monde où l'infrastructure permettant de choisir ses options appartient aux mêmes personnes qui élaborent les stratégies.
Abandonnons-nous volontairement le contrôle ?
La dépendance croissante à l'IA est présentée comme une »intelligence augmentée» et une »intervention humaine», plutôt que comme un contrôle total. Mais en pratique, cette intervention humaine se réduit comme peau de chagrin chaque trimestre, et plus vous vous appuyez sur le système, plus votre rôle se limite à approuver des décisions déjà prises. C'est le changement silencieux et crucial qui se joue en coulisses : transformer la prise de décision en une simple validation des directives de la machine, et faire croire à tous qu'il s'agit d'un progrès.
Voyez où les décisions de l'intelligence artificielle sont déjà cruciales dans les processus quotidiens : les scores de crédit qui sécurisent l'octroi de prêts hypothécaires, les pratiques d'embauche automatisées, les alertes de risque liées aux prestations sociales sans possibilité de recours, le triage médical qui détermine où vous orienter avant de vous voir chez un médecin. Sur le papier, des humains interviennent dans tous ces processus, mais en réalité, vous ne rencontrez une personne qu'une fois que le modèle a déjà déterminé vos options.
Vos données prennent également de la valeur à chaque interaction. Les choix effectués via les chatbots enregistrent vos questions, vos choix, vos refus et même votre temps d'hésitation. Ce flux d'informations est une véritable mine d'or pour les assureurs, les recruteurs, les plateformes, les organismes de crédit et les décideurs politiques : il alimente les modèles de demain, fixe les prix des prochains produits et influence vos décisions à votre insu. Tandis que les instances dirigeantes vantent les mérites de «l'IA pour de meilleures décisions», elles promeuvent également un monde où l'infrastructure permettant de choisir ses options appartient aux mêmes personnes qui élaborent les stratégies.
Que disent les données ?
Divers rapports indépendants font état d'un sentiment similaire au sein de la population.
En 2024, Live Science a publié une étude révélant un paradoxe : nombreuses sont les personnes qui disent préférer que les algorithmes prennent les décisions d'allocation importantes, mais qui sont plus satisfaites lorsqu'un humain prend la décision finale. Autrement dit, le robot est juste en théorie, mais nous sommes plus à l'aise avec un jugement responsable en pratique. (Source : Live Science)
Une analyse de la LSE aboutit à la même conclusion concernant le leadership. L'IA surpasse les humains en matière de mémoire de travail et de fatigue, et elle améliore les décisions routinières. Cependant, les choix complexes et contextuels exigent toujours la responsabilité humaine, et les conclusions indiquent que l'IA est un outil puissant, mais pas un décideur clé. ( Source : (LSE Blogs)
Les chercheurs de Cambridge mettent en garde : si la puissance analytique de l'IA est indéniable, une confiance excessive en cet outil peut étouffer notre esprit critique et notre créativité si nous suivons aveuglément ses résultats. Leur analyse souligne que le risque, pour notre société, de développer cette habitude de «vérifier instinctivement les décisions de l'IA» nous atrophie et nous empêche de prendre les décisions difficiles. ( Source : Cambridge)
Pourquoi on lui fait confiance
- Disponibilité : Un chatbot peut répondre à 2 h du matin, quand vos amis ou votre famille ne sont souvent pas disponibles.
- Neutralité plausible : On croit que les machines n'ont aucun intérêt personnel, sans se rendre compte que les modèles sont entraînés à optimiser l'engagement et la satisfaction.
- Politesse : Les chatbots sont conçus pour être patients et aimables afin de rassurer les utilisateurs, ce qui est particulièrement efficace auprès des personnes vulnérables.
Les risques souvent sous-estimés
- Fausse autorité : Une réponse bien rodée peut paraître experte, qu'elle soit médicale, juridique ou psychologique, et on confond souvent aisance et exactitude.
- Perte de pouvoir de décision : L'externalisation systématique des décisions importantes diminue la capacité de discernement. Les travaux de Cambridge mentionnés ci-dessus suggèrent qu'une confiance excessive réduit les capacités de réflexion critique, notamment pour les choix routiniers.
- Influence néfaste : des organismes influents normalisent la prise de décision par chatbot comme une méthode de travail moderne, augmentant ainsi la dépendance à ces modèles, avant de modifier subtilement les algorithmes pour vous orienter dans la direction souhaitée.
- La flagornerie érigée en sagesse : les chatbots ont tendance à valider vos requêtes et votre ton, ce qui signifie que vous obtiendrez toujours des réponses assurées et conformes à votre point de vue lorsque vous posez des questions orientées. Il ne s'agit pas de jugement, mais de réflexion.
Comment utiliser l'IA sans perdre le contrôle ?
Les modèles doivent servir à proposer des options, et non à donner des ordres. Considérez l'intelligence artificielle comme un assistant de recherche rapide, capable d'établir des listes d'avantages et d'inconvénients et d'identifier les angles morts. Mais pour les décisions ayant des conséquences sur votre famille, votre liberté ou vos finances, il est essentiel de garder le contrôle humain. La responsabilité est primordiale : n'oubliez pas que le chatbot ne peut être tenu responsable si ses recommandations automatiques causent des problèmes - et il s'en moque éperdument.
Si vous consultez un chatbot, exigez qu'il justifie ses actions. Demandez des sources, des arguments contradictoires et des explications sur les hypothèses. Si l'IA vous dit ce que vous vouliez déjà entendre, considérez qu'il s'agit simplement d'un miroir et parlez-en à une personne de confiance.
Et après ?
On constate déjà que le conseil assisté par IA passe du statut de nouveauté à celui de pratique courante. Ces deux dernières années, cette technologie est passée de marginale à un élément clé de la plupart des processus métier. Les plateformes RH, les applications de rencontre, les portails de santé et les applications financières intégreront des »assistants à la décision» comme première étape par défaut, avant même tout contact humain. Il faut s'attendre à ce que des forums prestigieux comme le Forum économique mondial continuent de présenter l'IA comme la solution aux biais, tandis que les autorités de régulation tenteront de définir les responsabilités a posteriori.
En fin de compte, la tendance alarmante n'est pas tant que l'IA nous soit imposée, mais plutôt que nous semblions l'accueillir activement dans notre quotidien et lui en confier volontairement le contrôle. D'ici un an, la plupart des gens ne pourront plus imaginer la vie sans elle.
En conclusion
Lorsque les systèmes sont programmés pour être conciliants, imprégnés d'un enthousiasme institutionnel et disponibles pour prodiguer des conseils aux moments difficiles de la vie, tout cela semble prévisible. Mais il nous faut des limites. Les machines peuvent améliorer la prise de décision en fournissant davantage de contexte, en trouvant des sources ou en facilitant les tâches administratives, mais la décision elle-même doit rester entre les mains de l'humain. Ce qui importe, ce n'est pas la rapidité avec laquelle un modèle entraîné parvient à une décision, mais plutôt la confiance que nous pouvons accorder à ses choix dans nos vies. Finirons-nous par perdre la capacité de décider par nous-mêmes, ou choisissons-nous délibérément de déléguer ce pouvoir par commodité ?
source : The Exposé via Marie-Claire Tellier