Par Yann Arnaud.
Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie, et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.
Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vue le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.
Une représentation partielle du monde
Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaître qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.
En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.
L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien qu’un auteur scientifique comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.
Esprit de bienveillance
En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.
Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, elles ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.
Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.
Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».
Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
La responsabilité humaine comme primauté
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).
Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.
Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. En tant qu’être pensant, l’humain a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.
Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.
Laurent Cervoni, Laila Benraïss-Noailles et Julien Cusin, directeurs de thèse de Yann Arnaud, ont supervisé la rédaction de cet article.
Yann Arnaud, Doctorant en éthique des affaires, Université de Bordeaux
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Aucun commentaire:
Publier un commentaire