"C’est à l’homme de décider s’il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté" ,
a déclaré le pape François dans son message pour la 58e Journée
mondiale des communications sociales, célébrée le 24 janvier. Dans une
longue réflexion sur l’intelligence artificielle et ses effets sur la
communication et la société, il met en garde contre le « spectre d’un nouvel esclavage » et contre la « possibilité que quelques-uns conditionnent la pensée de tous ».
Le 1er janvier dernier, dans son message pour la Journée mondiale de
la paix, le pontife s’était déjà attaqué à la problématique de
l’intelligence artificielle, exhortant les gouvernements à réguler son
utilisation au niveau international par le biais d’un traité. Tout en
renouvelant cet appel, il affirme que « la réglementation ne suffit pas »
dans un nouveau texte de quatre pages, publié en cette solennité de la
Saint François de Sales, patron des journalistes et des communicants.
Dans cette méditation philosophique, le Pape note que la "diffusion accélérée"
d’inventions rattachées à l’intelligence artificielle est en train de
modifier radicalement l’information et la communication et, à travers
elles, "certains des fondements de la cohabitation civile" . Il insiste sur le fait que ce changement "touche tout le monde" , en ce qu’il concerne l’avenir de l’humanité et sa nature même.
Le Pape met cependant en garde contre les "effets paralysants" qu’une lecture catastrophiste du phénomène pourrait entraîner.
Il invite donc à ne pas se "raidir contre le nouveau" , mais plutôt à "orienter dans le bon sens la mutation culturelle en cours" .
Notre époque, estime le pape François, est "riche en technique et pauvre en humanité" , et pourtant la réflexion sur l’intelligence artificielle doit partir "du cœur de l’homme" . Contrairement aux machines, cette "sagesse du cœur" , inspirée par "l’Esprit saint »,
permet de " tisser ensemble le tout et les parties, les décisions et
les conséquences, les hauteurs et les fragilités, le passé et l’avenir,
le ‘je’ et le ‘nous’ ", insiste-t-il.
François reconnaît la supériorité des technologies d’apprentissage
automatique sur le plan de la mémorisation des données et leur
traitement, "mais c’est à l’homme et à lui seul qu’il revient d’en décrypter le sens" , assure-t-il. Et, prévient-il, "il ne s’agit pas d’exiger que les machines semblent humaines".
"Les algorithmes ne sont pas neutres"
Le Pape met en garde contre "l’hypnose" de l’homme, critiquant "son délire de toute-puissance" quand il essaye "de surmonter sa vulnérabilité par tous les moyens" . Cette "tentation originaire de devenir Dieu sans Dieu" , que le Pape relie au récit de la Genèse, consiste à "vouloir conquérir par ses propres forces ce qui devrait au contraire être accueilli comme un don de Dieu" .
"Les algorithmes ne sont pas neutres" , insiste le successeur de Pierre qui juge important de pouvoir les "comprendre, appréhender et réguler" pour ne pas courir le risque de les voir tomber "entre de mauvaises mains" . Il alerte en particulier sur le risque de "pollution cognitive" que permet l’intelligence artificielle dans le domaine de la communication et de la presse.
Car ces technologies permettent aux hommes de "communiquer dans des langues qui leur sont inconnues", mais peuvent aussi faciliter la désinformation avec de "fausses nouvelles" – ou des "hyper trucages" audio ou visuels. Le Pape confie d’ailleurs avoir été l’objet de ces images trompeuses – deep fake – générées par l’IA.
Le Pape met aussi en garde contre le phénomène des "chambres d’écho" , un mécanisme qui enferme les personnes dans un "marécage anonyme, au service des intérêts du marché ou du pouvoir" en ne lui donnant accès qu’à une information stéréotypée. "Il
n’est pas acceptable que l’utilisation de l’intelligence artificielle
conduise à une pensée anonyme, à un assemblage de données non
certifiées, à une déresponsabilisation éditoriale collective" , insiste-t-il. Il avertit que l’absence de réaction face à ces réalités fait planer le "spectre d’un nouvel esclavage" en ouvrant à la "possibilité que quelques-uns conditionnent la pensée de tous" .
L’information est relation
Le Pape insiste sur le fait que l’information ne doit pas être coupée de sa dimension "relationnelle" qui "implique le corps, l’être dans la réalité"
et doit permettre de relayer non seulement des données, mais aussi
« des expériences ». Il oppose alors les effets pervers de la "guerre parallèle" de la désinformation menée par certaines entités et les "reportages de guerre" qui permettent aux personnes de "toucher la souffrance" des victimes des conflits. Il rend d’ailleurs hommage aux nombreux journalistes morts ou blessés sur le terrain.
Sans apporter de réponse définitive, le Pape conclut son texte en
listant plusieurs grandes questions auxquelles doit répondre l’humanité
concernant l’intelligence artificielle : la protection du
professionnalisme des métiers de l’information, la responsabilisation
des entreprises développant des plateformes concernant ce qu’elles y diffusent, la durabilité sur le plan écologique de cette technologie "extrêmement énergivore"
et sa diffusion dans les pays en voie de développement. Le Pape demande
aussi plus de transparence sur les algorithmes des plateformes et des
moteurs de recherches (notamment sur la façon dont sont indexées et
désindexées les données), sur les processus d’information et contre
l’anonymat.
Répondre à ces questions, assure le Pape, pourrait permettre d’ "aligner même les systèmes d’intelligence artificielle sur une communication pleinement humaine" . "C’est
à l’homme de décider s’il veut devenir la nourriture des algorithmes ou
nourrir son cœur de liberté, sans laquelle on ne grandit pas en sagesse" , conclut-il.
Chers frères et sœurs !
L’évolution des systèmes de ladite “intelligence artificielle”, sur laquelle j’ai déjà réfléchi dans mon récent Message pour la Journée Mondiale de la Paix,
est également en train de modifier radicalement l’information et la
communication et, à travers elles, certains des fondements de la
cohabitation civile. Il s’agit d’un changement qui touche tout le monde,
et pas seulement les professionnels. La diffusion accélérée
d’inventions étonnantes, dont le fonctionnement et les potentialités
sont inconnus de la plupart d’entre nous, suscite une perplexité qui
oscille entre enthousiasme et désorientation et nous confronte
inévitablement à des questions fondamentales : qu’est-ce donc que
l’homme, quelle est sa spécificité et quel sera l’avenir de cette espèce
que nous appelons homo sapiens à l’ère des intelligences
artificielles ? Comment rester pleinement humain et orienter dans le bon
sens la mutation culturelle en cours ?
À partir du cœur
Il convient tout d’abord de débarrasser le terrain des lectures
catastrophistes et de leurs effets paralysants. Il y a un siècle déjà,
Romano Guardini, réfléchissant sur la technique et l’homme, nous
invitait à ne pas nous raidir contre le “nouveau” pour tenter de «
préserver un monde beau condamné à disparaître ». En même temps, il
lançait un avertissement prophétique pressant : « Notre place est dans
le devenir. Nous devons en faire partie, chacun à sa place (…), en y
adhérant honnêtement mais en restant sensibles, avec un cœur
incorruptible, à tout ce qu’il y a de destructeur et de non-humain en
lui ». Et de conclure : « Il s’agit, il est vrai, de problèmes d’ordre
technique, scientifique, politique ; mais ceux-ci ne peuvent être
résolus qu’en partant de l’homme. Il doit se constituer un nouveau type
humain, doté d’une spiritualité plus profonde, d’une liberté et d’une
intériorité nouvelles ». [1]
Dans cette époque qui risque d’être riche en technique et pauvre
en humanité, notre réflexion ne peut partir que du cœur de l’homme. [2]
Ce n’est qu’en nous dotant d’un regard spirituel, en retrouvant une
sagesse du cœur, que nous pouvons lire et interpréter la nouveauté de
notre temps et redécouvrir la voie d’une communication pleinement
humaine. Le cœur, entendu bibliquement comme le siège de la liberté et
des décisions les plus importantes de la vie, est un symbole
d’intégrité, d’unité, mais il évoque aussi les affections, les désirs,
les rêves, et il est surtout le lieu intérieur de la rencontre avec
Dieu. La sagesse du cœur est donc cette vertu qui nous permet de tisser
ensemble le tout et les parties, les décisions et leurs conséquences,
les hauteurs et les fragilités, le passé et l’avenir, le je et le nous.
Cette sagesse du cœur se laisse trouver par ceux qui la cherchent et
se laisse voir par ceux qui l’aiment ; elle devance ceux qui la désirent
et va à la recherche de ceux qui en sont dignes (cf. Sg 6, 12-16). Elle est avec ceux qui acceptent les conseils (cf. Pr 13, 10), avec ceux dont le cœur est docile, un cœur qui écoute (cf. 1R
3, 9). Elle est un don de l’Esprit Saint, qui permet de voir les choses
avec le regard de Dieu, de comprendre les liens, les situations, les
événements et d’en découvrir le sens. Sans cette sagesse, l’existence
devient insipide, car c’est précisément la sagesse – dont la racine
latine sapere la relie à la saveur – qui donne du goût à la vie.
Opportunité et danger
Nous ne pouvons pas attendre cette sagesse des machines. Bien que le terme d’intelligence artificielle ait
aujourd’hui supplanté le terme plus correct utilisé dans la littérature
scientifique, celui d’apprentissage automatique, l’utilisation même du
mot “intelligence” est trompeuse. Les machines possèdent certes une
capacité incommensurablement plus grande que l’homme à mémoriser les
données et à les relier entre elles, mais c’est à l’homme et à lui seul
qu’il revient d’en décrypter le sens. Il ne s’agit donc pas d’exiger que
les machines semblent humaines. Il s’agit plutôt de réveiller l’homme
de l’hypnose dans laquelle il tombe du fait de son délire de
toute-puissance, se croyant un sujet totalement autonome et
autoréférentiel, séparé de tout lien social et oublieux de son statut de
créature.
En réalité, l’homme a toujours fait l’expérience qu’il ne se suffit
pas à lui-même et il tente de surmonter sa vulnérabilité par tous les
moyens. Depuis les premiers objets préhistoriques, utilisés comme
prolongement des bras, en passant par les médias utilisés comme
prolongement de la parole, nous en sommes arrivés aujourd’hui aux
machines les plus sophistiquées qui agissent comme une aide à la pensée.
Chacune de ces réalités peut cependant être contaminée par la tentation
originaire de devenir comme Dieu sans Dieu (cf. Gn 3),
c’est-à-dire de vouloir conquérir par ses propres forces ce qui devrait
au contraire être accueilli comme un don de Dieu et vécu en relation
avec les autres.
Selon l’orientation du cœur, tout ce qui est entre les mains de
l’homme devient opportunité ou danger. Son corps même, créé pour être un
lieu de communication et de communion, peut devenir agressif. De même,
toute extension technique de l’homme peut être un instrument de service
aimant ou de domination hostile. Les systèmes d’intelligence
artificielle peuvent contribuer au processus de libération de
l’ignorance et faciliter l’échange d’informations entre les différents
peuples et générations. Ils peuvent, par exemple, rendre accessible et
compréhensible un énorme patrimoine de connaissances écrit dans le passé
ou permettre aux gens de communiquer dans des langues qui leur sont
inconnues. Mais ils peuvent aussi être des instruments de “pollution
cognitive”, d’altération de la réalité par des récits partiellement ou
totalement faux qui sont crus – et partagés – comme s’ils étaient vrais.
Il suffit de penser au problème de la désinformation, auquel nous
sommes confrontés depuis des années sous la forme des “fausses
nouvelles” [3] et qui utilise aujourd’hui des
“hyper trucages”, c’est-à-dire la création et la diffusion d’images qui
semblent parfaitement plausibles mais qui sont fausses (il m’est arrivé
aussi d’en être l’objet), ou des messages audio qui utilisent la voix
d’une personne pour dire des choses qu’elle n’a jamais dites. La
simulation, qui est à la base de ces programmes, peut être utile dans
certains domaines spécifiques, mais elle devient perverse lorsqu’elle
fausse le rapport à l’autre et à la réalité.
De la première vague d’intelligence artificielle, celle des médias
sociaux, nous en avons déjà compris l’ambivalence, évoquant ses
opportunités comme ses risques et ses pathologies. Le deuxième niveau
des intelligences artificielles génératives marque un saut qualitatif
incontestable. Il est donc important de pouvoir comprendre, appréhender
et réguler des outils qui, entre de mauvaises mains, pourraient ouvrir
des scénarios négatifs. Comme tout ce qui est sorti de l’esprit et des
mains de l’homme, les algorithmes ne sont pas neutres. Il est donc
nécessaire d’agir de manière préventive, en proposant des modèles de
régulation éthique pour limiter les implications néfastes et
discriminatoires, socialement injustes, des systèmes d’intelligence
artificielle et pour contrer leur utilisation pour la réduction du
pluralisme, la polarisation de l’opinion publique ou la construction
d’une pensée unique. Je renouvelle donc mon appel en exhortant « la
Communauté des nations à travailler ensemble afin d’adopter un traité
international contraignant qui réglemente le développement et
l’utilisation de l’intelligence artificielle sous ses multiples formes
». [4] Cependant, comme dans tous les domaines humains, la réglementation ne suffit pas.
Grandir en humanité
Nous sommes appelés à grandir ensemble, en humanité et en tant
qu’humanité. Le défi qui se présente à nous est de faire un saut
qualitatif pour être à la hauteur d’une société complexe, multiethnique,
pluraliste, multireligieuse et multiculturelle. Il nous appartient de
nous interroger sur le développement théorique et l’utilisation pratique
de ces nouveaux instruments de communication et de connaissance. De
grandes possibilités de bien s’accompagnent du risque que tout se
transforme en un calcul abstrait, réduisant les personnes à des données,
la pensée à un schéma, l’expérience à un cas, le bien au profit, et
surtout que nous finissions par nier l’unicité de chaque personne et de
son histoire, en dissolvant le caractère concret de la réalité dans une
série de données statistiques.
La révolution numérique peut nous rendre plus libres, mais
certainement pas si elle nous enferme dans les modèles connus
aujourd’hui sous le nom de chambres d’écho. Dans ce cas, au lieu
d’accroître le pluralisme de l’information, on risque de se retrouver
perdu dans un marécage anonyme, au service des intérêts du marché ou du
pouvoir. Il n’est pas acceptable que l’utilisation de l’intelligence
artificielle conduise à une pensée anonyme, à un assemblage de données
non certifiées, à une déresponsabilisation éditoriale collective. En
effet, la représentation de la réalité en méga données, aussi
fonctionnelle soit-elle pour la gestion des machines, implique une perte
substantielle de la vérité des choses, qui entrave la communication
interpersonnelle et qui risque de porter atteinte à notre humanité même.
L’information ne peut être séparée de la relation existentielle : elle
implique le corps, l’être dans la réalité ; elle demande de mettre en
relation non seulement des données, mais des expériences ; elle exige le
visage, le regard, la compassion ainsi que le partage.
Je pense aux reportages sur les guerres et à la “guerre parallèle”
menée par le biais de campagnes de désinformation. Et je pense au nombre
de reporters blessés ou morts sur le terrain pour nous permettre de
voir ce que leurs yeux ont vu. Car ce n’est qu’en touchant la souffrance
des enfants, des femmes et des hommes que l’on peut comprendre
l’absurdité des guerres.
L’utilisation de l’intelligence artificielle pourra apporter une
contribution positive dans le domaine de la communication, dans la
mesure où elle n’annulera pas le rôle du journalisme dans ce domaine,
mais au contraire l’accompagnera ; où elle renforcera le
professionnalisme de la communication, en responsabilisant chaque
communicateur ; où elle redonnera à chaque être humain le rôle de sujet,
avec une capacité critique, de la communication elle-même.
Interrogations pour aujourd’hui et demain
Certaines questions se posent donc spontanément : comment protéger le
professionnalisme et la dignité des opérateurs dans le domaine de la
communication et de l’information, ainsi que ceux des utilisateurs du
monde entier ? Comment assurer l’interopérabilité des plateformes ?
Comment faire en sorte que les entreprises qui développent des
plateformes numériques assument la responsabilité de ce qu’elles
diffusent et dont elles tirent profit, au même titre que les éditeurs de
médias traditionnels ? Comment rendre plus transparents les critères
des algorithmes d’indexation et de désindexation et des moteurs de
recherche, capables de valoriser ou d’effacer des personnes et des
opinions, des histoires et des cultures ? Comment garantir la
transparence des processus d’information ? Comment rendre évidente la
paternité des écrits et la traçabilité des sources, en évitant le voile
de l’anonymat ? Comment savoir si une image ou une vidéo représente un
événement ou le simule ? Comment éviter que les sources soient réduites à
une seule, à une pensée unique, élaborée de manière algorithmique ? Et
comment favoriser un environnement qui préserve le pluralisme et qui
représente la complexité de la réalité ? Comment rendre durable cet
outil puissant, coûteux et extrêmement énergivore ? Comment le rendre
accessible également aux pays en voie de développement ?
Les réponses à ces questions et à d’autres nous permettront de
comprendre si l’intelligence artificielle finira par créer de nouvelles
castes basées sur la maîtrise de l’information, créant de nouvelles
formes d’exploitation et d’inégalité, ou si, au contraire, elle
apportera plus d’égalité, en promouvant une information correcte et une
plus grande conscience du changement d’époque que nous vivons, en
favorisant l’écoute des besoins multiples des personnes et des peuples,
dans un système d’information articulé et pluraliste. D’un côté se
profile le spectre d’un nouvel esclavage, de l’autre une conquête de
liberté ; d’un côté la possibilité que quelques-uns conditionnent la
pensée de tous ; de l’autre la possibilité que tous participent à
l’élaboration de la pensée.
La réponse n’est pas écrite, elle dépend de nous. C’est à l’homme de
décider s’il veut devenir la nourriture des algorithmes ou nourrir son
cœur de liberté, sans laquelle on ne grandit pas en sagesse. Cette
sagesse mûrit en tirant profit du temps et en embrassant les
vulnérabilités. Elle grandit dans l’alliance entre les générations,
entre ceux qui ont la mémoire du passé et ceux qui ont la vision de
l’avenir. Ce n’est qu’ensemble que grandit la capacité de discerner,
d’être vigilant, de voir les choses à partir de leur accomplissement.
Pour ne pas perdre notre humanité, cherchons la Sagesse qui précède
toutes choses (cf. Si 1, 4), celle qui, passant par des cœurs purs, prépare les amis de Dieu et les prophètes (cf. Sg7, 27) : elle nous aidera à aligner même les systèmes d’intelligence artificielle sur une communication pleinement humaine.
Rome, Saint-Jean-de-Latran, 24 janvier 2024
FRANÇOIS