Face à l'IA, préserver les voix et les visages humains; le message du pape pour la 60e journée des communications internationales (25/01/2026)
MESSAGE DE SA SAINTETÉ LE PAPE LÉON XIV
À L'OCCASION DE LA 60E JOURNÉE MONDIALE DES COMMUNICATIONS INTERNATIONALES
_______________________
Chers frères et sœurs !
Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité irremplaçable et constituent l'élément fondamental de toute rencontre. Les Anciens le savaient bien. Ainsi, pour définir la personne humaine, les Grecs anciens utilisaient le mot « visage » ( prósōpon ), qui, étymologiquement, désigne ce qui se trouve devant le regard, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare ), quant à lui, inclut le son : non pas n'importe quel son, mais la voix si particulière d'une personne.
Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu, qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’il nous a lui-même adressée ; une Parole qui a d’abord résonné à travers les siècles dans la voix des prophètes, puis s’est faite chair dans la plénitude des temps. Cette Parole – cette communication que Dieu fait de lui-même – nous avons aussi pu l’entendre et la voir directement (cf. 1 Jn 1, 1-3), car elle s’est révélée dans la voix et le visage de Jésus, le Fils de Dieu.
Dès sa création, Dieu a voulu l’homme pour interlocuteur et, comme le dit saint Grégoire de Nysse [1], il a imprimé sur son visage le reflet de l’amour divin, afin qu’il puisse vivre pleinement son humanité par l’amour. Préserver les visages et les voix humaines, c’est donc préserver cette marque, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce constituée d’algorithmes biochimiques, définis d’avance. Chacun de nous a une vocation irremplaçable et inimitable qui émerge de la vie et se manifeste précisément dans la communication avec autrui.
Si nous ne parvenons pas à nous en protéger, les technologies numériques risquent de bouleverser radicalement certains piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant les voix et les visages humains, la sagesse et le savoir, la conscience et la responsabilité, l'empathie et l'amitié, les systèmes que l'on appelle intelligence artificielle perturbent non seulement les écosystèmes informationnels, mais s'immiscent également au niveau le plus profond de la communication : celui des relations interpersonnelles.
Le défi n’est donc pas technologique, mais anthropologique. Protéger les visages et les voix, c’est en fin de compte se protéger soi-même. Saisir les opportunités offertes par le numérique et l’intelligence artificielle avec courage, détermination et discernement ne signifie pas se voiler la face face aux problèmes critiques, aux zones d’ombre et aux risques.
N'abandonnez pas votre propre pensée
Il existe depuis longtemps de nombreuses preuves que les algorithmes conçus pour maximiser l'engagement sur les réseaux sociaux — ce qui est profitable aux plateformes — privilégient les émotions impulsives et pénalisent les expressions humaines plus réfléchies, comme l'effort de compréhension et de réflexion. En enfermant des groupes de personnes dans des bulles de consensus et d'indignation faciles, ces algorithmes affaiblissent la capacité d'écoute et de pensée critique, et accentuent la polarisation sociale.
À cela s'ajoute une confiance naïve et aveugle en l'intelligence artificielle, perçue comme un « ami » omniscient, dispensateur de toutes les informations, dépositaire de tous les souvenirs, « oracle » de tous les conseils. Tout cela risque d'éroder davantage notre capacité à penser de manière analytique et créative, à comprendre le sens et à distinguer la syntaxe de la sémantique.
Bien que l'IA puisse apporter un soutien et une assistance dans la gestion des tâches de communication, le fait de se soustraire à l'effort de notre propre réflexion et de se contenter d'une compilation statistique artificielle risque d'éroder nos capacités cognitives, émotionnelles et de communication à long terme.
Ces dernières années, les systèmes d'intelligence artificielle ont pris une place de plus en plus importante dans la production de textes, de musique et de vidéos. Une grande partie du secteur créatif humain risque ainsi d'être démantelée et remplacée par l'étiquette « Propulsé par l'IA », transformant les individus en simples consommateurs passifs de pensées irréfléchies, de produits anonymes, non autorisés et délaissés. Parallèlement, les chefs-d'œuvre du génie humain en musique, en art et en littérature sont réduits à de simples terrains d'entraînement pour les machines.
La question qui nous importe, cependant, n'est pas ce que la machine peut ou pourra faire, mais ce que nous pouvons et pourrons faire, en progressant en humanité et en connaissance, grâce à l'utilisation judicieuse de ces puissants outils à notre service. L'être humain a toujours été tenté de s'approprier les fruits du savoir sans effort d'implication, de recherche et de responsabilité personnelle. Renoncer au processus créatif et confier nos fonctions mentales et notre imagination aux machines, c'est pourtant enterrer les talents que nous avons reçus pour grandir en tant qu'êtres humains, dans notre relation à Dieu et aux autres. C'est se cacher et faire taire sa voix.
Être ou faire semblant : simuler les relations et la réalité
En parcourant nos flux d'informations, il devient de plus en plus difficile de déterminer si nous interagissons avec d'autres humains ou avec des « bots » ou des « influenceurs virtuels ». Les interventions opaques de ces agents automatisés influencent les débats publics et les choix des individus. Les chatbots basés sur de grands modèles linguistiques (GML), en particulier, se révèlent étonnamment efficaces pour une persuasion insidieuse, grâce à l'optimisation continue des interactions personnalisées. La structure dialogique, adaptative et mimétique de ces modèles linguistiques est capable d'imiter les sentiments humains et ainsi de simuler une relation. Cette anthropomorphisation, qui peut même être amusante, est aussi trompeuse, surtout pour les plus vulnérables. Car les chatbots rendus excessivement « affectueux », en plus d'être toujours présents et disponibles, peuvent devenir des architectes discrets de nos états émotionnels et ainsi envahir notre sphère privée.
Les technologies qui exploitent notre besoin de connexion peuvent non seulement avoir des conséquences douloureuses pour le destin des individus, mais aussi nuire au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous substituons les relations humaines par des relations avec des IA entraînées à cataloguer nos pensées et à construire ainsi autour de nous un monde de miroirs, où tout est fait « à notre image et à notre ressemblance ». De cette manière, nous nous privons de la possibilité de rencontrer l'autre, toujours différent de nous, avec qui nous pouvons et devons apprendre à dialoguer. Sans acceptation de l'altérité, il ne peut y avoir ni relation ni amitié.
Un autre défi majeur que posent ces systèmes émergents est celui des biais qui entraînent l'acquisition et la transmission d'une perception altérée de la réalité. Les modèles d'IA sont façonnés par la vision du monde de ceux qui les conçoivent et peuvent, à leur tour, imposer des modes de pensée en reproduisant les stéréotypes et les biais présents dans les données qu'ils utilisent. Le manque de transparence dans la conception des algorithmes, associé à une représentation sociale insuffisante des données, tend à nous piéger dans des réseaux qui manipulent nos pensées et perpétuent et aggravent les inégalités et les injustices sociales existantes.
Le risque est considérable. La puissance de la simulation est telle que l'IA peut même nous tromper en fabriquant des « réalités » parallèles, en s'appropriant nos visages et nos voix. Nous sommes plongés dans une multidimensionnalité où il devient de plus en plus difficile de distinguer le réel de la fiction.
À cela s'ajoute le problème de l'inexactitude. Les systèmes qui présentent les probabilités statistiques comme des connaissances ne nous offrent en réalité, au mieux, que des approximations de la vérité, parfois même de véritables hallucinations. Le manque de vérification des sources, conjugué à la crise du journalisme de terrain – qui exige une collecte et une vérification constantes des informations sur le terrain – peut créer un terreau encore plus fertile pour la désinformation, engendrant un sentiment croissant de méfiance, de confusion et d'insécurité.
Une alliance possible
Derrière cette immense force invisible qui nous concerne tous, se cachent quelques entreprises, celles dont les fondateurs ont récemment été présentés comme les créateurs de la « personnalité de l’année 2025 », à savoir les architectes de l’intelligence artificielle. Ceci soulève de sérieuses inquiétudes quant au contrôle oligopolistique des systèmes algorithmiques et d’intelligence artificielle capables d’influencer subtilement les comportements et même de réécrire l’histoire humaine – y compris celle de l’Église – souvent à notre insu.
Le défi qui nous attend n'est pas de freiner l'innovation numérique, mais de l'orienter, de prendre conscience de sa nature ambivalente. Il appartient à chacun d'entre nous de se faire entendre pour défendre l'humanité, afin que ces outils puissent être véritablement intégrés par nous, en tant qu'alliés.
Cette alliance est possible, mais elle doit reposer sur trois piliers : la responsabilité , la coopération et l’éducation.
Tout d'abord, la responsabilité. Selon le rôle, elle peut se définir comme l'honnêteté, la transparence, le courage, la vision, le devoir de partager les connaissances ou le droit à l'information. Mais en général, nul ne peut se soustraire à sa responsabilité quant à l'avenir que nous construisons.
Pour les dirigeants des plateformes en ligne, cela signifie veiller à ce que leurs stratégies commerciales soient guidées non seulement par la maximisation des profits, mais aussi par une vision à long terme qui prenne en compte le bien commun, tout comme chacun d'eux se soucie du bien-être de ses enfants.
Les créateurs et développeurs de modèles d'IA sont tenus de faire preuve de transparence et de responsabilité sociale concernant les principes de conception et les systèmes de modération qui sous-tendent leurs algorithmes et modèles développés, afin de favoriser un consentement éclairé des utilisateurs.
La même responsabilité incombe également aux législateurs nationaux et aux organismes de réglementation supranationaux, qui sont chargés de garantir le respect de la dignité humaine. Une réglementation appropriée peut protéger les individus contre les attachements émotionnels aux chatbots et contenir la diffusion de contenus faux, manipulateurs ou trompeurs, préservant ainsi l'intégrité de l'information face aux simulations trompeuses.
Les entreprises de médias et de communication, quant à elles, ne peuvent laisser des algorithmes, obnubilés par la conquête de quelques secondes d'attention à tout prix, primer sur leurs valeurs professionnelles, axées sur la recherche de la vérité. La confiance du public se gagne par l'exactitude et la transparence, et non par la course effrénée à l'engagement. Les contenus générés ou manipulés par l'IA doivent être clairement identifiés et distingués des contenus créés par des humains. La paternité et la propriété intellectuelle des œuvres des journalistes et autres créateurs de contenu doivent être protégées. L'information est un bien public. Un service public constructif et pertinent ne repose pas sur l'opacité, mais sur la transparence des sources, l'implication des parties prenantes et un haut niveau de qualité.
Nous sommes tous appelés à coopérer. Aucun secteur ne peut relever seul le défi de l'innovation numérique et de la gouvernance de l'IA. Il est donc indispensable de créer des mécanismes de protection. Toutes les parties prenantes – de l'industrie technologique aux autorités de régulation, des entreprises créatives au monde universitaire, des artistes aux journalistes, en passant par les enseignants – doivent participer à la construction et à la mise en œuvre d'une citoyenneté numérique éclairée et responsable.
Voilà ce que vise l’éducation : accroître notre capacité personnelle de réflexion critique, évaluer la fiabilité des sources et les intérêts possibles qui sous-tendent la sélection des informations qui nous parviennent, comprendre les mécanismes psychologiques qui les activent, permettre à nos familles, communautés et associations de développer des critères pratiques pour une culture de la communication plus saine et plus responsable.
C’est précisément pour cette raison qu’il est de plus en plus urgent d’intégrer l’éducation aux médias, à l’information et à l’intelligence artificielle dans les systèmes éducatifs à tous les niveaux, une pratique déjà encouragée par certaines institutions civiles. En tant que catholiques, nous pouvons et devons contribuer à ce que chacun, et notamment les jeunes, acquière la capacité de penser de manière critique et s’épanouisse dans la liberté spirituelle. Cette éducation devrait également s’inscrire dans des initiatives plus larges d’éducation tout au long de la vie, afin d’atteindre aussi les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face à l’évolution technologique rapide.
La maîtrise des médias, de l'information et de l'intelligence artificielle permettra à chacun d'éviter la dérive anthropomorphique de ces systèmes et de les considérer comme de simples outils. Il est essentiel de toujours vérifier les sources fournies par les systèmes d'IA (qui peuvent être inexactes ou erronées) et de protéger sa vie privée et ses données en comprenant les paramètres de sécurité et les possibilités de contestation. Il est important de s'informer et de se former à une utilisation responsable de l'IA, et notamment de protéger son image (photos et enregistrements audio), son visage et sa voix, afin d'empêcher leur utilisation pour créer des contenus et des comportements nuisibles tels que la fraude numérique, le cyberharcèlement et les deepfakes , qui violent la vie privée et l'intimité des personnes sans leur consentement. De même que la révolution industrielle a nécessité l'alphabétisation de base pour permettre aux individus de s'adapter aux nouveautés, la révolution numérique exige une culture numérique (ainsi qu'une éducation humaniste et culturelle) pour comprendre comment les algorithmes façonnent notre perception de la réalité, comment fonctionnent les biais de l'IA, quels mécanismes déterminent l'apparition de certains contenus dans nos flux d'information , et quels sont les fondements et les modèles économiques de l'économie de l'IA et leur évolution potentielle.
Nous avons besoin du visage et de la voix pour exprimer à nouveau la personne. Nous devons chérir le don de la communication comme la vérité la plus profonde de l'humanité, vers laquelle doivent tendre toutes nos innovations technologiques.
En partageant ces réflexions, je remercie tous ceux qui œuvrent à la réalisation des objectifs énoncés ici et je bénis de tout cœur tous ceux qui travaillent pour le bien commun par le biais des médias.
Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.
LEO PP. XIV
______________________________
[1] « Le fait d’être créé à l’image de Dieu signifie que l’homme, dès le moment de sa création, a été marqué d’un caractère royal [...]. Dieu est amour et source d’amour : le divin Créateur a également placé ce trait sur notre visage, afin que par l’amour – reflet de l’amour divin – l’être humain puisse reconnaître et manifester la dignité de sa nature et sa ressemblance avec son Créateur » (cf. saint Grégoire de Nysse, La Création de l’homme : PG 44, 137).
08:53 | Lien permanent | Commentaires (0) |
Facebook | |
Imprimer |