Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

L'IA et le sanctuaire : l'appel d'un juriste à tracer les "lignes rouges" contre le totalitarisme numérique

IMPRIMER

Un entretien avec Luigi Trisolino, juriste à la Présidence du Conseil italien, avocat, titulaire d’un doctorat en droit, journaliste et poète catholique engagé sur diakonos.be :

L'IA et le sanctuaire : l'appel d'un juriste à tracer les "lignes rouges" contre le totalitarisme numérique.

Un prêtre catholique peut-il confier ses homélies à ChatGPT ? L’intelligence artificielle a‑t-elle vocation à évangéliser, à célébrer la messe ou à rendre la justice à la place de l’homme ? Faut-il craindre un totalitarisme numérique qui réduirait les citoyens à de simples spectateurs d’un monde dirigé par des algorithmes ?

Luigi Trisolino, juriste à la Présidence du Conseil italien, avocat, titulaire d’un doctorat en droit, journaliste et poète catholique engagé, nous répond sans langue de bois. Face aux risques du transhumanisme, de déshumanisation et de la perte de liberté, il appelle l’Église et les États à tracer des lignes rou ges éthiques claires. Une interview choc qui ose poser la question : jusqu’où laisserons-nous la machine voler ce qui fait notre âme ?

En exclusivité pour le site Diakonos.be, nous nous avons interrogé Luigi Trisolino, journaliste, juriste et poète italien, qui travaille comme expert juridique à la Présidence du gouvernement italien et auteur de nombreux articles dans les quotidiens italiens. Il est avocat, titulaire d’un doctorat en histoire du droit et philosophie juridique et se décrit volontiers comme « catholique et amateur de bonnes traditions ».

Monsieur Trisolino, dernièrement, en tant que catholique, vous avez déclaré que « ce qu’on appelle l’IA générative ne pourra et ne devra jamais remplacer la célébration des offices religieux », pas plus que l’« enseignement de notre catéchisme ». Si le christianisme en général est fondé sur des vérités révélées et transmises, pourquoi ces mêmes vérités ne pourraient-elles pas être transmises de manière plus rigoureuse encore par un système d'intelligence artificielle ?

Jésus-Christ a donné mandat à Pierre de diriger l'Église, et il a demandé à des gens faits de chair, d’os et d'esprit de le suivre pour évangéliser la Terre en tant que témoins du Ressuscité. On me répondra qu'à l'époque de Jésus, il n'y avait pas d'intelligence artificielle, mais seulement l'intelligence humaine. Mais cela n’y change rien. Ce n'est qu’à travers une expérience réelle, dans la rencontre et l'échange entre un être humain et un autre être humain, que l’on peut témoigner de la foi, et avec elle de toutes ces valeurs de la loi naturelle qui nous incitent à prier, à nous engager politiquement et, lorsque c’est nécessaire, à sacrifier une partie de notre vie.

On peut bien sûr recourir aux moyens que nous donnent la littérature, les arts figuratifs et même numériques, comme c’est d’ailleurs déjà le cas, mais l'unique auteur de chaque message et de chaque expression créative doit rester l'être humain, surtout en ce qui concerne l'évangélisation, la célébration de la liturgie et l’enseignement du Catéchisme de l'Église catholique.

Cela vaut aussi pour toutes les autres confessions chrétiennes, notamment les orthodoxes. Nous ne devons pas permettre que l’on puisse confier l'évangélisation des peuples à des prêtres ou des pasteurs numériques de nature artificielle. Le monde numérique doit rester un canal médiatique parmi d’autres, afin de pouvoir exercer le libre arbitre, prérogative exclusivement humaine, qui est également un don divin, pour nous les croyants.

Nous savons que certains prêtres demandent à ChatGPT de générer des homélies selon la pensée et le style d'un saint ou d'un pape particulier, avec des résultats apparemment efficaces. Qu’en pensez-vous ?

Dans l'Église catholique, voulons-nous jouer à expérimenter avec les dernières technologies, voulons-nous être des ombres transitoires issues de mécanismes cherchant à transformer l'humanité en quelque chose de ridicule ou de monstrueux, ou bien est-ce que nous voulons devenir des disciples du Christ, à l'image et à la ressemblance de Dieu le Père ?

Si nous choisissons la seconde voie, c'est-à-dire celle proposée par Jésus-Christ, nous ne pouvons pas utiliser ChatGPT pour les homélies. La beauté de l'humanité réside dans le fait que, pour concevoir une homélie inspirée par un saint ou un Pontife particulier, il est nécessaire de lire, d'intérioriser humblement et de s'approprier le témoignage de ceux qui nous ont précédés. Les mécanismes de l'IA semblent imiter la dialectique de la conscience et de l'esprit individuels, bien qu’ils aient une nature et un fonctionnement très différents en réalité.

Quand nous posons la bonne question, nous obtenons une réponse plus ou moins appropriée, mais jamais une réponse authentique susceptible de faire germer la graine. Utiliser l'IA pour générer des homélies signifie faire tomber la semence de la Parole de Dieu dans les ronces.

J'invite les dirigeants institutionnels de l'Église romaine à veiller à ce que chaque prêtre, dans tous les recoins de la Terre, pose ses questions missionnaires à sa propre conscience plutôt qu’à ChatGPT, afin de ne recevoir des réponses que du Depositum fidei intemporel.

Cette vision n’est-elle pas un peu dure ? L’intelligence artificielle ne pourrait-elle pas aussi être un outil précieux pour traduire les textes patristiques, pour indexer les archives, ou pour aider les missionnaires avec les langues rares ? Selon vous, un prêtre qui, par exemple, utiliserait l’intelligence artificielle comme point de départ, puis qui prierait, réécrirait et s’approprierait la Parole, commettrait-il un péché grave ?

Traduire les textes patristiques est un travail qui peut assurément être grandement facilité par l’intelligence artificielle. Personnellement, je défends un développement de l’IA résolument centré sur l’homme : elle doit rester une aide aux activités humaines sans jamais remplacer ni l’intelligence ni la sensibilité humaine. Dans les traductions de haut niveau, et plus encore lorsqu’il s’agit de saisir le sens profond sens littéraire d’un texte, c’est toujours l’humain qui doit avoir le dernier mot. Il ne s’agit pas d’être réactionnaire ou d’avoir peur du progrès – je me considère au contraire très ouvert aux innovations qui servent véritablement l’homme et qui l’humanisent. Il s’agit simplement de faire en sorte que nous restions capables de cette humanité qui fait partie du dessein de Dieu, cette voix intérieure où Il nous parle, loin de tout automatisme qui nous déposséderait de nous-mêmes.

Les tâches purement mécaniques, comme l’indexation d’archives, peuvent par contre être accomplies sans problème avec l’aide de systèmes automatisés, tout en conservant bien sûr une supervision humaine.

Et les missionnaires ? Ah, si seulement ils disposaient d’outils performants pour comprendre et se faire comprendre dans ces langues rares, parfois menacées de disparition !

Pour en revenir au prêtre qui utilise l’IA… Ce n’est pas à moi de juger s’il commet un péché, et de quelle gravité. À mon sens, lorsqu’un prêtre se sert de l’IA uniquement pour identifier rapidement des références précises dans l’Écriture, et qu’il va ensuite lui-même, de façon pleinement humaine et autonome, reprendre ces passages, pour les méditer et les retravailler sans se laisser enchaîner par la machine, il n’effectue alors qu’une simple démarche préparatoire.
L’important, dans le domaine de la foi, c’est de ne jamais faire l’économie de ces étapes indispensables : l’introspection, l’intériorisation profonde de la Parole de Dieu et la réélaboration personnelle, pour le bien de celui qui élaborent les homélies et les catéchèses ainsi que pour celui de ceux qui les écoutent.

Les gens ne comprennent pas toujours pourquoi l'intelligence artificielle est susceptible de représenter non seulement un danger économique, mais également un danger anthropologique et humain. Pensez-vous que l'IA nous rendra plus libres ou au contraire plus dépendants ?

L'IA est un outil technologique et, en tant que tel, elle permet d’éviter de nombreuses tâches fastidieuses ou répétitives. Mais l’IA qu’on appelle générative risque de remplacer ou à tout le moins de diminuer les capacités créatives humaines, qui constituent l'essence de toute véritable évolution sociale.

Avec l'IA, nous sommes face à une grande opportunité mais également à un danger anthropologique. En effet, nous risquons un glissement de l'anthropocentrisme vers le technocentrisme, qui installerait, au centre de la vie pratique, un monde numérique générant des produits intelligibles dont les individus immergés dans les masses populaires ne seraient plus que de simples spectateurs, bercés par l'illusion d’être des orchestrateurs habiles.

Par ailleurs, dans le secteur de l’enseignement, il existe un risque de voir émerger de futures générations d’étudiants qui ont fait leurs devoirs à la maison grâce à l’IA, en laissant passer l'opportunité de développer leurs propres compétences de base. De ce point de vue, si un cadre clair d’encadrement éthique de l'IA n'est pas mis en place, on risque de se retrouver bientôt dans un totalitarisme numérique mondial dirigé par des groupes puissants en mesure de se permettre économiquement de canaliser les algorithmes.

Nous risquons de devenir moins libres et moins indépendants, et donc moins compétents, post-humains ou trans-humains, comme le souhaiteraient certains courants culturels matérialistes proches de Soros.

Mais les transhumanismes libertariens proches de Soros ne sont pas les seuls à ignorer le risque de miser la vie future sur l'IA et sur le dépassement qui s’en suit de l'ordre naturel de la connaissance. Il y a aussi le matérialisme communiste et post-communiste, qui aspire à l'hégémonie géopolitique. En Chine, l'IA a récemment été intégrée comme matière scolaire à part entière dans les programmes pédagogiques destinés aux enfants fréquentant l’équivalent de nos écoles primaires. Il est donc légitime de se demander si ces enfants, à un âge fragile, disposeront des outils culturels et en éthique des algorithmes pour encore faire la part des choses entre les mécanismes de leur propre psyché, du « je », de leur conscience et de leur esprit d’une part et les mécanismes du monde virtuel de l'IA d’autre part.

C’est l’écart entre la maturité de notre civilisation et l'aliénation humaine qui est en jeu sur ces questions, et par conséquent, l'avenir des classes dirigeantes.

En Belgique, le sujet est d'actualité. Le principal parti politique a décidé de réduire le coût des services publics en déclarant qu'« une part importante de ses tâches peut être accomplie par l'intelligence artificielle ». Qu'en pensez-vous ?

Si l’on recrute de nouveau ingénieurs en Belgique, et si tous les travailleurs de la fonction publique remplacés par l'IA sont immédiatement reclassés dans d'autres emplois convenables, cette idée n’est pas si dommageable.

Dans l'histoire des révolutions industrielles, on a déjà assisté à plusieurs changements radicaux dans le monde du travail. L'essentiel est de ne laisser personne sur le côté et de créer de nouvelles opportunités d'emploi pour les techniciens et les experts en éthique du numérique, tant dans le secteur public que privé.

Mais ce qui est le plus important, c’est que l'IA soit utilisée pour épargner aux travailleurs humains les activités les plus fatigantes, aliénantes et répétitives, et pas pour les remplacer dans les activités génératives ou créatives.

Passons maintenant à la question épineuse de la responsabilité. Si l'intelligence artificielle est utilisée dans un contexte militaire ou pour prendre des décisions administratives, qui sera responsable de telles décisions ? Sera-t-il possible de les expliquer clairement ?

En ce qui concerne les décisions militaires ou administrative, on peut utiliser l’IA pour identifier des données. Mais les décisions qui sont prises ensuite sur base de ces données, qui nécessitent une vérification humaine préalable pour s’assurer de leur véracité, doivent être le fruit de la sensibilité humaine. Aucune décision militaire, administrative ou judiciaire ne devrait être prise par des systèmes d'intelligence artificielle.

Quant au service public, on espère que le fonctionnaire digital et l’assistant administratif digital ne seront utilisés que dans le but d’éviter aux fonctionnaires et assistants administratifs humains ces tâches mécaniques, répétitives ou de simple recherche alphanumérique.

La clé pour atténuer l'impact de chaque révolution technologique sur la vie humaine réside dans l'équilibre des choix, et dans les valeurs civiques non négociables. Dans chaque choix politique, judiciaire, culturel et apostolique, la priorité absolue doit être donnée au droit naturel à la vie, à la liberté et à l’amélioration du bien-être, afin de ne pas sombrer dans le sadisme, le nihilisme ou l'aliénation qui nuisent à notre dignité.

En matière de responsabilité, l'utilisation de l'IA générative ne doit jamais dispenser les personnes qui l'utilisent des conséquences dommageables de leurs actions ou de leurs omissions négligentes ou malveillantes. L'IA n'est pas un sujet : elle reste uniquement un objet, le seul sujet ayant des droits et des devoirs en matière de protection, ainsi que des responsabilités, demeure l'être humain.

Cela reste vrai dans tous les domaines, que ce soit dans le secteur militaire, dans l'administration publique, dans le monde de la presse et de l'édition, ou dans n’importe quelle entreprise privée. Si l’on veut pouvoir expliquer clairement les décisions prises sur base d'informations recueillies entre autres par des systèmes d'intelligence artificielle, la transparence algorithmique et la citation de la source de chaque information sont essentielles, quand ces informations peuvent être légalement publiées.

Dans le domaine militaire et antiterroriste, certaines décisions doivent bien entendu rester couvertes par le secret d'État, pour assurer le bon déroulement des opérations qui protègent notre sécurité en tant que citoyens.

M. Trisolino, en plus d'être un chrétien fidèle et militant, vous êtes un journaliste actif en politique, et également un juriste qui travaille à la présidence du gouvernement italien. Vous avez publié plusieurs livres et essais sur la culture juridique qui traitent de l'histoire de la justice et, en tant qu’avocat, vous avez travaillé comme chercheur en histoire du droit. Pensez-vous que l'intelligence artificielle pourrait éviter les erreurs judiciaires grâce à un juge numérique précis et rigoureux dans l'application de la loi ?

La certitude juridique est un bien fondamental, surtout depuis qu’à travers le parcours long et ardu des organisations sociales, la loi est devenue la même pour tous, à tout le moins sur le plan formel. Pour ne pas réduire les cours et tribunaux à des espaces livrés au pouvoir discrétionnaire du juge, il est nécessaire que le droit établisse d'une manière certaine et sans équivoque les principes du droit naturel, sur lesquels diverses règles spécifiques viennent ensuite se greffer pour spécifier et actualiser les disciplines juridiques, en phase avec les évolutions sociales, économiques et technologiques.

Si ma voix pouvait atteindre tous les continents, je plaiderais pour un modèle de justice administré par l'esprit humain, partout. Même dans le monde judiciaire, on peut retrouver et organiser certaines données grâce à l'intelligence artificielle. Mais on ne pourra jamais se passer de la force mentale de l’être humain pour interpréter les données juridiques en adéquation avec la réalité, avec l'âme humaine et avec le bon sens, en regardant les prévenus droit dans les yeux pendant la procédure pénale ou en écoutant avec la sensibilité qui convient les familles propriétaires qui souhaitent récupérer leurs maisons occupées illégalement.

L'intelligence artificielle ne pourra jamais remplacer ces critères d'évaluation et de jugement inhérents à l'expérience humaine. Le modèle de réglementation de l'intelligence artificielle, adopté en Italie par la loi nationale n°132/2025, entrée en vigueur le 10 octobre, réserve aux seuls magistrats humains les activités proprement juridictionnelles de décision relatives aux mesures, les activités d'interprétation et d'application de la loi, ainsi que celles portant sur l’appréciation des éléments de fait et de preuve.

Je voudrais que tous les États réservent à l'humanité, à l’exclusion des entités virtuelles, toute activité de discernement juridique et administratif. Que ce soit dans les pays civil law comme la France et l'Italie, ou dans les pays de common law comme l'Angleterre et les États-Unis d'Amérique, l'avenir de la justice ne saurait se passer de l’expérience à la fois blessante et nourrissante de l’amour, que le pape Benoît XVI a définie comme Caritas dans son encyclique de 2009 « Caritas in Veritate ».

L'intelligence artificielle pourra-t-elle un jour s'inspirer de la rigueur de l'amour de la justice dans une affaire concrète ? Non, elle ne le pourra jamais. Seul un juge humain pourra éprouver un amour authentique et neutre pour l'État de droit, pour la protection des victimes, tout en garantissant les droits des suspects et des prévenus sans le profilage préjudiciable du cyberespace et sans l'hypertrophie cognitive des algorithmes.

Je remarque que vous vous inspirez de Benoît XVI, en citant l'encyclique « Caritas in Veritate », pour quelle raison ?

Comment pourrais-je ne pas m’inspirer de Ratzinger, le théologien le plus visionnaire du XXe siècle ? On lui doit la réflexion la plus profonde et la plus stimulante sur les véritables racines chrétiennes de l'Europe. L’analyse éclairante du pape Benoît XVI sur les causes de la crise que traverse la culture européenne doit nous inspirer et ouvrir la voie à une véritable croissance commune.

J'aime à me rappeler les œuvres de Ratzinger intitulées « Europe. Ses fondations aujourd'hui et demain », et « La vraie Europe. Identité et mission » [qui sortira en français en janvier 2026, ndlr]. S’empresser de dresser des inventaires européens des droits ne contribuera en réalité pas à défendre l'existence des individus et des peuples de la meilleure façon possible, si ces individus et peuples accordent peu d’importance au quotidien à leurs racines judéo-chrétiennes. Dans un premier temps, il est nécessaire que les universités européennes, qui forment chaque année des milliers de jeunes et donc les classes dirigeantes du futur, redécouvrent la base morale distinctive de l'Europe sur la scène internationale.

Par conséquent, même milieux académiques des États-Unis fondés, en bien ou en mal, sur la contribution des chrétiens européens que nous sommes, devraient reconnaître l'importance des racines judéo-chrétiennes sans craindre d'être attaqués par le wokisme ou l'islamisme géopolitique. La peur de manifester ses racines d'identité réelles risque de livrer un Occident passif et amnésique à la barbarie des anti-occidentalistes.

Interview réalisée et traduite de l'italien par Olivier Collard

Écrire un commentaire

NB : Les commentaires de ce blog sont modérés.

Optionnel