L’Intelligence Artificielle traduit tout en calcul, mais peut-on tout réduire à une probabilité statistique ? Comment pouvons-nous protéger les professionnels et les travailleurs des médias de l’arrivée de l’Intelligence Artificielle et maintenir le droit d’informer et d’être informé sur la base de la vérité, de la liberté et de la responsabilité ? Comment rendre interopérables les grandes plateformes qui investissent dans l’IA générative sans réduire l’homme à un réservoir de données à exploiter ? Telles sont les questions - inspirées par les messages du Pape François pour la Journée Mondiale de la Paix et la Journée des Communications Sociales, ainsi que par la récente intervention au G7 dans les Pouilles - que le préfet du Dicastère pour la Communication du Saint-Siège, Paolo Ruffini, a posé aux intervenants et participants de la conférence « L’algorithme au service de l’homme. Communiquer à l’époque de l’intelligence artificielle ».
Les interventions du Pape François sur l’Intelligence Artificielle, a réitéré le P. Lucio A. Ruiz, secrétaire du Dicastère pour la Communication, témoignent du « flair » de l’Église pour accompagner l’homme dans sa culture à travers les changements de l’histoire. C’est ce qui s’est passé, a-t-il expliqué, lorsqu’il y a 500 ans, la première imprimerie du Vatican a été créée peu après la découverte de Gutenberg, par la construction de Radio Vatican par l’inventeur des communications sans fil Guglielmo Marconi en 1931 ou par la création du portail vatican.va en 1994, alors que le web venait tout juste d’apparaître sur les ordinateurs des gens ordinaires.
Et c’est précisément à partir de l’essence première des ordinateurs, qui est de faire des calculs, que le rapport du P. Paolo Benanti, professeur d’éthique et de bioéthique à l’Université Pontificale Grégorienne, président de la Commission d’IA pour l’information et membre du Comité IA des Nations Unies, a commencé, dans la première intervention du panel « L’éthique de l’algorithme et les défis de la communication ». Benanti a rappelé que la réalité a été modifiée par l’invention des transistors, mis à la disposition de ses alliés par les États-Unis après les succès de la Seconde Guerre mondiale, quand les premiers prototypes informatiques ont contribué aux découvertes scientifiques qui ont conduit à la bombe atomique et au décodage du codes secrets utilisés par l’Allemagne nazie.
De cette vision centralisée de la technologie et à travers la révolution des pionniers de la Silicon Valley dans les années 70, nous sommes arrivés à l’informatique « personnelle » et intime, d’abord à travers les ordinateurs, puis les smartphones. Avec ChatGPT et son implémentation dans les interfaces des téléphones Apple et Microsoft, a souligné le père franciscain, nous ne savons toujours pas quelle part de l’informatique sera personnelle et quelle part sera centralisée dans le cloud. C’est pour cette raison, a-t-il ajouté, qu’une réglementation est nécessaire, comme l’a fait l’Union Européenne, pour faire avec l’IA ce qui a été fait avec le code de la route pour les voitures.
L’Intelligence Artificielle ne constitue pas en soi un saut technologique impressionnant, a souligné Nunzia Ciardi, directrice générale adjointe de l’Agence Nationale de Cybersécurité. Ce qui fait de sa mise en œuvre quelque chose qui aura un impact anthropologique décisif sur la réalité, c’est le fait qu’elle est basée sur une énorme quantité de données collectées au cours des dernières décennies « de manière brutale » par les entreprises à travers des services ou des applications gratuits qui sont désormais fondamentaux pour nous. D’autres aspects à souligner sont l’utilisation de la langue anglaise pour entraîner les algorithmes - avec toutes les valeurs et expressions culturelles qu’une langue a par rapport à une autre - et le risque d’avoir de plus en plus de difficultés à décoder des messages complexes, ce qui peut être dangereux en démocratie.
« La connaissance devient propriété privée », a commenté Mario Rasetti, professeur émérite de Physique théorique à l’École Polytechnique de Turin et président du conseil scientifique du CENTAI, en racontant l’expérience de « OpenAI », née comme une organisation scientifique à but non lucratif et rachetée par Microsoft pour 10 milliards. Nous devons faire de l’IA une science dotée de définitions rigoureuses, a-t-il ajouté, car elle se présente actuellement comme un outil probabiliste, qui peut difficilement mesurer l’intelligence, la vérité et la cause.
Le deuxième panel de la conférence s’est concentré sur le thème « Où va l’IA, quelles règles du jeu sont nécessaires » et a vu comme intervenants Alberto Barachini, sous-secrétaire de la Présidence du Conseil des Ministres avec la délégation de l’information et de l’édition ; l’eurodéputé Brando Benifei, rapporteur de l’AI Act de l’Union Européenne, l’un des premiers actes réglementaires sur le sujet ; Elisabetta Belloni, directrice générale du Département des Informations pour la Sécurité (DIS), et Antonio Arcidiacono, directeur du secteur Technologie et Innovation de d’European Broadcasting Union (EBU).