L’intelligenza Artificiale traduce tutto in calcolo, ma possiamo ridurre tutto a una probabilità statistica? Come possiamo tutelare professionisti e lavoratori nei media dall’arrivo dell’Intelligenza Artificiale e mantenere il diritto di informare e di essere informati sulla base di verità, libertà e responsabilità? Come rendere interoperabili le grandi piattaforme che investono nelle IA generative che non riducano l’uomo a un giacimento di dati da sfruttare? Sono queste le domande - ispirate dai messaggi di Papa Francesco per la Giornata Mondiale della Pace e per quella delle Comunicazioni Sociali, oltre al recente intervento al G7 in Puglia – che il prefetto del Dicastero per la Comunicazione della Santa Sede, Paolo Ruffini, ha posto ai relatori e ai partecipanti del convegno “L’algoritmo al servizio dell’uomo. Comunicare nell’epoca dell’intelligenza artificiale”.
Gli interventi di Francesco sull’Intelligenza Artificiale, ha ribadito P. Lucio A. Ruiz, segretario del Dicastero per la Comunicazione, testimoniano il “fiuto” della Chiesa nel camminare con l’uomo nella sua cultura attraverso i cambiamenti della storia. È avvenuto così, ha spiegato, quando 500 anni fu creata la prima tipografia vaticana poco tempo dopo la scoperta di Gutenberg, con la costruzione della Radio Vaticana da parte dell’inventore delle comunicazioni senza filo Guglielmo Marconi nel 1931 o con la creazione del portale vatican.va nel 1994, quando il web era appena apparso sui computer della gente comune.
Ed è proprio dall’essenza primaria dei computer, che è quella di fare calcoli, che è iniziata la relazione di padre Paolo Benanti, docente di etica e bioetica alla Pontificia Università Gregoriana, presidente della Commissione IA per l’informazione e membro del Comitato IA delle Nazioni Unite, nel primo intervento del panel “L’etica dell’algoritmo e le sfide per la comunicazione”. Benanti ha ricordato come la realtà sia stata cambiata dall’invenzione dei transistor, messa a disposizione dagli Stati Uniti ai suoi alleati dopo i successi della Seconda Guerra Mondiale, quando i primi prototipi di computer contribuirono alle scoperte scientifiche che portarono alla bomba atomica e alla decodificazione dei codici segreti usati dalla Germania nazista.
Da quella visione centralizzata della tecnologia e attraverso la rivoluzione dei pionieri della Silicon Valley negli anni 70, si è arrivati a una computazione “personale” e intima, attraverso prima i PC e poi gli smartphone. Con ChatGPT e la sua implementazione nelle interfacce dei telefoni Apple e Microsoft, ha sottolineato il padre francescano, non sappiamo ancora quanto il computazionale sarà personale e quanto centralizzato in cloud. Per questo, ha aggiunto, è necessaria una regolamentazione come ha fatto l’Unione Europea, in modo da fare con l’IA quello che è stato fatto con il codice della strada per le automobili.
L’Intelligenza Artificiale non è un salto tecnologico impressionante di per sé, ha sottolineato invece Nunzia Ciardi, vicedirettore generale dell’Agenzia per la Cybersicurezza Nazionale. Quello che rende la sua implementazione un qualcosa che avrà un impatto antropologico decisivo sulla realtà è il fatto che si basa su un enorme quantità di dati rastrellati in questi decenni “in modo brutale” dalle aziende attraverso servizi gratuiti o applicazioni che per noi ormai sono fondamentali. Altri aspetti da sottolineare sono l’uso della lingua inglese per addestrare gli algoritmi – con tutti i valori e le espressioni culturali che un idioma ha rispetto ad un altro – e il rischio di avere sempre più difficoltà a decodificare messaggi complessi, che può essere pericoloso in democrazia.
“Il sapere sta diventando una proprietà privata”, ha commentato invece il professor Mario Rasetti, emerito di Fisica teorica del Politecnico di Torino e presidente dello scientific board di CENTAI, raccontando l’esperienza di “OpenAI”, nata come una società no profit di scienziati e acquistata da Microsoft per 10 miliardi. Dobbiamo fare dell’IA una scienza che abbia delle definizioni rigorose, ha aggiunto, perché allo stato attuale si presenta come uno strumento probabilistico, che difficilmente può misurare intelligenza, verità e causa.
Il secondo panel del convegno si è incentrato sul tema “Dove va l’AI, quali regole del gioco servono” e ha visto come relatori Alberto Barachini, sottosegretario alla Presidenza del Consiglio dei Ministri con delega all’informazione e all’editoria; l’eurodeputato Brando Benifei, relatore dell’AI Act dell’Unione Europea, uno dei primi atti regolativi sul tema; Elisabetta Belloni, direttore generale del Dipartimento delle Informazioni per la Sicurezza (DIS) e Antonio Arcidiacono, direttore del settore Tecnologia e Innovazione dell’European Broadcasting Union (EBU).
Michele Raviart
Fonte: Vatican News