Pubblicato il: 19/10/2024 alle 08:05
(Adnkronos) – “L’etica dell’Intelligenza Artificiale”. Questo il titolo del convegno di oggi in Sala Zuccari, a Palazzo Madama, organizzato da Digital Meet al quale è intervenuto il Sottosegretario alla Presidenza del Consiglio dei ministri con delega all'Informazione e all'Editoria, Alberto Barachini. “Servono regole – ha detto il Sottosegretario – e noi abbiamo cercato di anticipare anche i tempi dell’Unione Europea, abbiamo per esempio inserito una novità che nell'Ai Act non c'è, cioè il reato di deep fake, una aggravante che prevede una pena detentiva da 1 a 5 anni. Abbiamo fatto questo perché crediamo che questo sia uno dei più grandi rischi per il processo democratico e per la distorsione del rapporto democratico tra cittadini e informazioni". Si tratta di “una sfida senza precedenti”, ha aggiunto Barachini, “ma possiamo ridurre gli impatti non virtuosi puntando sulla difesa dei diritti d’autore e sulla riconoscibilità dei contenuti umani, ben distinti da quelli artificiali.” Infine, ha citato il Premio Nobel per la fisica Geoffrey Hinton. Hinton "parlando di intelligenza artificiale, ha detto che la ricerca scientifica dovrà capire in maniera urgente come noi umani possiamo restare al timone delle nostre esistenze". Il senatore Antonio De Poli, che ha organizzato e moderato l’incontro, ha ricordato che “i cittadini europei, secondo uno studio pubblicato dalla Commissione Europea, per il 61% guardano con favore all’utilizzo dell’intelligenza artificiale. Ma l’88% pensa anche che ci voglia una gestione attenta di questa tecnologia. Per questo le istituzioni devono lavorare su due fronti: quello di tracciare delle linee guida precise e invalicabili, etiche appunto, e quello di promuovere una vasta alfabetizzazione su questa tecnologia che dovrà diventare nostra alleata e non nemica.” Argomento ribadito anche dal fondatore di Digital Meet, Gianni Potti: “Non dobbiamo subire il mezzo di cui oggi disponiamo – ha detto – perché il tema vero non è limitarlo o censurarlo, ma accrescere le competenze e alfabetizzare sempre di più le persone all’utilizzo consapevole degli strumenti digitali che ci sono e che verranno. Sono 12 anni che insistiamo sul tema dell’alfabetizzazione e quel poco che possiamo fare per contribuire continueremo a farlo.” Al convegno sono intervenuti anche Riccardo Schvarcz, presidente dell’Ordine degli Ingegneri di Padova, Gianni Dal Pozzo di Alumni, Marco Soffientini, esperto di diritto delle nuove tecnologie, Armando Zambrano, presidente di ProfessionItaliane (Associazione di rappresentanza del movimento ordinistico), Laura Aglio (Agid) del comitato scientifico di Digital Meet e Alessandro Sperduti dell’Università di Padova. Per le professioni ordinistiche e gli ingegneri in particolare, sia Schvarcz che Zambrano hanno ribadito che si tratta di una sfida professionale già in atto. Schvarcz ha detto che “non possiamo più essere utenti passivi e dobbiamo educare noi stessi su come sfruttare al massimo l’IA.” Zambrano ha ricordato che “va fatta attenzione a non incorrere nella diminuzione delle capacità dell’intelligenza umana e delle capacità professionali delegando alle macchine. Quanto alle regole, per i professionisti ordinistici sono necessarie.” Su questo tema Gianni Dal Pozzo ha sottolineato come “mentre l’Europa sforna regole, gli Stati Uniti nel 2023 hanno investito oltre 60 miliardi di dollari nell’IA e la Cina oltre 35 miliardi. Noi tendiamo a fare gli arbitri – ha concluso – ma gli arbitri, purtroppo, non giocano le partite.” Soffiantini, ricordando la famosa vicenda del tenente colonnello russo, Stanislav Petrov, che non azionò la risposta nucleare a un fantomatico attacco dagli Stati Uniti che gli veniva segnalato dai computer. Ha detto: “questa è la dimostrazione che l’uomo, a differenza della macchina aveva capito che c’era un errore nell’allarme: quell’uomo aveva comprensione, che è una qualità della coscienza. Cose che le macchine, anche intelligenti, non hanno.” Ha concluso citando Einstein: “nel futuro i pc sapranno risolvere tutti i problemi del mondo, ma mai un computer ne saprà porre uno.” Infine, il professor Alessandro Sperduti, si è detto favorevole alle regolamentazioni, ma con moderazione, perché “il vero problema è saper distinguere se un errore è consapevole o inconsapevole. Se è consapevole è perché qualcuno vuole trasgredire la legge e quindi le norme non basteranno mai. Se è inconsapevole, allora il danno che ne consegue può essere riparato. Purtroppo l’Intelligenza Artificiale, al contrario di quanto afferma qualcuno, non può correggere se stessa e questo ci porta a navigare in acque non facili. Ma sono acque e territori che portano anche tanti vantaggi.” —economiawebinfo@adnkronos.com (Web Info)