Segui QdM Notizie

Cronaca

Jesi Intelligenza artificiale, una sfida globale

Alla Casa del Popolo se ne é parlato in un dialogo tra la docente di filosofia morale Benedetta Giovanola e il giornalista Silvano Sbarbati

Jesi – Nel bel mezzo di una rivoluzione culturale senza precedenti nella storia per rapidità e potenziale trasformativo, quella dell’intelligenza artificiale rappresenta inequivocabilmente la sfida globale su cui si gioca il futuro del nostro domani hi tech.

La domanda che sorge spontanea è: sarà questo, effettivamente, un bene per noi? 

Alla Casa del Popolo di via XXIV Maggio, il giornalista Silvano Sbarbati ha incontrato la filosofa Benedetta Giovanola per parlare di Esseri umani e mondo digitale, nel tentativo di indagare alcuni aspetti salienti dell’I.A. che oggi si impongono all’attenzione della collettività, e rendono sempre più evidente la necessità di adeguate politiche di governance che tengano insieme scienza ed etica, sviluppo economico e tutela della persona. 

Benedetta Giovanola è docente di filosofia morale presso l’Università di Macerata dove insegna Etica ed economia, Etica dei media digitali e Globalisation and Theories of Justice. Nel corso della sua carriera si è occupata di etica economica e sociale, etica degli affari e responsabilità sociale d’impresa, etica pubblica e teorie della giustizia.

Silvano Sbarbati e Benedetta Giovanola

Negli ultimi anni i suoi interessi di ricerca si sono orientati verso l’etica del digitale e dell’intelligenza artificiale. In questo ambito è titolare della cattedra Jean Monnet Edit “Etica per un’Europa digitale e inclusiva”, l’unica finanziata dall’Unione Europea sui temi dell’etica del digitale.

Il 2023 è stato l’anno dell’ A.I. Act: la prima proposta del Parlamento Europeo di regolamentazione dell’Intelligenza Artificiale, un tentativo di garantire sistemi sicuri, trasparenti, tracciabili e non discriminatori all’interno dell’Unione Europea.

Il primo grande step – ha spiegato la dott.ssa Giovanola – è stato quello di stabilire che cos’è l’intelligenza artificiale.

«Quando si parla di I.A. si pensa generalmente a sistemi dotati di strumenti computazionali che si traducono, in molti casi, in algoritmi con scopo predittivo. Maggiore è la quantità di dati su cui l’algoritmo si allena, più forte sarà il sistema sul fronte probabilistico». 

«Tuttavia -ha proseguito – con l’uscita di Chat Gpt nel novembre ‘22, il chatbot sviluppato da OpenAI che interagisce con gli utenti producendo testi di varia natura, ci si è accorti, in prima analisi, che lo sviluppo di questi sistemi è rapidissimo e supera le stesse previsioni dei progettisti. Inoltre, i sistemi con cui abbiamo a che fare non riguardano più soltanto intelligenze predittive, atte alla profilazione, ma intelligenze generative, capaci di creare». 

Come fare allora per non cadere vittime degli allarmismi che demonizzano a priori il digitale o – al contrario – di legittimare sola fide qualcosa che potrebbe sfuggire al suo Frankenstein?

La via d’uscita ha e non può non avere a che fare con l’esercizio del pensiero critico, che anzitutto si declina nel superamento dell’idea che la tecnologia sia scevra da questioni di valore

«Interrogarsi sulla dimensione etica dell’ I.A. significa valutare l’apporto beneficio – rischio che essa può rappresentare per la società, evitando l’approccio del determinismo tecnologico, secondo il quale: se è tecnologicamente fattibile, è automaticamente giusto che venga fatto».

L’appello è a quello che Hans Jonas definiva: il principio responsabilità. Se in fase di design l’imperativo è di costituire team multidisciplinari diversificati dal punto di vista etnico, linguistico e di genere, per scongiurare il rischio di discriminazione algoritmica, è fondamentale che da parte delle istituzioni arrivi un adeguato corpus normativo che ne regolamenti l’uso, facendo attenzione ai risvolti etico-giuridici di questi sistemi.

«Quanto a noi? Come può l’uomo comune, soggetto e oggetto dell’informazione, esercitarsi alla costruzione del pensiero critico?», ha chiesto Silvano Sbarbati.

«Intanto dobbiamo imparare a diversificare le fonti e sfidare la nostra pigrizia intellettuale, che può farci cadere nel tranello del confirmation bias – o bias di conferma -, quel fenomeno cognitivo per il quale siamo portati ad accogliere le informazioni che corroborano le nostre tesi e a ignorare quelle che le contraddicono. Poi, privilegiare sempre l’interlocuzione con chi ha prospettive diverse, prendersi il tempo della riflessione seria e del dialogo con gli altri».

© riproduzione riservata

News

Questi contenuti sono realizzati dalla redazione di QdM Notizie.
Sei interessato a diffondere i nostri articoli o collaborare con noi?
Scrivici a [email protected]