Intervista a Dr. Peter G. Kirchschläger

Testo: Daniel Fleischmann per éducation21

La scuola deve creare delle oasi senza schermi

L'intelligenza artificiale sta permeando sempre più la condizione umana e nel contempo solleva domande etiche. Peter G. Kirchschläger, professore di etica presso l’Uni­ versità di Lucerna, chiede quindi l’istituzione di un’agenzia ONU per controllare tali sistemi. Alle scuole raccomanda di affrontare in modo critico il tema dei media digitali e di rafforzare le competenze di allieve e allievi in quegli ambiti che rendono genuino l’essere umano, ossia nelle relazioni, negli incontri e nella cooperazione.

Signor Kirchschläger, definiamo prima di tutto il concetto di intelligenza artificiale.

I sistemi di IA cercano di imitare ciò che fa l’intelligenza umana. Questo funziona benissimo quando si tratta di elaborare grandi quantità di dati, di trarre deduzioni logiche o di evocare ricordi. Vedo invece dei limiti in ambiti come l’intelligenza emotiva e sociale. I robot non hanno sentimenti. E non sono nemmeno ca­ paci di moralità. Con questo intendo la capacità dell’essere umano di stabilire autonomamente regole etiche sulla base della propria libertà e di riconoscerle come vincolanti. In questo caso, suggerirei anche di non parlare di “intelligenza artificiale”. Pre­ ferirei invece si usasse l’accezione “sistemi basati sui dati”.

Perché si occupa di questi sistemi?

Data la loro grande rilevanza per la nostra esistenza, mi sono interessato fin da subito alle loro opportunità e ai loro rischi in termini di etica. Mi interrogo anche sulla questione di come si­ stemi basati sui dati possano essere messi al servizio di tutte le persone e della loro dignità umana, ma anche del nostro pianeta.

Questo avviene ancora troppo poco spesso?

Sì. I sistemi basati sui dati vengono sviluppati e utilizzati quasi esclusivamente per aumentare l’efficienza. Altri potenziali spesso non vengono nemmeno presi in considerazione. Si utilizzano per esempio i robot infermieri non per migliorare le cure, ma per ridurre i costi. Naturalmente, questi robot riducono il carico di lavoro del personale infermieristico. Ma impiegandoli, vanno pure persi i pochi minuti di conversazione con un professionista o una professionista delle cure e quindi di contatto umano.

Cosa distingue i sistemi basati sui dati dalle normali macchine?

L’obiettivo dei sistemi basati sui dati non è quello di alleggerire il carico di lavoro degli esseri umani, bensì è quello di sostituirli, anche in attività impegnative come la chirurgia o la giurispru­denza. Questi sistemi evolvono grazie all’autoapprendimento, ricevendo pochi input o addirittura non ricevendone nessuno da parte dell’essere umano. Infine, vedo il problema seguente: an­ che se le macchine compiono molti lavori bene e a basso costo, non li svolgono tanto bene quanto gli esseri umani, più costosi.

Lei chiede che le persone si assumano la responsabilità della concezione, dello sviluppo e dell’utilizzo dei sistemi basati sui dati. Perché?

Oggi, lo sviluppo dei sistemi basati sui dati non sottostà ad al­ cuna normativa restrittiva. In internet sono possibili cose che nella vita reale sono regolamentate o vietate da molto tempo. Qui troviamo discorsi razzisti d’incitamento all’odio, appelli alla vio­ lenza e manipolazione. Abbiamo bisogno di un’agenzia interna­ zionale per i sistemi basati sui dati (IDA). Quest’agenzia dovrebbe lavorare per migliorare la cooperazione internazionale in questo settore, ossia dovrebbe contribuire a perfezionare lo sviluppo di tali sistemi e a diffonderli in modo più equo. E sarebbe un organi­ smo di accreditamento che verifichi se le nuove applicazioni danneggiano o meno l’essere umano o la natura. I sistemi basati sui dati devono incentivare la sostenibilità, favorire la pace e pro­ muovere i diritti umani.

Quali domande etiche sollevano i sistemi basati sui dati nella vita quotidiana?

In primo luogo viene sollevata un’importante domanda etica nell’ambito della protezione dei dati e della sfera privata. Attual­ mente, i nostri dati vengono rubati e rivenduti. Abbiamo bisogno di regole basate sui diritti umani che si traducano in un “utilizzo vincolato dei dati”, come avviene in ogni studio medico che non vende i miei dati alle casse malati o alle aziende farmaceutiche. In secondo luogo, credo che noi esseri umani dovremmo imparare a valutare in modo più obiettivo e lucido le prestazioni fornite dai sistemi basati sui dati. ChatGPT, per esempio, non fa altro che riordinare le conoscenze esistenti con l’ausilio di regole seman­ tiche. Si limita ai testi a cui può accedere. Gli algoritmi non sono obiettivi, equi o neutrali, bensì vivono della qualità dei dati. Ripro­ducono tutti i pregiudizi e le altre stupidità presenti in rete. Infine, ChatGPT viola la legge sul diritto d’autore in vigore ogni volta che crea un testo.

Come si possono preparare allieve e allievi all’uso dell’IA?

La scuola non dev’essere un luogo in cui si impara ad utilizzare i programmi. Allieve e allievi trascorrono già abbastanza tempo davanti agli schermi. Il compito della scuola è quello di insegnare ad allieve e allievi ad utilizzare in modo critico le possibilità of­ ferte dai sistemi basati sui dati. Posso per esempio immaginare suggerimenti e approfondimenti sul tema dell’intelligenza artificiale un compito di ricerca che mostri i risultati generati da un motore di ricerca e rendere attenti allieve e allievi al fatto che alcuni di essi finiscono ai primi posti perché qualcuno ha pagato perché sia così.

Ritengo però ancora più importante offrire ad allieve e allieve delle oasi senza schermi a scuola: luoghi e periodi di tempo esenti dalla costante concorrenza dettata dai dispositivi. Fonda­ mentalmente, allieve e allievi non hanno bisogno di scoprire ciò che i computer sono in grado di fare. Dovrebbero invece poter sperimentare cosa ci rende umani e che le conversazioni e il fatto di stare insieme sono più interessanti di ciò che sta succedendo sullo smartphone. Questo permette di ampliare la visione critica nei confronti dei sistemi basati sui dati e di trasformarla in una pratica costruttiva favorendo così la promozione della creatività, il confronto con le questioni filosofiche, l’esperienza sociale.

Nel dibattito pubblico si enfatizzano per lo più le opportunità che il digitale offre alla scuola.

Naturalmente esiste questa pressione per la digitalizzazione. Conosco insegnanti che la sentono e che fondamentalmente la rifiutano. La scuola dovrebbe essere moderna, all’avanguardia, ma si ignora che le persone hanno una responsabilità concet­ tuale in quest’ambito. Le innovazioni non sono tutte eticamente positive. Quando gli insegnanti e le insegnanti utilizzano i media digitali in classe, dovrebbero sempre verificarne la comprensi­ bilità, la gestibilità e l’utilità. Dovrebbero inoltre essere in grado di giustificarne la legittimità didattica e il loro valore aggiunto pedagogico.

Dr. Peter G. Kirchschläger

 

 

 
Professore di etica teologica e direttore dell’Istituto di etica sociale (ISE) presso l’Università di Lucerna e professore ospite presso la cattedra di Neuroinformatica e Sistemi Neurali del Politecnico federale di Zurigo e presso l’ETH AI Center. Il suo ultimo libro “Digital Transformation and Ethics” (Trasformazione digitale ed etica) è stato pubblicato nel 2021.

«I robot non hanno sentimenti. E non sono nemmeno ca­ paci di moralità.»

Pagina seguente

Torna alla panoramica