Chat GPT: rischio o risorsa per i valori democratici europei?

ChatGPT è ormai ovunque e non mancano articoli e momenti di approfondimento sulle sue potenzialità e gli eventuali rischi che ne potrebbero derivare da un utilizzo distorto. Il programma di Intelligenza Artificiale (IA) elabora informazioni in un linguaggio molto naturale, quasi uguale a quello degli esseri umani, ed ha cambiato radicalmente il modo di fare ricerca e costruire informazioni.

Come accennato, l’avvento dell’IA presenta una serie di potenziali rischi che vanno prevenuti o affrontati. Si pensi alla manipolazione dell’informazione, alla possibilità di influenzare le decisioni politiche, di stravolgere un sistema di valori sul quale si fonda una società o un Paese. Un esempio di tutto ciò potrebbe accadere nel continente europeo. Se utilizzata in modo distorto e manipolatorio, infatti, l’Intelligenza Artificiale potrebbe diventare un potente strumento per i movimenti populisti antieuropeisti che mirano a distruggere il progetto dell’Unione Europea.

Immaginate, ad esempio, un programma che sviluppi una quantità illimitata di articoli con informazioni false e tendenziose, immagini e video manipolati. Si tratta di programmi che già esistono, ma che l’Intelligenza Artificiale potrebbe rendere più elaborati e micidiali. Tutto ciò non potrebbe essere affrontato in modo adeguato dai media tradizionali, gestiti da esseri umani che non potranno mai avere la perfezione delle tecnologie. Quindi, non c’è nulla da fare?

Con questo articolo proveremo ad affrontare alcuni dei potenziali rischi ai quali l’IA ci espone. Cercheremo, inoltre, di proporre idee per capire come ridimensionarne la portata:

  1. Privacy 

La privacy e la protezione dei dati personali sono alcuni degli aspetti cruciali da considerare. La massiccia raccolta di informazioni sensibili potrebbe minacciare i diritti individuali garantiti dall’Unione Europea, attraverso il GDPR (Regolamento per la Protezione dei Dati Personali). L’IA, dunque, deve essere utilizzata nel rispetto di queste norme, allo scopo di garantire la tutela dei dati personali degli utenti. Riguardo ciò, è interessante segnalare quanto accaduto in Italia poco tempo fa. Il Garante per la Protezione dei Dati Personali ha imposto a OpenAi di sospendere con effetto immediato i servizi offerti con CHAT GPT. Il 20 marzo, infatti, il software ha subito una violazione di dati, che corrispondevano alle conversazioni degli utenti e ai dati sul pagamento degli abbonamenti.  Il Garante, dunque, ha dato seguito al suo provvedimento, dopo essersi accertato di quanto era effettivamente accaduto. Inoltre, aveva sottolineato a OpenAi l’assenza di una base legale che giustificasse la raccolta massiva di informazioni personali a fini di funzionamento della piattaforma. I problemi della piattaforma non finivano qua. A quelli già accennati, infatti, il Garante ha dovuto aggiungere anche la produzione di informazioni non sempre veritiere, nonchè l’assenza di un vero e proprio vincolo che vietasse ai minori di 13 anni di usufruire di ChatGpt, esponendo così i minori al rischio di entrare in contatto con contenuti non adeguati alla loro età.

Il 28 aprile, dopo aver realizzato parte delle richieste del Garante, la piattaforma ha riattivato i suoi servizi in Italia. Chi ha vinto questo scontro? Forse, anzichè ragionare su chi effettivamente ha avuto la meglio, sarebbe meglio utilizzare questo caso per capire come gli altri Paesi si stanno muovendo, affinché l’Intelligenza Artificiale possa venire utilizzata in sicurezza.

  1. Discriminazioni e distorsioni

 L’Intelligenza artificiale può essere influenzata da discriminazioni e distorsioni, se non adeguatamente sviluppata. Può, infatti, produrre le proprie informazioni raccogliendo materiale da dati storici che riflettono disuguaglianze e discriminazioni nella società, con il rischio di escludere alcuni gruppi sociali. Immaginate un sistema di Intelligenza artificiale che recluta persone sulla base di dati storici che tendono a selezionare candidati di un particolare genere o di un’etnia specifica: ciò si potrebbe perpetuare anche nelle future selezioni, con ovvie conseguenze discriminatorie. In sintesi, si favorirebbe l’accesso ineguale alle opportunità di lavoro, al credito finanziario o ai servizi pubblici. 

  1. Disoccupazione e impatto sociale

 Tra le opportunità che presenta l’IA, c’è anche quella di favorire l’automazione del lavoro. Al tempo stesso, però, se non ben governata, potrebbe favorire un drastico aumento della disoccupazione, dovuto alla scomparsa dei posti di lavoro tradizionali. L’introduzione della robotica avanzata e dell’AI potrebbe infatti ridurre la necessità di manodopera in settori come la manifattura, i trasporti, la logistica e molti altri. Allo stesso tempo, però, richiede PMI e centri di ricerca, nonché istituti di IFP. L’impatto di queste trasformazioni dipenderà da vari fattori, tra cui il livello di adozione dell’IA, la velocità dell’automazione, la capacità delle persone ad adattarsi e nell’acquisire nuove competenze. Tutto ciò potrebbe creare disuguaglianze economiche e sociali, senza politiche adeguate e in grado di favorire una transizione più sostenibile.

In conclusione…

E’ necessario implementare le misure volte a prevenire un alto tasso di disoccupazione. La politica europea deve assumersi il compito di fornire programmi di formazione sulle nuove opportunità lavorative che si stanno per aprire. Fondamentale, inoltre, è avviare percorsi di tutela sociale, soprattutto per coloro che riscontreranno maggiori difficoltà a trovare una nuova occupazione nel breve periodo.Attenzione e impegno si dovranno concentrare anche nelle politiche di prevenzione della manipolazione dell’opinione pubblica (consigliamo, a tal proposito, di ascoltare gli interventi di David Tozzo e Lorenzo Fattori, in occasione della Conferenza Internazionale Media in the age of populism and polarisation).   Sarà possibile così creare una cittadinanza consapevole sulle nuove opportunità lavorative digitali e in grado di gestirle al meglio, grazie alle nuove competenze acquisite. Inoltre, si riuscirà ad evitare l’implosione del sistema economico, politico e sociale, quindi una drammatica crisi che potrebbe essere cavalcata dai movimenti populisti. 

Dunque, l’IA può essere utilizzata, ma è necessario che l’Unione Europea si prodighi per garantirne la trasparenza e l’applicazione dei principi democratici. Informare i fruitori riguardo il corretto uso dell’algoritmo, la protezione dei dati personali e il rischio di informazioni manipolate, sono priorità che non devono essere assolutamente trascurate. 

A tal fine, una collaborazione tra Governi, istituti educativi e di formazione, aziende e società civile è fondamentale. Il rispetto dei principi etici e democratici, nonché la costruzione di un futuro più sostenibile, sono patrimonio di tutti. 

Fonti:

Immagine sviluppata da Dall-E, attraverso la seguente richiesta “Make a pop illustration of a portrait of Artificial Intelligence 

as it was an android with the colours and stars of the Euro”

ChatGPT banned in Italy over privacy concerns, BBC, https://www.bbc.com/news/technology-65139406 

Artificial intelligence: stop to ChatGPT by the Italian SA. Personal data is collected unlawfully, no age verification system is in place for children, GarantePrivacy, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847 

A European approach to artificial intelligence, European Commission, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence 

Media in the age of populism and polarization, We-Europeans project, https://www.youtube.com/watch?v=BLGZid0WB-I&t=535s General Data Protection Regulation (GDPR), Intersoft consulting, https://gdpr-info.eu/

Chat GPT: rischio o risorsa per i valori democratici europei?
Torna su