Susie Alegre: “L’Intelligenza Artificiale generativa permette di creare disinformazione in pochi minuti”

Tempo di lettura 5 minuti
L’avvocata britannica Susie Alegre, specializzata in diritti umani nell’era digitale, rivendica la privacy come difesa dalle manipolazioni e avverte del pericolo in arrivo.

Susie Alegre racconta che quando per la prima volta ha letto dello scandalo di Cambridge Analytica, l’azienda che ha raccolto i dati privati di milioni di utenti di Facebook per progettare campagne di propaganda politica in elezioni in tutto il pianeta, le si è “accesa la lampadina”.

Correva l’anno 2017 e il mondo era ancora sotto shock per la vittoria di Donald Trump e del “sì” alla Brexit. È stato allora che questa avvocata britannica specializzata in diritti umani ha iniziato a studiare l’impatto del modello di impresa delle grandi aziende tecnologiche su quello che considera il nostro diritto “più fondamentale”: la libertà di pensare liberamente.

Da questo lavoro è nato il libro Freedom to Think: The Long Struggle to Liberate Our Minds, pubblicato lo scorso anno e che approfondisce il tema della tutela di questo diritto nel corso della storia. E il modo in cui nell’era digitale i nostri dati privati online dovrebbero essere un fortino, una difesa dalle manipolazioni dei potenti.

In questa intervista, pubblicata su El Salto e frutto della partecipazione di Alegre alle II Jornadas sobre Justicia Digital Global di Oxfam Intermón, l’avvocata riflette sulla minaccia rappresentata dall’intelligenza artificiale (IA) generativa per la democrazia e sulla disumanizzazione delle persone con la scusa dell’automazione.

A cosa ti riferisci quando parli di libertà di pensiero? E perché ritieni che nel mondo digitale sia in pericolo?

La libertà di pensiero è uno dei diritti umani ricompresi nei grandi trattati. Ma fino a poco tempo fa non era stata studiata quasi per niente da un punto di vista giuridico. È rimasta un’idea quasi filosofica. Come altre libertà (di opinione, coscienza, religione…) si compone di due parti: una esterna, ciò che diciamo o come manifestiamo le nostre idee, e i nostri pensieri interni. Io mi concentro di più su questa seconda parte, che il diritto ha approfondito meno.

La difesa di questa libertà si compone di tre aspetti. Nessuno può obbligarti a rivelare le tue opinioni. Devi poter pensare scevro da manipolazioni. E nessuno ti può penalizzare per ciò che pensi. Possono perseguirti per ciò che dici o per ciò che fai, ma non per quello che pensi o quello che credono tu pensi.

Quest’ultimo aspetto, questo tipo di inferenze sono molto importanti nel mondo digitale. Molta parte della tecnologia attuale funziona in base ai nostri dati privati nel mondo online. Questi dati oggi sono in vendita. Perché valgono tanto? Perché permettono di desumere ciò che pensiamo.

I nostri dati privati nel mondo online sono la porta d’accesso ai nostri pensieri. Se si apre, è possibile penalizzarci e manipolarci. Per questo è tanto importante la privacy.

In che modo lo scandalo di Cambridge Analytica è stato per te un punto di svolta sul tema?

Con Cambridge Analytica ho capito perché i nostri dati personali valgono tanto. Perché servono per cambiare le nostre menti; e quindi ciò che compriamo, ciò che votiamo, la politica… È un controllo personale che produce cambiamenti nella società.

La propaganda esiste da molto tempo. Di nuovo però c’è che, se prima era rivolta alle masse, adesso può essere personalizzata. Si può fare se si ha accesso ai nostri dati personali. Cambridge Analytica diceva ai clienti che si poteva capire chi era ogni elettore, quali erano i suoi punti deboli, chi avrebbe votato. E poi utilizzare questa informazione per influenzarne le azioni. Probabilmente non ne avrebbero modificato la posizione politica, per esempio da un voto favorevole alla Brexit a uno contrario, ma avrebbero potuto invece determinare che gruppi specifici di persone non si alzassero dal divano per andare a votare. In questo modo si possono cambiare le sorti delle elezioni in un paese.

Questo tipo di pubblicità politica si può fare solo perché esiste un modello d’impresa basato sulla vendita di dati privati. Una volta che sai come influenzare le persone, può essere applicato a qualsiasi cosa.

Ci sono stati cambiamenti significativi da allora? Sono state introdotte garanzie affinché una cosa del genere non succeda di nuovo?

In Regno Unito, mentre i politici si indignavano con Cambridge Analytica, veniva approvato un regolamento per la protezione dei dati che li esimeva da molti obblighi. Oggi, nel mio paese i partiti politici possono utilizzare i nostri dati privati online per profilare gruppi di votanti e destinare loro le proprie campagne.

In Spagna, dove era stata approvata una legge simile a quella britannica, il Tribunale Costituzionale ha affermato che una legge del genere era incostituzionale, in materia di privacy e di libertà di pensiero. Per questo motivo in Spagna i partiti sono più limitati per quanto riguarda l’utilizzo di dati privati. Negli Stati Uniti, invece, è il far west.

Quest’anno ci sono elezioni cruciali sia in Europa sia negli Stati Uniti. Che scenario intravedi dal punto di vista della disinformazione?

Tutti parlano di deep fakes e di cosa succederà quest’anno nelle elezioni, ma non è stato fatto quasi nulla. Poco tempo fa è stato pubblicato un report informativo di AlgorithmWatch che ha evidenziato come un terzo delle risposte del chatbot di Microsoft, Bing Chat, fossero false.

Il mondo oggi è diverso da come era prima di Cambridge Analytica, ma non è un mondo migliore o con maggiori controlli. Il problema sta nel fatto che le libertà di opinione e pensiero sono strettamente legate alle libertà di informazione, sempre che si possa fare affidamento sulle informazioni. E nella situazione attuale è difficile fidarsi dell’informazione online. 

In pochi minuti la IA generativa permette di creare disinformazione. Che sembra credibile. L’autunno scorso nel Regno Unito ci sono stati due casi di file audio di politici dell’opposizione che erano falsi. Prima quello del leader laburista, Keir Starmer; poi quello del sindaco di Londra, Sadiq Khan.

Vedremo cosa succederà quest’anno. Non so come si possa controllare. Almeno però chiederei ai media tradizionali di fare da filtro ai contenuti falsi online.

Nel tuo prossimo libro, che verrà pubblicato a maggio, Human Rights, robot wrongs, analizzi la minaccia che la IA rappresenta per diversi nostri diritti fondamentali. 

Ho cercato di analizzare casi in cui si sta progettando o utilizzando la IA per rimpiazzare gli essere umani e le implicazioni che questo ha per i nostri diritti. Umanizzando le macchine si disumanizzano gli esseri umani.

C’è il caso del robot Sophia, creato da un ex disegnatore Disney, che parla con i diplomatici e ha cittadinanza saudita. Il tentativo di mostrare che i robot possono essere uguali agli esseri umani, soprattutto alle donne, ci rimpiazza, ci toglie il lavoro ma ci toglie anche dignità. Apre la porta verso un mondo nel quale l’umano non è altro che un robot biologico.

Analizzo anche le condizioni dei lavoratori impegnati nello sviluppo della IA, che sia per estrarre i materiali necessari per costruirla o per allenare gli algoritmi che stanno dietro.

La disumanizzazione mette in pericolo molti nostri diritti. E questo sta già accadendo. Alexa ne è un esempio. Ci siamo abituati a parlare alla macchina come fosse una persona, con cortesia. E senza rendercene conto diamo loro personalità e ragione. Esiste questa deriva nell’automazione, riponiamo più fiducia nella macchina che nell’essere umano. Se guardo dalla finestra e vedo che la giornata è soleggiata, ma la app del meteo ci dice che sta piovendo, ormai non ci fidiamo più dei nostri occhi.

Traduzione di Valentina Cicinelli via elsaltodiario.com

Immagine di copertina via Wikimedia – Creative Commons

Potrebbero interessarti anche...

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, scrivi a ghigliottina.it@gmail.com. Cookie Law

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, scrivi a ghigliottina.it@gmail.com.

Chiudi