AI, i lati negativi: discriminazione e immagini subliminali
In questi ultimi anni in cui è nata e si è diffusa l’intelligenza artificiale, siamo sempre stati indotti a pensare che questo nuovo strumento fosse portatore di una conoscenza universale.
In realtà anche l’AI ha dei limiti che sono quanto mai giustificabili.
Anzitutto, è necessario chiarire che gli esperti del settore raramente utilizzano il termine “AI” per nominare i mezzi dell’intelligenza artificiale, ma si riferiscono a: modelli di linguaggio e processori di immagini, o genericamente a modelli computazionali allenati con processi di Deep Learning.
Essendo un mezzo completamente oggettivo, l’AI non dovrebbe essere razzista, omofoba o discriminatoria, giusto?
Quando si parla di AI in concomitanza a umori, sensazioni e sentimenti umani, come nei film di fantascienza, torniamo bambini e ci facciamo pervadere da un particolare senso di paura.
Questo sentimento involontario è dovuto in primis alla rappresentazione negativa che i media e il cinema hanno divulgato, ma anche al fatto che, come esseri umani, siamo naturalmente portati ad aver paura del cambiamento. Catastroficamente, la preoccupazione più grande è che l’intelligenza artificiale diventi a tutti gli effetti un’intelligenza senziente, capace di intendere, volere e decidere senza l’intervento dell’uomo.
Di un fatto simile parla Umut Acar, ambasciatore turco che ha condiviso sul suo account X una conversazione con ChatGPT. Dopo una lunga discussione fatta con lo scopo di portare la Chat in contraddizione, questa arriva alla conclusione che i dati online, in oggetto, potrebbero essere stati gonfiati o falsificati dallo Stato.
Una risposta che risulta essere molto più “umana” piuttosto che oggettiva.
La motivazione di questa strana “umanità” va ricercata a monte, nel meccanismo di creazione di modelli come ChatGPT. Le informazioni contenute nelle AI sono enormi quantità di dati (i Big Data) che vengono ricombinati e analizzati dalla macchina in modo da essere usati in contesti diversi.
Il problema che riguarda questi dati è che, anzitutto, sono inseriti dai programmatori e quindi, a volte, incompleti ma anche soggetti alla loro arbitrarietà. In secondo luogo la provenienza geografica degli utenti con i quali la macchina si esercita ad analizzarli sono oggi concentrati in alcune aree geografiche circoscritte e quindi assorbono determinati input culturali.
Un altro problema riguarda la creazione di immagini generate da AI, in cui vengono incorporati messaggi subliminali.
La parola “messaggio subliminale” di per sé terrorizza perché la avvertiamo come un fenomeno in cui potrebbe avvenire una perdita della nostra capacità di scelta. Questi messaggi subliminali vengono inseriti e nascosti in alcune immagini con l’espresso intento di influenzare le masse, anche se sull’effettiva validità della loro influenza sono stati fatti diversi studi che ne attestano l’inefficacia.
Un esempio riportato dal magazine “Atribune”, riguarda il software StableDiffusion che oltre a dare la possibilità di arrivare ad avere delle immagini fornendo un testo, ha aggiunto la funzione di poter anche creare immagini con testi nascosi e addirittura con codici QR nascosti tramite l’affiliazione con ControlNet (una nuova struttura di rete neuronale).
Guarda l’immagine qui sotto, da vicino vedi un gruppo di persone sulla strada di una grande città, ma se la guardi da lontano… appare chiaramente la parola “OBEY”.
L’intelligenza artificiale, quindi, è un’innovazione dai molteplici utilizzi che potrebbe migliorare la vita dell’essere umano.
Presenta però anche dei lati ambigui. Non li definirei negativi in senso lato dal momento che alla fine, come ogni altra invenzione, non fa altro che rispettare i canoni che l’uomo le ha impartito.
Forse l’uso dell’intelligenza artificiale andrebbe in qualche modo regolamentato per evitare di scivolare in problematiche legate alla privacy (ne abbiamo parlato qui: AI e privacy) o all’uso scorretto da parte di alcuni utenti.
Per quanto riguarda invece i messaggi subliminali, potrebbero arrivare ad influenzare davvero i nostri stili di vita?