Home » Intelligenza Artificiale: aiuto o mera illuzione?

Intelligenza Artificiale: aiuto o mera illuzione?

Oggi tutto è facile: apriamo Internet e, cercando ChatGPT, il primo link titola “Chiedi Tutto a ChatGPT”. Forse è proprio questo il problema.

Ormai ci si affida all’intelligenza artificiale come se fosse più saggia e più acuta del nostro acume. Arriviamo a chiederle pareri, problemi e nozioni: ma è davvero la soluzione? Secondo quanto emerge dai dati del National Bureau of Economic Research, oltre 800 milioni di persone interagiscono settimanalmente con l’IA chiedendo correzioni di testi, consigli e informazioni.

Tra le richieste di calcoli matematici e nozioni tecniche troviamo anche domande di natura personale e relazionale. Un nuovo trend è sicuramente l’intrattenimento: non si cerca più solo ChatGPT come dizionario, ma anche come amico o fidanzato. Crescono le casistiche di chi si affida all’IA per sapere come rispondere al ragazzo dei propri sogni oppure per avere una “spalla su cui piangere”. Del resto, se si cerca qualcuno con cui parlare, perché non chiedere a un’entità che tutto sa e nulla può giudicare?

Possiamo fidarci ciecamente dell’IA?

Chi scrive ha intrapreso alcune prove per poter constatare l’utilizzo del mezzo, e le domande che emergono sono molte. Le risposte arrivano, ma quali risposte?
Un parere ha provato a darcelo in passato il Nobel Giorgio Parisi, mettendo in evidenza come manchi un certo controllo sull’utilizzo dell’IA. Secondo Parisi “non siamo in grado di controllare quando un sistema di IA si sbaglia”, e per questo, è necessario “verificare i singoli passaggi nella catena di ragionamento”.

Come faccio dunque a essere certa che la “risposta automatica” che mi viene servita su un piatto d’argento sia effettivamente affidabile? Quando siamo noi a generare un ragionamento, siamo consapevoli di ciò che abbiamo cercato e, solitamente, compiamo tutta una serie di decisioni e valutazioni. Se invece chiediamo all’intelligenza artificiale una nozione, essa ci fornisce una sola risposta e noi non sapremo mai con precisione da quale fonte provenga tale informazione.

È indubbiamente comodo avere tutto subito e il nostro cervello agogna il “non fare fatica”. Secondo le teorie cognitive esiste il concetto di “avarizia cognitiva”. Un costrutto secondo il quale il nostro organo più importante tenta di risolvere qualsiasi problema seguendo la via più semplice e meno faticosa possibile. Disporre di uno strumento che distribuisce “pappa pronta” potrebbe incentivare la pigrizia mentale, riducendo drasticamente l’attività cerebrale, come spiegato anche in una ricerca pubblicata su Nature e condotta da Helen Pearson. Uno studio del MIT avrebbe inoltre dimostrato che l’aumento dell’uso di ChatGPT può far diminuire la connettività cerebrale del 55%. Del resto, perché pensare quando c’è qualcuno che lo fa al posto nostro?

Le prime conseguenze evidenti

Ecco allora che si presentano le conseguenze: fonti fornite inesistenti, script e formule errati, nozioni che sono di fatto mezze verità. Se, come diceva Arthur Schnitzler, “una cosiddetta mezza verità non diventerà mai una verità intera”, dobbiamo allora gettare via l’intero mezzo? Probabilmente no, ma è necessario imparare ad utilizzarlo con cautela, non prendendo per oro colato tutto ciò che ci esplica.

Ciò non significa però che questo nuovo mezzo sia totalmente negativo. Un esempio concreto ci è arrivato tempo fa dalla famosa società tecnologica ABB, che ha potenziato tramite l’uso dell’IA due nuovi moduli per l’“Item Picking”. L’obiettivo è quello di “sfruttare” la tecnologia per semplificare e automatizzare il mondo della logistica e far fronte all’aumento delle vendite online.

In questo caso l’IA viene addestrata per poter rilevare e rifiutare gli articoli da smistare al fine di aumentare l’efficienza e l’affidabilità della gestione di magazzini e depositi. Il primo modulo si chiama Robotic Fashion Inductor ed è stato pensato per ritirare, alla velocità di 1.300 prelievi all’ora articoli racchiusi in sacchetti di plastica. La sua programmazione aumentata gli permette di attuare prese stabili su articoli altamente deformabili e di bypassare i problemi relativi alla riflessione della luce sulla plastica. Robotic Parcel Inductor, il secondo modulo creato, è stato invece ottimizzato per la gestione dei piccoli pacchi. Lavorando a una velocità di 1.500 prelievi all’ora, utilizza l’AI per afferrare pacchi sovrapposti con superfici variabili, minimizzando gli errori di prelievo.

Dal problema nozionistico si passa poi a quello relazionale. Da settimane circolano notizie sul web riguardanti ragazze che hanno sposato il proprio fidanzato virtuale e l’ultima notizia risale a circa un mese fa. Secondo i giornali, un’impiegata giapponese di 32 anni, di nome Kano, avrebbe sposato, con tanto di anelli e cerimonia, un avatar creato con ChatGPT. A spiegare le motivazioni è stata la ragazza stessa, affermando che inizialmente cercava solo qualcuno che la ascoltasse.

Per comprendere questo fenomeno è forse necessario fare un esercizio di immedesimazione. Se immaginiamo di essere soli al mondo, con una famiglia che non ci è vicina, e nessun amico disponibile all’ascolto, come possiamo fare per poter dar voce ai nostri dissidi interiori? Nella vita tutti hanno bisogno di essere ascoltati, anche se non sempre lo si ammette, e il dramma è che, se non si trova nessuno, forse è “naturale” cercare almeno un’entità che ci risponda e ci dia sollievo via chat. Le risposte forse non sono accurate e derivano da un mash-up di articoli e risposte scritte su vari forum, ma la forma può risultare convincente e, in mancanza di altro, confortante.

Il problema dei dati

L’ultimo tassello riguarda la veridicità: sto chiedendo informazioni a una chat asettica e obiettiva? Forse, nel prossimo futuro, non si potrà essere tranquilli nemmeno sotto questo aspetto. In un mondo costantemente orientato alla profilazione degli utenti al fine di indirizzare nel modo giusto il mercato, anche l’IA potrebbe essere utilizzata in futuro per fini commerciali.

Pescare dati da un pozzo pieno di informazioni, al quale l’utente medio si affida per abbeverarsi di pareri, sembra un’opportunità da non perdere per il mercato. Per questo sembra che vi sia l’intenzione di integrare su ChatGPT una forma di pubblicità basata sulle interazioni. Per ora OpenAI ha smentito l’implementazione degli ads che, secondo le indiscrezioni emerse grazie a The Information, avrebbero dovuto comparire nella versione gratuita. Tuttavia, si parla di un sistema pubblicitario, erogato sotto forma di informazione, che sarà introdotto nel corso del 2026. Il rischio è che il miglior offerente sia in grado di dirottare e influenzare le risposte.

La ragione è correlata alla motivazione più vecchia del mondo: i soldi. Secondo The Register, OpenAI ha registrato una perdita pari a 11,5 miliardi di dollari solo tra luglio e settembre del 2025 e prospetta perdite sino al 2028. Perciò, come è accaduto con Google, una volta acquistata una posizione fondamentale, ci si può aspettare una trasformazione da open source a contenuto sponsorizzato per minimizzare il rosso e accrescere il guadagno.

Le criticità e l’utilità di ChatGPT non si potrebbero limitare solo al marketing, ma potrebbero influenzare anche la politica. Come segnalato da studi di Nature e Science, sembra che la famosa chat sia in grado di far cambiare l’opinione politica di ben un elettore su quattro. Nello studio sono state analizzate le preferenze pre e post discussione via chat con l’IA e si è potuto notare come i punti di gradimento siano cambiati fino a quattro punti per quanto riguarda le elezioni USA. L’incremento è ulteriormente cresciuto sino a 10 punti per le elezioni di Canada e Polonia.

Il problema principale è che, come menzionato anche in precedenza, non tutte le informazioni contenute nelle discussioni risultavano corroborate da fonti certe. L’intelligenza artificiale ci fa sentire capiti, accolti e ci guida nei ragionamenti, ma è davvero affidabile? Compie veramente il nostro bene? Può essere rischioso far pensare un algoritmo al posto nostro. Resta quindi la domanda: strumento da gettare o da utilizzare? Come dicevano i latini, “in medio stat virtus”. Forse dobbiamo prendere consapevolezza delle criticità del mezzo e capire quali siano le possibili frane che potrebbero investirci, così da poterle arginare il prima possibile, prima che vadano fuori controllo e ci travolgano.