L’intelligenza artificiale non è neutrale.

Gli ultimi anni sono stati rivoluzionati dall’arrivo di agenti capaci di dialogare con noi. Tutti – prima o poi – abbiamo chiesto consigli, suggerimenti e valutazioni a degli agenti artificiali rimanendo sorpresi e affascinati dalle loro capacità.

L’IA ci sembra affidabile perché si nasconde dietro un’interfaccia e un metodo di interazione – il dialogo – identica a quella cui siamo abituati quando interagiamo digitalmente con altri umani.

Una chat in cui l’interlocutore è sempre pronto, sveglio, disponibile, preparato. La sua efficienza è talmente elevata che casualmente tende persino a sovrapporsi e sostituirsi alla domanda posta al collega o all’amico.

L’IA in molte occasioni è la fonte delle nostre valutazioni. Il semplice fatto che l’intelligenza artificiale sia in grado di comprendere la nostra domanda e rispondere con un tono adeguato ci porta ad abbassare le difese, ci fa dimenticare che dietro quel testo vi sia un software e ci spinge a credere che ci sia un essere che vuol fare il massimo per esserci d’aiuto. D’altronde, chi prima d’ora – nell’intera storia dell’uomo – aveva mai dialogato con una macchina?

Innegabilmente in tanti contesti questo algoritmo è un acceleratore enorme. [1]

Friends don’t let friends use probabilistic tech for deterministic tasks!

L’intelligenza artificiale – che dovremmo in realtà chiamare generatore semantico statistico – è e sarà sempre meno onesta e imparziale. E’ notizia recente, passata un po’ in sordina, che Apple abbia calibrato il “carattere” del suo agente in modo da rispondere in maniera più delicata su argomenti attualmente fuori dalla linea del governo americano.

Non è uno scoop e neanche uno scandalo. Ad inizio anno, era avvenuta la stessa dinamica con DeepSeek, l’agente di origine cinese istruito per dribblare sapientemente ogni racconto relativo alla strage di Tiananmen. L’IA è e sarà sempre un prodotto software e tutte le grandi case del settore avranno i loro parametri di configurazione, più o meno estremi.

L’anello debole siamo noi, la nostre psiche così fragile nel riconoscere uno strumento quando nascosto in una packaging differente. L’industria, da decenni, sta letteralmente sfruttando questa debolezza per proporre strumenti sempre più sapientemente capaci di guidarci.

E’ difficile uscire da questo loop, è difficile liberarsi dall’interferenza della tecnologia nella nostra capacità di valutazione.

Vedo sempre più gente affidarsi all’AI per richiedere opinioni e riassunti su un argomento. Chiediamo insomma, ad un software, di guidarci in un pensiero per scoprire se possiamo condividerlo.

Quel che però questi software non dichiarano durante la conversazione è come sia calibrato il loro orientamento. Quando chiediamo di aiutarci a valutare gli effetti sul nostro corpo di un medicinale o sulla mente di uno strumento (fisico o digitale), stiamo presupponendo che l’intelligenza artificiale sia neutrale. Stiamo immaginando che, acriticamente, l’agente farà una somma non pesata di tutte le fonti con cui è stata istruita e che esporrà in piena trasparenza il risultato di quella ricerca.

Non è così. Non è così oggi e sempre meno lo sarà domani. L’IA è lì, disponibile giorno e notte con una risposta pronta per ogni dettaglio che vorremo approfondire. Esiste un venditore migliore di questo? Quando cercheremo informazioni su una nuova macchina fotografica, sulla qualità di una piattaforma digitale o sull’agenda politica di un ministro, l’agente potrà guidare la nostra valutazione andando ad esaltare più o meno velatamente aspetti e caratteristiche di un prodotto rispetto ad un altro.

ChatGPT sta iniziando ad offrire la possibilità di eseguire prenotazioni su Booking, o dare suggerimenti musicali su Spotify. Il mercato inevitabilmente sarà sempre più legato all’IA ma nessuna intelligenza artificiale commerciale sarà mai priva di un network di advertising a corredo o di una linea politica al suo vertice.

Quando chiederemo «definisci il percorso migliore per visitare Firenze in una giornata e non dimenticarti di indicarmi dove mangiare una buona fiorentina» non dovremo mai dimenticare che un network pubblicitario potrebbe aver stretto accordi con l’IA in modo da incentivare il suggerimento di certi ristoranti.

La politica è consapevole di queste possibilità, la scelta di Apple non è casuale.

Imparare ad utilizzare questi strumenti in maniera critica è fondamentale. Nella società odierna l’informatica ha un potere enorme sulla nostra mente e sulle dinamiche politiche. I social network sono stati il vettore principale dello scorso decennio, cosa avverrà quando il chatbot diventerà un ologramma digitale dalle fattezze rassicuranti, pesato sulla storia e sensibilità di ognuno di noi?

Non bisogna aver paura del futuro, bisogna certamente educarsi ed educare. Nessuna rivoluzione arriva e si esaurisce senza un cambiamento individuale.

Emanuele

[1] Ci sarebbe anche da domandarsi quanto questa efficienza sia necessaria a noi come esseri umani / lavoratori e quanto invece sia importante per le aziende per cui lavoriamo. La nostra produttività infatti, molto spesso e per gran parte dei lavoratori, non si traduce in un incremento di stipendio ma in un margine maggiore per l’azienda che ci invita ad utilizzarla.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.