Come il Sistema 0 modifica il nostro modo di pensare

L’intelligenza artificiale sta dando origine a una nuova configurazione cognitiva: un sistema artificiale che si pone come supporto dei nostri processi mentali naturali. Come illustrato recentemente, insieme ad altri autori, sulle pagine della rivista scientifica Nature Human Behaviour, il Sistema 0 non può più essere inteso come un semplice strumento esterno utilizzato in modo occasionale, bensì come un livello di conoscenza distribuita che interagisce in modo continuo con il pensiero umano, contribuendo a modificarlo e potenziarlo. Ogni volta che utilizziamo Google Maps per orientarci, che chiediamo a ChatGPT un supporto nella stesura di un messaggio o che accettiamo i suggerimenti di Netflix, facciamo ricorso a questo sistema, che apprende costantemente dalle nostre interazioni e si adatta progressivamente alle nostre preferenze.
Questo nuovo strato cognitivo si presenta come sempre più sofisticato e pervasivo. Esso non si limita all’elaborazione delle informazioni in tempo reale, ma conserva una memoria persistente delle nostre scelte e dei nostri comportamenti, dando origine a ciò che può essere definito un’“ombra cognitiva” digitale. Quando un assistente virtuale propone un’attività o suggerisce un acquisto, tale indicazione si fonda su una comprensione profonda delle nostre abitudini, costruita nel tempo attraverso l’accumulo dei dati.
Per comprendere appieno le implicazioni di questo fenomeno, è opportuno richiamare il modello elaborato nel 2002 dallo psicologo e premio Nobel per l’Economia Daniel Kahneman, il quale ha descritto il funzionamento del pensiero umano attraverso due sistemi. Il Sistema 1, rapido e intuitivo, consente di effettuare scelte immediate, come il riconoscimento di volti familiari o la guida su percorsi noti; il Sistema 2, più lento e analitico, interviene invece nei processi decisionali complessi e nelle valutazioni ponderate. Questa impostazione teorica, illustrata nel volume Pensieri lenti e veloci, ha costituito per oltre due decenni un riferimento centrale nella psicologia cognitiva.
Cosa fa il Sistema 0 e perché è importante
Il Sistema 0 si colloca oltre la funzione di un semplice supporto operativo. Esso analizza in modo continuo i dati generati dalle nostre azioni e li utilizza per affinare la qualità delle informazioni e dei suggerimenti che ci vengono proposti. Ogni interazione con strumenti come Google Maps, ChatGPT o Netflix avviene all’interno di una rete cognitiva che apprende dalle nostre preferenze e le impiega per anticipare i nostri bisogni. In questo senso, il Sistema 0 può essere interpretato come una vera e propria estensione cognitiva, secondo la prospettiva delineata da Andy Clark e David Chalmers, che evolve insieme all’essere umano.
Il Sistema 0 prende forma come un insieme di processi computazionali orientati all’elaborazione statistica dei dati e alla produzione di output sulla base di tali elaborazioni. Pur essendo implementato su una molteplicità di macchine, esso non è riconducibile a un hardware specifico né a una singola tecnologia. Seguendo l’impostazione del filosofo dell’informazione Luciano Floridi, si può sostenere che, se il digitale possiede la capacità di “reontologizzare” il mondo, il Sistema 0 debba essere inteso come un’entità informativa, costituita da un’aggregazione di procedure algoritmiche che contribuiscono in modo significativo al processo di riorganizzazione ontologica della realtà, poi completato dal Sistema 1 e, ancor più, dal Sistema 2.
Una caratteristica essenziale del Sistema 0 risiede nel fatto che esso viene generato attraverso la relazione tra l’essere umano e le macchine basate sui dati. L’estensione dei processi computazionali che lo caratterizzano è quindi correlata a ciascun agente individuale ed esiste solo in relazione a tale agente. Il contenuto del Sistema 0 non coincide con un flusso illimitato di informazioni, ma è delimitato dall’interazione tra l’algoritmo e l’individuo. Tale interazione, pur mantenendo una dimensione personale, produce un effetto ambientale, poiché i dati generati vengono incorporati in un database più ampio, influenzando le risposte future del sistema nelle successive interazioni con i Sistemi 1 e 2.
Le potenzialità del Sistema 0 vanno ben oltre la semplice comodità operativa. Esso è in grado di compensare alcuni dei limiti cognitivi naturali dell’essere umano, contribuendo a individuare bias nel ragionamento, a proporre prospettive alternative e a supportare la memoria. Si configura così come una sorta di memoria esterna che non si limita a conservare le informazioni, ma analizza attivamente le nostre scelte, costruendo una traccia digitale dinamica delle nostre abitudini e preferenze.
Questa capacità di apprendimento continuo rende il Sistema 0 particolarmente efficace nel supportare processi decisionali complessi. Nel contesto medico, ad esempio, mentre il Sistema 1 consente il riconoscimento immediato dei sintomi evidenti e il Sistema 2 procede a una valutazione analitica delle possibili cause, il Sistema 0 può simultaneamente confrontare il caso con un’enorme quantità di dati clinici, individuare pattern nascosti e suggerire esami diagnostici mirati. In tale prospettiva, esso non sostituisce affatto il giudizio del medico, ma può integrarlo con una capacità di elaborazione dati che eccede le possibilità della mente umana.
Tale integrazione tra intelligenza umana e artificiale sta incidendo anche sui processi creativi. Quando un artista utilizza strumenti di intelligenza artificiale generativa, il Sistema 0 non si limita a eseguire istruzioni, ma diviene un interlocutore attivo nel processo creativo, suggerendo variazioni e possibilità che l’autore potrebbe non aver considerato.
Tuttavia, questa integrazione solleva questioni di rilievo sul piano etico. È legittimo interrogarsi fino a che punto le decisioni influenzate dal Sistema 0 possano essere considerate pienamente autonome. Esiste il rischio che l’ottimizzazione algoritmica delle scelte produca una visione progressivamente ristretta della realtà, riducendo la capacità di pensiero critico. L’accettazione passiva dei suggerimenti può favorire la chiusura all’interno di quella che Eli Pariser ha definito una “bolla di filtraggio”, nella quale si viene esposti quasi esclusivamente a contenuti coerenti con le proprie preferenze.
A ciò si aggiunge il problema della protezione dei dati personali. Il funzionamento del Sistema 0 si fonda sull’accumulo e sull’analisi di enormi quantità di informazioni relative alle abitudini e ai comportamenti individuali. Questa memoria digitale persistente solleva interrogativi rilevanti circa l’accesso ai dati, le modalità del loro utilizzo e il reale controllo che gli individui possono esercitare sulla propria traccia digitale.
Un’ulteriore questione riguarda l’equità e l’accessibilità. I sistemi di intelligenza artificiale più avanzati richiedono risorse computazionali rilevanti e grandi volumi di dati. Ciò rischia di accentuare le disuguaglianze esistenti, consentendo solo a una parte della popolazione di beneficiare appieno del supporto del Sistema 0. Inoltre, la presenza di bias nei dati di addestramento può generare o amplificare discriminazioni sistemiche.
Si pone infine un interrogativo più profondo, che investe la natura stessa dell’intelligenza umana. La delega crescente di funzioni cognitive al Sistema 0 potrebbe condurre, nel lungo periodo, a un indebolimento di alcune capacità naturali. La questione centrale diventa allora quella dell’equilibrio tra il potenziamento offerto dall’intelligenza artificiale e la tutela dell’autonomia cognitiva dell’individuo.
Responsabilità e trasparenza: chi è il responsabile?
Il tema della responsabilità si presenta come particolarmente critico. Quando le decisioni derivano da un’interazione tra esseri umani e sistemi di intelligenza artificiale, risulta sempre più complesso individuare chi debba rispondere delle conseguenze. Se un suggerimento algoritmico determina un errore medico o un investimento finanziario fallimentare, la responsabilità va attribuita all’operatore umano, agli sviluppatori del sistema o all’azienda che lo ha reso disponibile? A tale difficoltà si unisce l’opacità crescente degli algoritmi, che, diventando sempre più complessi, risultano meno comprensibili e verificabili. Questa condizione genera un paradosso: all’aumentare della sofisticazione dei sistemi corrisponde una diminuzione della loro trasparenza.
Il problema si acuisce ulteriormente se si considera che il Sistema 0 non fornisce informazioni neutrali, ma esercita un’influenza attiva sulle scelte, attraverso suggerimenti personalizzati che possono orientare inconsapevolmente i comportamenti. Inoltre, il carattere dinamico del sistema, che evolve sulla base delle interazioni passate, rende sempre più difficile ricostruire la catena di responsabilità.
Per affrontare tali criticità si rende necessario lo sviluppo di nuovi quadri etici e giuridici capaci di tenere conto della natura distribuita e dinamica della responsabilità nell’era del Sistema 0. Solo attraverso standard di trasparenza, meccanismi di verifica indipendenti e forme di responsabilità condivisa sarà possibile garantire un’integrazione responsabile ed eticamente sostenibile tra intelligenza umana e artificiale.
Dal punto di vista evolutivo, l’umanità ha sempre potenziato le proprie capacità attraverso l’esternalizzazione di funzioni fondamentali: dalla scrittura al linguaggio alla cura prolungata della prole. Oggi, con il Sistema 0, stiamo delegando anche funzioni cognitive, manuali e ripetitive. Tuttavia, l’aumento esponenziale dei dati disponibili, la riduzione dei costi di calcolo e il predominio del cloud computing non dovrebbero condurci a rinunciare alla capacità di orientarci consapevolmente verso i nostri obiettivi. In un contesto di crescente complessità, la delega rappresenta una risorsa, ma non può mai costituire una soluzione definitiva.
Il Sistema 0 segna una svolta storica nel nostro modo di pensare e decidere. Non si tratta di adottare una visione esclusivamente utopica o distopica dell’intelligenza artificiale, ma di comprenderne a fondo le dinamiche per orientarne lo sviluppo in una direzione che rafforzi, anziché indebolire, le capacità cognitive e l’autonomia individuale. Questa sfida non riguarda soltanto gli esperti, ma l’intera società civile.
La posta in gioco è elevatissima, poiché il modo in cui verrà gestita questa transizione inciderà non solo sul futuro della cognizione umana, ma sulla stessa natura dell’umanità nell’era dell’intelligenza artificiale. Con il progressivo sfumare dei confini tra pensiero umano e artificiale, diventa essenziale preservare ciò che caratterizza l’essere umano: la creatività, il pensiero critico, l’autonomia decisionale.
Il Sistema 0 è già una realtà operante nella vita quotidiana e influenza le nostre decisioni in modi che solo ora iniziamo a comprendere. La sfida non consiste nel resistere a questa evoluzione, ma nell’integrarla in modo consapevole e responsabile nel tessuto sociale. Ciò richiede un dialogo continuo tra discipline diverse, una riflessione etica approfondita e una partecipazione attiva dei cittadini nella definizione delle modalità di sviluppo e di utilizzo di questa tecnologia. Il futuro non è predeterminato: esso dipende dalle scelte che compiamo oggi come società.
