Apprendimento umano, intenzionalità e digitalizzazione del significato – un approccio filosofico

Abstract

L’apprendimento profondo (deep learning) attraverso reti neurali artificiali permette alle macchine di sviluppare il proprio metodo di apprendimento al fine di trovare una risposta a problemi sufficientemente circoscritti. In altre parole, con questa tecnologia, l’intelligenza artificiale (AI) impara ad apprendere. Questo solleva la questione dei limiti di ciò che l’intelligenza artificiale può imparare e, per estensione, se la conoscenza umana possa essere anche essa digitalizzata.

Questo articolo difende l’idea che l’apprendimento umano, e la conoscenza che ne deriva, è per sempre il privilegio dell’essere umano. Per quanto complessa possa essere la tecnologia e la potenza di calcolo a disposizione dell’intelligenza artificiale, non le sarà mai possibile avere accesso allo stesso sapere della cognizione umana. Infatti, solo un soggetto cosciente può mantenere una relazione intenzionale e qualitativa con l’oggetto del suo apprendimento e col processo stesso di apprendimento. Questa particolare relazione permette al soggetto di attribuire un significato alla propria esperienza di apprendimento. Al contrario, l’intelligenza artificiale deve limitarsi a imitare questo processo, o a sviluppare il proprio processo di apprendimento, senza mai essere in grado di dare un senso alla propria conoscenza. Questo ci porta a concludere che le scienze umane e sociali hanno un ruolo importante da svolgere nello sviluppo della digitalizzazione. Infatti, rimanendo i garanti e i critici di senso, assicurano una migliore distinzione, e quindi una migliore comprensione, sia dell’intelligenza umana che dell’intelligenza artificiale.


Apprendimento umano, intenzionalità e digitalizzazione del significato

Kevin Reymond, laureato in Filosofia e Antropologia sociale, Università di Losanna, stagista presso l’ASSH nell’ambito della specializzazione di Master “Analisi del discorso e della comunicazione pubblici”.


Apprendimento profondo e intelligenza artificiale

L’apprendimento profondo (deep learning) attraverso reti neurali artificiali è uno dei metodi di apprendimento automatico più promettenti nel campo dello sviluppo dell’intelligenza artificiale (AI). Grazie all’ apprendimento profondo, l’intelligenza artificiale è in grado di imparare da sola senza che alcun intervento umano sia implicato nel processo di apprendimento. Questa tecnologia supera le capacità del cervello umano in aree di applicazione sufficientemente circoscritte, come il riconoscimento vocale, il riconoscimento di immagini e testi, la diagnostica medica e i giochi da tavolo.

Con lo sviluppo dell’apprendimento profondo sorge allora la questione della possibilità di digitalizzare l’apprendimento e la conoscenza umana: se una macchina può imparare a risolvere da sola problemi complessi ma ben definiti, può anche imparare ad apprendere come un essere umano? Le scienze umane mettono in evidenza una distinzione essenziale tra esperienza umana e intelligenza artificiale che supporta l’idea che l’apprendimento umano, e la conoscenza che ne deriva, non è mai completamente “digitalizzabile”.

 

L’intelligenza artificiale impara da sola, ma cosa impara?

Le reti neurali artificiali sono costituite da milioni di neuroni e connessioni neurali organizzate in strati. La formazione di una rete neurale può essere supervisionata o no da un ingegnere. Nel primo caso, il sistema è alimentato da decine di migliaia di dati con contenuti simili, per esempio immagini di gatti. Nel secondo caso, il sistema è alimentato da una quantità di dati eterogenei, per es. immagini con vari contenuti non etichettati, e impara autonomamente a distinguere i pattern   ricorrenti che appaiono in queste immagini. Gli input attraversano i diversi strati neuronali, e questi eseguono trasformazioni sul segnale originale fino a quando non raggiungono un output adeguato. Una volta completata l’operazione, l’intelligenza artificiale è in grado di risolvere autonomamente problemi ben definiti in modo più efficace rispetto al cervello umano.

Ciò che distingue questo tipo di metodo induttivo dall’apprendimento umano è che sviluppa una modalità di apprendimento che non attribuisce senso al suo oggetto. In altre parole, la capacità dell’intelligenza artificiale di “comprendere” le informazioni rimane relativamente superficiale. Tuttavia, la nostra tendenza all’antropomorfismo ci spinge a proiettare la nostra esperienza umana della realtà sugli oggetti: diciamo che una rete neurale “cerca” soluzioni e che “comprende concetti”, che è “curiosa”, “creativa” o “inventiva”. Il nostro uso antropomorfico di questi termini ci costringe a degli amalgami che nascondono le differenze e le somiglianze tra noi e loro. Questa tendenza ci inganna non solo nella nostra comprensione dell’IA, ma anche in quella che abbiamo della nostra esperienza umana.

 

“Questo è un gatto”: possiamo digitalizzare il significato?

Una macchina può comunicare un significato enunciando un testo coerente e comprensibile al soggetto umano, ma non può essere garante del suo significato. Perché le righe scritte dall’intelligenza artificiale abbiano davvero senso, un lettore umano deve essere in grado di leggerle e imporre loro la sua soggettività. La comprensione di un termine, quindi, non sta tanto nel fatto che è usato correttamente, quanto nella presenza di soggettività – una dimensione che manca all’intelligenza artificiale. In altre parole, l’attribuzione del significato alla conoscenza avviene sotto l’autorità della soggettività.

A differenza dell’intelligenza artificiale, la cognizione umana si incarna in un soggetto fisico e l’apprendimento avviene “nel mondo” in cui è coinvolta. In quanto soggetto cosciente, l’essere umano intrattiene una particolare relazione intenzionale e qualitativa con l’ambiente circostante. Così, quando impariamo il concetto di “gatto”, non impariamo solo a riconoscere il felino in questione, ma facciamo un’esperienza contestualizzata alla quale siamo costretti a dare un particolare significato. Un gatto non è quindi mai solo un concetto sotto forma di immagine o di testo: è un’interpretazione di “questo gatto” in relazione alla rete di conoscenze, esplicite o tacite, di significati, sensazioni, affetti ed esperienze relative al soggetto umano. Il frutto del nostro apprendimento include quindi necessariamente una componente qualitativa che non può essere formalizzata o digitalizzata.

Diventa quindi essenziale considerare l’intenzionalità e l’importanza del significato, non solo come privilegi umani nella comprensione della realtà, ma anche come mezzo per distinguere tra intelligenza umana e intelligenza artificiale. La digitalizzazione della conoscenza e dell’apprendimento non può quindi prescindere dalle scienze umane, perché sono loro a definire e a mettere in discussione i concetti e il linguaggio che usiamo per immaginare e sviluppare l’intelligenza artificiale di domani.

 

Sull’autore

Kevin Reymond, laureato in Filosofia e Antropologia sociale all’ università di Losanna, stagista presso l’ASSH nell’ambito della specializzazione di Master “Analisi del discorso e della comunicazione pubblici”.