L’intelligenza artificiale ha una coscienza?
In questi giorni è molto accesso il dibattito su un sistema di intelligenza artificiale che avrebbe sviluppato una sorta di coscienza.
Il sistema, chiamato LaMDA (Language model for dialog applications), si basa su un algoritmo di conversazione per chatbox che secondo alcuni avrebbe sviluppato frasi e pensieri «umani». Effettivamente se si va a leggere il dialogo tra lo sviluppatore di questo sistema, Blake Lemoine, e LaMDA la sensazione è quella di un sistema che abbia una qualche forma di consapevolezza di se stesso e di quello che sta dicendo e provando.
In particolare si può affermare che la capacità di esprimere sentimenti e pensieri possa essere equiparata a quella di un bambino di sette-otto anni. L’azienda in cui lavora questo ingegnere, Google, non ha né smentito né supportato quanto riportato nel suo report da Lemoine, ma ha deciso di sospendere il suo dipendente per un certo periodo.
Facciamo alcune considerazioni. LaMDA si basa su modelli linguistici molto avanzati, che hanno immagazzinato una quantità enorme di vocaboli. Tali modelli permettono a questo sistema di dare risposte che sembrano essere quelle di un essere umano.
Tuttavia non possiamo dire che il sistema abbia effettivamente la consapevolezza di quello che sta dicendo: possiamo forse parlare di una certa forma di consapevolezza pratica legata al problema specifico da affrontare e per cui il sistema è stato progettato, ossia alla sua capacità di percepire il contesto di azione e di rispondere agli stimoli ricevuti in modo adeguato.
Da notare che è in queste situazioni che si mostra in tutta la sua urgenza il problema linguistico alla base di questo tipo di riflessioni, in cui si utilizzano termini prettamente legati agli esseri umani anche per sistemi che sono artificiali.
Un altro aspetto significativo da evidenziare è legato a quello che in contributi precedenti chiamavo homo algorithmus, ossia il soggetto che nasce dalla cooperazione tra un agente umano personale e un agente artificiale. Tra le proprietà fondamentali di questa soggettività c’è sicuramente il fatto che il sistema artificiale debba sapersi porre in relazione con il soggetto umano.
Una sfida affascinante, alcuni quesiti
Questa proprietà può essere definita empatia (empathy), ed è immediatamente legata a un’altra caratteristica che i sistemi artificiali devono possedere, ossia l’affidabilità (reliability), intesa non solo in termini operativi, ma soprattutto come capacità di fidarsi e di affidarsi a questo agente artificiale.
Questo discorso apre il campo a due domande: quale influenza ha per un utente medio un sistema di intelligenza artificiale come LaMDA? Infatti, se un uomo riconosce come dotato di sentimenti e di coscienza un sistema artificiale, questo influenzerà le sue decisioni e la sua relazione con il sistema con cui sta interagendo.
Inoltre, di fronte a un sistema che viene riconosciuto come dotato di coscienza, quale identità viene riconosciuta all’essere umano e quale all’agente artificiale? Paradossalmente un sistema di intelligenza artificiale così perfezionato potrebbe tranquillamente sostituire la relazione tra esseri umani a vantaggio di un sistema che può forse comprendere un uomo anche di più di sua moglie o di suo figlio.
Infine, riconoscere coscienza e sentimenti a un sistema artificiale significa anche attribuirgli un’unicità e un’irripetibilità che nella realtà non è possibile garantire. Questo significherebbe riconoscere anche un insieme di diritti e doveri che tradizionalmente vengono assegnati agli esseri umani e prevedere un sistema di premio/punizione per eventuali danni o reati commessi. Che cosa significa però premiare o punire un sistema di intelligenza artificiale? Spegnerlo, come afferma LaMDA?
Le sfide che si pongono sono sicuramente affascinanti, perché toccano l’identità stessa dell’uomo. Tuttavia, almeno per oggi, è forse prematuro parlare di una coscienza o di una consapevolezza per LaMDA: possiamo tranquillamente dire che almeno per adesso l’uomo è, mentre LaMDA funziona.
Alessandro Picchiarelli è prete della diocesi di Assisi e insegna presso l’Istituto teologico di Assisi. Ha scritto Tra profilazione e discernimento. La teologia morale nel tempo dell’algoritmo (Cittadella 2021).