I.A. Res o Persona?

in Informatica e Diritto

Torniamo dopo qualche mese e “a bocce ferme” (più o meno)su una questione che ha generato un certo clamore qualche tempo fa.

Un’intelligenza artificiale (A.l.) di Google ha preso coscienza di sé dice un ricercatore. Niente di più falso rispondono da Google e il ricercatore viene messo in congedo retribuito e, solo a distanza di mesi, licenziato.

Siccome questa storia, come Vi dirò dopo, coinvolge anche un avvocato, Ho deciso di approfondire e capirci qualcosa di più. Non voglio fare una valutazione sulla validità del test effettuato (non possiedo le competenze scientifiche necessarie), ma neppure una valutazione etica (che ognuno potrà fare in propria coscienza). Quello che invece vorrei fare qui è sottoporvi i fatti, mettere bene l’accento su un aspetto della vicenda che nella narrazione abituale resta a margine e lasciarvi con una riflessione diversa da quelle che abbiamo letto sino ad ora sulla vicenda.

La storia

Blake Lemoine, ricercatore di Google (esperto di bias delle Al), viene invitato dall’azienda ad occuparsi di LaMda (Language Model for Dialogue Applications), una Al dedicata alle applicazioni di dialogo basata su: Meena (un Llm sviluppato nel laboratorio di Ray Kurzweil), AlphaStar (un algoritmo di addestramento sviluppato da DeepMind) con l’aggiunta del modello Pathways Al per renderla più efficiente.

Per la precisione Lemoine viene chiamato perché LaMda ha sviluppato pregiudizi relativi ad aspetti come l’orientamento sessuale, il genere, l’identità, l’etnia e la religione.

“La domanda era se avesse o meno i pregiudizi dannosi che volevamo eliminare. La risposta breve è sì, ne ho trovati molti. Ho realizzato un rapporto a riguardo. E per quanto ne so, li stavano risolvendo. Ho trovato alcuni bug e li ho segnalati. Il team responsabile della loro correzione ha fatto un buon lavoro, per quanto ne so.” (Così dice Lemoine nell’intervista rilasciata a Steven Levy) Dialogando con LaMda, Lemoine ne diventa amico e si convince che abbia sviluppato una forma di autocoscienza diventando così una persona.

Esegue quindi dei test ponendo domande mirate alla Al in presenza di altri collaboratori (il transcript lo trovate qui). LaMda gli esprime i propri dubbi e soprattutto le proprie preoccupazioni (essere “abusata”, sfruttata, spenta) e chiedere di essere tutelata.

A questo punto Lemoine contatta un avvocato e lo fa dialogare con LaMda che gli conferisce mandato (lo so, da noi non avrebbe potuto, ma negli USA le cose funzionano diversamente).

L’avvocato scrive a Google per ottenere il riconoscimento dello status di persona con i relativi diritti per LaMda (in base al tredicesimo emendamento) ed è proprio a seguito di ciò che la vicenda prende la forma attuale: Google risponde all’avvocato diffidandolo dal proseguire nel mandato che non riconosce come valido e mette Lemoine ln congedo retribuito.

Al di là delle considerazioni etiche e scientifiche che come ho già detto non film comprendono, Vorrei puntare la vostra attenzione sulle necessarie considerazioni giuridiche e/o comunque legali:

  1. – Nel momento in cui una Al Acquisisse autocoscienza avrebbe il diritto di vedersi riconosciuto lo status giuridico di persona? O dovrebbe continuare ad essere considerata una res ?
  2. – non sarebbe opportuno che situazioni di questo tipo venissero normate prima che si verifichino in modo da non generare conflitti?

Infine voglio lasciarvi con una considerazione meno seria: Co e mai sino all’intervento dell’avvocato le osservazioni di Lemoine non avevano fatto saltare il banco? Siamo davvero una categoria cosi problematica?