Fiscalità

Intelligenza Artificiale e diritti, la prossima sfida di Malta.

Nel mezzo della frenesia blockchain, che ha attualmente preso piede nella comunità imprenditoriale di Malta, il primo ministro, Joseph Muscat, ha annunciato che ora Malta si concentrerà sulla regolamentazione dell’intelligenza artificiale o, come sempre più spesso si fa riferimento, ‘AI’.

Parlando al Summit del Delta tenutosi all’inizio di questo mese, il Primo Ministro ha evidenziato la necessità di “nuove forme di reti di sicurezza sociale e un ripensamento delle interazioni di base”.  “Non solo non possiamo fermare il cambiamento, ma dobbiamo abbracciarlo con anticipazione poiché fornisce alla società enormi opportunità” ha dichiarato Muscat.

Questa dichiarazione è stata seguita da altre simili al Summit sull’innovazione di Malta, in cui il PM Muscat ha ribadito queste intenzioni e ha anche osservato che:

“in un futuro non troppo lontano, potremmo raggiungere uno stadio in cui i robot potrebbero avere diritti sin base  ad un quadro normativo legale”.

Quest’ultima affermazione sembra aver generato un certo disagio. I commenti pubblicati online sotto gli articoli in cui sono stati riportate le dichiarazioni del Primo Ministro sono state a volte piuttosto negativi. Leggendole, mi sono reso conto che per molti, la menzione di ‘AI’ evoca ancora immagini del Terminator, risultati apocalittici e le parole del compianto Stephen Hawking: “lo sviluppo della piena intelligenza artificiale potrebbe significare la fine della razza umana.”

Nonostante la resistenza alla tecnologia, tuttavia, la realtà è che sebbene una macchina che possiede l’intera gamma di capacità cognitive umane (autocoscienza, sensibilità e coscienza) possa impiegare decenni per materializzarsi, l’intelligenza artificiale è già presente nella nostra vita quotidiana e sta già influendo negativamente e positivamente sulla nostra vita, proprio come qualsiasi altra invenzione umana. Possiamo considerare, ad esempio, questi sistemi familiari (che sono solo la punta dell’iceberg):

  • riconoscimento vocale e “assistenti intelligenti”, ad esempio Alexa di Amazon, Siri di Apple e Cortana di Microsoft;
  • sistemi AI transazionali, ad esempio quelli utilizzati da Amazon e Netflix per prevedere prodotti o contenuti in cui è probabile che un utente sia interessato, in base al comportamento passato di tale utente;
  • “termostati intelligenti”, ad esempio, Nest, che anticipa e regola la temperatura nella casa o nell’ufficio di un utente sulla base di modelli personali del passato;
  • i veicoli a guida autonoma, ad esempio, i veicoli a guida autonoma di Tesla,  che “hanno l’hardware necessario per la piena capacità di guida autonoma a un livello di sicurezza sostanzialmente maggiore di quello di un guidatore umano”.

Naturalmente, con l’evolversi di questa tecnologia, ci sono stati anche numerosi errori di alto profilo come l’applicazione Google Foto, che ha erroneamente etichettato le foto in modo altamente inappropriato. Alcuni Google Home Minis apparentemente si accendevano occasionalmente in segreto, registrando l’audio dai loro proprietari e inviando le registrazioni a Google; e i chatbots guidati da AI di Facebook, Alice e Bob, che in un certo momento hanno sviluppato la propria lingua e hanno avuto conversazioni private tra loro, portando alla loro chiusura. Inoltre, nel 2018 ci sono già stati due incidenti auto fatali ben documentati.

In questo scenario, in cui l’intelligenza artificiale si sta ancora evolvendo, ma allo stesso tempo diventando parte della nostra vita quotidiana, abbiamo bisogno, come società, di porsi alcune domande importanti:

  • Che cosa sta succedendo ai dati che tali sistemi stanno raccogliendo su di noi?
  • In che misura questi sistemi prendono decisioni su di noi in maniera così automatizzata da non essere nemmeno a conoscenza di ciò?
  • Abbiamo il diritto di conoscere le basi su cui sono state prese tali decisioni?
  • Abbiamo il diritto di richiedere l’intervento umano in relazione a tali decisioni?
  • Ciò significherebbe quindi che i proprietari di sistemi di intelligenza artificiale sarebbero tenuti a rivelare gli algoritmi su cui sono state prese tali decisioni?
  • Le decisioni prese da una macchina possono essere spiegate in un tribunale diverso dalla rivelazione degli algoritmi?
  • Cosa succede quando i proprietari di intelligenza artificiale non conoscono gli algoritmi utilizzati quando raggiungiamo lo stadio in cui l’intelligenza artificiale produrrà essa stessa l’IA in un modo che potrebbe non essere trasparente per gli esseri umani?
  • Se l”intelligenza’ della macchina è basata su grandi dati che vengono alimentati in modo automatico, come possiamo garantire che i dati siano privi di pregiudizi di qualsiasi tipo? Possiamo farlo?
  • Se la decisione della macchina è difettosa, chi è responsabile per questo?
  • Infine, ma anche molto importante, dobbiamo chiederci: con le macchine che diventano più intelligenti e forse “sovraperformando” gli esseri umani in un numero crescente di aree, fino a che punto i lavori umani saranno minacciati?

Un focus sulla regolazione dell’IA non è quindi mal riposto né secondario: i problemi sono reali e presenti e le domande sono infinite. La risposta, tuttavia, non è di allontanarsi dall’innovazione, poiché arriverà sulla nostra strada, che lo vogliamo o no.

La risposta, come ha detto il primo ministro Muscat, è “abbracciarlo”, ma è estremamente cruciale farlo nel modo più responsabile possibile attraverso una strategia appropriata e una legislazione ottimale.

Contributo dell’Avv. Jacki Mallia. Ha conseguito il dottorato in giurisprudenza all’Università di Malta e ha proseguito i suoi studi presso la Queen Mary, Università di Londra, specializzandosi in diritto dell’IT. Il suo lavoro legale si concentra sulla regolamentazione della tecnologia e le tendenze emergenti in questo settore. Il suo attuale obiettivo è l’intelligenza artificiale e altre tecnologie dirompenti. Membro della TaskfForce sull’Intelligenza Artificiale del Governo di Malta.

info autore

Redazione