Tmt

La legge della Robotica

Bird & Bird illustra le prospettive e i rischi legali dell’intelligenza artificiale insieme ai protagonisti dell’attuale rivoluzione tecnologica

25-10-2016

La legge della Robotica


Risale alla prima metà del ‘900 lo sviluppo, da parte di Isaac Asimov - delle famose tre leggi della robotica, un insieme futuristico di norme secondo le quali, nell’idea dello stesso scrittore, le macchine avrebbero dovuto funzionare. Una questione che ha solleticato le menti degli appassionati di fantascienza per quasi un secolo ma che adesso, come mai prima d’ora, sembra essere diventata più che mai attuale. Lo sviluppo dell’intelligenza artificiale ha infatti portato alla costruzione di robot dotati di capacità di apprendimento e capaci di agire autonomamente e meglio di qualsiasi essere umano. Questa continua evoluzione delle macchine, se da un lato porta una serie di innumerevoli vantaggi per gli utenti, dall’altro comporta l’insorgere di insidie e problemi non indifferenti, molti dei quali si scontrano con l’attuale quadro legislativo. Si legge dunque un bisogno di tracciare le linee all’interno delle quali la partita della tecnologia è giocata provando a capire quali siano le norme attuali e quali possano essere leggi e regolamenti futuri in grado di gestire l’avanzata tecnologica.

Per far questo, lo studio Bird & Bird in collaborazione con TopLegal, ha organizzato l’incontro “Artificial Intelligence: a legal perspective”. Per l’occasione è stato scelto un panel d’eccezione moderato dal partner Roberto Camilli e composto dai rappresentanti delle più grandi società attive nel campo dell’intelligenza artificiale: Carmelo Fontana, senior corporate counsel di Google; Alessandra Bini, senior counsel Middle East, Pakistan and North Africa di Ibm; Bianca Del Genio, direttore degli affari legali e istituzionali di Microsoft Italia; Luca Galantucci, region counsel Italy di Hewlett Packard Enterprise; Maurizio di Bartolomeo, head of group corporate & legal affairs di Giochi Preziosi e country representative per l’Italia di Acc – Association of Corporate Counsels.

Il dato da difendere
Carmelo Fontana, analizzando la capacità di elaborazione dei dati delle macchine di nuova generazione, ha delineato alcune delle difficoltà tecniche poste ai legali in house al momento della commercializzazione di un prodotto in un mercato specifico. È frequente, infatti, che un servizio costruito in un dato Paese non sia immediatamente commercializzabile in altri mercati a causa della differenza tra sistemi legislativi. La problematica diventa pressante in relazione alla gestione dei dati personali, uno dei beni oggetto di valorizzazione in campo tecnologico. Una intelligenza artificiale è infatti in grado di accumulare una quantità straordinaria di informazioni. Gli stessi big data fungono da combustibile per tale operazione. Ma se per la macchina è semplice utilizzare i dati e rielaborarli, non è altrettanto facile per gli sviluppatori attingere a un database che sia compliant dal punto di visto normativo. Dove e quando sono raccolti i dati? In che paese verranno inviati? E per quanto tempo saranno trattati? Queste sono solo alcune delle possibili domande che una società deve porsi nello sviluppo di un progetto.

La sicurezza e l’acquisizione dei dati interessano anche Alessandra Bini, che in Ibm è parte del team impegnato al progetto del supercomputer Watson. Nello sviluppo di progetti cognitive, la gestione del dato si presenta come una sfida sempre nuova. Spesso vi è l’impossibilità di fare riferimento a procedure e metodi standardizzati. Per contenere tempi e costi di un progetto servirà, allora, adattare la selezione dei dati agli obiettivi da perseguire. Un problema che può trovare soluzione solo nel coordinamento tra legali e tecnici, definendo sia il livello di sicurezza da garantire per il trattamento dei dati (che vengono, nella maggioranza dei casi, elaborati attraverso servizi cloud), sia il tipo e la rilevanza dei dati da trattare, con l’obiettivo di trovare il giusto bilanciamento tra tutela legale e risultati. Ma oltre alla base di dati elaborata, può essere oggetto di contesa anche la proprietà intellettuale dei dati e delle nuove procedure generate attraverso soluzioni cognitive. Tema spinoso, la cui negoziazione è lasciata ai professionisti Ip che - insieme agli sviluppatori - dovranno decidere volta per volta cosa potrà essere essenziale per la società in futuro.

I due volti della responsabilità 
Ma le questioni non si limitano al solo calcolo dei costi-benefici legati al business. Un altro tema è l’utilizzo responsabile dell’artificial intelligence (Ai). Secondo Bini, i servizi basati su tecnologie cognitive dovrebbero servire a facilitare la vita degli individui evitando però di sostituirsi all’essere umano nei momenti decisionali.  Una visione etica e ottimistica del rapporto tra mondo e tecnologia condivisa anche dal legale di Microsoft, Bianca Del Genio,   che nel porre il cloud al centro dell’attuale sviluppo della società, seleziona però tre caratteristiche essenziali per far sì che tale avanzamento tecnologico non produca risultati negativi. Il cloud dovrà essere: i) affidabile (attenzione alla cura dei dati personali e ai diritti fondamentali); ii) responsabile (previsione di regolamentazioni unificate e controllo delle emissioni); iii) inclusivo (democratizzazione della società e l’accesso a tutte le fasce sociali).

La necessità di sviluppare regole e modelli di gestione con l’obiettivo di prevenire rischi futuri è sentita anche da Luca Galantucci, responsabile legale delle divisioni cloud, software ed enterprise di Hpe, secondo il quale, nei prossimi cinque anni, la maggior parte dei legali si troverà a dover fare i conti con problematiche legate all’Ai. Questioni completamente nuove e dalla definizione ancora incerta, alcune delle quali già in grado di condizionare la vita dei lavoratori. Ne sono un esempio i vari sistemi di gestione dei dipendenti, che possono portare a modifiche degli orari di lavoro e delle retribuzioni, e gli algoritmi usati per la selezione degli stessi, che hanno già causato i primi casi di discriminazione a opera di un’intelligenza artificiale.  
Ulteriori problemi potrebbero configurarsi nell’accertamento della responsabilità penale e civile in seguito ad azioni compiute dalle Ai. Se la macchina è in grado di prendere decisioni autonomamente, quale è il limite entro il quale il creatore della stessa Ai è da ritenere responsabile? 
Si potrebbe essere indotti a pensare che si tratti di casi limite ma, considerando che ci troviamo agli albori dello sviluppo delle intelligenze artificiali, si può comprendere come casi del genere potranno trasformarsi in una sfida giornaliera nel breve periodo. 

La palla passa dunque al legislatore (ma sarebbe meglio parlare di legislatori) che avrà il duro compito di rafforzare le difese di un sistema che, al momento, non è in grado di stare al passo con l’innovazione tecnologica e di reggere le sfide che il mercato globale pone. 

TAGS

Bird & Bird AlessandraBin, RobertoCamilli, MaurizioDi Bartolomeo, LucaGalantucci, BiancaDel Genio, CarmeloFontana, AlessandraBini Google, Giochi Preziosi, Acc, Microsoft, Ibm, Hp Italiana


TOPLEGAL DIGITAL

Scopri TopLegal Digital, nuova panoramica sull’attualità del mondo legal, finance e aziendale

 

Sfoglia la tua rivista gratuitamente


TopLegal Digital
ENTRA