Este texto foi publicado no Jus no endereço https://jus.com.br/artigos/103686
Para ver outras publicações como esta, acesse https://jus.com.br

Evoluzione dell’intelligenza artificiale nell diritto.

La necessità di regolamentazione

Evoluzione dell’intelligenza artificiale nell diritto. La necessità di regolamentazione

Publicado em .

O projeto de pesquisa aborda as implicações legais da Inteligência Artificial no Direito, incluindo a regulação de robôs e novas formas de personalidade jurídica.

Sommario: 1. Introduzione. 2. Il connessionismo e il cognitivismo. 3. L'intelligenza artificiale nel mondo giuridico – gli obiettivi della ricerca. 4. La regolamentazione dei robot – l'oggeto specifico della ricerca. 5. Intelligenze artificiali del presente e quelle del futuro: cosa aspettare. 6. Nuove forme di capacità giuridica e nuovi soggetti di diritto. 7. Normativa di base. 8. La Carta etica europea per l'uso dell'intelligenza artificiale. 9. La personalità elettronica dell’intelligenza artificiale. 10. Osservazioni conclusive: temi di ricerca. 10.a) Il diritto: guida dela tecnologia. 10.b) Lo smart contract.


1.Introduzione

Il presente progetto di ricerca riguarda alle implicazioni giuridiche dell’applicazione delle nuove tecnologie e dell’Intelligenza Artificiale nel campo del Diritto.

La linfa che ha stimolato nuovi e decisi interessi di ricerca in argomento è stata lo sviluppo delle tecnologie elettroniche e l’aumento delle capacità dei computer.

Per lungo tempo il corpo e la mente umana sono stati studiati separatamente dando origine a cervelli elettronici dalle capacità straordinarie.

L’evoluzione ha condotto l’integrazione meccatronica, con una biomeccanica simile a quella del corpo umano e sistemi paragonabili talvolta superiori al cervello humano.

Il concetto di intelligenza artificiale può essere ricondotto alla Babbage-Menabrea-Lovelace, perchè fu proprio in seguito ad una conferenza a Torino, nel 1840, durante la quale Charles Babbage illustrò la sua macchina analítica, che Luigi Federico Menabrea ha scrito un articolo su quanto esposto dallo scienziato, e tradotto da Ada Lovelace.

Dall’incontro di questre tre fu tracciata la prima distinzione fra “meccanici” e “capacità analitiche”, oggi fra hardware e software.1

In 1950 il matematico John McCarthy inventò il termine intelligenza artificiale in modo casuale, e insieme ai suoi collaboratori portava avanti dei lavori per scoprire come usare il linguaggio: alle macchine, formare astrazioni e concetti, risolvere problemi ormai riservati all’uomo, e migliorarsi” ma non avevano un termine per definirla.2

Così fu che si inventò questo nome da essere utilizzato per definire ogni operazione compiuta dalle macchine che se fosse svolta da un uomo richiederebbe l’impiego di capacità intellettive.

L’autori Marvin Minsky e Seymour Papert evidenziarono i limiti delle prime reti neurali artificiali da loro realizzate. 3

Secondo il pensiero di Alan Turing, circa la possibilità delle macchine di ragionare come la mente umana, o sia la possibilità di pensare, di avere stati cognitivi, di capire discorsi e domande, lui contestò la tesi secondo cui l’intelligenza umana potesse essere riprodotta all’interno di una macchina programmata.

Ma nella visione di Per Searle: la proprietà principale dell’intelligenza umana non può essere ridotta a semplice esecuzione di compiti di calcolo : “nessun modello puramente formale sarà mai sufficiente in sé per l’intenzionalità, perché le proprietà formali non sono di per sé costitutive di intenzionalità, e non hanno di per sé poteri causali (...)”. Tuttavia l’argomentazione di Searle contro l’intelligenza artificiale è l’esperimento cinese, attraverso il quale si cercò di dimostrare che la sintassi non era condizione sufficiente per la determinazione della semântica 4.

Di contro, altre autori, hanno sostenuto e tuttora sostengono l’imminente arrivo dell’intelligenza artificiale forte. Tra questi, Rauymond Kurzweil, il quale in una delle sue principali opere sostiene che la “singolarità” è molto vicina e che la crescita esponenziale della tecnologia arriverà a superare l’uomo dal punto di vista dell’intelligenza e del ragionamento.


2. Il connessionismo e il cognitivismo

Il connessionismo è un approccio delle scienze cognitive sviluppatosi attorno agli anni’60, in contrapposizione al cognitivismo, che spiega il funzionamento della mente umana attraverso le reti neurali.

La mente, quindi, non è soltanto un computer perchè lavora in maniera molto più complessa grazie a connessioni neuronali così complesse da non poter essere nemmeno descritte e, quindi, neppure riprodotte da un software.

Per il cognitivismo, invece, il processo mediante il quale le informazioni vengono acquisite, trasformate, elaborate è assimilato a quello di un computer che elabora informazioni provenienti dall’esterno, restituendo a sua volta informazioni sotto forma di rappresentazione della conoscenza, organizzata in reti semantiche e cognitive.

In questo senso il connessionismo mette in discussione il postulato fondamentale del cognitivismo, ossia l’analogia tra mente e computer. 5

In effetti, quello che si sta avendo negli ultimi anni, in termini di progresso tecnologico è piuttosto evidente e la dottrina non si è preoccupata soltanto di capire se le macchine sono o possono essere intelligenti ma se anche se sono o possono essere morali.


3. L'intelligenza artificiale nel mondo giuridico – gli obiettivi della ricerca

In questo senso sembra che il passo è breve per sostenere che, se le macchine possono imparare e decidere allora possono anche essere giuridicamente responsabili per le attività che compiono.

Pertanto si osserva che non è sufficiente l’inquadramento appena dal punto di vista fenomenologico e ontologico dell’intelligenza artificiale ma che impone un’indagine sullo status giuridico della stessa.

La legge più recente, in tal senso, è arrivata dal diritto positivo, con la Risoluzione del Parlamento Europeo del 16 febbraio 2017, la “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”, tuttavia il dibattitto risale almeno al 1992 con il famoso saggio di Solum intitolato Legal Personhood for Artificial Intelligences. 6 Da allora, sempre più ci si è confrontati con intelligenze artificiali evolute e ci si è interrogati sulla metodologia più idonea per inquadrare il loro status giuridico.

Lo scopo di questo proggeto sarà di stimolare riflessioni sul status giuridico dela IA, per attribuire ad alcuni tipi di robot.


4. La regolamentazione dei robot – l'oggeto specifico della ricerca

Il forte impulso o necessità di una regolamentazione dei robot, che si estende fino a considerarli autonomi centri di imputazione giuridica, fornisce la necessità della costruzione di una soggettività che tenga conto delle notevoli differenze tra le macchine intelligenti e i più comuni soggetti di diritto, come l’esseri umani, enti, animali.ecc.

La tecnologia ci presenta oggi sistemi robotici che ragionano, che prendono decisioni, che hanno capacità volitiva e forse arrivano anche a riconoscere emozioni. Una sostanziale tripartizione, che nella persona umana si presenta con caratteristiche di inscindibilità, mentre nelle macchine si presenta in modo separato quasi a volerne proprio evidenziare la distanza dal genere umano.7

Queste basilari componenti nella storia del diritto hanno avuto una lunga trattazione, tuttavia oggi si ripresentano come possibili tappe del percorso che ogni studioso bisogna compiere nello studio delle macchine, una volta che sanno sempre più autonome, grazie all’evoluzione tecnologica.

I giuristi hanno già svolto nel corso del tempo un grande sforzo scientifico e teorico per elaborare alcune finzioni giuridiche come per esempio definire la soggettività periferica, come degli enti. Ma oggi, sarà molto importante interrogarsi sul loro status giuridico della IA, limitatamente a quelle che possono definirsi autonome.


5. Intelligenze artificiali del presente e quelle del futuro: cosa aspettare

Dinnanzi al nuovo mondo tecnologico occorre saperne cogliere i tratti e le peculiarità, per ricostituire un quadro normativo armonico, che stia in grado di assicurare la continuità dei valori fondamentali della società e delle principi fondamentale del diritto.

È proprio sulla realtà immaginaria delle intelligenze artificiali completamente autonome che si incontrano le più teorie sulla personalità elettronica e sulla soggettività dei robot.

Curiosamente, dottrine che giungono a conclusioni opposte sulla necessità di un riconoscimento della personalità giuridica alle macchine intelligenti, immaginano di trovarsi al cospetto dell’androide e, se da una parte, quella intelligenza tipicamente umana spinge a favore della soggettivazione, dall’altra, quell eccesso di prossimità rappresenta una vera ragione per la resistenza.

Con queste osservazioni, non si vuole negare l’attuale necessità di un confronto sulla soggettività giuridica delle intelligenze artificiali autonome, che con fiducia nel progresso tecnologico si materializzeranno in un futuro non molto lontano.

La distanza temporale e il dibattito su scenari futuri, si consideri che nel presente già esistono forme di autonomia che distanziano le macchine dalla categoria più tradizionale degli strumenti e che pongono urgenti interrogativi sulla responsabilità dei vari attori, o sia per le azioni e omissioni imputabili ai robot, qualora le cause non possano essere ricondotte a un soggetto umano specifico.

Si pensi, a titolo d’esempio, alla miriade di contributi in materia di cloud computing o di blockchain, che sono tecnologie dalle molteplici facce, e anche molto distanti tra loro. Ebbene, le motivazioni che conducono le Dottrine verso conclusioni talvolta opposte sono spesso da ricercare sul diverso contesto preso ad esame dagli autori.8

Osservare, infatti, una blockchain pubblica oppure una blockchain privata può condurre a conclusioni diametralmente opposte, ad esempio, quando si tratta della loro compatibilità con la disciplina posta a presidio della protezione dei dati personali.


6.Nuove forme di capacità giuridica e nuovi soggetti di diritto

L’esigenza attuale per quanto riguarda il tema, è di capire chi risponde di eventuali danni provocati dalle intelligenze artificiali, quindi, l’aspetto della soggettività, e del riconoscimento di una autonoma sfera giuridica delle stesse.

L’approccio a questa tematica non può considerare la macchina come oggetto o ancora come um “strumento inanimato”, perchè si pongono nuovi interrogativi per il fatto che le intelligenze artificiali sono in grado di compiere attività senza l’assistenza dell’uomo, fino a giungere in futuro ad un’autonomia che potrebbe uguagliarlo o forse superalo.

Un esempio concreto sono le auto a guida autonoma, in antitesi con la regola generale per cui “ogni veicolo in movimento o ogni complesso di veicoli in movimento deve avere un conducente”9, un aspetto non troppo problematico e risolvibile con una modifica normativa.

Tuttavia, altra difficoltà è la questione della responsabilità che può derivare dalla circolazione delle auto a guida autonoma, perchè qui non trovano spazio le categorie della responsabilità civile per la circolazione di veicoli: il guidatore non esiste e tra il proprietario, l’utilizzatore, il fabbricante e il programmatore non è affatto semplice individuare il responsabile 10.

Diviene sempre più complesso determinare il soggetto responsabile del risarcimento. Ma ciò è possibile soltanto nella misura in cui la machina abbia una propria soggettività giuridica.

Se la macchina diventa proprietaria e anche titolare di un patrimonio, può, di conseguenza, assumere doveri e obblighi, come per esempio il pagamento delle tasse o l’assunzione dell’obbligazione risarcitoria, e anche si configurerebbe una posizione di imputabilità autonoma del tutto analoga a quella della persona.

Nonostante l’esigenza di una nuova soggettività sia sempre più presente, va rilevato che gli ordinamenti, che si sono occupati di disciplinare i più vari aspetti della robotica, lo hanno fatto ricorrendo alle tradizionali categorie dell’imputazione delle responsabilità, quindi attribuendole al fabbricante, al proprietario, al possessore e anche all’utilizzatore.

Il passo ora necessario, per un nuovo approccio regolatorio, è capire se, e come, i robot possano essere inquadrati tra i soggetti di diritto.


7.Normativa di base

La Risoluzione del Parlamento europeo del 16 febbraio 2017 afferma che l’evoluzione tecnologica sta presentando modelli difficilmente riconducibili all’agire di esseri umani determinati, per questo motivo alcuni possono difendere la nascita delle “persone elettroniche” e quindi di una imputabilità autonoma riconducibile alle stesse. 11

Nello stesso documento, si invoca anche la necessità di una Carta etica della robotica, tale da assicurare che il percorso avvenga in condizioni tali da preservare la dignità, l’autonomia e l’autodeterminazione dell’uomo e anche suoi diritti fondamentale. 12

La Commissione europea ha fatto proprio questo orientamento nel 2019 con una Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, “per creare fiducia nell’intelligenza artificiale antropocentrica”. 13


8. La Carta etica europea per l'uso dell'intelligenza artificiale

Un primo input europeo per la futura regolamentazione dell’intelligenza artificiale è arrivato attraverso la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti, adottata il 3 dicembre 2018 da parte il della CEPEJ. Questa normativa há il scopo di individuare, attraverso un specifico riferimento alla giustizia, fondamentali linee guida alle quali dovranno attenersi i soggetti pubblici e privati:14

  • A) La necessità di una disciplina autonoma dell’IA;

  • B) La costituzione da parte del Parlamento europeo di una commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA), per un’efficace regolamentazione stessa.

L’obiettivo principale è di generare fiducia verso le intelligenze artificiali mediante la proposta di un impiego etico delle stesse, ma il primo vero stimolo per la strutturazione di una regolamentazione giuridica protrebbe essere, un orientazione verso il rispetto dei diritti fondamentali, la non discriminazione, la trasparenza, l’imparzialità, la correttezza ecc.

Per le persone fisiche, la soggettività, che si acquista al momento della nascita, è sufficiente perché esse siano titolari di diritti e doveri, mentre la capacità giuridica, che è la misura della soggettività, o sia è l’effettiva titolarità di quelle posizioni.

Diversamente avviene per gli enti, per i quali il legislatore ha previsto una disciplina differente, che divengono soggetti giuridici solo quando acquisiscono la personalità giuridica.

Queste prime precisazioni permettono di osservare la netta distinzione tra l’attribuzione della personalità e il semplice riconoscimento dello status di soggetto di diritto. Problema assai diverso, è, invece, quello relativo alla soggettività, ossia all’ampliamento di una autonoma sfera giuridica alle intelligenze artificiali.15

La nozione di soggetto non è fornita esplicitamente dall’ordinamento ma ancora oggi è riconducibile alla definizione classica elaborata da Hans Kelsen nella sua Dottrina pura del diritto: centro unitario di imputazione e quindi titolare di situazioni giuridiche soggettive.16

Una definizione che si limita al dato formale della titolarità di posizioni giuridiche e prescinde totalmente dalla natura (umana) del destinatario di, questa o quella, posizione giuridica garantita o sanzionata dalla norma.

Ciò è sufficiente per non negare alle intelligenze artificiali la possibilità di essere riconosciute soggetti giuridici dalla natura non umana. Sul piano concreto, poi, l’analisi deve basarsi sull’idoneità che queste hanno di assumersi diritti ed obblighi, che, in altri termini significa la loro capacità a partecipare scientemente alla rete sociale.

Questo è il cosiddetto piano dell’essere, che è quello che genera la maggior distanza tra la persona fisica e le intelligenze artificiali, alle quali manca la vera e propria personalità caratteriale.

Allo stato attuale dell’evoluzione tecnologica, nelle macchine intelligenti non sarebbero rintracciabili quelle capacità tipicamente umane di esprimere giudizi ed esercitare discrezionalità nelle proprie azioni.

Invero, non necessariamente, per attribuire uno status giuridico alle intelligenze artificiali, si deve passare attraverso l’analisi di stati psichici e cognitivi mentali. La teoria della finzione e quella della realtà giuridica sono la chiara dimostrazione di strade alternative, laddove, in base alla prima, con una fictio nelle quali si afferma che “tutto è finto nella concezione delle persone giuridiche”.

Putnam, filosofo e matematico statunitense in sua opera “I robot: macchine o vita creata artificialmente?” è stato il primo a ipotizzare la soggettività anche giuridica dei robot basandosi sul fatto che questi potessero avere stati psicologici, senza peraltro, con ciò, voler intendere che fossero dotati di coscienza.17


9. La personalità elettronica dell’intelligenza artificiale

Per imputazione della personalità dell'intteliganza artificiale, si intende la scelta dell’ordinamento di rendere una entità destinataria di diritti e obblighi da cui deriva la legittimazione, intesa come riconosciuta idoneità a compiere atti dispositivi della propria o della altrui sfera giuridica.

Per le intelligenze artificiali, l’elemento dell’imputazione appare, a prima vista, il più semplice da ottenere, in quanto si tratta di una decisione che spetta al legislatore ma le cose non stanno proprio così perché, come sopra detto, il suo naturale prolungamento è la legittimazione, che deve necessariamente basarsi sulla capacità naturale, o sia la capacità di intendere e di volere.

Se è vero che questa è presunta fino a prova contraria da una capacità legale, è anche vero che quella presunzione è possibile perché il genere al quale appartiene il soggetto considerato ne è fisiologicamente dotato.

Negli enti, ove le azioni sono determinate da una sintesi di menti umane, è semplice rilevare quella capacità di intendere e di volere, tuttavia, per le intelligenze artificiali può essere fatto lo stesso discorso con la stessa certezza solo allorquando si considerano forme molto elementari delle stesse, quelle che eseguono istruzioni precise e le cui azioni sono prevedibili.

Prendendo in considerazione forme più evolute di intelligenza artificiale, invece, si tende all’autonomia e all’imprevedibilità delle sue azioni, fino ad escludere che esse siano la proiezione dell’ingegno del programmatore.

Metaforicamente potrebbe affermarsi che gli stadi evolutivi dell’IA rispecchiano parallelamente le fasi dell’evoluzione della persona fisica, caratterizzate da diversi livelli di sviluppo umano psicofisico, il cui apice è il raggiungimento della maggiore età (salvo eccezioni specificamente previste dall’ordinamento).

Seguendo tale parallelismo, non può certo affermarsi che l’attuale livello di sviluppo delle intelligenze artificiali abbia raggiunto capacità di intendere e di volere tale da giustificare quel sostrato necessario al legislatore per riconoscere un’imputabilità (e quindi una legittimazione) come quella tipica delle persone fisiche e delle persone giuridiche.

Potrebbe quindi dichiararsi l’attuale impossibilità di procedere con il riconoscimento dello status di persona elettronica ma questa sarebbe un’ingiustificata sconfitta in quanto basata su una visione della soggettività antropomorfica.

Ci si trova dinnanzi a fenomeni totalmente nuovi, per i quali è necessaria una regolamentazione basata sui reali significati della soggettività che l’analisi del diritto positivo rivela e dai quali si scorge che i fini per i quali l’ordinamento determina i vari elementi della soggettività non sono necessariamente connessi con l’idea di individuo della specie umana.


10. Osservazioni conclusive: temi di ricerca

La conclusione di questo breve progetto, è sulla distinzione tra il presente e il futuro dell’intelligenza artificiale e anche la necessità di regolamentazione.

Il primo versante di questa ricerca riguarda sul’attribuzione della responsabilità patrimoniale della IA per danni, e il secondo punto d’osservazioni, inquadra la personalità elettronica nell’alveo dell’idoneità ad un ampliamento della sfera giuridica.

Sembra che può essere tracciato un unico percorso, per quanto riguarda la stretta connessione tra i due punti di osservazione, così da elaborare nell’ambito di un unico status giuridico dei robot delle forme graduali di personalità elettronica, in base allo stadio di evoluzione e quindi di autonomia dalle intelligenze artificiali.

Nello sviluppo di questo percorso non deve, peraltro, adottarsi una visione antropocentrica, bensì devono aversi sempre ben presenti le peculiarità delle macchine candidate al riconoscimento dello suo status.

Lo scopo principale non deve essere appena l’ampliamento della sfera giuridica della macchina, ma l’offerta di una tutela per la controparte humana che tante volte entra in contatto con essa.

10.a) Il diritto: guida dela tecnologia

Il diritto deve regolare la tecnologia, così da condizionarne virtuosamente il funzionamento, ma anche assicurare che l’intervento delle regole giuridiche si concretizzi mediante modalità appropriate che non assumano i contorni di un controllo censorio.

La regolamentazione dell'IA costituisce, in ultima analisi, l’obiettivo cui deve tendere l’ordinamento giuridico al cospetto delle novità immesse dalle evoluzioni tecnologiche.

In questo senso si avverte l’interesse dei giuristi e la rilevanza del compito di definire regole appropriate, perchè l’intelligenza artificiale e le nuove tecnologie avranno un significativo impatto anche sulle regole del diritto privato. I vantaggi sarebbe la possibilità di limitare la responsabilità dei programmatori e degli utilizzatori dei servizi del nuovo potenziale soggetto al fine di promuovere ancora lo sviluppo tecnologico.

Il futuro soggetto, dotato di intelligenza artificiale, potrebbe essere sottoposto a regole che allo stato vigono per gli enti, e forse sarebbe possibile assicurare l’esistenza di una garanzia patrimoniale utile a far fronte a eventuali pretese risarcitorie di terzi.

10.b) Lo smart contract

Nel caso, per esempio dello smart contract in quanto tale non è dunque dotato di intelligenza artificiale e il procedimento automatizzato, allo stato, riguarda soltanto l’esecuzione e non la conclusione del contratto, ma la questione più significativa si pongono per gli smart contracts connessi alla tecnologia blockchain, o sia, le transazioni avvengono su piattaforme informatiche che prendono il posto degli intermediari e assicurano la corretta esecuzione del contratto, concluso attraverso l’incontro tra la proposta e l’accettazione, non possa più essere messa in discussione.

Chi compie una transazione su una piattaforma blockchain non conosce l’altro contraente, il suo affidamento concerne soltanto il funzionamento della piattaforma. In questo senso, si afferma che gli smart contracts sono self-executing.

In realtà, il procedimento non sempre è pienamente automatizzato poiché le informazioni rilevanti per l’esecuzione del contratto vengono fornite da un terzo che viene denominato oracle e l'affifidamento dei contraenti deve pertanto estendersi anche a quest’ultima figura.

Nonostante le incomprensioni e le incongruenze, gli smart contracts avranno un impatto significativo nel mercato, tuttavia, non corrisponde al vero che il codice si sostituirà al diritto; il diritto continuerà certamente ad essere applicabile.

Eventuali falle nei sistemi operativi potrebbero agevolare fraudolente manomissioni da parte di soggetti terzi, che richiederebbero l’applicazione delle norme sulla responsabilità.

Le procedure di esecuzione automatizzata possono comportare un aumento dell’effettività del diritto, con riguardo alle clausole abusive, un esempio sovente menzionato in dottrina riguarda la compensazione pecuniaria alla quale è tenuto il vettore aereo, in caso di ritardo o cancellazione del volo, ai sensi dell’art. 5, par. 3, del Regolamento CE n. 261/2004. Rendendo la tecnologia degli smart contracts obbligatoria per i vettori aerei sarebbe possibile assicurare ai consumatori gli indennizzi in via automatica.

Attualmente, in media solo il 5 per cento dei passeggeri esercita i propri diritti in caso di ritardo o cancellazione del volo. Gli smart contracts potrebbero avere un impatto significativo sui rapporti tra vettori aerei e passeggeri e incidere sulle modalità di erogazione dei servizi.

Da questo punto di vista, si teme che l’aumento di effettività del diritto possa rendere quest’ultimo insostenibile da un punto di vista economico. Se i vettori aerei fossero sistematicamente obbligati al pagamento dell’indennizzo in caso di ritardo o cancellazione del volo, si assisterebbe con tutta probabilità a un incremento significativo del prezzo dei biglietti aerei.

Al di là di questa problematica, occorre rilevare che le nuove tecnologie potrebbero apportare un significativo miglioramento delle norme giuridiche, rendendole più adeguate alla soluzione del caso concreto.

Da un altro angolo di visuale, i problemi relativi alla responsabilità civile investono soprattutto l’applicabilità delle norme relative all’illecito in ipotesi in cui una scelta, che si rivela dannosa, sia stata compiuta in base alle elaborazioni di un algoritmo. Si pongono problemi soprattutto in ordine alla prova della sussistenza degli elementi della responsabilità civile.

Più in generale, sono in discussione le funzioni della responsabilità civile, che dovrebbe continuare a garantire una certa carica deterrente nei confronti dei possibili tortfeasors e, al contempo, rispondere all’esigenza di indennizzare adeguatamente i soggetti danneggiati.

Le nuove tecnologie rendono necessaria l’elaborazione di nuovi parametri legale per attribuire la responsabilità e, posta la diversa gestione del rischio, impongono ai giuristi di ripensare alcune norme concernenti la responsabilità oggettiva.

Non mancano voci critiche in merito alla possibilità di sviluppare parametri adeguati a valutare la condotta dei sistemi operativi autonomi. Il diritto potrebbe assicurare la tutela dei danneggiati mediante normative speciali che prevedono ipotesi di responsabilità oggettiva.

Pur afferendo all’area del diritto privato, il settore dei veicoli a guida autonoma incide certamente su interessi generali poiché, allo stato, riguarda le norme sulla responsabilità civile che trovano più sovente applicazione e concerne interessi economici di notevole rilevanza.

In prospettiva, occorrerà ricercare su nuove forme di responsabilità che coinvolgano maggiormente i produttori delle vetture. Questi ultimi sono infatti i soggetti che immettono i sistemi operativi nel mercato e gestiscono i rischi connessi al funzionamento del software.

Il tema è affrontato a livello globale e, tenuto conto delle principali tesi, si tratterà di decidere se modificare o interpretare diversamente le norme in materia di responsabilità del produttore, oppure se creare un nuovo sistema di responsabilità, in cui i danneggiati dovrebbero essere risarciti da un apposito fondo istituito con contributi erogati dai produttori di veicoli a guida autonoma.


Bibliografia di base

  1. Palmerini, “Robotica” (parte giuridica), in Enciclopedia di bioetica e scienza giuridica, X, ESI, Napoli, 2016, p. 1100 ss.; M. Bassini, L. Liguori, O. Pollicino, “Sistemi di intelligenza artificiale, responsabilità, accountability. Verso nuovi paradigmi?”, in Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di F. Pizzetti, Giappichelli, Torino, 2018, p. 335.

  2. M.G. Losano, “La macchina analitica di Babbage: un fossile che viene dal futuro”, in Diritto dell’informazione e dell’informatica, 2015, n.1, pp. 1-42. Il testo originale “how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves” è tratto da J. McCarthy, M.L. Minsky, N. Rochester, C.E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955, p. 2 (http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf, data di consultazione: 19.11.2022).

  3. Minsky, S. Papert, Perceptrons: An Introduction to Computational Geometry, MIT Press, Cambridge (Ma), 1969.

  4. J.R. Searle, “Minds, Brains and Programs”, in Behavioral and Brain Sciences, n. 3, 1980, pp. 417457 (trad. it., “La mente è un programma?”, in Le scienze, 1990, n. 259, pp. 16-21). Per una chiara illustrazione dell’esperimento della stanza cinese, si veda anche D. Cole, “The Chinese Room Argument”, in Stanford Encyclopedia of Philosophy, Winter 2020 Edition.

  5. Smolensky, Il connessionismo tra simboli e neuroni, trad. it., Marietti, Genova, 1992. S. Stich, Dalla psicologia del senso comune alla scienza cognitiva, trad. it., Il Mulino, Bologna, 1994. J.R. Searle, Mente, cervello, intelligenza, Bompiani, Milano, 1988, p. 64.

  6. Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), https://eurlex.europa.eu/legal-content/IT/ALL/?uri=CELEX%3A52017IP0051; A.C. Amato Mangiameli, “Qualche nuovo s/oggetto”, in A.C. Amato Mangiameli, M.N. Campagnoli, Strategie digitali. #diritto_educazione_tecnologie, Giappichelli, Torino, 2020, pp. 66-68. 14 L.B. Solum, “Legal Personhood for Artificial Intelligences”, in North Carolina Law Review, 70 1992, n. 4.

  7. pensi ai sistemi biometrici facciali di rilevazione delle emozioni, note anche come sentiment machine. Di questi sistemi si fa largo uso in Cina, come strumenti di sorveglianza di massa. Il più recente 2018 si chiama Xue Liang, ossia occhio di falco. Si tratta di un sistema di videosorveglianza di massa che incorpora la tecnologia di riconoscimento facciale e di rilevazione dello stato emozionale; un software di riconoscimento vocale in grado di identificare gli altoparlanti durante le telefonate; e un programma di raccolta del DNA.

  8. Farina, Il cloud computing in ambito sanitario tra security e privacy, Giuffrè, Milano, 2019; M. Farina, “Blockchain e tutela della salute: verso la riorganizzazione dei sistemi sanitari?”, in federalismi.it, 2020, n. 21.

  9. La differenza tra strumenti animati e strumenti inanimati, facenti parte della proprietà. È da attribuire a Aristotele, Politica, BUR, Milano, 2015.

  10. Così recita l’art. 8, comma 1, della La Convenzione di Vienna sulla circolazione stradale del 1968, che disciplina la circolazione stradale internazionale nella maggior parte dei Paesi del mondo, in quanto ad essa si ispirano i codici della strada nazionali. In Italia è l’art. 46, comma 1, del codice della strada che stabilisce: “ai fini delle norme del presente codice, si intendono per veicoli tutte le macchine di qualsiasi specie, che circolano sulle strade guidate dall’uomo”.

    Si vedano, in argomento, A. Albanese, “La responsabilità civile per i danni da circolazione di veicoli ad elevata automazione”, in Riv. Europa e Diritto Privato, 2019, n. 4; U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una ‘responsabilità da algoritmo’?”, in Atti del Convegno 29 novembre 2017-Università per stranieri di Perugia, Giuffrè, Milano, 2017.

  11. Direttiva 2006/42/CE del Parlamento europeo e del Consiglio, del 17 maggio 2006 relativa alle macchine e che modifica la Direttiva 95/16/CE. Si tratta della cosiddetta soggettività ascritticia che è “quella che viene conferita attraverso atti formali da una autorità secondo criteri pratico-funzionali”: G. Taddei Elmi, F. Romano, “Robotica: tra etica e diritto”, in Informatica e diritto, 19 2010, n. 1-2, p. 146.

  12. Sulle problematiche per i diritti delle persone derivanti dallo sviluppo delle tecnologie, già agli inizi degli anni ’90, si espresse Norberto Bobbio auspicando “che la storia conduca al Regno dei diritti dell’uomo anziché al Regno del Grande Fratello”: L’età dei diritti, Einaudi, Torino, 1990, 249; in argomento si veda anche M. Cartabia, “In tema di ‘nuovi’ diritti”, in Scritti in onore di F. Modugno, Editoriale Scientifica, Napoli, 2011, pp. 625-643.

  13. A.C. Amato Mangiameli, “Algoritmi e big data. Dalla carta sulla robotica”, in Rivista di filosofia del diritto, 2019, n.1, pp. 107-124 49 Commissione europea, Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Creare fiducia nell’intelligenza artificiale antropocentrica, consultabile 23.11.2022, https://eur-lex.europa.eu/legalcontent/IT/TXT/?uri=CELEX:52019DC0168.

  14. Consultabile al seguente indirizzo: https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-neisi/1680993348 50 Commissione europea, Libro Bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, consultabile al seguente indirizzo: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligencefeb2020_it.pdf. Commissione speciale sull’intelligenza artificiale in un’era digitale, https://www.europarl.europa.eu/committees /it/aida/home/highlights, costituita con Decisione del Parlamento europeo del 18 giugno 2020, consultabile all’indirizzo: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0162_IT.pdf. Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, COM/2021/206 final, https://eur-lex.europa.eu/legalcontent/IT/TXT/?uri=CELEX:52021PC0206. 54 S. Rodotà, “L’uso umano degli esseri umani”, in MicroMega, 2015, p.121; Robolaw è anche un progetto di ricerca finanziato dalla Commissione europea in materia di robotica.

  15. Si vedano, tra i tanti, P. Moro, “Macchine come noi. Natura e limiti della soggettività robotica”, in U. Ruffolo, (a cura di), L’Intelligenza Artificiale. Il diritto, i diritti, l’etica, Giuffrè, Milano, 2020; Id., “Il problema della ‘personalità elettronica’”, in Journal of Ethics and Legal Technologies, 2 2020, n. 1; G. Teubner, Ibridi ed attanti. Attori collettivi ed enti non umani nella società e nel diritto, Mimesis, Milano, 2015; Id., Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, Edizioni Scientifiche Italiane, Napoli, 2019.

  16. Si veda per riferimento L. Bigliazzi Geri, U. Breccia, F.D. Busnelli, U. Natoli, Diritto Civile, Norme, soggetti e rapporto giuridico, Utet, Torino, 1986, p. 76. 59 Tale definizione, agevolmente riconoscibile, è la principale e più famosa di soggetto giuridico e fu data da Hans Kelsen nella sua Dottrina pura del diritto (trad. it., Einaudi, Torino, 1966), divenendo ben presto la più corrente in dottrina e in giurisprudenza. In argomento si veda anche C.M. Bianca, Diritto Civile, La norma giuridica, i soggetti, Giuffrè, Milano, 1986, p. 137. 60 Si veda C.M. Bianca, op. cit., p. 138. 61 Così anche J. Chipman, Gray, The nature and sources of the law, Roland Ray edition, MacMillan, 1921, nonché L.B. Solum, op. cit., pp. 1231. 62 Si veda L.B. Solum, op. cit., p. 1245. 63 Si veda F. Laurent, Principes de droit civil, I, Gallica, Parigi, 1869, pp. 367 e ss., La teoria della finzione si lega a doppio filo con il nome del Savigny, che in apertura del volume II del suo Sistema del diritto romano attuale (trad. it., Torino, 1868), afferma che il diritto positivo può estendere a soggettività “a qualche altro ente, oltre l’uomo singolo, e così può artificialmente formarsi una persona giuridica”. Otto von Gierke si dedicò a questa tematica nel secondo volume (su 4 volumi in totale) dell’opera intitolata Das deutsche Genossenschaftsrecht, Weidmann, Berlin, 1869-1913. Egli si ispirava alla iuris potrebbe essere concessa la soggettività ai robot non annoverabili nella categoria dei beni mobili e, per la seconda, a quelli dotati di “animo sociale” e “cervello sociale”.

  17. H. Putnam, filosofo e matematico statunitense un sua opera “I robot: macchine o vita creata artificialmente?” (Mente, Linguaggio e Realtà, trad. it., Adelphi, Milano, 1987, pp. 416-438).


Autor

  • Vanessa Massaro

    Doutora (PhD) em Direito pela Università degli Studi di Torino Turim - Itália.Doutorado em Direito, Pessoa e Mercado. Pesquisadora na área do Direito Privado pela Università degli Studi di Torino - Campus CLE. Participação em 2014, 2015 e 2017 no Doutorado Organizado pela União Europeia - Erasmus Mundus e no Doutorado em Direito na Università Degli Studi di Milano. Milão - Itália. Membro do Instituto dos Advogados do Paraná - IAPPR. Curso de aperfeiçoamento em Comparative Private Low na Università Uninettuno-Roma. Curso de Aperfeiçoamento em Direito dos Mercados Financeiros pela Università degli Studi di Milano.Milão - Itália. Pós-graduação em Direito pelo Instituto Brasileiro de Estudos Jurídicos. Formada pela Pontifícia Universidade Católica do Paraná.Contato: [email protected]@gmail.comSite: www.unito.it Home > Studenti > Massaro VanessaDipartimento di Economia e Statistica "Cognetti de Martiis"Home > Personale > Vanessa Massaro. LIVROS DISPONÍVEIS NO SITE DA AMAZON E NO CLUBE DE AUTORES. Público alvo: estudantes de Direito, Economia e Administração de Empresas; operadores do direito e concurseiros.

    Textos publicados pela autora

    Fale com a autora

    Site(s):

Informações sobre o texto

Este texto foi publicado diretamente pela autora. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi.