Il problema della sicurezza tra informatica e diritto: una prospettiva emergente dalle 'Smart Cars
Autore | Federico Costantini - Pier Luca Montessoro |
Carica | Ricercatore presso il Dipartimento di Scienze Giuridiche,Università degli Studi di Udine - Professore ordinario di Sistemi di elaborazione presso il Dipartimento Politecnico di Ingegneria e Architettura, Università degli Studi di Udine |
Pagine | 95-114 |
Il problema della sicurezza tra informatica e diritto:
una prospettiva emergente dalle “Smart Cars”
FEDE RIC O COSTA NTI NI, PI ER LUC A MONT ESS ORO∗
SOMM ARI O:1. Premessa. Il tema dell’intelligenza artificiale – 2. L’esperimento: un
“pretest” concernente la sicurezza nei veicoli a guida autonoma – 3. Introduzione al
problema della sicurezza nei sistemi comprensivi di agenti artificiali – 4. Il concetto
di sicurezza nella “età dell’incertezza” – 5. Verso una prospettiva “ecosistemica” nella
Information Security? – 6. Proposta di un modello “complesso” di sicurezza – 7.
Conclusione: possibili esiti del modello e future ricerche
1. PRE MES SA. IL TE MA DE LL’INTELLIGENZA ARTIF ICI ALE
Tra i temi più discussi in questi tempi nell’ambito delle nuove tecnolo-
gie vi è indubbiamente quello dell’intelligenza artificiale, sebbene esso ab-
bia una storia ormai consolidata in più di ottanta anni di ricerche1. Gli
straordinari progressi verificatisi recentementein tale settore non solo rendo-
no urgenti questioni già prospettate in precedenza, ma pongono anche pro-
blemi che prima si ritenevano secondari o comunque marginali. Accanto
all’“autocoscienza” dei sistemi artificiali2– argomento ormai classico – vi è
una maggiore sensibilità rispetto alla sempre più diffusa presenza di robot in
∗F.Costantini è r icercatorepresso il Dipartimento di Scienze Giuridiche, Università degli
Studi di Udine; P.L. Montessoro è professore ordinario di Sistemi di elaborazione presso il
Dipartimento Politecnico di Ingegneria e Architettura, Università degli Studi di Udine.
1Sulla formulazione della “macchina di Turing”, cfr. A.M. T URING,Computing Machi-
nery and Intelligence, in “Mind”, 1950, n. 236, pp. 433-460; sulla declinazione del problema
dell’autoapprendimento nelle macchine, cfr. in par ticolare i capitoli IX e X dell’opera più
celebre di Wiener, N. WIENE R,Cybernetics: Or Control and Communication in the Animal
and the Machine, II ed., New York, MIT Press, 1961 (1948). Sugli aspetti storici dell’intel-
ligenza artificiale, cfr. P. MCCORDU CK,Machines who Think. A Personal Inquiry into the
History and Prospects of Artificial Intelligence, 1979, trad. it. Storia dell’intelligenza artificiale:
gli uomini, le idee, le prospettive, Padova, Muzzio, 1987. Sulla storia degli automi, cfr. M.G.
LOSAN O,Storie di automi: dalla Grecia classica alla Belle Époque, Torino, Einaudi, 1990.
2Sulla distinzione tra intelligenza artificiale “forte”, capace di stati cognitivi e di pensiero
autonomo, e “debole”, dotata semplicemente di capacità di calcolo rafforzate, cfr. J.R. SEAR-
LE,Minds, Brains, and Programs, in “Behavioral and Brain Sciences”, 1980, n. 3, pp. 417-457.
Per una definizione di intelligenza artificiale che considera due dimensioni (il pensiero o l’a-
zione) coniugate con riferimento a due criteri differenti (il paragone con l’essere umano o
una concezione autonoma da esso), cfr. G. SA RTOR,Corso d’informatica giuridica, Torino,
Giappichelli, 2008, p. 212.
Edizioni Scientifiche Italiane ISSN 0390-0975
96 Informatica e diritto /Studi e ricerche
diversi settori economici, che avviene unitamente allo sviluppo di tecnologie
di informazione e comunicazione come la “Internet of Things” (IoT)3.
In questa sede si intende prendere in considerazione tale argomento ten-
tando per un verso di evitare narrazioni pseudoletterarie – futuristiche, fu-
turologiche o fantascientifiche – e per converso di rendere una sterile descri-
zione di tecnologie attualmente disponibili che, per forza di cose, saranno
superate in breve tempo.
L’osservazione da cui si intende prendere avvio è che gli agenti artificiali
sono connotati da un comportamento che è, in qualche modo, autonomo4.
Di conseguenza si può dire che le loro azioni sono, almeno in una certa qual
misura, imprevedibili. In generale, tra le questioni emergenti da tali rilievi5,
alcune riguardano i criteri della condotta di tali dispositivi, altre attengono al-
la loro sicurezza. Per quanto concerne il primo aspetto, sono cruciali i fonda-
menti filosofici delle regole che vengono stabilite, la loro formalizzazione in
algoritmi e la valutazione delle conseguenze della loro eventuale violazione.
Per quanto riguarda il secondo aspetto, è importante la preservazione della
loro integrità, la protezione dell’ambiente in cui operano e la tutela degli al-
tri agenti con cui essi interagiscono, ovviamente con particolare riferimento
agli esseri umani.
Tali aspetti sono inestricabilmente collegati, come emerge in modo par-
ticolarmente evidente dall’introduzione delle “Smart Cars” nel settore dei
3Con particolare riferimento ai sistemi che combinano intelligenza artificiale e connes-
sione, “Cyber-Physical Systems” (CPS), cfr. Rapporto al Parlamento Europeo, Science and
Technology Options Assessment (STOA) Panel, Scientific Foresight Study. Ethical Aspects of
Cyber-Physical Systems, 2016.
4L’autonomianei dispositivi elettronici viene definita come «The extent to which a robot
can sense its environment, plan based on that environment, and act upon that environment
with the intent of reaching some task-specific goal (either given to or created by the robot)
without external control» J.M. BEER, A.D. FISK, W.A. ROGER S,Toward a Framework for
Levels of Robot Autonomy in Human-RobotInteraction, in “Journal of Human-Robot Interac-
tion”, vol. 3, 2014, n. 2, pp. 74-99, spec. p. 77. Nel contributo si proponeuna classificazione
di dieci diversi livelli di autonomia.
5Di recente è di particolare interesse la Risoluzione del Parlamento europeo del 16 feb-
braio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile
sulla robotica (2015/2103(INL)). In essa si propone una definizione di “Robot intelligenti”
sulla base delle seguenti caratteristiche: «la capacità di acquisire autonomia grazie a sensori
e/o mediante lo scambio di dati con il proprio ambiente (interconnettività) e l’analisi di tali
dati; la capacità di apprendimento attraverso l’esperienza e l’interazione; la formadel suppor-
to fisico del robot; la capacità di adeguare il suo comportamento e le sue azioni all’ambiente»
ivi, p. 19.
ISSN 0390-0975 Edizioni Scientifiche Italiane
Per continuare a leggere
RICHIEDI UNA PROVA