ARTICLE
1 December 2025

Quale Impatto Dell'Intelligenza Artificiale Sui Profili Di Responsabilità Penale?

Studio Legale Giovanni Paolo Accinni e Associati

Contributor

Based in Milan and Rome, Giovanni Paolo Accinni e Associati is a leading law firm highly specialized in corporate and white collar crimes. Founded in 1998, the firm has developed outstanding experience in all “white collar crimes” and supports clients both in court proceedings and in extrajudicial contexts. The firm combines in-depth analysis of criminal law with judicial defence and its team assists national and international clients.

Il progresso tecnico della robotica segna l'entrata nell'era dell'intelligenza artificiale, la scoperta del fuoco del XXI secolo, prettamente caratterizzata dall'evoluzione fulminea, e, soprattutto, dal senso di disorientamento che ha travolto (e che ancora travolge) tutti coloro che attivamente o passivamente vi entrano in contatto.
Italy Technology

Errare humanum fuit

1. PREMESSE E PRIME DEFINIZIONI

Il progresso tecnico della robotica segna l'entrata nell'era dell'intelligenza artificiale, la scoperta del fuoco del XXI secolo, prettamente caratterizzata dall'evoluzione fulminea, e, soprattutto, dal senso di disorientamento che ha travolto (e che ancora travolge) tutti coloro che attivamente o passivamente vi entrano in contatto. Popperianamente, si sta assistendo alla distruzione del tempio del sapere, che, fino ad ora edificato su certezze cristallizzate ed immobilizzate, sta adesso vivendo una ri-costruzione per il tramite di un pensiero scientifico "vivo", ossia che si corregge e si trasforma di continuo.

Rosenberg avrebbe forse parlato di "scatola nera", criticando la statica della innovazione1, di cui nulla si conosce e per la quale si provano sentimenti contrastanti che oscillano fra il brio del nuovo e dell'utile alla vita di ciascuno ed il senso di agitazione e di inadeguatezza che ne derivano, fino all'espressione di una rivoluzione epidemica e a quella di una prossima frattura antropologica. Privi (ed anche privati) di strumenti definitori adeguati alla comprensione del nodo problematico - e pur tralasciandosi una, pur potenzialmente interessante disamina sulla concezione della intellegentia2- diremo che rientra nella intelligenza artificiale la capacità (dei sistemi tecnologici) di agire adattandosi ad una serie indefinita ed infinita di elementi circostanziali, assumendosi decisioni (sottoforma di output impattanti) e massimizzandosi esponenzialmente il risultato atteso3.

Il passo successivo è quello di circoscrivere i modelli che rientrano in una siffatta definizione per tenersi a mente che «as soon as it works, no one calls it AI anymore4».

Quel che ancor qualche anno fa erano contegni5 umani (da intendersi in lato senso: non solo gesti meccanici, ma espressioni e condotte con sfumature più profonde, tipicamente umanizzate ed umanizzanti), oggi "si tengono" con paradigmi connessionisti e probabilistici per il tramite delle macchine artificiali6.

Trattando dei c.d. machine learning, il cui tratto distintivo è l'essere unpredictable by design7 (imprevedibili e spiazzanti nelle esternalizzazioni derivate8 ) quello che interessa inserire nel vetrino portaoggetti da vagliare ai fini ultimi della comprensione del problema penale pare così presentare tre caratteristiche specifiche: autonomia, automazione ed opacità9.

La conseguenza è il senso di manchevolezza e di inidoneità a tratti da cui resta colto il giurista, forzato ad un bilanciamento fra il mondo fuori dalle aule di giustizia, quello del progresso tecnico e scientifico in piena evoluzione da assecondarsi e controllare (da lontano) ed i fatti interni a quelle stanze dove ancora vige il principio della ponderazione, dello studio lento ed attento degli atti.

La domanda "Can machines learn?" ha subìto una dilatazione di significante ed oggi si ripresenta come: "Can machines do wrongs?".

Questa la prospettiva da cui muovere per il penalista. L'analisi dell'impatto che le nuove forme di agire dis-umano o meta-umano potrebbero avere in termini di imputazione della responsabilità penale; premettendosi che l'agire dis-umano si fonda sul «sul mancato dominio di un fatto offensivo effettivamente dominabile10».

Il dibattito accademico si interroga così su chi – e a quali condizioni – debba rispondere penalmente degli errori o danni causati da sistemi di IA avanzati.

Fin dalle prime riflessioni, è emerso che l'ordinamento penale è intrinsecamente antropocentrico: quale autore del reato presuppone un essere umano dotato di volontà, coscienza e capacità di colpevolezza11. Il che porta ad una esclusione della concepibilità in capo alla macchina di una soggettività penale autonoma, tanto da potersi dire che machina delinquere et puniri non potest. Si svilisce perciò il senso dell'intelligenza artificiale, che, per quanto irrompente nella quotidianità, è non solamente inferiore nel sentire, percepire, desiderare e volere, ma apparentemente instrumentum fra i pollici opponibili degli umani. L'uomo parrebbe fautore di tutto quello che lo circonda, eppure, contraddizione fattuale che resta quella in una vita concepita come Onlife12, proprio l'essere umano è in balìa delle emozioni, degli altri uomini e delle macchine. 'Condivide con' questi le azioni, gli illeciti, ma non la responsabilità penale. Sarebbe infatti impensabile riconoscere una qualsiasi forma di responsabilità per l'evento lesivo accorso ad un "contegno" – esteriorizzato artificialmente- di un dispositivo insensibile e non senziente13.

Un ostacolo insormontabile quello del principio di colpevolezza, di personalità, della presunzione di innocenza: 'l'uomo è misura di tutte le cose', anche di quelle non sensienti, ed è risposta attualmente del problema che tange l'individuazione del responsabile per gli esiti dannosi che sono prodotti dalla tecnologia14.

Fatti dannosi e lesivi che nel reale potrebbero avere come fautore unico proprio un sistema tecnologico, porrebbero il legislatore di fronte ad un vuoto di tutela che è noto con l'inglesismo: responsibility gap15, strettamente correlato all'opaco funzionamento e modo di essere intrinseco dell'algoritmo, paralizzando il giudizio di imputazione sul piano penale.

In tale prospettiva introduttiva pare utile delineare (anzitutto) il quadro normativo di riferimento – sia sovranazionale che nazionale – relativo all'uso dell'IA, per poi concentrare l'analisi sui profili penalistici: separatamente, la posizione dell'utilizzatore di sistemi di IA e quella del produttore/sviluppatore, considerandosi sia le ipotesi di condotte dolose che quelle colpose.

To view the full article please click here.

Footnotes

1 N. Rosenberg, Inside the black box: technology and economics, 2004. V. p. 141.

2 B. Fragrasso, Intelligenza artificiale e responsabilita penale. Principi e categorie alla prova di una tecnologia 'imprevedibile', Torino, 2025. V. p. 19. Come puo parlarsi di intelligenza artificiale, stante le innumerevoli concezioni di intelletibile a cui poter aderire? Intelligenza e la capacita di emulare un comportamento umano o di agire razionalmente (human vs rational intelligence)? Intelligenza e da correlarsi ad un prodotto del pensiero o basterebbe la esternazione di comportamento nell'ambiente esterno?

3 Ibidem. Questo e il risultato dato dalla adesione al c.d. standard model, cioe l'agire razionalmente conseguendo obiettivi determinati e specifici pur se in ambienti complessi ed incerti.

4 Ivi. Cit. p. 27

5 Contegno /kon'teɲo/ s. m. [der. del lat. continere "contenere"]. - 1. [modo con cui una persona sta o si atteggia] ≈ atteggiamento, comportamento, condotta, maniere, modo di fare. 2. [assol., comportamento serio o serioso] ≈ compostezza, decoro, riserbo, ritegno, serieta. Cosi nella Treccani https://www.treccani.it/vocabolario/contegno_(Sinonimi-e-Contrari)/.

6 A che prezzo poi, quello e un nodo che non riguarda questo contributo. Certo e, che per quanto ci si provi rendere un algoritmo 'person in Recht', il prodotto finale e una depersonalizzazione del lavoratore e con risultati di dubbia qualita. In un provvedimento del tribunale di Milano, di condanna di un avvocato che ha usato i sistemi di IA per redigere contributi, si legge: [della] scarsa qualita degli scritti difensivi e dalla totale mancanza di pertinenza o rilevanza degli argomenti utilizzati; l'atto e infatti composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum ed, in ogni caso, tutte manifestamente infondate.

7 Ibidem. V. pp. 332 e ss. Non e una connotazione patologica-funzionale della tecnologia, ma e quello che i disegnatori si auspicavano di ottenere in termini di prestazioni massime ed efficienza creativa. Sulla c.d. black box, v. p. 56 e ss.

8 Ibidem, v. p. 33. Insomma, la impossibilita di poter applicare il broccardo latino "cum hoc, ergo propter hoc".

9 B. Fragrasso, Intelligenza artificiale. Op. cit. v. Pp. 47 e ss. Si considerano ai fini della digressione sui profili della responsabilita penale, solo i meccanismi di cui sopra, in quanto autonomi, nel senso piu immediato del termine, e quindi non suscettibili di alcuna forma di controllo dal lato umano sui processi di output.

10 A. Fiorella, Responsabilita penale (voce), in Enc. Dir., vol XXXIX, 1988, p. 1289. In questo caso c'e la inadeguatezza non solo perche il dominio sui fatti non c'e, ma anche perche 'l'autore' del reato e una macchina.

11 F. Basile, B. Fragasso, Intelligenza artificiale e diritto penale: prove tecniche di convivenza, in Dirittodidifesa.eu, 2023 – sul principio "machina delinquere non potest" e antropocentrismo del diritto penale.

12 F. Basile, Diritto Penale e intelligenza artificiale. "Nuovi scenari", Giuliano Balbi - Federica De Simone Andreana Esposito - Stefano Manacorda (a cura di), 2022. V. p. 12.

13 Res terza, fra soggetto (che agisce) ed oggetto (che ha agito). Position Paper – Responsabilita penale e intelligenza artificiale, Associazione Italiana Giovani Penalisti, luglio 2025, p. 4 – sull'assenza di soggettivita penale autonoma delle IA e la ricostruzione della responsabilita umana mediata.

14 Costituzione della Repubblica Italiana, art. 27, commi 1-2-3.

15 Recentemente si vedano le acute riflessioni di A. Cappellini, Reati colposi e tecnologie dell'intelligenza artificiale, in G. Balbi e al. (a cura di), Diritto penale e intelligenza artificiale. "Nuovi Scenari", Giappichelli, 2023.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More