Quarta puntata – IL FUTURO CHE È GIÀ COMINCIATO: VIAGGIO NELL’INTELLIGENZA ARTIFICIALE
Etica e Intelligenza Artificiale: verso una riflessione razionale sul comportamento delle macchine

L’intelligenza artificiale rappresenta una delle frontiere più complesse e ambigue del pensiero contemporaneo, non solo sul piano etico e giuridico, ma anche su quello teologico. La possibilità di creare entità capaci di apprendere, interagire e prendere decisioni autonome impone una riflessione profonda sulla natura dell’uomo, sulla libertà e sul suo rapporto con il divino.

Le principali implicazioni teologiche dell’AI riguardano il rapporto tra l’essere umano come creatura del divino (o di un principio creatore) e la creatività umana intesa come capacità di inventare e generare; esse includono inoltre la questione del libero arbitrio, la nozione di anima e il rischio di interpretare la tecnologia come strumento di “salvezza” per l’umanità.

In questo senso, la riflessione teologica è chiamata a interrogarsi non solo sui limiti morali dell’uso dell’AI, ma anche sul significato spirituale della creazione artificiale stessa. L’uomo, nel progettare sistemi intelligenti, si trova di fronte al paradosso di essere al tempo stesso creatura e creatore, e ciò solleva interrogativi fondamentali sulla responsabilità, sulla dignità e sulla trascendenza.

Le implicazioni teologiche dell’intelligenza artificiale esulano dall’obiettivo del presente articolo. Si rimanda pertanto agli approfondimenti offerti dalle pubblicazioni di padre Paolo Benanti, presbitero francescano, membro del New Artificial Intelligence Advisory Board delle Nazioni Unite e tra i massimi esperti internazionali in materia di etica e AI, con specifico mandato presso la Pontificia Accademia per la Vita.

L’etica, intesa come disciplina filosofica che indaga il fondamento razionale del bene e del male, si configura oggi come un ambito di riflessione imprescindibile per comprendere e orientare l’evoluzione dell’intelligenza artificiale.

In un contesto in cui le macchine sono progressivamente dotate di capacità decisionali autonome, diviene necessario interrogarsi non solo sul modo in cui l’AI agisce, ma anche sul perché e in base a quali principi essa dovrebbe comportarsi. La questione etica non può, dunque, essere considerata un accessorio della tecnologia, bensì una sua condizione di legittimità e sostenibilità della stessa AI.

L’etica dell’AI come esigenza razionale e deontologica

L’applicazione dell’etica all’intelligenza artificiale implica l’estensione del processo razionale tipico della riflessione morale alla sfera della progettazione algoritmica. L’obiettivo è definire principi deontologici in grado di guidare i sistemi intelligenti nel loro processo decisionale.

Quando, infatti, un’AI determina esiti che incidono direttamente sulla vita delle persone — si pensi all’erogazione di un prestito, alla selezione di un candidato in un processo di assunzione o, in ambito militare, alla scelta di attaccare un bersaglio — diviene indispensabile stabilire un insieme di regole morali condivise che orientino il suo comportamento.

Dal punto di vista giuridico, l’intelligenza artificiale è oggi considerata un prodotto, e come tale soggetta alla normativa sulla responsabilità del produttore. Tuttavia, questa impostazione appare sempre più inadeguata man mano che i sistemi acquisiscono caratteristiche di autonomia decisionale e di autoapprendimento. Ne deriva un vuoto concettuale e normativo che solleva interrogativi fondamentali: può una macchina essere ritenuta responsabile delle proprie azioni? E, parallelamente, in quale misura l’essere umano rimane moralmente e legalmente imputabile delle conseguenze generate da un sistema che egli stesso ha creato, ma non controlla pienamente?

Le principali questioni etiche emergenti

Tra le problematiche più rilevanti legate all’etica dell’intelligenza artificiale, emergono alcune aree di particolare complessità:

  1. Disoccupazione e disuguaglianza economica: l’automazione dei processi produttivi e decisionali può generare nuove forme di esclusione e polarizzazione sociale.
  2. Imitazione dell’uomo: i sistemi che riproducono comportamenti o emozioni umane pongono questioni relative all’autenticità e alla fiducia, ma anche al rischio di manipolazione cognitiva.
  3. Il dilemma morale dell’auto a guida autonoma: di fronte a scenari di collisione inevitabile, quale criterio dovrebbe guidare la macchina nella scelta di chi salvare?
  4. Pregiudizi algoritmici (algorithmic bias): gli algoritmi, riflettendo i dati su cui sono addestrati, possono perpetuare discriminazioni di genere, etnia o classe sociale.
  5. Il dilemma della rinuncia: è eticamente accettabile rinunciare all’uso dell’AI, sapendo che essa può migliorare la qualità della vita, ma anche amplificare disuguaglianze e rischi morali?
  6. Le armi autonome letali: la possibilità che una macchina decida autonomamente di togliere la vita a un essere umano rappresenta uno dei nodi etici e giuridici più controversi del dibattito contemporaneo.

L’Etica delle macchine (machine ethics)

E’ il campo che studia come progettare e programmare le macchine — soprattutto quelle dotate di intelligenza artificiale — in modo che agiscano in modo moralmente corretto o coerente con i valori umani. Ecco alcuni esempi concreti e tipi di dilemmi in etica applicata:

1 Il caso della “Moral Machine”

Un esempio emblematico di esplorazione empirica dei dilemmi etici legati all’AI è rappresentato dal progetto Moral Machine (www.moralmachine.net), sviluppato dal Massachusetts Institute of Technology (MIT).

La piattaforma propone agli utenti una serie di scenari ispirati al dilemma dell’auto a guida autonoma, chiedendo loro di scegliere quale decisione dovrebbe prendere la macchina.

I risultati hanno evidenziato una forte eterogeneità culturale nelle scelte morali: ciò che in un contesto è ritenuto eticamente corretto, in un altro può essere considerato inaccettabile. Tale constatazione dimostra la difficoltà di definire un’etica universale per i sistemi di intelligenza artificiale, rivelando la profonda interconnessione tra tecnologia, cultura e valori morali.

In “L’auto che sapeva troppo”, lo psicologo Jean-François Bonnefon racconta di questo esperimento rivoluzionario che ha catturato l’opinione pubblica sul quello che le auto dovrebbero fare in situazioni in cui non tutti possono essere salvati. Sacrificare i passeggeri per i pedoni? Salvare i bambini invece degli adulti? Uccidere una persona in modo che ne possano sopravvivere tante? 

Bonnefon ha ideato la Moral Machine che ha permesso a milioni di persone, provenienti da oltre 200 paesi e territori, di fare scelte all’interno di scenari di incidenti dettagliati.

Esempio: un’auto a guida autonoma deve decidere come reagire a un incidente inevitabile.

Dilemma etico:

. Salvare il passeggero o i pedoni?

. Dare priorità a chi è più giovane o a chi rispetta le regole della strada?

. Basare la decisione su criteri morali, legali o di probabilità di sopravvivenza?

www,moralmachine.net

2. Intelligenze artificiali in ambito sanitario

Esempio: un algoritmo di triage decide chi curare per primo in un pronto soccorso con risorse limitate.

Dilemma etico:

. Basarsi solo sull’efficacia clinica (chi ha più probabilità di sopravvivere)?

. Oppure considerare l’età, la qualità di vita, o l’uguaglianza nell’accesso alle cure?

 

3. Algoritmi di giustizia e polizia predittiva

Esempio: software che suggeriscono condanne o prevedono il rischio di recidiva.

Dilemma etico:

. Come evitare discriminazioni se i dati storici contengono bias razziali o sociali?

. L’algoritmo deve spiegare le sue decisioni (“AI trasparente”) o può essere una “scatola nera”?

 

4. Selezione automatizzata del personale

Esempio: sistemi di recruiting basati su AI che valutano curriculum e video-colloqui.

Dilemma etico:

.Se il modello è addestrato su dati di successo passati (es. più uomini assunti), può perpetuare disuguaglianze di genere o etnia.

. Come garantire equità algoritmica e diritto alla spiegazione?

 

5. Robot militari o droni autonomi

Esempio: un drone armato che può attaccare un bersaglio senza intervento umano diretto.

Dilemma etico:

. È moralmente accettabile delegare una decisione di vita o di morte a una macchina?

. Chi è responsabile in caso di errore: il programmatore, il comandante o il drone stesso?

 

6. Assistenti sociali o robot di compagnia

Esempio: robot che si prendono cura di anziani o bambini.

Dilemma etico:

. È giusto che una macchina simuli empatia o affetto?

. Si rischia di sostituire relazioni umane autentiche?

 

7. Etica ambientale delle macchine

Esempio: AI che ottimizzano il consumo energetico o la produzione industriale.

Dilemma etico:

. Devono essere progettate per massimizzare il profitto o la sostenibilità ambientale?

. Chi decide le priorità?

Di chi sono le Responsabilità?

La risposta, in realtà, è complessa perché coinvolge tre livelli di responsabilità intrecciati:

il programmatore del codice SW, la società o organizzazione per cui lavora il programmatore SW  e il legislatore / sistema normativo.

1) Il programmatore SW: responsabilità tecnica ed etica diretta

Il programmatore SW è la prima figura che traduce in codice le scelte etiche e logiche. Ha quindi una responsabilità individuale:

  • scrive il codice che implementa comportamenti, limiti e decisioni dell’AI;
  • può introdurre (volontariamente o meno) bias o scelte etiche implicite;
  • deve rispettare linee guida etiche e legali dell’organizzazione per cui lavora e delle normative in vigore.

Quindi, il programmatore non definisce da solo l’etica della macchina, ma è il punto di contatto operativo tra valori umani e comportamento algoritmico.

2) L’azienda o l’organizzazione: responsabilità sistemica

La società o ente per cui lavora il programmatore SW ha la responsabilità primaria di definire:

  • le policy etiche e di governance AI,
  • le linee guida interne (es. rispetto della privacy, trasparenza, non discriminazione),
  • i modelli di controllo e auditing.

Molte organizzazioni oggi hanno veri e propri comitati etici per l’AI o AI Ethics Boards che stabiliscono cosa è accettabile per i propri sistemi.

Quindi l’etica “di sistema” dell’AI è una scelta strategica aziendale, non solo tecnica.

3) Il legislatore: responsabilità normativa e sociale

Infine, il legislatore (nazionale o sovranazionale) definisce i limiti legali ed etici minimi.

Esempi:

  • EU: AI Act dell’Unione Europea (in vigore dal 2024): stabilisce regole su sicurezza, trasparenza ed usi vietati.
  • USA: vari framework etici e linee guida federali.
  • norme sulla protezione dei dati (GDPR), non discriminazione, e responsabilità civile per danni da AI.

Quindi il legislatore stabilisce i confini entro cui programmatore e azienda devono operare.

Quindi nessuno dei tre agisce da solo: l’etica delle macchine nasce da un equilibrio tra valori umani, responsabilità aziendali e norme pubbliche.

Vediamo alcuni esempi su come si intrecciano le responsabilità etiche tra programmatore SW, azienda e legislatore.

ESEMPIO 1: un sistema di AI per diagnosi mediche

Immagina un’AI progettata per analizzare radiografie e segnalare possibili tumori ai medici.

1) Il programmatore SW

Ruolo: traduce l’algoritmo in codice e gestisce i dati su cui il modello si addestra.

Responsabilità etiche:

  • Assicurarsi che i dati di addestramento siano rappresentativi (non solo immagini di un gruppo etnico o di un’età specifica).
  • Implementare trasparenza (es. registrare decisioni o probabilità, non solo “positivo/negativo”).
  • Segnalare eventuali bias scoperti durante lo sviluppo.

Possibile Errore: un programmatore che non verifica i dati rischia di creare un sistema che funziona bene su uomini, ma sbaglia spesso con donne o bambini.

Quindi: il programmatore non decide la politica etica, ma ne è il primo garante tecnico.

2) L’azienda ospedaliera o la software house

Ruolo: definisce il contesto d’uso e le regole operative.

Responsabilità etiche e pratiche:

  • Definire come e quando l’AI può essere usata (solo come supporto, non come sostituto del medico).
  • Garantire che il sistema sia validato clinicamente.
  • Informare i pazienti che una parte automatizzata contribuisce alla diagnosi.
  • Stabilire chi risponde in caso di errore (il medico o l’azienda?).

Possibile Errore: se l’azienda pubblicizza il software come “più affidabile dei medici”, viola la trasparenza e aumenta il rischio etico e legale.

L’etica aziendale qui decide quanto potere concedere all’AI e quanto mantenere umano il controllo.

3) Il legislatore

Ruolo: stabilisce il quadro entro cui il sistema deve operare.

Strumenti:

  • Il Regolamento europeo sull’AI (AI Act) classifica l’AI sanitaria come “ad alto rischio”, imponendo:

. trasparenza sugli algoritmi,

. tracciabilità dei dati,

. controlli umani obbligatori,

. audit periodici.

  • Il GDPR tutela i dati medici (che sono “sensibili”), imponendo limiti severi su raccolta e uso.

Il legislatore quindi non dice come scrivere il codice, ma impone principi e responsabilità legali se qualcosa va storto.

Se uno di questi tre “anelli” manca o ignora l’etica, l’intero sistema può diventare pericoloso (anche se “funziona” tecnicamente).

ESEMPIO 2: vediamo ora un esempio di sistema AI nel settore giudiziario

Immagina un’AI progettata per stimare la probabilità di recidiva (cioè il rischio che un imputato commetta nuovi reati).

Negli Stati Uniti e in altri paesi sono già stati usati sistemi del genere, come COMPAS.

1) Il programmatore SW

Ruolo: sviluppa o addestra il modello di previsione sulla base dei dati storici di reati, pene e recidive.

Responsabilità etiche:

  • Controllare la qualità e la neutralità dei dati:

se i dati storici riflettono discriminazioni (ad esempio maggiori arresti in certe comunità), l’AI “impara” quel pregiudizio.

  • Garantire trasparenza del modello (spiegare perché assegna un certo punteggio).
  • Prevedere controlli umani obbligatori: l’AI non può “decidere” la pena.

Possibile Errore: un algoritmo che predice “alta recidiva” solo perché l’imputato vive in una zona povera.

Il programmatore SW non stabilisce la giustizia, ma decide le regole matematiche con cui il sistema interpreta la realtà — e questo è già un atto etico.

2) L’istituzione giudiziaria o azienda fornitrice

Ruolo: stabilisce come e per cosa l’AI verrà usata.

Responsabilità etiche:

  • Decidere se l’AI è solo uno strumento di supporto (aiuta il giudice) o ha un’influenza diretta sulla decisione.
  • Definire criteri di trasparenza verso l’imputato: la persona deve poter sapere perché l’AI ha prodotto un certo risultato.
  • Implementare verifiche periodiche di equità e accuratezza.

Possibile Errore: usare l’AI come base principale della sentenza, senza che il giudice capisca come è arrivata al suo verdetto.

3) Il legislatore

Ruolo: fissare limiti e principi fondamentali per proteggere i diritti umani.

Strumenti normativi:

  • EU: AI Act europeo → i sistemi di “social scoring” o predizione giudiziaria sono classificati come “ad altissimo rischio” o vietati.
  • EU: Carta dei diritti fondamentali dell’UE → tutela il diritto a un processo equo e a decisioni motivate da esseri umani.
  • USA: In alcuni Stati si discute l’obbligo di audit etici e di trasparenza algoritmica per l’uso dell’AI nei tribunali.

Il legislatore stabilisce che l’AI può assistere, ma non sostituire il giudice.

 

Riflessione finale

In ambito giudiziario, la domanda chiave non è solo “l’AI funziona?”, ma: “A chi spetta la responsabilità morale e legale di un errore?”

  • Se il giudice segue ciecamente il punteggio → si riduce l’autonomia umana.
  • Se l’AI è troppo opaca → si viola il diritto alla motivazione della sentenza.
  • Se i dati riflettono pregiudizi sociali → si amplifica l’ingiustizia invece di correggerla.

L’etica dell’AI giudiziaria è quindi un equilibrio tra efficienza, trasparenza e diritti umani.

 

Gli approcci etici applicati alle macchine

Gli approcci etici applicati alle macchine intelligenti sono in continua evoluzione e rappresentano oggi uno dei temi più discussi nell’ambito dell’intelligenza artificiale. La sfida principale consiste nel tradurre principi morali umani in criteri operativi che un sistema automatizzato possa comprendere e rispettare. Tra i principali orientamenti si distinguono quattro prospettive fondamentali: deontologica, consequenzialista, delle virtù e ibrida.

Di seguito uno schema sintetico:

 

Verso una governance etica dell’AI

L’elaborazione di un quadro etico condiviso per l’AI non deve essere concepita soltanto come un insieme di limiti o divieti, ma come una forma di governance positiva, finalizzata a promuovere un uso consapevole e responsabile della tecnologia.

Le principali linee guida internazionali — in particolare quelle elaborate dalla Commissione Europea e dall’UNESCO — convergono su alcuni principi fondamentali:

  • Trasparenza: la comprensibilità dei processi decisionali algoritmici.
  • Responsabilità: la tracciabilità delle azioni e la chiara individuazione dei soggetti responsabili.
  • Equità e non discriminazione: la prevenzione di bias nei dati e nei modelli.
  • Beneficenza: l’orientamento dell’AI al benessere collettivo e al progresso umano.

 

Conclusione

Le decisioni che prendiamo oggi sono tutti passi verso un futuro per il quale potremmo non essere preparati.

Questa considerazione sottolinea la necessità di affrontare l’etica dell’intelligenza artificiale non in modo reattivo, ma proattivo. L’AI non è soltanto una sfida tecnologica, ma una questione filosofica e politica che interpella il concetto stesso di responsabilità morale nell’era digitale.

Immaginare un robot posto di fronte alla scelta tra ferire un essere umano o non agire, consentendo così che un altro subisca un danno, significa riconoscere che la tecnologia non è neutrale: essa riflette e amplifica le nostre scelte di valore.

Solo attraverso un dialogo interdisciplinare e una consapevolezza etica diffusa sarà possibile costruire un futuro in cui l’intelligenza artificiale agisca non contro, ma con l’uomo, nel rispetto della sua dignità e della sua libertà.

L’etica dell’AI non vive nel codice, ma nell’ecosistema di scelte umane, aziendali e normative che la circondano.

 

APPENDICE: Approfondimenti e Riferimenti

(1) Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina, 2017.

(2) Luciano Floridi: Che cos’è (veramente) l’INTELLIGENZA ARTIFICIALE? | AI in Orbita – FILOSOFIA con Luciano Floridi

(3) Luciano Floridi: Infosfera: idee per capire il digitale. Lectio di Luciano Floridi

(4) Paolo Benanti, Homo Faber. Il lavoro tra tecnica e dignità umana, EDB, 2018.

(5) Paolo Benanti:TED: Intelligenza Artificiale: chi insegnerà l’etica alle macchine? | Paolo Benanti | TEDxTreviso

(6) Paolo Benanti: TED Algor-Ethics: Developing a Language for a Human-Centered AI | Padre Benanti | TEDxRoma

(7) The Car That Knew Too Much. Can a Machine Be Moral? Jean-Francois Bonnefon

(8) Diritto penale e intelligenza artificiale. «Nuovi scenari» — Balbi G., Esposito A., Manacorda S.

Riferimenti normativi e istituzionali

(9) EU AI Act (2024): impone livelli di rischio e requisiti di trasparenza e sicurezza.

(10) UNESCO Recommendation on the Ethics of AI (2021): primo trattato etico globale sull’AI.

(11) USA:  NIST AI Risk Management Framework: linee guida pratiche per aziende e istituzioni.

Nicola Lanzolla, curioso per natura. Coerente per scelta

 

Articoli correlati

Pin It on Pinterest

Share This