Intelligenza Artificiale: sarà una buona idea delegare anche le questioni morali?

Se, come già per certi versi sta accadendo, le intelligenze artificiali arriveranno a permeare in modo sempre più massiccio ogni aspetto della nostra vita, magari qualche lacuna nelle responsabilità potrebbe non essere così una cattiva idea.

Tutto è iniziato con un saggio misterioso in uno strano taccuino. Il misterioso saggio “Il divario di responsabilità: attribuire la responsabilità per le azioni dell’apprendimento di automi” di Andreas Matthias è stato pubblicato nel 2004. Ha messo in evidenza un nuovo problema con i sistemi AI basati sull’apprendimento automatico contemporaneo.

intelligenza artificiale morale
Adobe Stock

Quando le macchine con la capacità di imparare dalle loro interazioni con il mondo esterno sono apparse per la prima volta, sembrava ragionevole tenere responsabile il creatore o l’utente della macchina se la macchina ha danneggiato quancuno o qualcosa.

Nelle parole di Matthias, l’apprendimento di automi era in grado di agire in modo da poter non prevedere né prevedere razionalmente. Inoltre, erano in grado di svolgere questi compiti senza alcuna supervisione o controllo degli umani. Ritenere le persone responsabili del comportamento dei computer non sarebbe più etico o moralmente giusto. Il problema, secondo Matthias, è se fermare l’emergere di automi di apprendimento o accettare le “lacune” di responsabilità che seguono il loro uso.

Intelligenza artificiale e morale: un dilemma aperto

Nel 2023, la situazione di Matthias non è più solo teorica. È un problema reale e funzionale. Numerosi risultati negativi sono stati causati, almeno in parte, dai sistemi AI. Questi risultati includono decessi per auto a guida autonoma e pregiudizi nell’occupazione e nella condanna con sede in AI. Non sorprende che la quantità di letteratura accademica e politica sulle “lacune di responsabilità” sia esplosa. Gli avvocati e i politici hanno lavorato duramente per chiarire e colmare il divario osservato da Matthias. Il suo pezzo è stato menzionato oltre 650 volte, un numero notevole per un documento filosofico.

La premessa che la maggior parte dei partecipanti alla discussione sul divario di responsabilità è interessante poiché suggerisce che la responsabilità umana è una cosa positiva. Le persone dovrebbero essere ritenute responsabili delle loro attività e dovrebbero accettare la responsabilità quando qualcosa va storto. D’altra parte, sarebbe indesiderabile se i sistemi di intelligenza artificiale causassero la distruzione globale senza che nessuno accettasse la colpa o ne fosse ritenuto responsabile. Pertanto, dobbiamo trovare un mezzo per colmare o eliminare le lacune di responsabilità, aumentando la porta agli attuali standard di responsabilità legale o morale. Oppure attuare requisiti di responsabilità più forti per l’uso dei sistemi di intelligenza artificiale.

Ma forse essere responsabili non è sempre una buona cosa. Forse sarebbe meglio accettare determinate lacune di responsabilità, come aveva inizialmente suggerito Matthias.

La responsabilità umana e il ruolo della tecnologia

È importante tenere a mente due aspetti della nostra realtà. Innanzitutto, c’è un lato negativo delle nostre pratiche di responsabilità (ad esempio, le nostre convenzioni e le nostre routine di colpire, criticare e punire l’un l’altro). In secondo luogo, ci sono molte “scelte tragiche” nella nostra vita quotidiana. O ancora circostanze in cui dobbiamo decidere tra due corsi di condotta moralmente equivalenti o quasi equivalenti. Entrambe le caratteristiche hanno effetti sulla discussione sul divario di responsabilità.

Sul lato negativo della responsabilità, un’intera scuola di pensiero ha sviluppato che mette in discussione i nostri approcci alla responsabilità. Specialmente quando si tratta di giustizia penale. Una delle figure chiave in questa scuola di pensiero è il professor Gregg Caruso della State University of New York. Nel nostro discorso ha detto che il sistema carcerario è “pieno di anni di dolore, povertà e svantaggio sociale” se “guardi da vicino”.

Sfortunatamente, dato che la giustizia retributiva e il principio del libero arbitrio sono le basi delle nostre attuali pratiche di responsabilità, non si fa molto per curare questo dolore. Questo metodo “vede l’attività criminale come in gran parte una questione di responsabilità umana e termina l’indagine proprio nel momento in cui dovrebbe iniziare”, come ha detto Caruso. Potremmo “implementare procedure e politiche più compassionevoli e di successo” se avessimo rinunciato al nostro sistema giudiziario retributivo. Caruso ha anche sottolineato che i nostri sentimenti di colpa, o quali filosofi chiamano “atteggiamenti reattivi”, come il risentimento, la rabbia, l’indignazione e la colpa, sono spesso inefficaci e dannosi per le nostre relazioni interpersonali. Questo perché “danno origine a difensivi o offensivi difensivi o offensivi reazioni piuttosto che riforme e riconciliazione. “

Le decisioni morali

Il carattere tragico delle nostre decisioni morali è stato sottolineato da un certo numero di pensatori. Uno dei sostenitori più persuasivi e ben parlati della teoria è Lisa Tessman della Binghamton University. Descrive una serie di decisioni morali che dobbiamo prendere nella vita nei suoi libri, insufficienza morale e quando fare la cosa giusta è impossibile, ognuna delle quali richiede un compromesso inevitabile e stimolante tra ragioni morali contrastanti. Ecco un’illustrazione facile: prendi ad esempio il ruolo di un genitore di due bambini. Sono entrambi ugualmente degni nei tuoi occhi e nel tuo cuore, secondo te, e li adori entrambi. Tuttavia, dato come sono le cose nel mondo, dovrai spesso scegliere tra loro, andando alla partita di calcio di un bambino mentre salti il recital per pianoforte dell’altro (o alcune variazioni su questo tema).

Essere costretti a scegliere tra fattori morali incommensurabili e/o ugualmente legittimi è ciò che significa affrontare una decisione triste. Quanto è frequente questo evento? L’intuizione morale spesso ci fa sì che “declino che siamo necessari per fare qualcosa, come difendere una persona cara, anche se non siamo in grado di farlo, o svolgere entrambe due responsabilità morali non negoziabili”, come lo ha descritto Tessman per me. Tessman considera “l’esistenza umana piena di tragedia” perché “le persone sono vulnerabili alla perdita di ciò che apprezziamo veramente e non possiamo sostituire … e siamo spesso in circostanze in cui non possiamo proteggere gli altri da perdite simili”. Questo perché l’esperienza è così comune.

Accettare le responabilità umane dietro le intelligenze artificiali

Abbiamo giustificazione per accettare determinate lacune di responsabilità a causa di questi due fatti: tale responsabilità ha un lato oscuro e che le sfortunate decisioni sono frequenti. Per essere più specifici, abbiamo buone ragioni per favorire la delega alle macchine, anche se ciò significa che nessuno può essere ritenuto responsabile dei risultati, in qualsiasi contesto decisionale in cui:

  1. Affrontiamo una scelta tragica
  2. Identifichiamo un responsabile umano in tale contesto rischiare inutili caprai espiatori
  3. Il sistema AI sarebbe in grado di prendere gli stessi tipi di decisioni di un decisore umano.

Per dirla in un altro modo: lasciarli responsabili ha ripercussioni sociali e psicologiche di rilievo. Imporre tali commissioni è eticamente sbagliato in almeno alcune situazioni. Perché non dovremmo farlo se possiamo esternalizzare il processo decisionale in circostanze specifiche per i computer e quelle macchine non sono palesemente “peggio” degli umani nel farlo?

Registrandoti, acconsenti al nostro accordo utente, che include le clausole di esonero da arbitrato e azione di classe, nonché la nostra Informativa sulla privacy e la dichiarazione dei cookie. Acconsenti anche a ricevere comunicazioni dai cablaggi sul marketing e sul tuo account. Sei sempre libero di annullare l’iscrizione.

Il problema psicologico

Il concetto potrebbe non essere psicologicamente fattibile, secondo gli altri. Nessuno lo acquisterà. La necessità di cercare una vittima umana è troppo potente. Tuttavia, alcuni dati empirici preliminari indicano che gli individui potrebbero essere aperti all’idea. Questo fenomeno è stato studiato per qualche tempo da Matthias UHL, uno psicologo comportamentale presso l’Università tecnica di Ingelstadt in Germania. Anche se “gli etici lo considerano un errore di categoria”, afferma che il pubblico in generale non ha “alcun problema” nel mettere la responsabilità nelle mani dei sistemi di intelligenza artificiale. Inoltre, lui e i suoi colleghi hanno scoperto in una recente ricerca che gli umani potrebbero ridurre le loro responsabilità dando scelte ai robot.

Le persone potrebbero “spostare un compito con effetti potenzialmente dannosi per un’altra persona a un computer o eseguirlo da sole”, secondo lo studio. Secondo UHL e i suoi colleghi, “Se il computer ha fallito, l’individuo che è stato ferito ha penalizzato i delegatori umani meno severamente se non si sono sbagliati”.

Se hanno assegnato il dovere a un’altra persona, lo stesso risultato non è certo avvenuto. UHL afferma che l’esperimento “sembra essere la prova che gli individui potrebbero essere in grado di ridurre con successo la responsabilità morale percepita attraverso la delega ai robot”, anche se è attento a sottolineare che questa conclusione richiede una convalida più approfondita.

Ma ci sono due problemi con questa obiezione. In primo luogo, anche se esiste la responsabilità per la scelta di delegare, è distinto dall’obbligo di distribuire l’attrezzatura medica. L’allocazione specifica che il sistema AI sceglie non può essere tenuta contro il delegatore. Vi è una netta riduzione del potenziale per il dolore e la punizione ingiustificati a seguito della scelta di allocazione. Ridotto, se non abolito, è moralmente ragionevole colpa.

In secondo luogo, l’argomento non riesce a sottolineare. L’affermazione centrale dell’argomento è che ci sono situazioni specifiche in cui tenere le persone “responsabili” per la scelta è ingiusta e immorale. In determinate circostanze, la delega dovrebbe essere un’opzione.

Un piano inclinato molto pericoloso

Ultimo ma non meno importante, alcuni sostengono che accettare le lacune di responsabilità in questa situazione sarebbe l’inizio di un piano inclinato. Che dire degli attori disonesti che cercano di sfuggire alla responsabilità per le loro azioni? Esiste una vera possibilità che gli attori aziendali e politici “riciclano” il loro dovere morale e legale attraverso i robot, come alcuni lo hanno definito. Sì, possiamo già vedere questo accadere. Prendi le negazioni di responsabilità di Facebook per informazioni dannose o offensive che gli utenti incontrano sulla loro piattaforma.

Quando sono interrogati a riguardo, faranno uno sforzo per risolvere il problema, ma affermano che è la colpa dell’algoritmo. Ma non hanno scelto di sviluppare e fare soldi da una piattaforma con una certa regolamentazione algoritmica? Dovrebbero essere ritenuti responsabili per questo, no? Inoltre, l’esperimento di UHL non implica che esiste un vero rischio che gli individui non lo facciano?

Questa sembra la critica più significativa dell’idea. Le lacune di responsabilità non sono sempre una buona cosa. Anche se possono essere in determinate situazioni. Forse molte. Trovare l’equilibrio corretto sarà impegnativo, ma la possibilità di delega ingiustificata non dovrebbe essere utilizzata come giustificazione per il rifiuto di fornirlo. Non sostengo l’outsourcing indiscriminato o diffuso ai robot. Piuttosto, dovremmo essere cauti e selettivi nella selezione delle situazioni appropriate.

Sarebbe saggio valutare e analizzare periodicamente la nostra decisione di esternalizzare. Tuttavia, ciò non significa che non dovresti mai esternalizzare. Inoltre non giustifica il riempimento di tutte le aree di servizio. Abbiamo ancora ragioni per supportarli in alcune situazioni nonostante il carattere triste di molte decisioni morali e la fretta di in eccesso.

Impostazioni privacy