Per la nascita di una scienza etica

0 4
Avatar for ilnegro
4 years ago

L'etica, come tutte le discipline filosofico-umanistiche è nata e si è evoluta con un approccio non scientifico.
Alcune di queste discipline stanno, da lungo tempo, tentando di trasformarsi in scienza, non senza grandissime difficoltà.
Per fare questo si cerca di appoggiarsi alla matematica, alla statistica, alla teoria dei giochi, etc.
Spesso i risultati sono deludenti, a mio parere perchè si cerca spesso una scorciatoia verso la scienza: utilizzare strumenti (teorie, analisi matematiche, ect.) considerati scientifici, applicandoli a teorie o per analizzare fatti, senza prima aver definito le basi della scienza a cui si vogliono applicare, ottenendo risultati molto aleatori e comunque non scientifici.
Per prima cosa, quindi, bisognerebbe definire le basi di una nuova scienza, solo in un secondo tempo sarà possibile, su quelle basi, applicare metodi e verificare teorie.
Difficilmente alle discipline umanistiche è possibile applicare le stesse basi scientifiche che "funzionano" in discipline come la matematica, la fisica, etc.
Per quanto riguarda l'etica credo che nessuno ci abbia fino ad ora mai nemmeno provato.
Si parla, certo, da lungo tempo di etica della scienza, intendendo dire come la ricerca scientifica debba essere confinata all'interno di una certa etica.
Ma il problema di fondo è creare prima una scienza etica, che stabilisca in modo scientifico cosa è eticamente accettabile e cosa no, in base a quali criteri, e qual è l'ambito in cui tutto ciò si applica.
L'etica, fino ad oggi, si è sempre basata su convinzioni religiose, su prassi consolidate, sul sentire comune, sulle opinioni di vari pensatori, filosofi, scienziati, etc., tutto ciò, ovviamente non ha nulla di scientifico.

Ma il problema di trasformare l'etica in una scienza etica è un problema reale?
Purtroppo o, forse, per fortuna è un problema reale e anche molto pressante.
Il comportamento etico dell'individuo, all'interno delle nostre società, è normato attraverso leggi, consuetudini, credenze religiose e l'interpretazione riguardo al fatto che l'individuo si sia o non si sia comportato eticamente avviene attraverso i sistemi giuridici, l'approvazione o disapprovazione della maggioranza delle persone, tutto ciò avviene solitamente ex-post.
In altre parole ad ogni individuo viene proposto un insieme di regole, che siano leggi o usanze o dettati religiosi, che definiscono, in modo piuttosto vago e interpretabile, come debba comportarsi.
La società interviene quindi per sanzionare eventuali comportamenti non etici solo dopo che questi sono avvenuti: il singolo decide autonomamente quali opzioni scegliere e se attenersi o meno ad un certo codice etico.
Un essere umano ha, alla prova dei fatti, la possibilità di prendere decisioni anche se non possiede nessun codice etico.
Nel prossimo futuro (o forse sarebbe meglio dire già ora?), esisteranno sistemi robotizzati che dovranno prendere delle decisioni (anche) in base a principi e norme etiche che, però, per la natura stessa del software che deve prendere queste decisioni, dovranno sottostare a criteri rigidamente scientifici.
I robot dovranno avere prima un codice etico in base al quale prendere delle decisioni, e, solo dopo, potranno prenderle.
In caso contrario non saprebbero letteralmente cosa fare.
Questa etica, di cui i robot dovranno fare uso per forza di cose, ad oggi non esite ancora: questo potrebbe rivelarsi un enorme problema.
A livello 'umano' non esiste un'etica condivisa, ogni stato, religione, fino ad arrivare ad ogni singola persona, offrono sfumature etiche differenti.
Una definizione scientifica di etica dovrà oppure no tenere conto di differenze tra nazione e nazione, tra religione e religione, tra singoli individui?
Chi deciderà come si dovrà comportare un robot di fronte ad una scelta che abbia una componente etica?
L'azienda che lo ha prodotto?
Dovrà seguire regole stabilite in modo differente da ogni singola nazione?
Dovrà seguire regole decise da ogni singolo essere umano che ne ha il possesso?
In quest'ultimo caso, se un robot svolge le sue attività all'interno di una comunità (gruppo, azienda, famiglia, etc.), chi decide quale comportamento, in determinate situazioni è etico oppure no?
Chi ama la fantascienza starà già pensando: "Ci sono le 3 (4) leggi di Asimov!"
L'etica di Asimon, cioè il codice comportamentale a cui all'interno del quale si devono muovere i robot nell'universo ideato da Asimov, sono principi etici 'umani': hanno come presupposto che il robot sia un essere senziente, in grado di fare valutazioni etiche specifiche in base a principi generali.
Il nostro mondo reale sta per essere invaso da robot che non sono per nulla senzienti o che lo sono solo in modo molto poco 'umano' e men che meno sono in grado di astrazione e contestualizzazione, definire principi etici astratti per una pressa computerizzata, un'automobile a guida robotizzata o un falciaerba automatico non ha alcun senso.

La questione è complessa e di non facile soluzione, le implicazioni sono anche stringenti dal punto di vista economico, visto che, fino a che una macchina agisce comunque sotto la supervisione di un essere umano si dà per scontato che le conseguenze di un comportamento non etico della macchina siano responsabilità dell'essere umano stesso.
Nel momento in cui una macchina prenderà delle decisioni senza la supervisione di un essere umano, di chi saranno le responsabilità?
Della ditta che l'ha prodotta?
Della persona che l'ha acquistata e poi messa in funzione?
Può accettare, questa persona, di farsi carico di azioni di una macchina che segue un'etica che non è sotto il suo diretto controllo, ma decisa dall'azienda che la produce e/o dalla nazione che ne ha autorizzato l'uso?

Si possono fare molti esempi, tanto per chiarire il carattere pragmatico che deve assumere la scienza etica, su alcuni robot già in uso o che verranno commercializzati a breve.

Ammettiamo che si decida che ogni singolo stato possa definire la propria etica:
Potranno essere venduti dei robot tosaerba in nazioni con un'etica buddista, visto che, se sprovvisti di un sensore che riconosca la presenza di animali sulla linea di taglio e di un braccio meccanico che li sposti in una zona sicura, la macchina, di sua inziativa, tagliando l'erba, potrebbe uccidere vermi e insetti presenti sul suo percorso?
Potrà circolare in certi paesi arabi un'automobile che non ha un sensore che riconosca la presenza di una donna sola a bordo e si rifiuti di mettersi in moto?
Ipotizziamo che un'automobile a guida robotica abbia un suo schema di valutazione etica che renda possibile decidere se frenare di colpo per evitare di investire chi attraversa la strada o proseguire tenendo conto anche dei possibili danni alle persone presenti nel suo abitacolo.
Supponiamo che ad attraversare la strada sia: un pollo, un gatto, un cane, una mucca, un essere umano.
Il rischio accettabile per chi si trova nell'abitacolo dovrebbe dipendere dal valore che ogni nazione o ogni singolo individuo, in base alle sue personali convinzioni, darebbe sull'eventuale morte del soggetto investito.
Un'auto in un paese o con un proprietario induista, cattolico, scintoista potrebbero avere scale di valori differenti.
Potranno circolare, ognuna col proprio codice etico, auto con schemi non congruenti in altri paesi?

Ammettiamo che a decidere il codice etico di comportamento sia l'azienda costruttrice:
Terrà conto delle varie sensibilità dei vari paesi e delle varie religioni?
Sarà costretta l'azienda a produrre un'infinità di modelli comportamentali?
Produrrà un unico modello e poi dovrà rinunciare a commercializzarlo in paesi che abbiano codici etici così differenti da non accettare i comportamenti dei propri robot?
Se l'etica viene decisa dall'azienda costruttrice, in caso di danni a terzi, chi si farà carico delle conseguenze di scelte eticamente discutibili?
Il proprietario potrebbe rivalersi sull'azienda costruttrice asserendo di non condividere la scelta del robot e di non averne potuto influenzare le decisioni?

Ammettiamo che a decidere il codice etico sia l'acquirente:
Le aziende saranno in grado di produrre robot con codici comportamentali così flessibili da adattarsi a qualunque richiesta del cliente?
Qualunque richiesta del cliente sarebbe accettabile e, se non lo fosse, chi deciderebbe se il codice etico deciso dal singolo sia accettabile per la collettività?
Ad esempio, lasciato alla scelta del singolo, il criterio di decisione di un'automobile robotizzata potrebbe essere che in un caso dubbio, l'incolumità delle persone a bordo del mezzo sia da ritenere sempre preponderante, quindi, anche nel caso di un possibile graffio ad una mano del passeggero dell'auto a confronto con la morte di una scolaresca di 30 bambini sia da preferire comunque la scelta che evita il graffio e compie una strage.
Con ogni probabilità sia le aziende, sia gli acquirenti, per non doversi far carico di una serie imponderabile di conseguenze, cercheranno in qualche modo di ottenere delle norme, per lo meno a livello di stati, se non addirittura a livello sovranazionale, ma chi si farà carico di definire la scienza etica che è necessaria per definire quali comportamenti sono etici e quali no, in modo puntuale e specifico e non in modo generico e aleatorio?

La differenza non è da poco: è abissale.
Altri esempi.
Norma etica generale: Non uccidere.
Scienza etica: L'auto deve frenare avendo il 40% di probabilità di finire contro un muro uccidendo chi si trova nell'auto o cercare di evitare l'ostacolo con una probabilità del 60% di uccidere un pedone? Si dovranno stabilire i criteri adatti ad un algoritmo ben definito che permetta al robot di compiere una scelta etica. E non è per nulla facile.

Abbiamo parlato molto di auto, che sono anche il tipo di robotizzazione più vicina e al contempo che presenta enormi aspetti etici da affrontare.
Facciamo altri esempi ancora più complessi.
Viene dato spesso per scontato che un'auto a guida robotizzata rispetti al 100% il codice della strada, si fermi agli stop, non superi i limiti di velocità etc. etc.
Questo comportamento é sempre eticamente accettabile?
La risposta non è scontata, tutt'altro.
Ammettiamo che un'auto a guida robotizzata si avvicini ad un incrocio viaggiando a velocità codice e, con il semaforo verde, prima di impegnare l'incrocio veda sopraggiungere a forte velocità un'auto guidata da un essere umano che non è più in grado di fermarsi al semaforo rosso e che, quindi, si scontrerà con quella con guida robotica con gravi conseguenze per tutti gli esseri umani a bordo dei due mezzi.
Ammettiamo che l'auto robotica non possa frenare, se non coinvolgendo anche le auto che seguono, nè sterzare a destra o sinistra.
In questo caso specifico, sarebbe utile che l'auto fosse libera di decidere, in via del tutto eccezzionale, di accelerare anche se questo comporterà, ovviamente, il non rispetto dei limiti di velocità.
Vediamo quindi che, anche una norma che sembrerebbe assolutamente logica, come il pieno rispetto del codice della strada, potrebbe rivelarsi insidiosa se non vengono valutati in modo corretto i diversi pesi di comportamenti anche non etici, in linea generale, ma opportuni, in casi particolari.

Altri esempi possono essere relativi alla difesa domotica della propria casa.
In quali casi un sistema domotico potrebbe decidere di sparare, attivare una scossa elettrica potenzialmente dannosa, etc. per evitare un'effrazione in assenza dei proprietari? Eticamente è accettabile che un robot uccida un essere umano ancorchè ladro?
Chi avrebbe la responsabilità di una simile azione?
Cosa e chi sarebbe responsabile di un eventuale errore, cioè di danni gravi o della morte di qualcuno che cerca di entrare in una proprietà privata per motivi differenti dal furto, magari anche a tutela dei proprietari e/o delle loro proprietà?

A mio parere queste problematiche alquanto complesse (i miei sono solo esempi, ovviamente sono una enormità i problemi etici correlati alla robotizzazione) potrebbero essere un grande aiuto per l'umanità.
La prima conseguenza positiva è che, dovendo formalizzare cosa è eticamente accettabile e cosa no per un robot, volenti o nolenti, come essere umani, dovremo fare i conti con un'etica a cui diciamo di ispirarci altamente aleatoria e che, nascondendosi dietro a principi altissimi, si concretizza poi in azioni spesso molto lontane dall'etica 'teorica' dietro cui si nascondono.
La seconda conseguenza potrebbe essere quella di definire un'etica comune, più oggettiva e condivisa, che porti l'umanità finalmente al superamento dei codici etici religiosi e delle usanze, prese per buone perchè ataviche e non sempre perchè giustificate e giustificabili.

Resources

  1. https://steempeak.com/ita/@ilnegro/per-la-nascita-di-una-scienza-etica

2
$ 0.00
Avatar for ilnegro
4 years ago

Comments