[Linuxtrent] Re: OT: Auto con guida automatica

  • From: "Marco Ciampa" <dmarc-noreply@xxxxxxxxxxxxx> (Redacted sender "ciampix" for DMARC)
  • To: linuxtrent@xxxxxxxxxxxxx
  • Date: Tue, 25 Oct 2016 10:49:32 +0200

On Tue, Oct 25, 2016 at 08:23:24AM +0200, Roberto Resoli wrote:

Il 24/10/2016 17:23, Franz Ll ha scritto:
Tesla è stata coinvolta in due incidenti mortali, uno negli USA e uno in
Cina, entrambi con dinamiche molto simili. In entrambi i casi sembra che
le telecamere dell'autopilot non abbiano visto uno camion che ha
eseguito manovre errate e che era sfortunatamente dello stesso identico
colore del cielo. Mi pare che in entrambi i casi ci fosse un cielo
nuvoloso, ma luminoso, quasi bianco e i camion fossero bianchi. In
entrami i casi non ci sono segni di frenata, per cui evidentemente o i
guidatori erano distratti o anche loro sono stati confusi dalla
somiglianza del rimorchio del camion con lo sfondo del cielo.

Si, ma sinceramente il problema per me non è quanto il sistema sia
sofisticato ed esente da errori. Semplicemente ci sono cose che non
hanno una soluzione tecnologica, anzi, che non hanno alcuna soluzione.

L'etica delle scelte pertiene all'uomo, non alle procedure, più o meno
automatiche o intelligenti.

L'ABS interviene dopo che tu hai frenato, impedendoti di bloccare le
ruote.

Se tu stai per ammazzare qualcuno in macchina io _vorrei_ che l'auto mi
impedisse di farlo, anche a costo della mia vita perché se sono stato
abbastanza stupido da non frenare quando dovevo è giusto che l'auto lo
faccia per me e mi impedisca di usare l'auto come arma.

Il discorso sulle scelte etiche viene affrontato da diversi studi in
questo periodo, uno dei più importanti è quello del MIT chiamato
moralmachine http://moralmachine.mit.edu/

Ossimoro IMHO.

Io sono assolutamente d'accordo con Morozov, quando sostiene:

"The most likely outcome of seeking to impose ethics on algorithms will
be the algorithmization of ethics."

cioè:

"Il risultato più probabile di imporre l'etica agli algoritmi sarà
l'algoritmizzazione dell'etica"

Ed in ciò il male dov'è? L'ABS dov'è che sbaglia se siamo tutti daccordo
sul fatto che bloccare le ruote in frenata è male?

C'è gente che sostiene di frenare meglio dell'ABS, peccato che nessuno
sia mai riuscito a riprodurre tale "perfomance" né su strada né in pista.

È ovvio che non saranno le macchine a decidere come comportarsi in caso
di dilemma etico, la scelta sarà stata fatta a priori dai programmatori
e prima ancora dal legislatore. Non è che ogni macchina può avere
comportamenti diversi. Lo studio del MIT serve proprio a determinare
quali comportamenti sono considerati più etici dalle persone.

E' proprio questo che non accetto,

Non accetti il legislatore? Fammi capire...

una scelta a priori che trasforma uno strumento in qualcosa che prevarica
la mia volontà e la mia libertà di scegliere, anche sbagliando. 

No tu non puoi investire uno per tua libertà. Ora puoi farlo perché non
ci sono strumenti tecnologici per impedirtelo ma se si trova il modo di
impedirtelo non vedo nessuna ragione (e nessun appello valido alla
"libertà") per non impedirti di farlo.

Il problema è proprio "Non è che ogni
macchina può avere comportamenti diversi." l'individuo invece, e
fortunatamente, può avere comportamenti diversi, soprattutto quando è
messo di fronte al "trolley problem", un dilemma etico che non ha soluzioni.

Che è un caso da manuale appunto perché lo troverai solo su un manuale o
su statistiche del tutto trascurabili. È la stessa argomentazione che
usano contro i vaccini. Uno su milioni fa male, ma risparmia la vita con
una percentuale oltre il 99%. Qui il dilemma etico semplicemente non
esiste.

Ed in ogni caso si può impostare la macchina in modo da non decidere in
casi dubbi e quindi la responsabilità è tutta tua...

E' esattamente per questo che uso il sw libero e mi sento di proporlo
agli altri, e quindi non è affatto vero che questa discussione sia off
topic. L'etica e il rispetto della persona e delle sue prerogative
vengono prima di tutto, e sono la ragione stessa, per me, del disquisire
in tecnologie.

L'unica tecnologia che non è utile impedire di far male ad un uomo è un'arma.
Il blocco non avrebbe senso per esempio su un fucile militare.

Non vogliamo la "licenza di uccidere" come la possibilità di comperare
armi liberamente come fanno negli USA. Però vogliamo la licenza di
uccidere con l'auto???

--


Marco Ciampa

I know a joke about UDP, but you might not get it.

------------------------

 GNU/Linux User #78271
 FSFE fellow #364

------------------------

-- 
Per iscriversi  (o disiscriversi), basta spedire un  messaggio con OGGETTO
"subscribe" (o "unsubscribe") a mailto:linuxtrent-request@xxxxxxxxxxxxx


Other related posts: