Materiale
Informativo
1 mese fa
1 consensi
Segnala Segnala come rilevante - Segnalato rilevante da 0 persone.

Anche le celebrate tre leggi della robotica:

  1. Un robot non può <arrecare danno a un essere umano> né può permettere che, a causa del suo mancato intervento, <un essere umano riceva danno>.
  2. Un robot deve obbedire agli <ordini impartiti dagli esseri umani>, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere <la propria esistenza>, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

presentano dei punti deboli, come quelli evidenziati, perché le più disparate interpretazioni su cosa sia:

  • il danno a un essere umano
  • l’ordine impartito da essere umano
  • l’esistenza di un robot

hanno permesso allo stesso Isaac Asimov di drammatizzare i suoi racconti sui robot e ad altri narratori come Jack Williamson di creare paradossi, come ne “Gli Umanoidi”:

… su un pianeta di nome Wing IV, Warren Mansfield, stanco delle guerre e dall'uso distorto della tecnologia, crea gli Umanoidi, androidi col compito di "Servire e obbedire e difendere l'uomo dal male". Le buone parole però vengono prese troppo alla lettera dai robot che finiscono per vietare all'uomo, su ogni pianeta dove si stabiliscono, quasi ogni forma di attività, dato che quasi tutto può essere potenzialmente pericoloso …

Mi chiedo e chiedo se la intelligenza artificiale generativa potrebbe sopperire a tali ambiguità legislative, a favore dell’etica e giustizia robotica.

avatar Giulio Beltrami 1 mese fa
1 consensi
Segnala Segnala come rilevante - Segnalato rilevante da 0 persone.