Blog

Arrivano i primi “limiti etici” per l’uso dell’intelligenza artificiale nell’auto

  • April 08, 2020
  • admin

L’intelligenza artificiale è un motore globale di crescita e progresso. I consulenti di gestione PwC, per esempio, calcolano che, entro il 2030, l’IA farà aumentare il PIL del 26% in Cina, del 14% in Nord America e di circa il 10% in Europa. Questa tecnologia può contribuire a superare le sfide, come la necessità di intraprendere azioni a favore del clima e ottimizzare i risultati in molte aree: trasporti, medicina, agricoltura. Analizzando grandi volumi di dati, gli algoritmi sono in grado di ragionare e prendere decisioni. Molto prima dell’introduzione delle normative UE, Bosch ha preso la decisione di affrontare attivamente le questioni etiche sollevate dall’utilizzo dell’IA. Il fondamento morale di questo processo è dato dai valori sanciti nella Dichiarazione Universale dei Diritti Umani.

Il codice etico di Bosch per l’IA prevede che l’intelligenza artificiale non prenda decisioni relative alle persone senza che l’uomo ne abbia il controllo. L’intelligenza artificiale deve, anzi, essere uno strumento al servizio dell’uomo. Sono descritti tre modelli possibili. Tutti hanno in comune quanto segue: nei prodotti basati sull’IA sviluppati da Bosch, gli umani devono avere il controllo su qualsiasi decisione presa dalla tecnologia. Nel primo modello (l’uomo ha il controllo), l’intelligenza artificiale è puramente un ausilio, per esempio come nei sistemi di supporto alle decisioni in cui l’IA può aiutare le persone a classificare gli oggetti o gli organismi. Nel secondo modello (l’uomo può intervenire) un sistema intelligente prende in modo autonomo decisioni che l’uomo può, tuttavia, annullare in qualsiasi momento. Ne sono un esempio la guida parzialmente autonoma in cui il guidatore umano può intervenire direttamente nella decisione, per esempio, di un sistema di parcheggio assistito. Il terzo modello (l’uomo supervisiona) riguarda la tecnologia intelligente, come i sistemi di frenata di emergenza. Durante la fase di sviluppo di queste tecnologie, gli esperti stabiliscono determinati parametri su cui si basano le decisioni dell’IA. L’uomo non può dunque intervenire nel processo di decisione stesso. A posteriori, gli ingegneri verificano se il sistema ha agito entro i parametri definiti che, se necessario, possono essere modificati.

Share