Verso lo sviluppo di una Intelligenza Artificiale che sia rispettosa di tutti
Assistiamo ad una crescita vertiginosa di applicazioni, dai risultati stupefacenti. Molte sono embedded nei nostri dispositivi digitali: riconoscimento di contenuti multimediali (immagini, canzoni), riconoscimento facciale e vocale, tracciamento degli spostamenti per suggerire percorsi ed eventi nelle città smart, automobili a guida assistita o autonoma, medicina di precisione, personalizzata.
Molti rischi si profilano per la privacy degli utenti: dati personali e privati potrebbero essere utilizzati, o ricostruiti, per alimentare queste applicazioni. Qualora la collezione di dati non sia stata perfettamente confezionata potrebbe non essere rappresentativa della realtà nel suo complesso. In tal caso le applicazioni “imparano” le distorsioni presenti nei dati e replicano e amplificano i pregiudizi con un danno nella società.
Ma non tutto è perduto: sono allo studio nuove tecnologie per verificare l’esistenza di una discriminazione. Si tratta dell’Intelligenza Artificiale Spiegabile, i cui risultati si spiegano in maniera comprensibile. Così possiamo verificare che l’IA non solo sia efficiente e precisa, ma anche corretta e affidabile, basata su principi morali ed etici di cui ci fidiamo.