Bias e Discriminazione
GAIA si impegna a identificare e correggere la presenza di difetti e bias nei dati e negli algoritmi, che possono portare a decisioni discriminatorie, garantendo che le soluzioni di IA siano accurate ed eque, e non perpetuino pregiudizi esistenti.
Privacy e Protezione dei Dati
GAIA affronta la sfida di sviluppare soluzioni IA che rispettino la privacy dell’utente, garantendo al contempo che i dati siano protetti da usi impropri o accessi non autorizzati.
Trasparenza e Spiegabilità
Molti sistemi di IA operano come “scatole nere“, rendendo difficile per gli utenti comprendere come vengono prese le decisioni. GAIA opera nel rendere gli algoritmi più trasparenti e comprensibili, affinché gli utenti possano avere fiducia nelle decisioni prese dalle macchine comprendendone i criteri che ne sono alla base.
Sostenibilità umana e ambientale
GAIA fornisce valutazioni della sostenibilità sociale, umana e ambientale, di un sistema di IA. Ciò significa valutare l’impatto del sistema di IA e il suo utilizzo in un ambiente di lavoro sui lavoratori, sul rapporto tra lavoratori e datori di lavoro e su competenze (a rischio o nuove richieste). Significa valutare la quantità di energia utilizzata dal sistema, i relativi costi economici e le emissioni di carbonio. GAIA fornisce tali valutazioni nonchè misure alternative d’avanguardia per gestione e produzione sostenibile dei sistemi di IA.
FRIA - Fundamental Rights impact Assessment
GAIA fornisce una valutazione dell’impatto dei sistemi di IA sui diritti fondamentali, garantendo così una componente chiave della conformità legale: attraverso FRIA, GAIA aiuta le organizzazioni a prendere le loro decisioni nella piena consapevolezza dei potenziali impatti negativi dei loro sistemi di IA previsti e dei modi per mitigarli al fine di proteggere i diritti fondamentali.