AI Fairness 360: IBM e l'etica delle AI | Paolo Benanti

AI Fairness 360: IBM e l'etica delle AI | Paolo Benanti

AI Equità 360: IBM e l'etica delle AI

1 ottobre 2018

La nostra specie affronta continuamente una domanda fondamentale: valori personali trasmettendo alla prossima generazione?

L'esperienza concordano nel dire che aiuta i bambini in giovane età a crescere come bene e male, in grado di distinguere il bene dal male.

Questi bambini hanno le possibilità di affrontare un senso di giustizia, equità e pensiero imparziale, e hanno superato la capacità di trattare relazioni significative e fiduciose. In questo momento cruciale della nostra storia, i miei ricordi stanno trasmettendo alla prossima generazione sono ancora una volta sotto i riflettori.
Ma questa volta stai cercando di capire come i sistemi di intelligenza artificiale. vediamoil tentativo di IBM di rispondere a questa sfida.

"I valori adottati per i sistemi di oggi sono rifletteranno nelle prese di questi sistemi per un decennio o più". Con questa consapevolezza, IBM è la nostra società può essere trasformata nel prossimo futuro e non in meglio. La storia del credito - lo strumento che le banche sono più affidabili per quanto riguarda le condizioni di lavoro artificiale per automatizzare tale processo decisionale.

Eppure è sempre meglio in diversi studi e da numerose analisi come i sistemi di riconoscimento facciale quali amplificare piuttosto che eliminare i pregiudizi umani. Gli algoritmi che si muovono e offrono le informazioni e gli errori sono imperfette ma ereditate anche i pregiudizi degli uomini che sono dietro la loro realizzazione e ne sviluppano nei processi di machine learning anche di nuovi.

Per questa ragione, IBM ha rilasciato su GitHUb un nuovo toolkit " AI Fairness 360 " che ottiene un guanto di sfida ai competitor. Il toolkit è una sorta di coltellino svizzero di algoritmi, una disposizione di chiunque, strutturato, nelle intenzioni di IBM, per eliminare questi pregiudizi.

"Questa cassetta degli attrezzi ha più componenti", dice Kush R. Varshney di IBM Research AI, "Una prima cosa è per controllare i pregiudizi, una seconda è per aprire aspetto per gli effetti e per i modelli che ne derivano per renderli più giusti ".

Ma da dove provengono questi pregiudizi? I dati sorgente su cui si basano gli algoritmi sono molto spesso la causa del problema. "Gli algoritmi di apprendimento automatico, sono addestrati in dati storici in materia di attività", spiega Varshney. "È stato implicito o esplicito per vari motivi, quindi il modello di apprendimento automatico è basato sulla base di questo insieme di dati preventivamente giudicati, erediterà e replicherà tali pregiudizi".




Eppure non è solo il dato che è il problema. "Ci sono casi in cui un medico o un modellatore di dati può essere considerato un problema di modellazione in qualche forma", come nota Aleksandra Mojsilovic, IBM Fellow di AI Science. Un semplice esempio potrebbe essere l'innocua azione di ordinare i dati in gruppi per età o istruzione, che potrebbero avere una sorpresa per una decisione sull'ammissione al college.

Cosa fa realmente il toolkit? "Il semplice controllo del pregiudizio è piuttosto semplice", spiega Varshney. "Gli algoritmi sono il nostro vero interesse, quindi la cassetta degli attrezzi in questo momento contiene 10 algoritmi diversi per il rimedio o l'attenuazione dei pregiudizi". Questi algoritmi sono inclusi in tre tipi. Un gruppo è il preprocesso dei dati per i diversi gruppi di persone trattati in modo equo. Un altro agisce sull'elaborazione dei dati personali, che possono includere i dati distorti. E il terzo controlla i pregiudizi analizzando gli algoritmi di intelligenza artificiale. "

Perché rendere il toolkit open source? "Equità e distorsioni sono così complesse", spiega Mojsilovic. "Anche per gli studenti è molto difficile, e questo è ancora più difficile per i professionisti nel farla diventare una parte delle loro soluzioni. Perché lavorare insieme e chiedere alla comunità di collaborare / contribuire è davvero importante per noi ".





"Questo è stato di ricerca molto attivo nella comunità che si occupa di machine learning", aggiunge Varshney. "E penso che per gli strumenti per la protezione degli oggetti è tutto open source. qualsiasi settore - finanza, risorse umane, sanità, istruzione, qualsiasi cosa nel settore pubblico - rendendo il kit open source sarà in grado di prenderlo nei loro flussi di lavoro ".

Non è solo l'industria dell'Asia interessata al lavoro di IBM. "Abbiamo ascoltato molte storie di professionisti del settore che visitano il nostro laboratorio che prevede davvero argomenti come dice un commento nelle loro imprese storiche dagli umani" dice Mojsilovic. "È davvero utile da un punto di vista organizzativo ogni volta che ci sono enormi quantità di dati e le conseguenze sono prese su base giornaliera in grande quantità".

A volte gli algoritmi hanno buone notizie da segnalare. "Lavoravamo con un gruppo di nome Echoing Green, un gruppo che offre borse di studio e altro supporto a promettenti affari sociali", ha detto Varshney. "Ricevono qualcosa da 3000 anni per 30 posizioni che stanno offrendo: sto seguendo le tecniche di apprendimento automatico per automatizzare o almeno aiutare i problemi a lavorare il loro carico di lavoro". In realtà si tratta di un processo decisionale abbastanza equo rispetto alle variabili in esame e questo è un esempio di come gli algoritmi anti bias non trovando pregiudizi ci dicano una buona notizia.

Sia Varshney che Mojsilovic sono ottimisti sul futuro dell'AI. "Ora abbiamo davvero l'opportunità di iniziare ad affrontare i problemi che il mondo ha - vieni fama, povertà, salute e istruzione", dice Varshney. "Uno di questi è l'iniziativa Science for Social Good ". L'iniziativa, co-diretta da Mojsilovic e Varshney, vede gli scienziati e gli ingegneri collaborano con l'ONG per affrontare i problemi della società. Le iniziative coprono diversi campi, dal cercare la biomimetica per l'ispirazione tecnologica, ad affrontare l'incitamento all'odio online.


"Osserviamo come si troverò le tecnologie dell'Ai e del machine learning per affrontare problemi che vanno oltre l'ordine del giorno", aggiunge Mojsilovic. "Vieni ad affrontare i problemi di questo mondo? Un'idea enormemente eccitante".

Mojsiljar Mo: è un grande beneficio dalla tecnologia. "Sono ancora una tecnologia molto nuova, in particolare dai legislatori e dai processi decisionali. che i progressi sono fatti nel miglior modo possibile ".

SI apre qui tutto il grande tema dell'algor-etica: come rendere il valore morale un valore computabile? Il fairness e la justice saranno fatti solo dall'analisi dei dati? Non è un gestore dei processi etici delle AI? Anche se questo è un primo passo la questione è ancora aperta

paolobenanti.com/single-post/20…AIFairness-360

www.paolobenanti.com/single-post/2018/10/01/A...