Dimmi perché! Far spiegare ad una AI il suo processo decisionale

Dimmi perché! Far spiegare ad una AI il suo processo decisionale

La paura dell'ignoto, ovvero dell'angoscia secondo Kierkegaard

di Paolo Benanti (*)

Secondo Søren Kierkegaard, il filosofo e teologo danese dell'Ottocento, l'uomo si trova di fronte a molte scelte e possibilità nella sua vita tra le quali deve scegliere.

Questa apertura è possibile, la condizione di incertezza e travaglio di fronte alla scelta, dà vita all'angoscia. Essa è quella "vertigine" connaturata all'uomo che deriva dalla libertà, dalla possibilità assoluta.

Secondo Kierkegaard subentra l'angoscia quando si scopre che tutto è possibile. Ma quando tutto è possibile è come se nulla fosse possibile. C'è sempre la possibilità dell'errore, del nulla, la possibilità di agire con esiti imponderabili. L'angoscia, una differenza della paura, che si dichiara sempre un certo di preciso e accompagnato dall'esperienza dell'uomo. A suo giudizio, l'angoscia non è un sentimento che può essere o non essere presente nell'uomo: l'angoscia è essenzialmente connessa all'esistenza umana, in quanto è il verso verso l'ignoto.



L'angoscia è dunque letta come fondamento stesso della condizione umana, primigenio e ineliminabile.

La scoperta della possibilità, e quindi dell'angoscia, è stata risvegliata per la prima volta in Adamo dal divieto di Dio. Adamo era innocente: non era, cioè, la coscienza delle possibilità che gli si aprivano davanti. Quando riceve da Dio, acquista la coscienza di "poter" sapere la differenza tra il bene e il male. Diventa consapevole della possibilità della libertà. L'esperienza di questa possibilità è l'angoscia.



Se Søren Kierkegaard ha declinato il suo pensiero oggi, credo che l'esistenza di infinita possibilità e di assoluta incertezza nel rapporto che sembriamo avere oggi con le AI. Di fronte alle potenzialità sempre maggiori che il machine learning infonde in sistemi decisionali complessi, potremmo dire che abbiamo macchine dalle infinite possibilità. Ma se Kierkegaard lega l'angoscia alle infinite possibilità di scelta, l'angoscia subentra dalla consapevolezza che tutto può essere e quindi dall'ignoranza di ciò che accadrà, la disperazione invece subentra di fronte alle possibilità di fallimento. Parafrasando il filosofo danese le amplificano questa situazione di crisi radicale della libertà umana. La amplifica perché la logica alla base del processo decisionale di una macchina è ancora sconosciuta.

Infatti una delle soluzioni con cui si difendono nelle nostre esperienze quotidiane è la cosiddetta razionalizzazione: un meccanismo di difesa della psiche umana.



L'espressione, Introdotta da Ernest Jones in un articolo del 1908, indica il tentativo di "giustificare", attraverso spiegazioni, argomenti, ipotesi "di comodo", un fatto o processo relazionale che il soggetto ha trovato angoscioso, o che ha generato in lui la percezione di una dissonanza cognitiva. In altre parole, la razionalizzazione consiste nell'atteggiamento mentale di mascherare sentimenti, idee e chiavi percettibili con le proprie vere motivazioni pulsionali o con la realtà, così da contenere e gestire un'angoscia di tipo nevrotico o psicotico. Nella celebra favola attribuita a Esopo, La volpe e l'uva, la reazione dell'animale di fronte all'insuccesso della sua azione (Nondum matura est, nolo acerbam sumere,



AI come scatola nera, ovvero del bisogno di razionalizzare
in che modo è fidarsi delle decisioni di una macchina quando le persone non sanno da dove provengono? O perché sono tali? Questo velo di Maya, per usare l'espressione coniata dal filosofo Arthur Schopenhauer che indicava un "velo" di natura metafisica e illusoria che separava gli uomini dalla conoscenza / percezione della realtà, è quello che chiamiamo blackbox per le AI. Il carattere oscuro delle AI nel loro processo decisionale non ci riguarda di razionalizzare e ci abbandona all'amgoscia che rischia di diventare disperazione di fronte a fallimenti in operazioni mission critical. Allora le blackbox delle Ai sono qualcosa che deve essere aperto.

Fare questo però non è un processo meramente emotivo. Perché la tecnologia continua a svolgere un ruolo sempre più importante nella vita di tutti i giorni e cambiare i ruoli all'interno della forza lavoro, è l'etica che vuole che gli algoritmi si presentarsi come punto chiave. L'etica ha bisogno non di narrazioni consolatorie, razionalizzare le AI, ma di spiegazioni che mostrino la dinamica che soggiace alle scelte. La ragione del perché si strapperà all'angoscia e alla dispersione consegnandoci all'etica.



Diverse volte in queste pagine e secondo altri studi sono stati avvertiti che gli algoritmi possono rafforzare i pregiudizi e rispecchiare i pregiudizio dei programmatori. IBM sembra avere una visione diversa.

Dimmi perché! Far spiegare ad una AI il suo processo decisionale
31 gennaio 2019

La paura dell'ignoto, ovvero dell'angoscia secondo Kierkegaard
Secondo Søren Kierkegaard, il filosofo e teologo danese dell'Ottocento, l'uomo si trova di fronte a molte scelte e possibilità nella sua vita tra le quali deve scegliere. Questa apertura è possibile, la condizione di incertezza e travaglio di fronte alla scelta, dà vita all'angoscia. Essa è quella "vertigine" connaturata all'uomo che deriva dalla libertà, dalla possibilità assoluta.





Secondo Kierkegaard subentra l'angoscia quando si scopre che tutto è possibile. Ma quando tutto è possibile è come se nulla fosse possibile. C'è sempre la possibilità dell'errore, del nulla, la possibilità di agire con esiti imponderabili. L'angoscia, una differenza della paura, che si dichiara sempre un certo di preciso e accompagnato dall'esperienza dell'uomo. A suo giudizio, l'angoscia non è un sentimento che può essere o non essere presente nell'uomo: l'angoscia è essenzialmente connessa all'esistenza umana, in quanto è il verso verso l'ignoto.



L'angoscia è dunque letta come fondamento stesso della condizione umana, primigenio e ineliminabile.

La scoperta della possibilità, e quindi dell'angoscia, è stata risvegliata per la prima volta in Adamo dal divieto di Dio. Adamo era innocente: non era, cioè, la coscienza delle possibilità che gli si aprivano davanti. Quando riceve da Dio, acquista la coscienza di "poter" sapere la differenza tra il bene e il male. Diventa consapevole della possibilità della libertà. L'esperienza di questa possibilità è l'angoscia.



Se Søren Kierkegaard ha declinato il suo pensiero oggi, credo che l'esistenza di infinita possibilità e di assoluta incertezza nel rapporto che sembriamo avere oggi con le AI. Di fronte alle potenzialità sempre maggiori che il machine learning infonde in sistemi decisionali complessi, potremmo dire che abbiamo macchine dalle infinite possibilità. Ma se Kierkegaard lega l'angoscia alle infinite possibilità di scelta, l'angoscia subentra dalla consapevolezza che tutto può essere e quindi dall'ignoranza di ciò che accadrà, la disperazione invece subentra di fronte alle possibilità di fallimento. Parafrasando il filosofo danese le amplificano questa situazione di crisi radicale della libertà umana. La amplifica perché la logica alla base del processo decisionale di una macchina è ancora sconosciuta.

Infatti una delle soluzioni con cui si difendono nelle nostre esperienze quotidiane è la cosiddetta razionalizzazione: un meccanismo di difesa della psiche umana.

L'espressione, Introdotta da Ernest Jones in un articolo del 1908, indica il tentativo di "giustificare", attraverso spiegazioni, argomenti, ipotesi "di comodo", un fatto o processo relazionale che il soggetto ha trovato angoscioso, o che ha generato in lui la percezione di una dissonanza cognitiva. In altre parole, la razionalizzazione consiste nell'atteggiamento mentale di mascherare sentimenti, idee e chiavi percettibili con le proprie vere motivazioni pulsionali o con la realtà, così da contenere e gestire un'angoscia di tipo nevrotico o psicotico. Nella celebra favola attribuita a Esopo, La volpe e l'uva, la reazione dell'animale di fronte all'insuccesso della sua azione (Nondum matura est, nolo acerbam sumere,

AI come scatola nera, ovvero del bisogno di razionalizzare
in che modo è fidarsi delle decisioni di una macchina quando le persone non sanno da dove provengono? O perché sono tali? Questo velo di Maya, per usare l'espressione coniata dal filosofo Arthur Schopenhauer che indicava un "velo" di natura metafisica e illusoria che separava gli uomini dalla conoscenza / percezione della realtà, è quello che chiamiamo blackbox per le AI. Il carattere oscuro delle AI nel loro processo decisionale non ci riguarda di razionalizzare e ci abbandona all'amgoscia che rischia di diventare disperazione di fronte a fallimenti in operazioni mission critical. Allora le blackbox delle Ai sono qualcosa che deve essere aperto.

Fare questo però non è un processo meramente emotivo. Perché la tecnologia continua a svolgere un ruolo sempre più importante nella vita di tutti i giorni e cambiare i ruoli all'interno della forza lavoro, è l'etica che vuole che gli algoritmi si presentarsi come punto chiave. L'etica ha bisogno non di narrazioni consolatorie, razionalizzare le AI, ma di spiegazioni che mostrino la dinamica che soggiace alle scelte. La ragione del perché si strapperà all'angoscia e alla dispersione consegnandoci all'etica.

Diverse volte in queste pagine e secondo altri studi sono stati avvertiti che gli algoritmi possono rafforzare i pregiudizi e rispecchiare i pregiudizio dei programmatori. IBM sembra avere una visione diversa.

IBM afferma di aver fatto passi da gigante aprendo le blackbox delle AI con un servizio software che potrebbe portare trasparenza nelle AI.

I modelli di apprendimento automatico sono sempre più efficaci. Grazie per il mio apprendimento, è sempre meglio quando si tratta di gruppi privilegiati a vantaggio sistematico e alcuni gruppi svantaggiati uno svantaggio sistematico. Ci possono essere pregiudizi nei dati di addestramento, una causa di pregiudizi nelle etichette nel sotto / sovra-campionamento, produrre modelli con pregiudizi indesiderati.

In una prima versione iniziale del pacchetto Python AIF360, IBM ha introdotto nove algoritmi diversi, sviluppati da una vasta comunità di ricerca sull'equità algoritmica, per cercare di mitigare il pregiudizio indesiderato. Questi algoritmi sono tutti usati dai programmatori in un modo standard, molto simile al paradigma di adattamento / previsione di scikit-learn. L'AIF360 è un po 'diverso dagli sforzi open source disponibili al causa della sua attenzione alla mitigazione del bias (al contrario delle semplici metriche), al suo focus sull'usabilità industriale e alla sua ingegneria del software. AIF360 non è solo un pacchetto Python. È anche un'esperienza interattiva che offre una delicata introduzione ai concetti e alle funzionalità del toolkit.

Dall'angoscia alla responsabilità ovvero per un'a aperta ed etica è
importante non solo nel processo decisionale, ma anche nei registri dell'accuratezza, della prestazione e della correttezza del modello che possono essere facilmente rintracciati e richiamati per motivi di servizio clienti, norme di conformità, ad esempio la conformità GDPR.

Accanto all'annuncio di questa AI, IBM Research ha anche rilasciato un toolkit di individuazione e mitigazione dei bias dell'AI open source, portando avanti strumenti e risorse per l'interazione globale circa l'inclinazione alla parzialità nell'intelligenza artificiale.

Ciò include una raccolta di librerie, algoritmi ed esercitazioni che offrono agli studiosi, ai dati e agli effetti dei dati di cui hanno bisogno per integrare il sistema.

Secondo David Kenny, SVP di IBM di Cognitive Solutions, "IBM ha guidato l'industria nella creazione di principi di fiducia e trasparenza per lo sviluppo di nuove tecnologie. che l'intelligenza artificiale e l'affrontano il maggior rischio potenziale da qualsiasi decisione sbagliata ".


Cosa è significare per tutte quelle soluzioni che trasformano gli ambienti anche molto delicati come la medicina o l'auto a guida autonoma. La nuova tecnologia potrebbe essere una serie di problemi con la sua implementazione dal momento che la discussione e la riflessione dei decisori politici deve ancora raggiungere la tecnologia. L'etica per quanto chieda di irraggiare anche gli algoritmi, cioè di diventare algoretica, non può essere solo un problema di calcoli.

Essere etici chiede un impegno, chiede una responsabilità che sappia inverare le prospettive di fondo, filosofie di sviluppo, e nelle scelte concrete di questo cambio d'epoca che le generano.

di Paolo Benanti (*)

paolobenanti.com/single-post/20…9/Dimmi-perche

(*)
Paolo Benanti :
Frate francescano del Terzo Ordine Regolare - TOR - sono
Docente Incaricato Asssociato Pontificia Università Gregoriana, Roma dal 2008
si occupa di etica, bioetica ed etica delle tecnologie.
In particolare i miei studi si focalizzano sulla gestione dell'innovazione: internet e l'impatto del digitale, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie.
Cerco di mettere a fuoco il significato etico e antropologico della tecnologia per l' Homo sapiens : siamo una specie che da 70.000 anni abita il mondo trasformandolo, la condizione umana è una condizione tecno-umana .

www.paolobenanti.com/single-post/2019/01/29/D...