• CSRnative

Sustainable Corporate Governance: Intervista a Edoardo Fleischner

La Democrazia Economica è un tema di rilevanza globale per la Sostenibilità del Pianeta. È la forma di governo delle imprese che garantisce agli azionisti l’esercizio dei propri diritti attraverso la responsabilità degli Amministratori da loro nominati tramite il voto di lista. L’Ocse fu la prima a parlarne nelle Linee Guida per le Imprese Multinazionali del lontano 1976 ma aggiornate pochi mesi fa, dopo il G20. Nel 2019, la Commissione Europea l’ha rilanciata nel Green New Deal, parlando di Corporate Governance Sostenibile.

Quando l’organo di governo di un’impresa (per semplificare pensiamo al Board of Directors) deve prendere una decisione strategica ed ha varie opzioni, esso analizza tutte le alternative. Nondimeno, spesso si creano contrasti tra l’Amministrazione e la Proprietà. Ma come rilevato da un gruppo di studiosi del MIT, l’Intelligenza Artificiale (IA) può scongiurare questo scenario di distorsione tra azionisti e amministratori. Ma come può farlo?

Al MIT sostengono che l’IA è il mezzo di selezione delle decisioni da adottare proprio per evitare conflitti. Per questo, Google ha istituito la figura del Chief Decision Scientist nel 2018. In breve, sono Cassie Kozyrkov e il suo Team a selezionare le migliori decisioni per il Board di Google. Come? Lo disse la Kozyrkov: “By bringing Psychology into data science, I hope to reduce bias in algorithms”. In questo caso, il processo di “Decision Intelligence” è affidato all’Intelligenza Artificiale ma la decisione finale spetta comunque all’umano, come indicato dall’Ocse.

Il rischio in mano all’IA, la decisione finale in seno al CdA. L’IA si fa strumento decisionale ma allo stesso tempo essa deresponsabilizza gli amministratori dall’aspetto più critico: la selezione delle strade da intraprendere, un ruolo che fino a ieri spettava al decisore umano. Ma quanto è sostenibile questo?

Il binomio nel dibattito sull’AI come (1) aiuto-al-decisore-umano; (2) selettore-di-decisioni più efficiente del decisore umano; (3) alleato/concorrente del decisore umano; (4) “decisore di ultima istanza” in supremazia gerarchica verso il CdA-decisori-umani, è il fattore umanissimo responsabilizzazione-deresponsabilizzazione.

Se la decisione si verificherà (con l’AI?) sbagliata, si dirà “Di chi è la responsabilità?”. E si conoscono bene i meccanismi e i riti di “individuazione delle responsabilità”. La mia previsione è che l’AI verrà usata sempre più per individuare “di-chi-è-stata-la-reponsabilità” di un errore aziendale. Cioè l’AI si sposterà moltissimo sul lato del giudizio del “dopo” (anche nel giudiziario, civile e penale).

Veniamo ora all’analisi dei rischi. Chi è responsabile? Il Board? Il Chief Decision Scientist? O l’Intelligenza Artificiale?

Quando si configura/attiva un apparato decisionale di un’azienda/organizzazione, occorre stabilire la gerarchia delle responsabilità, com’è giusto che sia, anche quando nella pipeline decisionale entra un nuovo soggetto, oggi l’AI, il CDS, domani chissà. Altra facile previsione: ci sembrerà razionale far decidere la “gerarchia delle responsabilità” decisionali proprio ad una AI.

Ma c’è anche la “personalità” delle decisioni. Quelle prese da tre aziende “trillionarie” come Google, Facebook e Microsoft, tre math-house, grandi investitori e produttori di AI, hanno una “forte personalità”, derivante direttamente, io dico, dalla personalità apicale dei loro fondatori. Altra previsione: arriverà la “Personalità Artificiale” aziendale.

Per evitare l'automatizzazione delle decisioni, serve ancora più Decision Intelligence? Servono più scienziati in grado di addomesticare l’IA?

La parola “evitare” suggerisce che ci sia un set di decisioni algoritmiche pronte, ma non sempre perfettamente adatte alle mille sfumature di grigio dei problemi da risolvere. È il paradosso del “Piè veloce d’Achille”: più Decision Intelligence immetto, più la meta per “evitare l’automatizzazione” delle decisioni si sposta in avanti. In un processo che – altra previsione facile – sarà continuo. Il limite probabile, e accettabile, arriverà, per esempio, quando gli incidenti delle driverless car, a ugual numero di auto circolanti e uguali aree di circolazione, saranno meno di quelli provocati dalle auto con conducente umano.

Edoardo, se già lo fanno le imprese multinazionali più importanti del Pianeta, ci dobbiamo abituare ai sistemi automatizzati per prendere decisioni strategiche? Come direbbe James Carville “it’s the AI, stupid!”. Insomma, si tratta del “New Normal”?

In realtà ci abituiamo da sempre. Ogni salto di innovazione, in qualunque area, tecnologica, artistica, scientifica, politica, ecc. è prodotto dell’umano. Dunque trova il cervello predisposto a sentire come “new normal” ogni altro pezzo di intelligenza artificiale. L’umanità ha sempre cumulato delle “intelligenze artificiali”, dall’invenzione della ruota in poi.

Esiste un’alternativa più sostenibile?

Mi sposto su concetti più generali. L’AI, nonostante tutto, è uno strumento come un altro. Io metto perfettamente alla pari lo strumento “cervello” e, per esempio, lo strumento “ginocchio” di un essere umano. Cioè la sostenibilità non dipende necessariamente dallo strumento “brutto e cattivo” che scelgo. Ieri il carbone, sostenibile fino al XIX secolo. Oggi l’AI? Dipende solo dalla Politica. Dipende cioè dalla polis (nazione, città, azienda, ecc.) e dalle sue decisioni che devono essere tutte consapevolmente sostenibili.



Edoardo Fleischner

Edoardo Fleischner è Visionary Designer, Progettista crossmediale e docente di Comunicazione Crossmediale all’Università degli Studi di Milano.

Dal 2001 docente di Comunicazione crossmediale, facoltà di Scienze Politiche e Sociali, Università degli Studi di Milano, un corso hands-on in format di talk-show.

Già docente e formatore di Nuovi media, Media digitali, Scrittura crossmediale, Comunicazione social, Metodi e tecniche dei nuovi media, Produzione autorale di format crossmediali, ecc.

Lecturer su intelligenza artificiale, fake news, realtà virtuale, big data, smart work, e-learning.

Dal 1998 autore del settimanale Media e dintorni (Radio Radicale). Collaboratore di agendadigitale.eu.

Direttore scientifico del Dizionario su Informatica, ICT e nuovi media (Treccani).

Direttore editoriale di neoslogos.org, portale su innovazioni tecnologiche nei beni culturali.

Ha creato e dirige il Neapoli’s Culture Forum, meeting internazionale sulla convergenza dei beni culturali e innovazione tecnologica.


Consulente per la crossmedialità di aziende pubbliche e private. Visionary designer.

Autore, producer, curatore di programmi radiotelevisivi; canali online e broadcast; sistemi di convergenza crossmediale; app; contenuti e sistemi in realtà virtuale e in realtà aumentata.

Curatore, autore e coautore di: Meglio tardi che Rai, Oltre il multimedia, Internet la madre di tutte le tv, La comunicazione nell’era di Internet, Storia dell’arte in codice binario, Internet e la politica, Identità e comunicazione, Il nuovo dis-ordine mondiale, Immaginari postdemocratici, Nuovi media, Cybercultura e forme di potere, Il paradosso di Gutenberg-dalla crossmedialità al Media on Demand, Chi ha paura di Beppe Grillo?-un fenomeno crossmediale, Ipotesi crossmediali su un Heysel del terzo millennio, Uomini e macchine, protezione dati per un’etica digitale, Le reti, la Rete, “il mondo italiano”. Già direttore di periodici su media e innovazione.

Ha scritto la serie Memory Squad, 142 micro episodi di fanta-etica, ambientati nel pianeta Terra nel 2333, sul sito agendadigitale.eu.

È cofondatore e responsabile della comunicazione dell’Associazione Bambini Senza Sbarre Onlus. È nel Board di COPE (Children of Prisoners Europe).

Di Manfredi Morello