Intelligenza artificiale, tra aziende e risk management: metodo e responsabilità

Le riflessioni in questo breve contributo cercheranno di delineare il tema estremamente contemporaneo del dialogo con il rischio e gli strumenti dell’intelligenza artificiale.

Intelligenza artificiale, tra aziende e risk management: metodo e responsabilità

Le riflessioni in questo breve contributo cercheranno di delineare il tema estremamente contemporaneo del dialogo con il rischio e gli strumenti dell’intelligenza artificiale. Negli ultimi anni, in ambito accademico e aziendale, si è dibattuto grandemente riguardo il rapporto tra rischio, società, economia e tecnologia. Nelle parole che seguiranno, si cercherà di delinearne i cardini, al fine di concepire al meglio la grande complessità riguardo la questione dell’AI.

Introduzione

Oggigiorno, i rischi circondano ogni membro della società, vieppiù in ambito aziendale ed economico. Ci si interfaccia costantemente e quotidianamente con i rischi più diversificati, nelle scelte finanziarie, con le nuove tecnologie, e non solo. Dialogare, nel privato e nel pubblico con le nuove tecnologie ovviamente offre vantaggi, ma espone anche a rischi, nell’immediato e nel lungo periodo. In questa “nuova” società e nel suo tessuto economico, le prerogative legate all’intelligenza artificiale nei suoi disparati applicativi non sono più opzionali ma necessarie. Sussistono vari livelli nella percezione tecnologica in ambito aziendale, sicuramente legati ai benefici, relativi alla missione d’impresa nel creare valore economico e sociale, per gli stakeholders, i dipendenti e l’ambiente in cui si opera. Questi livelli aumentano però anche il rischio nell’area di influenza, interpretato come accadimento di un evento e delle sue conseguenze.

In buona sostanza, l’intelligenza artificiale e gli strumenti informatici sono componenti essenziali nelle filiere di produzione, monitoraggio e gestione, in ambito non solo aziendale e produttivo, ma anche legato alla governance del rischio stesso. Esse però, naturalmente, diventano anche rischio stesso, secondo la definizione appena riportata.

L’ingresso dell’intelligenza artificiale nei processi aziendali non coincide con una semplice innovazione tecnologica, bensì con una trasformazione dell’epistemologia decisionale dell’impresa. Nel governo del rischio, in particolare, l’AI ridefinisce il rapporto tra informazione, previsione e responsabilità. La crescente complessità degli ambienti operativi richiede strumenti capaci di individuare correlazioni relative all’analisi specifica.

La letteratura accademica si è spesa grandemente sul tema, e ha sottolineato come il rischio non sia soltanto una variabile probabilistica, ma anche espressione culturale, come sottolineato dal sociologo Ulrich Beck sin dagli anni Ottanta del XX secolo. 

  • Intelligenza artificiale e risk management

Nel risk management aziendale, l’intelligenza artificiale trova sua applicazione in almeno quattro ambiti principali, l’analisi predittiva, il cyber risk, la compliance e il cosiddetto rischio reputazionale. In ciascuno di questi ambiti, l’AI non sostituisce il decisore umano, ma ne estende le ramificazioni e dialoga con le capacità di lettura, riducendo il tempo tra il segnale del rischio e la risposta, o la proposta per il decision maker. L’adozione efficace dell’AI in ambito aziendale richiede dunque una progettazione che preceda l’esito stesso della tecnologia. Studi di governance algoritmica, ad esempio, hanno mostrato come l’AI debba essere integrata in un sistema di responsabilità chiaramente definito. L’impresa è chiamata quindi a stabilire metodo, finalità e ambiti, prima ancora di selezionare i modelli pratici e fattivi.

In relazione agli ambiti delineati sopra, senza una delimitazione, l’algoritmo opera in uno spazio privo di orientamento, ordine e direzione, andando così a disperdere dati o anche, gravemente, sbagliare il risultato e il prodotto definito. Banalmente, la qualità dell’output dipende dalla definizione degli ambiti, dalla conoscenza di limiti e rischi dello strumento stesso, e quindi dalla chiarezza degli input. In questa fase, il coinvolgimento di competenze interdisciplinari è decisivo, dal risk manager ai giuristi si deve concorrere alla definizione degli obiettivi in maniera da definire gli strumenti attuativi.

La governance dei dati è un aspetto estremamente importante, legato all’estrazione e alla strutturazione dei dati, data quality e conseguente sicurezza, nella misura in cui gli strumenti dell’AI amplificano la coerenza, ma anche potenzialmente errori e distorsioni. 

AI e rischio geopolitico

Un ambito di crescente interesse riguarda l’applicazione dell’intelligenza artificiale all’analisi del rischio geopolitico. Attraverso tecniche ibride financo il machine learning, le imprese possono monitorare fonti aperte, individuare segnali di instabilità politica, analizzare mutamenti normativi e anticipare potenziali rotture di pattern sistemici. I benefici primari sono quelli relativi alla riduzione significativa dei tempi di reazione a eventi critici.

La geopolitica, tuttavia, conserva una dimensione qualitativa che sfugge alla pura correlazione statistica. Sussistono discontinuità storiche, come guerre, rivoluzioni e crisi sistemiche, non sempre emergenti in trend lineari e superficiali. L’AI può senza dubbio migliorare le capacità di gestione dei tempi e conseguentemente il potenziale nell’intercettare anomalie “sommerse”, ma è sempre necessaria l’interpretazione mediante anche competenze storiche e culturali. Nell’ambito delle attività di precognizione si ricorda come la costruzione probabilistica è un fatto che necessita di grandi capacità interdisciplinari.

Cultura organizzativa e rischio

L’introduzione dell’intelligenza artificiale modifica e permea anche la cultura aziendale. Il rischio conseguente, val la pena dirlo in questo breve contributo, non risiede nella tecnologia in sé naturalmente, bensì nella possibile riduzione della capacità critica dei decisori. Quando l’output algoritmico viene percepito come oggettivo e neutrale, definente uno “status quo”, si attenua la tensione interpretativa che caratterizza il preparato giudizio umano. In ambito di sicurezza e gestione della stessa, tale fenomeno assume rilievo strategico. La complessità dei contesti geopolitici, la volatilità delle dinamiche sociali e la natura storica e simbolica di molti conflitti non si esauriscono naturalmente in mere variabili numeriche. L’AI amplia il campo di osservazione e contribuisce a ridurre i tempi, con utilizzo congruo e avvertito, ma l’interpretazione rimane un atto scientifico e culturale. Parallelamente alla formazione di strumenti, la formazione del management e degli operatori diventa quindi un elemento non solo necessario, ma essenziale.

Una riflessione prospettica in conclusione

L’estensione dell’intelligenza artificiale nei campi della sicurezza fisica e cibernetica apre scenari di profonda trasformazione, in cui strumenti tecnologici, statistici, analisi comportamentale e monitoraggio interdisciplinare predittivo coabitano. Sul piano culturale, tale evoluzione solleva oramai da anni interrogativi di natura non solo pratica, ma soprattutto etica e politica. La sicurezza algoritmica tende a produrre ambienti di apparente controllo, facendo di conseguenza riflettere sui concetti di protezione, predittività e sorveglianza, in una evoluzione simbolica delle riflessioni sociologiche di Michel Foucault riguardo il sorvegliare e controllare.

L’intelligenza artificiale, applicata nel contesto del risk management aziendale, rappresenta una sostanziale trasformazione strutturale del modo in cui l’impresa interpreta l’incertezza e l’esposizione ai rischi. Consente quindi maggiore profondità analitica, velocità decisionale e capacità predittiva, introducendo in sostanza al medesimo tempo vulnerabilità relativa alla gestione, uso, formazione, oltre che “opacità” e limiti algoritmici. La preparazione verso un congruo affrontare bias sistemici dovrebbe essere un monito essenziale verso l’uso aziendale di simili implementazioni, al fine di cogliere il progresso come slancio e potenziale avvertito. Analizzando articoli e riflessioni contemporanee sul tema, si osserva come la sfida non sia solo tecnologica, ma soprattutto culturale e strategica, in un contesto di sinergia e dialogo. Si crede fermamente come integrando rilevate criticità e potenzialità, possa emergere una gestione dell’incertezza capace di interpretare la complessità del presente.

Fonti:

https://www.sciencedirect.com/science/article/pii/S0963868724000672

https://www.researchgate.net/publication/329625060_Intelligenza_Artificiale_l’applicazione_di_Machine_Learning_e_Predictive_Analytics_nel_Risk_Management

https://www.ilsole24ore.com/art/tra-criticita-e-opportunita-l-ai-ridefinisce-gestione-rischio-aziendale-AHMlHLi

https://www.losguardo.net/wp-content/uploads/2016/11/2016-21-Beck.pdf


Massimiliano Spiga, Ph.D., è Intelligence Analyst in Kriptia. Ricopre unitamente il ruolo di Direttore del Comitato Scientifico e Culturale, nonché Coordinatore dell’Osservatorio sulla Criminalità d’Impresa per Kriptia International. I suoi interessi riguardano, nell’ottica culturale e scientifica di Kriptia, l’equilibrio tra analisi storica, riflessioni contemporanee, geopolitiche e strategiche, con ulteriore attenzione all’analisi dell’informazione e della sua gestione in rapporto a dinamiche aziendali di sicurezza. Attualmente si sta occupando parallelamente del rapporto tra imprese e criminalità, e di studi relativi ad analogie concettuali tra ambasciatori in età moderna e la contemporanea figura dei manager.