NUOVI MODELLI DI AI DI TIPO LLM E IL LORO POSSIBILE RUOLO NELLE ATTIVITÀ DI COMPLIANCE
Fonte: Riskcompliance.it
Si fa un gran parlare di sistemi di Intelligenza artificiale e delle sue “mirabolanti” possibilità, si discute molto anche del suo utilizzo in ambito Compliance ma se non ne capiamo i principi di funzionamento il rischio di un uso errato ,quando dannoso, è estremamente elevato.
Quindi cerchiamo di capire con una spiegazione non rigorosamente tecnica come opererebbe un moderno sistema AI di tipo LLM, o Large Language Models se usato per comprendere e analizzare un testo legge e in una sua possibile Compliance.
Ma cos’è questo Transformer
Cominciamo con dare una descrizione del cuore di un moderno sistema di AI di tipo LLM ovvero il “Transformer”, un’architettura di rete neurale profonda introdotta nel 2017 nel paper “Attention is All You Need” da Vaswani et al..
Questa architettura è diventata fondamentale per molti modelli di apprendimento automatico basati su sequenze, tra cui i Large Language Models (LLM) come ad es. GPT (Generative Pre-trained Transformer) usati per la gestione e comprensione del testo.
Ma cosa è questo “Transformer” e quali caratteristiche lo rendono così importante per analizzare il testo scritto in linguaggio naturale e darci le riposte utili ad un Compliance manager?
Bene il nostro sistema misterioso è un processo di apprendimento che si compone di alcune fasi e moduli; e, cercheremo brevemente di spiegarlo a chi come me non è un tecnico, non ne sa nulla ed ha bisogno di comprendere come funziona per valutare le sue reali possibilità di uso con una spiegazione semplice e comprensibile.
Come funziona Transformer
Immaginiamo un nostro testo qualsiasi, ad esempio, di dover scrivere una storia ma vogliamo assicurarci che ogni parola nella nostra storia abbia il giusto peso e riceva l’attenzione che merita focalizzandoci sui punti e le espressioni salienti. Ecco come funziona in modo molto semplificato:
- Primo passo: Meccanismo di Auto-Attenzione:
Supponiamo di scrivere una parola, ad esempio “gatto”, il meccanismo di auto-attenzione mi permette di decidere quanto importa e “pesa” la parola “gatto” in relazione a tutte le altre parole nella mia storia o del mio testo. Potrei decidere di dare molta attenzione a “gatto” perché è il personaggio principale della mia storia.
- Attenzione Multipla:
Invece di concentrarti solo su una parola alla volta, posso pensare di considerare molte parole contemporaneamente, ad esempio, oltre al “gatto”, potrei pensare anche a “topo” e “giocare”. Tutte queste parole otterrebbero ciascuna una certa attenzione perché correlate al senso della mia storia.
- Normalizzazione degli Strati e Reti Feedforward:
Dopo aver assegnato l’attenzione alle parole, è importante fare in modo che tutto abbia un senso. Una rete neurale feedforward (FNN) è uno dei due grandi tipi di rete neurale artificiale, caratterizzata dalla direzione del flusso di informazioni tra i suoi strati. Quindi sequenza lineare del discorso del testo. Il suo flusso è unidirezionale, nel senso che le informazioni nel modello fluiscono in una sola direzione, in avanti, dai nodi di input, attraverso i nodi nascosti (se presenti) e ai nodi di output, senza cicli o loop, a differenza delle reti neurali ricorrenti, che hanno un flusso bidirezionale. Le moderne reti feedforward vengono addestrate utilizzando il metodo di backpropagation e vengono colloquialmente chiamate reti neurali “vanilla”. La normalizzazione e la rete feedforward mi aiutano a rendere il mio racconto coerente e comprensibile e lineare.
- Posizionamento dell’Informazione:
Inoltre, poiché il computer non capisce automaticamente l’ordine delle parole come facciamo noi umani ma le pesa in funzione della posizione che ha imparato leggendo molti testi, deve imparare quale parola viene prima e quale viene dopo e mediante la lettura dei tanti testi impara la sua posizione più probabile ed eventualmente aggiungiamo informazioni sulla posizione.
- Encoder e Decoder:
Infine, in questa ultima fase pensiamo all’encoder come a una persona che capisce e memorizza il significato delle parole nella tua storia. Il decoder è come una persona che usa queste informazioni per scrivere una storia tradotta in un’altra lingua o per la riscrittura di un testo in una forma diversa.
In breve, il Transformer è come un autore intelligente che comprende e scrive storie, dandole l’attenzione giusta a ciascuna parola per rendere il racconto coerente e ben composto. E, il bello è che può fare tutto questo senza dovergli dire esattamente come farlo per ogni storia. Impara semplicemente da molte storie che gli diamo da leggere e che elabora e, diventa anche bravo nel creare le sue!
Per capire meglio, il meccanismo di auto-attenzione, permette di decidere quanto importa la parola “gatto” in relazione a tutte le altre parole nella storia ma non devo definire io fra le parole quelle che mi interessano, in realtà il meccanismo di auto-attenzione nel contesto dei modelli di linguaggio come il Transformer è ciò che il modello apprende durante il processo di addestramento. Non è necessario che si specifichi esplicitamente quali parole sono importanti o meno.
Quindi ipotizziamo di addestrarlo dandogli da leggere tutto lo scibile normativo nazionale, ma anche internazionale. In questa fase il modello esamina molti esempi di testo e impara automaticamente quali parole sono rilevanti in diverse situazioni. Questo avviene attraverso l’iterazione ripetuta sulle enormi quantità di dati di testo non solo giuridico, consentendo al modello di sviluppare una rappresentazione implicita delle relazioni e delle importanze tra le parole e conseguentemente crea un’analisi delle interazioni fra le varie norme e leggi collocandole nel giusto grado di importanza nei vari contesti.
A questo punto siamo pronti a fornire ad esempio un testo di una nuova legge a un modello di linguaggio basato su Transformer, il modello cercherà di comprendere il contesto e l’informazione all’interno del testo. Il processo sembrerebbe abbastanza simile a quello di leggere e comprendere il testo da parte di una persona. Il modello però utilizzerà la sua capacità di auto-attenzione per:
- identificare relazioni semantiche,
- gerarchie di informazioni e,
- concetti chiave nel testo e,
- tutte le correlazioni con tutti i testi di legge
che gli abbiamo dato per addestrarlo compresi migliaia di saggi giuridici, di commenti, sentenze , descrizione di casi.
Ultimato il processo di apprendimento posso porre al modello domande specifiche sul testo della legge, come le sue criticità rispetto al quadro legislativo preesistente, le incoerenze, le contraddizioni o anche le sovrapposizioni normative. Posso anche valutare le eventuali particolarità applicative di quella legge e sulle interpretazioni sviluppate e fornite come apprendimento per l’addestramento, il modello cercherà dunque di fornire risposte basate sulla comprensione che ha sviluppato.
Tuttavia, è importante notare che il modello non ha una comprensione del senso o del significato “profonda” come quella di un essere umano o una persona esperta nel campo giuridico; il modello risponde nell’ambito dell’universo delle informazioni ricevute e studiate nel suo addestramento.
Quindi la sua risposta sarà sempre basata sulla somma delle informazioni apprese dai dati di addestramento e potrebbe non essere sempre accurata o specifica come ci si aspetterebbe da un esperto umano che è in grado di generare e ipotizzare processi semantici e logici su una contingenza dei fatti mai presentatisi in passato o comunque non contemplata dal materiale di addestramento.
Compliance Manager e modello AI: utilità e prove di dialogo
Per questo motivo è fondamentale valutare sempre la risposta del modello in modo critico, specialmente quando si tratta di questioni legali o normative, poiché il modello potrebbe non essere a conoscenza di modifiche normative o di particolari interpretazioni giuridiche che non si sono registrate in passato e quindi non presenti nel suo addestramento. Analogamente il Compliance manager deve tenere conto di casi che non rientrano nell’universo di informazioni dell’apprendimento e, poiché la Compliance è una funzione proiettata Ex-ante, cioè rivolta alla percezione di possibili situazioni in cui si potrebbe creare una violazione di una norma, deve imparare a “dialogare “ e spiegare al modello AI i possibili scenari che ha individuato perché il modello gli segnali e possa descrivere quali mancanze di Compliance ci sono rispetto a quali norme.
Sicuramente però ci troviamo di fronte ad un sistema che concentra una conoscenza vastissima e praticamente esaustiva dei testi di legge e se chiedo quali leggi o norme riguardano un particolare processo o attività o contesto è in grado di darmi una descrizione accurata di tutte le possibili norme e correlazioni giuridiche indicandomi per ciascuna le indicazioni di dettaglio sino al singolo paragrafo rigo dei testi che individua come pertinenti.
Oltre a queste risposte sarebbe facilmente in grado di darmi tutte le interpretazioni giuridiche già fatte in casi analoghi e gli esiti anche giudiziari.
A questo punto posso chiedere al modello di generare un “regolamento” in grado di descrivere l’iter operativo che le soddisfa tutte.
Quindi quale utilità per il Compliance manager, sicuramente una informazione esaustiva dei fattori che devono essere adottati e la loro riformulazione integrandoli in forma di regolamento interno da usare per un piano di Compliance.
Conclusione si prospetta per i Compliance manager una stagione:
- di studio dell’uso di questi strumenti e,
- di modifica radicale della sua attività,
specie per quanto riguarda i meri aspetti legislativi, in cui si rimanga consapevoli del ruolo e dell’importanza dell’essere umano come architetto e figura in grado di decidere e orientare in condizioni di incertezza e mancanza di elementi e dati certi dato che i modelli AI che soffrono della “sindrome del mondo perfetto” e per nostra fortuna (o sfortuna) la realtà specie delle imprese e organizzazioni è sempre più complessa e varia di qualsiasi universo di apprendimento possa usare qualsiasi sistema AI.
Commenti
Posta un commento