Login

Lost your password?
Don't have an account? Sign Up

Il formatore davanti alla sfida delle competenze ibride nelle PA: ingegneri un po’ più “flessibili”, economisti e giuristi un po’ più tecnologici e macchine un po’ più “umane”

Perché un convegno di AIF PA centrato sulle competenze digitali e l’Artificial Intelligence
Il convegno previsto a Roma il prossimo 18, 19 e 20 maggio avrà come tema quello delle competenze ibride che l’avvicinarsi di un uso ampio di sistemi basati sull’intelligenza artificiale [1]in italiano “agenti intelligenti” mentre nel corrispettivo inglese Artificial Intelligence AI rende necessarie. L’Amministrazione ospitante il convegno, la Consob, ha sperimentato sulla propria “pelle” come il mercato finanziario sia rapidamente mutato basando la maggioranza dei suoi scambi su scelte fatte da algoritmi. A questo punto, le competenze di avvocati ed economisti si sono rivelate sempre meno adatte a svolgere una vigilanza efficace in quanto davanti ad un “tracciato” di codice sono necessarie capacità e conoscenze diverse per stabilire la “compliance” con le norme. Da un lato, quindi, la necessità di reclutare laureati STEM e, dall’altro, quella di formare il personale addetto alla vigilanza anche su aspetti legati all’AI. Questa onda lunga che ha già “colpito” i mercati finanziari arriverà, sì gradualmente ma anche con una certa velocità, ad altri campi delle pubbliche amministrazioni: in questo scenario l’opportunità per AIF di consentire ai formatori e alle formatrici di prepararsi adeguatamente a questo “tsunami” in arrivo.

L’apprendimento nel machine learning
I sistemi di intelligenza artificiale nella loro sotto-categoria del machine learning, sono definiti come sistemi esperti. Sistemi cioè che, dopo aver compreso il funzionamento su un set di istanze note, apprendono come applicare determinate regole di valutazione su numeri molto più ampi. Una distinzione viene fatta però tra sistemi supervised e unsupervised. La differenza sta nel fatto che, mentre nel primo caso vengono fornite al sistema, nella fase di apprendimento, sia l’input che l’output delle istanze, nel secondo è il sistema stesso che apprende in base a criteri che individua in autonomia. Due esempi possono chiarire le differenze. Se facciamo imparare ad un sistema come associare i nomi di fiori alle immagini fornendo gli abbinamenti, allora avremo un sistema supervised. Viceversa, se diamo una popolazione di clienti e li facciamo raggruppare in classi omogenee senza dare indicazioni sul “come” ma solo sulla volontà che abbiano caratteristiche simili allora saremo in presenza di un sistema unsupervised. Quale che sia il sistema scelto, il tema dell’introduzione dei sistemi di intelligenza artificiale nelle organizzazioni è molto attuale anche se rischia di tradursi in una moda seguita senza una strategia razionale alle spalle.

Formare su nuovi tool commerciali o sulle competenze da sviluppare all’interno?
I formatori e le formatrici si trovano nella condizione di supportare il cambiamento sia nel caso di adozione basata su applicativi esterni all’organizzazione, sia nel caso di sviluppo di competenze interne. Nel primo caso la formazione è tesa a spiegare il funzionamento di tool preimpostati e, spesso, la reale difficoltà si trova nell’ adattare questi strumenti ai problemi quotidianamente riscontrati sui processi aziendali. Nel secondo caso, il problema che si pone parte già dal momento del reclutamento, allorquando si deve scegliere se dotare l’organizzazione di risorse con competenze informatiche e statistiche del tutto nuove rispetto al passato, risorse che però avranno poi bisogno di essere formate sul funzionamento dei processi principali dell’organizzazione, oppure se formare le persone che lavorano quotidianamente sui processi sull’uso di strumenti di intelligenza artificiale. In quest’ultimo caso, si tratterà di una formazione ovviamente più superficiale che consenta non tanto di sviluppare da zero nuovi applicativi, bensì di intravedere come questi potrebbero risolvere specifiche problematiche dei processi. Pertanto, la chiave sembra essere la vecchia analisi dei processi che porterà ad individuare quali sono le performance meno soddisfacenti e poi a ragionare su quale leva utilizzare per il miglioramento: intervenire sulle persone, intervenire sull’organizzazione del lavoro oppure intervenire sulle tecnologie.

E’ sempre digitalizzazione dei processi?
Se è vero che i sistemi di intelligenza artificiale tendono a risolvere i problemi cosiddetti complessi (caratterizzati cioè da un risultato globale determinato da un numero elevatissimo di comportamenti individuali come nel caso del traffico, dell’inquinamento, etc) allora bisognerà adottare strategie diverse rispetto ai progetti di digitalizzazione che sono stati intrapresi dalle organizzazioni di recente. In quel caso, infatti, l’approccio era più ingegneristico e cercava di sostituire con l’automazione o con la partecipazione diretta dell’utente ai servizi alcune delle mansioni svolte prima all’interno delle organizzazioni. Per affrontare i problemi complessi con strumenti di intelligenza artificiale sono necessarie competenze ibride. Da un lato è necessaria un’apertura mentale e una fantasia che non sono tipicamente associate agli studi tecnici e, dall’altro, è necessaria una conoscenza delle potenzialità degli strumenti statistici e informatici. Questo concetto di competenze ibride può essere meglio definito proprio basandosi sulla differenza tra digitalizzazione dei processi e sperimentazione di strumenti di intelligenza artificiale (IT o IA). Se nella digitalizzazione appaiono utili competenze di programmazione informatica che servono a saper tradurre nel linguaggio di programmazione (un linguaggio delle macchine appunto!) le necessità degli operatori di processo, nel mondo della IA queste necessità sono sfumate dalle nuove potenzialità dei sistemi che riescono ad utilizzare il cosiddetto linguaggio naturale (inteso come la possibilità di fare richieste alle macchine come se le si facessero ad una persona). Ad esempio, le Chat Bot (motori che riescono a dare informazioni agli utenti non sulla base di menu predefiniti ma “dialogando”) o, più di recente, Chat GPT (Chat Generative Pre-trainer Transformer – trasformatore pre-istruito generatore di conversazioni) che riesce a restituire testi di ottima qualità sui più disparati argomenti richiesti. Pertanto, rispetto ad un profilo di competenze descritto nella tradizionale tripartizione sapere, saper fare e saper essere, il “sapere” inteso come conoscenze informatiche serve ma meno di prima, mentre capacità come il “saper pensare out of the box” saranno sempre più centrali.

Dalla funzione degli strumenti alla loro utilità
Una strada utile può essere quella di distinguere il tipo di supporto che possono dare questi strumenti. Per esempio, si può distinguere tra strumenti per la classificazione oppure strumenti che utilizzano il linguaggio naturale. Nel primo caso, la classificazione può essere utile per tutte le funzioni di vigilanza che le pubbliche amministrazioni si trovano a dover svolgere. I sistemi esperti impareranno da un primo set di pratiche già svolte quali sono le caratteristiche dei soggetti a rischio di comportamento irregolare e, dopo un periodo di apprendimento, riusciranno a classificare come a rischio o non a rischio le nuove pratiche che arrivano. Il linguaggio naturale, invece, potrà essere molto utile nelle amministrazioni per creare servizi di risposta e assistenza attivi molto più a lungo, per tutti i giorni della settimana e magari per tutte le ore del giorno e della notte con delle Chat Bot.  Un esempio recente e molto di moda è la Chat GPT.

Formare persone o anche i sistemi?
Una lettura molto interessante di questa rivoluzione è quella di non porre più il problema di come le persone possano lavorare con i sistemi di IA, bensì quello di considerare questi sistemi dei “soggetti”, degli attori presenti nell’organizzazione con una loro autonomia. Infatti, a questi sistemi si chiede sempre di più di apprendere le conoscenze tacite oltre a quelle codificate, esplicite. E’ un ritorno alla “Knowledge creating company” di Nonaka degli anni 80? Il sistema non deve più solo saper eseguire istruzioni che qualcuno ha tradotto nel suo linguaggio, ma deve saper restituire un testo o dire una frase che sia compatibile con i filtri culturali dell’utente. Si pone, quindi, un tema di formazione molto particolare e del tutto nuovo: quello della formazione dei motori di intelligenza artificiale. Infatti, i sistemi esperti, che apprendono da un set di pratiche o distanze delle quali già si conosce l’esito positivo o negativo, devono essere periodicamente aggiornati in base alle normative che cambiano o alle nuove situazioni di contesto che evolvono. Pertanto, è possibile che in futuro (già ora?) sarà necessario organizzare “corsi di formazione” per aumentare le competenze non più solo delle persone ma anche dei sistemi di intelligenza artificiale. Un esempio è quello dei servizi di auditing che si basano sempre su una rilevazione a campione e che, grazie ai sistemi di intelligenza artificiale, potranno estendere la dimensione di questo campione e, di conseguenza, la significatività del risultato ottenuto. Peraltro, dato che questi sistemi devono verificare la rispondenza dei comportamenti con le norme e le regole, hanno bisogno di essere aggiornati immagazzinando i dati di nuovi set di pratiche già lavorate.

Una sfida non così lontana…
Tutte queste considerazioni dimostrano come la tematica dell’introduzione di strumenti basati sull’intelligenza artificiale nelle pubbliche amministrazioni non sia così lontana nel tempo. Il formatore della PA deve pianificare una rivoluzione nelle competenze dei neo-assunti e delle persone già in organico a fronte di un cambiamento che arriva ad una velocità mai verificatasi prima. Più in generale, dobbiamo porci il quesito se questi strumenti diventeranno dei “colleghi” con una memoria, una cultura e una necessità di essere formati aprendo scenari che, a seconda della nostra propensione al futuro, possono apparire affascinanti oppure distopici.

Luigi De Bernardis

PhD in Managementc, è Responsabile dell’Academy interna in Consob. Sociologo, allievo del Prof. Federico Butera, in precedenza è stato formatore professionista nel Gruppo Tesi su tematiche organizzative. Ha pubblicato testi organizzativi con Franco Angeli e paper sull’identità organizzativa su journal internazionali. E’ anche Coordinatore della Scuola Nazionale Federale FSI per istruttori e dirigenti.

E-mail: luigidebernardis@gmail.com

Autore

Riferimenti

Riferimenti
1 in italiano “agenti intelligenti” mentre nel corrispettivo inglese Artificial Intelligence AI

Leave a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*
*