L’Intelligenza Artificiale è oramai una realtà: entrata in silenzio nelle aziende, sta trasformando il lavoro giorno dopo giorno. Automazioni sempre più sofisticate si occupano già delle attività più ripetitive: dalla gestione di dati e documenti alla corrispondenza, dalla compliance finanziaria e legale fino alle analisi predittive sui comportamenti dei clienti. Un cambiamento che ha liberato energie preziose, permettendo alle persone di lasciare la routine per concentrarsi su ciò che conta davvero: decisioni strategiche, creatività, relazioni umane. Ci eravamo già espressi sul piano dell’antropologia cattolica, sollecitando l’urgenza di una riflessione del magistero sulle Rerum Digitalium, riguardo alla quale Papa Leone XIV, nel suo discorso alla Conferenza Episcopale Italiana, toccherà gli stessi nodi tematici. Oggi vogliamo guardare lo stesso tema da due prospettive concrete. La prima è professionale: lo facciamo con Gaëtan Cantale, che nei suoi corsi MBA ha reso l’uso dell’IA non solo uno strumento ma una tappa obbligata per i suoi studenti. La seconda è normativa: una lettura ragionata dell’appena approvato disegno di legge sulle Disposizioni e deleghe al Governo in materia di intelligenza artificiale. Un provvedimento presentato dalla Presidente del Consiglio Giorgia Meloni e dal Ministro della Giustizia Carlo Nordio, giudicato da molti come liberticida, e di cui si è discusso molto meno di quanto la sua portata meriterebbe.
L’INTERVISTA
Gaëtan Cantale è docente al Webster University, Campus di Ginevra, specializzato nell’integrazione dell’Intelligenza Artificiale nei programmi di formazione manageriale. Si occupa di rendere l’IA uno strumento centrale nei processi formativi — non un ornamento, non un rimedio, ma un banco di prova responsabile. I suoi interessi di ricerca includono l’uso aumentativo dell’IA, la governance algoritmica, l’etica nel machine learning, e la formazione di leader capaci di bilanciare tecnologia, persone e decisione responsabile.
Professore, partiamo dall’aula. Davvero lei obbliga gli studenti a usare l’IA? Non teme di addestrare una generazione di manager incapaci di pensare senza stampella digitale?
Non si tratta di una stampella, ma di uno strumento. In aula l’IA non è tenuta ai margini: è richiesta al centro del lavoro. Strutturo le consegne affinché gli studenti la usino attivamente e proattivamente. E non valuto la quantità di “prompt” digitati – ovvero delle richieste che essi fanno alla AI –, ma la capacità di trasformare i modelli in miglioramenti misurabili senza abdicare al giudizio umano.
Insomma, Excel 2.0?
Esatto. Come Excel rispetto ai registri cartacei o i database rispetto agli schedari. L’IA riduce tempi d’apprendimento, democratizza analisi un tempo proibitive, libera attenzione manageriale. Tuttavia, affermare che l’AI è positiva non significa dire che è infallibile: un foglio Excel può falsare una decisione con una formula sbagliata. Lo stesso vale per un modello generativo. Serve sempre un umano sveglio alla cabina di controllo.
Eppure, fuori dall’aula si grida al disastro occupazionale. L’IA ruberà posti di lavoro?
I dati iniziano a distinguere mito e realtà. Uno studio del National Bureau of Economic Research mostra effetti diseguali: l’impatto maggiore è sui profili junior, nelle occupazioni più codificate. Dove il lavoro è mera routine testuale, l’automazione galoppa. Dove invece contano vincoli, persone, responsabilità, l’IA accelera, ma non sostituisce.
Quindi la solita retorica: non paura, ma opportunità?
Più che slogan, è un discrimine operativo. C’è un uso automativo, che consegna tutto alla macchina e spera nel miracolo, e c’è un uso aumentativo, in cui l’umano definisce il problema, fissa le soglie, verifica le evidenze e firma la decisione. Con l’IA vale la stessa regola che con Excel: mai fidarsi di un modello non auditato, non sottoposto a controllo.
Bene, ma come si traduce questa filosofia nella carriera di chi esce da un MBA?
È semplice. Significa scegliere ruoli in cui l’IA è copilota e l’umano resta proprietario del ciclo decisionale. Io li sintetizzo in sei archetipi che non passano di moda.
Primo, l’orchestrazione delle decisioni: tarare un prezzo, bilanciare margini e quote di mercato, scegliere priorità su una roadmap. L’IA prepara scenari, ma il trade-off resta umano. Secondo, la governance, il rischio, la qualità: più usiamo l’IA, più servono persone capaci di fissare regole, soglie, punti di controllo. Il dovere di diligenza non si esternalizza. Terzo, la leadership del cambiamento: i PlayBook restano carta straccia senza leader che ascoltino, rimuovano attriti, conquistino adozione. Quarto, la commercializzazione: lì dove la sofferenza del cliente incontra la tecnologia, servono negoziatori, non solo prompt engineer. Quinto, le operazioni complesse: supply chain, sanità, energia. I numeri non sempre concordano con la realtà e la scelta finale è un arbitraggio etico, oltre che economico. Sesto, la cura dei dati come asset: tassonomie, metadati, politiche di accesso. È qui che muoiono le allucinazioni e nascono risposte affidabili.
Tutto molto nobile. Ma alla fine: non stiamo solo cambiando padrone, da Excel a ChatGPT?
Finché l’umano resta principio organico della propria conoscenza e azione, e concepisce l’IA come estensione e non sostituto, allora l’IA diventa davvero positiva. Ma se abdica al controllo, cambia padrone, sì.
SINTESI RAGIONATA DEL DISEGNO DI LEGGE
Il Parlamento ha approvato la prima legge italiana sull’intelligenza artificiale. Una norma attesa, presentata come scudo contro i rischi di una tecnologia che cambia velocemente il nostro modo di vivere e lavorare: tutela dei dati, contrasto alla disinformazione, garanzie di sicurezza. Ma a guardarla da vicino, questa legge solleva domande: fino a che punto difende davvero i cittadini, e quando invece rischia di diventare un freno alla libertà, all’innovazione e alla responsabilità individuale?
Quando il potere si concentra. Il testo affida i compiti di controllo a strutture interne allo Stato, senza garanzie di reale indipendenza. Significa che decisioni delicate, come stabilire se un contenuto generato dall’IA “interferisca con il dibattito democratico”, potrebbero finire nelle mani di pochi. Il rischio non è teorico: meno pluralismo, più discrezionalità, maggiore incertezza per cittadini e imprese.
Il nodo dei dati e la “sovranità digitale”. C’è poi la questione dei dati. La pubblica amministrazione dovrà privilegiare fornitori che custodiscono informazioni strategiche su server nazionali. Una scelta che suona rassicurante, ma che porta con sé contraccolpi: costi più alti, meno concorrenza, ostacoli all’ingresso di nuove realtà. L’effetto paradossale potrebbe essere un’Italia più protetta ma anche più isolata nel grande ecosistema digitale globale.
Regole ancora scritte a metà. Gran parte delle decisioni concrete è rinviata a futuri decreti del Governo. In altre parole: il quadro resta incerto. Per chi fa impresa o ricerca, pianificare diventa complicato se le regole possono cambiare strada facendo.
La libertà di parola tra le righe. Il DDL dichiara che l’IA non dovrà “nuocere al dibattito democratico”. Una frase che sembra di buon senso, ma che senza definizioni precise apre scenari ambigui: chi stabilirà cos’è “nuocere”? E se per paura di sbagliare editori, piattaforme e ricercatori scelgono di auto-limitarsi, il rischio è una cultura più povera e un dibattito pubblico più fragile.
Autori, creatività e dati personali. Il legislatore ha chiarito che le opere generate dall’IA saranno protette solo se c’è un apporto umano rilevante. Giusto, forse, ma difficile da applicare: quanto deve pesare la mano dell’uomo? A chi giova stabilirlo? È un terreno in cui i grandi attori, con risorse legali e organizzative, partono avvantaggiati rispetto ai piccoli.
Sul versante dei dati, la legge consente il riuso di informazioni personali per motivi di “rilevante interesse pubblico”, anche senza consenso esplicito. Una formula che lascia i cittadini con meno potere decisionale sulla propria identità digitale.
Cosa rischiamo se la norma resta così com’è? Potremmo assistere a un clima di auto-censura diffusa, con piattaforme e ricercatori che scelgono la prudenza al posto della creatività. La burocrazia potrebbe trasformarsi in una barriera, appesantendo soprattutto startup e piccole imprese con procedure complesse e costi aggiuntivi. Allo stesso tempo, lo Stato avrebbe margini sempre più ampi di discrezionalità nell’imporre regole restrittive, mentre i cittadini vedrebbero ridursi il proprio controllo sui dati personali. Infine, un quadro percepito come instabile rischierebbe di spingere investitori e talenti a guardare altrove, impoverendo ulteriormente il tessuto innovativo del Paese.
Tra tutela e innovazione. La legge italiana sull’IA nasce con una buona intenzione: proteggere la società. Ma come spesso accade, il confine tra protezione e freno è sottile. A decidere se diventerà un argine utile o una gabbia troppo stretta saranno i decreti attuativi, e soprattutto la capacità di bilanciare due esigenze che non possiamo contrapporre: sicurezza e libertà, innovazione e responsabilità.
Roberto Manzi – Author | PhD, Communication Sciences | Lic. Theology
Ti piace 300 Denari? Seguici su Telegram, Instagram, Facebook o X!
Contatto e-mail e presentazione della rubrica
Ti piace 300 Denari? Seguici su Telegram, Instagram, Facebook o X!
Contatto e-mail e presentazione della rubrica
