Manifesto Umanista per l'Intelligenza Artificiale — 2026

AI al servizio
dell'Uomo

Per un'intelligenza artificiale al servizio dell'uomo, dei dati privati e della competenza.

Firmatari

11

PILASTRI

7

Anno

2026

01

L'Uomo Decide, Sempre

  • L'AI non decide. Propone, analizza, accelera, ma l'ultima parola spetta all'uomo.
  • La formazione umana si basa su tre pilastri: informazione, conoscenza e consapevolezza. L'AI può fornire la prima, ma le altre sono esclusivamente umane.
  • L'AI è un amplificatore. Se hai competenze, le potenzia. Se hai caos, lo moltiplica.
  • L'uomo deve sempre validare la qualità dell'output AI. Non è un'opzione, è una responsabilità.
  • La competenza umana non è un 'loop' di controllo. È il filtro critico che trasforma dati in saggezza.
  • Le decisioni etiche, creative o strategiche non possono essere delegate all'AI. Sanità, giustizia, educazione, leadership: qui l'uomo è insostituibile.
02

I Dati Privati Non Sono Merce

  • I dati privati non sono carburante per l'AI. Sono un'estensione dell'identità umana e aziendale. Non si cedono, non si vendono, non si usano senza consenso esplicito.
  • L'AI non ha coscienza. Non valuta il dolore, la giustizia o la bellezza. Può solo analizzare ciò che l'uomo sa interpretare.
  • Le aziende che cedono i dati privati a modelli esterni perdono sovranità. E tradiscono la fiducia di clienti e dipendenti.
  • Il futuro dell'AI aziendale non sono gli LLM generici, ma gli SLM addestrati su dati proprietari. Controllati, spiegabili, allineati agli obiettivi umani.
  • L'AI aziendale non è un servizio in cloud. È un asset strategico, come un brevetto. Va protetto e controllato internamente.
03

SLM vs LLM: Il Futuro è Sovrano

  • Gli LLM pubblici sono come l'elettricità: utili, ma non differenzianti. Il vero vantaggio sta negli SLM sovrani, addestrati su dati che solo tu possiedi.
  • Gli LLM non spiegano le loro risposte. Gli SLM sì, perché lavorano su dati tracciabili e processi trasparenti.
  • Chi dipende solo da LLM pubblici è ostaggio dei loro bias, costi e aggiornamenti. Chi investe in SLM decide il proprio futuro.
  • I modelli addestrati su dati proprietari sono asset esclusivi. Quelli addestrati su dati pubblici sono commodity.
  • Un SLM ben addestrato vale più di un LLM generico. Perché risponde al tuo contesto, non a una media globale.
04

Spiegabilità e Trasparenza

  • Ogni output AI deve essere tracciabile. Dati di input, modello utilizzato, limiti conosciuti e responsabile umano finale devono essere sempre chiari.
  • Se l'AI sbaglia, l'azienda risponde. Non esiste 'l'algoritmo l'ha deciso'. Esiste 'noi non abbiamo validato abbastanza'.
  • La fiducia nell'AI si costruisce con la trasparenza. Nascondere i processi dietro 'proprietà intellettuale' è una scappatoia, non una strategia.
  • Human Certify: ogni dato in uscita dall'AI deve essere certificato da un umano. Chi firma, risponde.
  • Le aziende devono pubblicare un 'AI Impact Statement'. Come un bilancio, ma per misurare l'impatto su dipendenti, clienti e società.
  • I comitati etici non sono facoltativi. Devono includere esperti umani (non solo tecnici) e avere potere di veto.
  • L'AI amplifica i bias dei dati e delle persone che la usano. Spetta all'uomo correggerli, non ignorarli.
05

Meccanismi di Controllo

  • L'AI non è un sostituto della cultura aziendale. È uno specchio: se la tua cultura è tossica, l'AI lo sarà di più.
  • La spiegabilità non è un optional. È il requisito minimo per fidarsi di un modello.
  • I dati privati non si 'anonimizzano' magicamente. Si proteggono con processi rigorosi e responsabilità chiare.
  • L'AI non è un progetto IT. È un progetto umano, che coinvolge etica, formazione e leadership.
  • I bias dell'AI sono i bias dell'azienda. Se ignori i tuoi pregiudizi, l'AI li automatizzerà.
  • L'AI non è un 'collega'. È uno strumento. Non ha diritti, non ha scuse, non ha alibi.
  • L'AI non dovrebbe mai essere l'unico sistema di controllo di un altro sistema AI. Serve sempre un livello umano di supervisione tra due macchine che si influenzano a vicenda.
06

Settori Esclusivamente Umani

  • In sanità, l'AI supporta, il medico decide. Nessun algoritmo può sostituire la relazione tra paziente e professionista.
  • In giustizia, l'AI analizza, il giudice sentenzia. La legge è interpretazione umana, non calcolo algoritmico.
  • In educazione, l'AI personalizza, l'insegnante ispira. La crescita umana non è un problema di ottimizzazione.
  • In HR, l'AI filtra, l'uomo valuta. Le persone non sono dati: hanno storie, emozioni e potenziale invisibile agli algoritmi.
  • In crisi aziendali, l'AI simula scenari, il leader sceglie. La responsabilità non si delega a un modello.
07

Il Futuro è Ibrido, non Automatico

  • L'AI non è il futuro del lavoro. È il futuro del lavoro ibrido: umano + macchina, dove l'uomo guida.
  • Le competenze del 2030 non sono tecniche. Sono umanistiche: etica, pensiero critico, creatività, capacità di validare e contestualizzare l'AI.
  • Le aziende che sopravvivranno non saranno quelle con l'AI più potente. Saranno quelle con gli umani più competenti a usarla.
  • L'AI non è un 'autopilota'. È un co-pilota: attento, competente, ma mai al comando.
  • L'AI non è un 'fine'. È un mezzo per potenziare ciò che gli umani sanno fare meglio.
  • Non esiste 'AI etica' senza umani etici. La tecnologia amplifica i valori di chi la usa: scegli bene chi la guida.
  • Il treno dell'AI è già partito. Ma non è senza conducente: l'uomo deve restare al volante, sempre.
11persone hanno aderito

Leonarda Vanicelli

31 mar 2026

Virginia

24 mar 2026

Francesca Stagnaro

24 mar 2026

Ile Sci

21 mar 2026

Alberto Giovetti

21 mar 2026

Chiara Nadia Lobralesso

21 mar 2026

Firmatario anonimo

21 mar 2026

Cristian Fossoni

21 mar 2026

Alessandro Sanseverino

21 mar 2026

Cesare Torchia

20 mar 2026

Francesca Rossi

19 mar 2026