Il Filo Conduttore
All'Università di Milano ho studiato epistemologia — quella branca della filosofia che non chiede cosa sappiamo, ma come possiamo sapere qualcosa. Dal falsificazionismo di Popper all'atomismo logico di Russell, dai cambiamenti di paradigma di Kuhn ai programmi di ricerca di Lakatos: l'analisi rigorosa di come gli esseri umani costruiscono, validano e rivedono la conoscenza scientifica.
Ad Harvard, lavorando al fianco di John Nash sugli equilibri della teoria dei giochi e di Gary Chamberlain sull'inferenza econometrica, ho visto queste domande filosofiche diventare computazionali. Come ragioniamo in condizioni di incertezza? Come aggiorniamo le credenze con nuove evidenze? Come distinguiamo il segnale dal rumore in sistemi complessi?
Ecco perché i miei sistemi di IA sono diversi. Sono costruiti su una fondazione epistemologica: ogni affermazione deve essere tracciabile alle evidenze, ogni inferenza deve essere verificabile, e il sistema deve conoscere — e comunicare — i limiti della propria conoscenza.
La maggior parte dell'IA oggi allucina con sicurezza — genera risposte plausibili senza alcun fondamento in conoscenza verificata. Non è un bug da correggere con un addestramento migliore. È un fallimento architetturale fondamentale: sistemi costruiti per predire il token successivo, non per ragionare su verità e giustificazione.
PRISM adotta un approccio diverso. Crea Gemelli Professionali di IA fondati su basi di conoscenza specifiche del dominio, con catene di ragionamento esplicite, citazioni delle fonti e confini epistemici. Non "IA che sembra intelligente." IA che sa cosa sa — e ti dice quando non lo sa.