Le Fil Conducteur
À l'Université de Milan, j'ai étudié l'épistémologie — cette branche de la philosophie qui ne demande pas ce que nous savons, mais comment nous pouvons savoir quoi que ce soit. Du falsificationnisme de Popper à l'atomisme logique de Russell, des changements de paradigme de Kuhn aux programmes de recherche de Lakatos : l'analyse rigoureuse de la façon dont les humains construisent, valident et révisent la connaissance scientifique.
À Harvard, travaillant aux côtés de John Nash sur les équilibres de la théorie des jeux et de Gary Chamberlain sur l'inférence économétrique, j'ai vu ces questions philosophiques devenir computationnelles. Comment raisonnons-nous en situation d'incertitude ? Comment actualisons-nous nos croyances face à de nouvelles preuves ? Comment distinguons-nous le signal du bruit dans des systèmes complexes ?
C'est pourquoi mes systèmes d'IA sont différents. Ils sont construits sur une fondation épistémologique : chaque affirmation doit être traçable jusqu'aux preuves, chaque inférence doit être vérifiable, et le système doit connaître — et communiquer — les limites de sa propre connaissance.
La plupart de l'IA aujourd'hui hallucine avec assurance — générant des réponses plausibles sans aucun ancrage dans un savoir vérifié. Ce n'est pas un bug à corriger avec un meilleur entraînement. C'est une défaillance architecturale fondamentale : des systèmes construits pour prédire le prochain token, pas pour raisonner sur la vérité et la justification.
PRISM adopte une approche différente. Il crée des Jumeaux Professionnels d'IA ancrés dans des bases de connaissances spécifiques au domaine, avec des chaînes de raisonnement explicites, des citations de sources et des frontières épistémiques. Pas une "IA qui paraît intelligente." Une IA qui sait ce qu'elle sait — et vous dit quand elle ne le sait pas.