Berger-Levrault
43.5414177,1.5121037
Sujet : Détection et gestion d'incertitude dans les réponses d'agents IA
Contexte :
Au sein de la Direction de la Recherche et de l'Innovation Technologique (DRIT), le Lab IA explore les nouveaux paradigmes d'intelligence artificielle, et en particulier l'intégration des modèles de langage de grande taille (LLM) dans des systèmes multi-agents intelligents.
L'un des défis majeurs de ces systèmes concerne la fiabilité et la transparence des réponses générées : les modèles peuvent produire des affirmations incorrectes tout en affichant une confiance élevée. Cette « illusion de certitude » nuit à la confiance des utilisateurs et à la robustesse globale du système.
Le stage s'inscrit dans une démarche de R&D exploratoire, visant à concevoir et expérimenter des mécanismes d'auto-évaluation et de calibration de confiance pour des agents conversationnels intégrant des LLM. Ce travail contribuera à l'amélioration de la fiabilité, de la traçabilité et de l'ergonomie...