L’administration fédérale teste un chatbot IA basé sur le LLM de Meta
Depuis cinq mois, l’Office fédéral de l’informatique et de la télécommunication (OFIT) expérimente en interne un chatbot IA. Le prototype Gov-GPT s’appuie sur un LLM open source de la famille Llama 3 fourni par Meta.

Un chatbot IA de type ChatGPT est testé depuis cinq mois au sein de l'administration fédérale, rapporte le Tages-Anzeiger. Développé en interne par l'Office fédéral de l'informatique et de la télécommunication (OFIT), l'outil est pour l'instant réservé à un cercle restreint d'utilisateurs : conseillers fédéraux, directeurs d'offices et secrétaires d'Etat.
Selon Georg Preisig, porte-parole de l'OFIT cité par le quotidien alémanique, il ne s'agit pas d'un produit officiel mais d'une première version pilote. Gov-GPT est basé sur un LLM open source de la famille Llama 3, fourni par Meta. Contrairement aux versions publiques de Llama ou de ChatGPT, Gov-GPT fonctionne sur une infrastructure isolée du réseau public, sécurisée par l'OFIT.
Toujours selon le Tages-Anzeiger, cette solution pourrait être utile à différents services fédéraux, par exemple pour l'ajustement en temps réel des prévisions de MétéoSuisse, l'analyse de documents par la Commission de la concurrence, l'exploitation d'un chatbot par l'autorité de surveillance des fondations ou encore le support du service linguistique de la Chancellerie fédérale.
La Confédération fixe les principes du recours à l’IA dans ses services
Cette révélation survient quelques jours après que l'administration fédérale a défini des principes pour l'utilisation de l'IA dans l'administration. Selon ces principes, l'Etat est tenu d'utiliser l'IA de manière responsable, d'acquérir les compétences nécessaires et d'optimiser les processus à l'aide de l'IA. D'ici fin 2025, la Chancellerie fédérale devra, en concertation avec les départements et le Réseau de compétences en intelligence artificielle (CNAI), mettre en œuvre des mesures qui intègrent les règlements existants tout en définissant de nouveaux, selon le communiqué du Conseil fédéral.
Une mesure possible consiste à définir de nouvelles règles pour l'utilisation des systèmes d'IA par les employés de l'administration fédérale, par exemple sous la forme d'instructions. D'ici là, les fiches d'information existantes de la Confédération s'appliquent. En principe, les systèmes d'IA peuvent et doivent être utilisés de manière responsable, mais ils doivent respecter les règles existantes en matière de sécurité de l'information et de protection des données. Le Conseil fédéral souligne que la responsabilité incombe toujours à l'homme et ne peut être déléguée aux systèmes d'IA.