ReportageTechnologie

Bruxelles, capitale de la surveillance éthique

Pendant qu’OpenAI militarise ses algorithmes avec le Pentagone pour 200 millions de dollars, les fonctionnaires belges s’enferment au WTC III pour coder une IA de confiance. Bruxelles peut-elle encore imposer son éthique face aux géants de la défense ? Reportage au cœur du AI Hackathon 2026.

À deux pas de la gare du Nord, le WTC III se dresse du haut de ses 28 étages. Au rez-de-chaussée, les chercheurs ou simples intéressés de l’IA se rassemblent, fument une dernière cigarette avant de rentrer dans le bâtiment.

EmDee, CC BY-SA 4.0 via Wikimedia Commons

Aujourd’hui on parle IA, mais en particulier comment la développer dans une nouvelle dynamique axée sur la confiance.

Liesel Driver, spécialiste des solutions IA pour le secteur public chez Microsoft, ouvre la session avec une humilité rafraîchissante. Pour elle, nous sommes en 1492. « Nous sommes comme ces explorateurs d’il y a quelques siècles » explique-t-elle. « Ils avaient des outils ; une boussole, des navires, mais ils n’avaient pas de carte. Ils ont commencé le voyage sans savoir exactement où il les mènerait. C’est exactement là où en sont les organisations publiques aujourd’hui avec l’IA. » L’observation est claire et percutante.

L’idée du hackathon organisé avec le SPF BOSA est de rendre témoin d’un système en pleine transition. En 3 jours, tester la viabilité d’une idée, sans avoir la prétention de livrer un produit fini.

Le moment de vérité survient lorsqu’on évoque le cas du SPF Mobilité. Nous sommes en 2026, et pourtant, le service administratif croule sous des formulaires en papier rose pour l’immatriculation des véhicules. Une simple faute de frappe, une rature, et c’est le rejet.

Nous devons admettre l’irrationalité du contraste : d’un côté, des serveurs surpuissants dominent les marchés du web à l’international. Ils sont présents dans toutes nos poches et récoltent nos données à des fins peu éthiques ; de l’autre, des fonctionnaires qui passent leurs journées à scruter des bouts de papier pour comprendre pourquoi un dossier a été refusé. « On ne peut pas imaginer, en tant qu’outsider technologique, ce que cela représente » confie Liesel Driver en montrant des photos de piles de dossiers. Le gain observable à travers l’évolution d’une IA éthique : l’humain ne disparaît pas, il change de métier. Il passe de la « consultation de faits » (qu’est-ce qui est écrit ?) à la « tâche cognitive complexe » (comment résoudre ce cas particulier ?).

De la génération à l’action : le virage « Agentique »

C’est ici que ma compréhension de l’IA a basculé. Jusqu’ici, je voyais l’IA comme un super-secrétaire capable de rédiger des mails (IA générative). Mais à l’EU AI Week, le mot d’ordre est l’IA Agentique.

« Le shift critique, c’est quand l’assistant digital ne se contente plus de donner une information, mais exécute une tâche ».

Dans la police, cela donne des outils capables de lancer automatiquement des procédures d’urgence lors de la disparition d’un mineur, ou d’automatiser le processus de recherches d’indices précieux.

La méthode PwC : Industrialiser l’étincelle

Natasha Deert, directrice chez PwC, apporte du cadre à la recherche en cours ; « Un hackathon donne un prototype, mais pour créer un impact tangible, il faut passer à l’IA Factory, » explique-t-elle.

Sa méthode repose sur trois principes simples mais exigeants :

  1. Le besoin métier d’abord : Ne pas faire de l’IA pour l’IA.
  2. La co-création : Si les utilisateurs finaux ne sont pas dans l’équipe de 6 personnes, le projet échouera.
  3. La confiance par le design : Dans le secteur public, la souveraineté des données et la transparence sont non-négociables.

Elle souligne un point crucial pour la réussite de ces projets : la « sécurité psychologique ». Pour que l’IA progresse, il faut qu’on puisse s’autoriser l’échec, se concentrer sur le processus et non sur le résultat.

Le bilan : 30% de survie, 100% d’apprentissage

À la fin de la conférence, une question de l’auditoire s’impose : combien de ces projets finissent-ils vraiment dans les bureaux des fonctionnaires ? La réponse est honnête : environ 30%.

Ce chiffre pourrait paraître faible, mais dans le contexte des marchés publics, c’est un succès. Car au-delà du code, le véritable gain est humain. Les agents publics repartent avec une compétence nouvelle : la capacité d’imaginer ce qui est possible.

En quittant la salle, on comprend que l’IA au gouvernement n’est pas un grand remplacement, mais une évolution inévitable. À nous de l’investir pour le meilleur.

Article rédigé par Youri Dacosse.