L’administration adore les acronymes. Mais depuis peu, un nouveau trio s’invite dans les appels d’offres publics : IA, scoring automatique, pré-sélection algorithmique. L’objectif affiché ? Gagner du temps, objectiver les critères, et réduire la charge de travail des comités de sélection. Dans les faits, c’est souvent plus complexe que prévu.
Des algorithmes pour noter des projets ?
Dans plusieurs pays européens, on commence à expérimenter des IA qui analysent les dossiers de réponse aux appels d’offres. Le principe : un modèle lit les PDF, classe les réponses selon des critères pondérés (souvent fournis par l’acheteur public), attribue une note, et permet de pré-sélectionner les meilleurs dossiers. Certains outils gèrent aussi la détection de doublons, le respect des clauses, ou l’analyse sémantique des promesses.
Objectivité ou boîte noire ?
Sur le papier, c’est une vraie révolution. Moins de favoritisme, plus de transparence, moins de tâches manuelles. Mais dans la réalité, beaucoup de ces IA fonctionnent comme des boîtes noires. Personne ne sait vraiment comment la note est construite, quelles variables sont favorisées, ou comment les biais sont réduits. Or, un modèle mal calibré peut favoriser les dossiers qui « parlent bien » au détriment de ceux qui proposent des solutions réelles.
Des biais bien dissimulés
Les biais algorithmiques ne disparaissent pas parce qu’on ajoute de l’IA : ils changent de forme. Un langage trop technique peut être survalorisé, les structures moins « professionnelles » défavorisées, les approches innovantes mal comprises. En gros, l’IA peut renforcer l’uniformité plutôt que la diversité.
Et puis il y a la tentation de la paresse : si un outil propose un classement, combien d’acheteurs prendront le temps de relire les dossiers non retenus ?
Une tech utile… à certaines conditions
Utiliser l’IA dans les appels d’offres n’est pas une aberration. Mais ça suppose des garde-fous clairs : transparence sur les critères, auditabilité des modèles, possibilité de recours humain, et vérification que la logique d’innovation ne soit pas écrasée par l’efficacité perçue.
Sinon, on passe d’une logique d’évaluation à une logique d’exclusion automatisée. Et là, plus personne ne gagne, sauf ceux qui savent parler comme des robots.