Le désastre total dont on parle est le résultat de décennies de détricotage des services publics. Dans la bouche du ministre de la Fonction Publique, la technique n'est qu'un cache-misère qui sert à justifier davantage encore de désengagement de l’État. Il entretient l'idée mensongère d'un solutionnisme technologique qui prétend résoudre tous nos maux à coups de techniques immatures et promues par des gens sans scrupules qui raisonnent en termes de ROI sur leurs investissements financiers.
On pouvait déjà permettre le dépôt de plainte sans passer par le commissariat avec les techniques existantes. Les LLM n'y changent rien et ce n'est pas ce dont parlent le ministre ou Xavier Niel. Leur propos est d'imaginer un gain de temps (et de productivité) si l'on transcrit automatiquement ce que disent les plaignants, au lieu de rédiger soi-même. Or les IA ne peuvent pas remplacer la nécessité d'accueillir les victimes, de les écouter, de les aider à exprimer et formuler ce qu'elles ont vécu et de les orienter dans la recherche d'une réparation. C'est d'ailleurs la promesse : être plus au contact du public. Ces gens qui se croient géniaux n'ont sans doute jamais conduits, transcrits ou analysés d'entretiens de leur vie : d'abord un entretien ne fonctionne pas sans un interlocuteur compétent ; ensuite les IA de transcription font beaucoup de coquilles, il faut repasser derrière ; enfin la parole orale est bien plus difficile à analyser et interpréter qu'une déclaration rédigée pour formaliser un témoignage.
Tant mieux si l'on équipe les fonctionnaires d'outils éprouvés pour comprendre une victime dans sa langue maternelle. On pourrait tout de même regretter que cela prenne la place des interprètes qui savent traduire bien au-delà des mots. Quoiqu'il en soit, cela ne dispensera pas de former à l'écoute et à la législation. Pour le reste, si le propos est d'accepter que les fonctionnaires de police puissent être analphabètes, ce n'est pas un progrès. Comme le développait récemment Morozov pour Le Monde Diplomatique, tant qu'on concevra l'IA comme un moyen d'augmenter des individus diminués, on passera complètement à côté. Ces techniques pourraient sans doute être conçues et mises en œuvre pour nous améliorer, mais ce n'est pas ce dont on nous parle ici.
Quant aux benchmark, effectivement on parle de taux d'erreur entre 1% et 3% dans le cas des RAG. Dans bien des applications, un tel taux reste trop important. Par ailleurs, tant que les utilisateurs ne comprendront pas le fonctionnement de ces outils et croiront dialoguer avec une entité intelligente, ils seront incapables d'évaluer la pertinence de la réponse à un prompt. Savoir que le LLM ne traite que le texte, ne sait pas forcément traiter des données tabulaires et encore moins des données présentées sous forme de graphique (format image) est indispensable. Quand bien même, sans expertise sur ce qu'on lui demande de produire, on se contente d'un rapport magique à la technique, on ne peut pas discerner les réponses correctes de celles qui ne sont que plausibles. Or avec l'expertise nécessaire, l'IA n'apporte pas forcément de gros gains de productivité... A supposer qu'être plus productif soit souhaitable si cela signifie s'épuiser en multipliant encore les tâches et la quantité d'information à traiter au quotidien.