Intelligence Artificielle

L'intelligence artificielle c'est l'avenir, pour le meilleur et pour le pire.

L'usage des algorithmes et systèmes d'intelligence artificielle (IA) touche déjà des millions de citoyens : calcul d'impôts, affectation scolaire, gestion des aides sociales . Ces outils de modernisation de l'action publique posent de sérieuses questions juridiques, éthiques et pratiques.

Pour Claire Hédon, défenseure des droits, «â€¯Il n'y a pas de doute sur le fait que l'IA et les algorithmes sont porteurs de progrès, il n'y a pas de doute non plus qu'ils soient porteurs de risques pour les droits fondamentaux ». Dans son rapport publié en novembre 2024, elle écrit : «â€¯les algorithmes ne sont pas neutres : ils reflètent, amplifient, voire automatisent nos biais ». Gaël Varoquaux, un chercheur français qui fait référence, rappelle utilement que les IA actuelles sont uniquement basées sur des statistiques (elles apprennent depuis des données) et que les biais (qu'il définit comme l'écart entre les données disponibles et le comportement souhaité) sont omniprésents dans les statistiques. Il nous invite à considérer l’IA pour ce qu’elle est réellement aujourd’hui, plutôt que pour ce qu’elle pourrait hypothétiquement être un jour.

Il reste intéressant d'essayer, de tester, et nous suivons avec intérêt les avancées de l'expérimentation Albert France Services menée par l'État. Mais Il serait illusoire de penser que l'IA va magiquement résoudre aujourd'hui les difficultés auxquelles sont confrontées les collectivités dans leurs échanges avec les citoyens (manque de moyens humains et financiers, qualité de service).

Encadrer l'outil

Certains marchands de rêve ont vu dans l'IA une opportunité de siphonner des finances publiques déjà exsangues. À grands coups de promesses non tenues concernant l'apprentissage autonome, on a pu assister à la mise en place de chatbots indigents et inmaintenables.

Mais les chercheurs universitaires commencent à être audibles et nous disent ce que nous savions déjà finalement : un marteau n'est ni bon ni mauvais, il faut encadrer son usage. l'IA, qui ressemble aujourd'hui trop souvent à un marteau démiurge habilement manié par une ribambelle de Thors mercantiles, finira par être utile à l'accomplissement des tâches de service public.

Pour en arriver là, il faudra prendre conscience qu'un service numérique n’est pas – et n’a jamais été – un simple outil. Internet, les réseaux sociaux et l’IA sont des dispositifs sociotechniques conçus par des humains. Ces dispositifs sont opacifiés par l'inextricabilité des algorithmes. Il faudra, autant que faire ce peut, «â€¯ouvrir le capot » pour que l’humain, qui est le point de départ de tout dispositif numérique, en reste le point d’arrivée. Cela nécessitera l'utilisation de logiciels ouverts et un cadre d'utilisation fort, lisible, démocratiquement choisi. Ce cadre peine encore à se mettre en place même si le règlement européen AI Act est entré en service en août 2024.

Le solutionnisme technologique épuise les ressources

Le solutionnisme technologique nous invite à recourir à des outils coûteux, là où des solutions organisationnelles moins onéreuses pourraient être privilégiées. Cela génère des coûts pour les finances publiques, mais aussi des coûts environnementaux : le coût environnemental de l'IA est immense.

L'entraînement des modèles basés sur l'apprentissage profond (deep learning) consomme plusieurs centaines de mégawattheures. Les inférences (prédictions ou tâches réalisées par un modèle après entraînement) nécessitent également de l'énergie, notamment pour l'utilisation en temps réel à la mode ChatGPT. La demande induite en processeurs spécialisés (comme les GPU et les TPU) doit aussi être prise en compte, ces derniers consomment des ressources minérales (comme le lithium, le cobalt, et le silicium) et génèrent des émissions de COâ‚‚ lors de leur fabrication.

Nos marchands de rêve expliquent parfois que l'IA diminuera globalement la consommation d'énergie en optimisant les processus industriels ou en améliorant les systèmes d'énergie renouvelable. Nous accueillerons ces annonciations intéressées avec les réserves qui s'imposent.

Bigger is not better

L'avenir de l'IA ne passe plus par l'utilisation de modèles de langage (LLM) toujours plus gargantuesques. La loi du toujours plus gros était un postulat bancal destiné à attirer toujours plus d'investisseurs. Gaël Varoquaux co-signe un article qui permet de comprendre l'imposture.

Cette loi contredite par les dernières versions de ChatGPT ou Gemini (qui stagnent par rapport aux versions précédentes en dépit d'un doublement des ressources), a reçu un coup que l'on peut espérer fatal avec la sortie en janvier 2025 de DeepSeek : l'IA chinoise Open Source fait aussi bien que les mastodontes américains avec cinquante fois moins de ressources (même si elle pose d'autres problèmes).

Le passage du TTC (Test Time Compute) modèle actuellement dominant qui ne permet aucun apprentissage réel, au TTT (Test Time Training) qui permet d'ajuster les paramètres du modèle pendant l'inférence, devrait se généraliser pour économiser des ressources. S'il est trop tard pour empêcher Stargate, le projet à 500 milliards de dollars de Donald Trump destiné à doper l’intelligence artificielle, on peut espérer suivre une voie moins délétère en France dans le sillage du CeSIA et de son appel pour fixer des limites.