Les LLM locaux évoluent plus vite qu'on ne le pense
Un nouveau vecteur d'opportunité
- Moins de données quittent le périmètre
- Moins d'exposition
- Moins de risques de data privacy
- Moins de dépendances tierces intégrées dans l'architecture dès le départ
De l'ingénierie de caractéristiques à l'ingénierie de contexte
Le feature engineering part de ce qu'on peut extraire proprement.
Le context engineering part de toutes les données déjà là.
L'ingénierie de caractéristiques part de ce qu'on peut extraire et calculer proprement. L'ingénierie de contexte part de toutes les données déjà là, y compris les parties désordonnées, et les transforme en entrée utilisable au moment où elles sont nécessaires.
Prenons le churn comme exemple. Les deux approches partent du même problème, mais pas du même point de départ.
Le context engineering part de toutes les données déjà là.
Ce n'est pas la fin de la modélisation structurée. Les scores explicites restent la bonne réponse pour certains cas d'usage, ils sont plus faciles à auditer, à gouverner, à évaluer et à industrialiser. Mais, dans un monde où une intelligence artificielle est abondante et bon marché, ils ne sont plus la seule option. Un nouveau modèle va émerger, où la connaissance est produite à partir d'un contexte à l'exécution au lieu d'être pré-intégrée dans un catalogue à sortie fixe.
En pratique, cela rend les données précédemment inutilisables opérationnelles. Ces données existent dans presque tous les CRM et CDP, et elles ne sont connectées à rien d'opérationnel. Elles cessent d'être un poids mort et deviennent une entrée d'enrichissement directement exploitable.
Pour moi, cela est beaucoup plus proche de la promesse initiale de l'IA que les dernières années où tout le monde a créé des usines à scores. Le futur n'est pas de construire des automatisations autour de tâches étroites, mais des systèmes capables de répondre à de nouvelles questions sans avoir besoin d'un nouveau modèle, d'un nouvel ensemble de caractéristiques et de nouveaux flux chaque fois que quelqu'un demande quelque chose de légèrement différent.
Pourquoi cela devient "pratique" maintenant
- Architectures Open MoE
- Inférence quantifiée
- Chargement hybride CPU+GPU
- Service de modèles interchangeables à chaud
- Modèles spécialisés pour des tâches spécifiques
Ce qui change pour l'intelligence client
Les modèles explicites de scoring ne disparaissent pas. Ils deviennent une couche d'intelligence à l'intérieur du système, pas le système entier.