21 août 2024 –

Au cours des deux dernières années, l’intelligence artificielle a connu une avancée significative grâce à l’accélération de l’adoption des ‘Transformers’, une technologie de réseaux de neurones introduite en 2017. Cette innovation est la base de l’IA générative. En août 2024, l’accent est encore mis sur l’augmentation de la taille des modèles pour maximiser leur apprentissage à partir de vastes corpus documentaires. L’objectif est d’améliorer leurs performances sur divers benchmarks et de les classer selon le système ELO de LMsys.
La principale activité d’intégration des modèles LLM consiste à structurer le corpus documentaire d’une entreprise en une base vectorielle (‘embeddings’) accessible aux LLMs. Ensuite, il est essentiel de formuler les requêtes (‘prompt engineering’) en utilisant cette base de connaissances comme source de données non-paramétriques. Bien que cette méthode soit largement adoptée, elle présente deux défis majeurs.
Défi #1 : Externalisation des données vers des environnements tiers, souvent en dehors de l’UE
Les modèles LLM massifs, tels que GPT et Gemini, comportent un nombre phénoménal de paramètres, rendant leur hébergement dans les centres informatiques des entreprises françaises pratiquement impossible. Les entreprises se tournent donc vers les Clouds des hyperscalers tels que Azure, Google, AWS ou encore IBM.
Cependant, un LLM externe non entraîné sur les données spécifiques de l’entreprise génère immanquablement des ‘hallucinations’ sur des questions spécifiques. Il est donc crucial de lui fournir des données de l’entreprise via des ‘prompts’, ce qui implique de stocker ces données chez les fournisseurs de LLM, qui peuvent bien entendu les utiliser pour entraîner leurs futures versions de leurs modèles.
Cette approche de LLMs massifs ne représente donc qu’une première étape dans l’adoption à grande échelle de l’IA générative.
Défi #2 : La connaissance métier n’est pas intégrée dans les LLM génériques
Prenons l’exemple du développement logiciel. Bien que de nombreux LLM aient réalisé des avancées significatives en 2024, surpassant leurs prédécesseurs dans les benchmarks HumanEval, ils restent limités à la production de fonctions relativement simples par rapport à celles demandées pour des applications d’entreprise de plusieurs dizaines voire centaines de milliers de lignes de code. Ils manquent aussi de compréhension des spécificités de ces applications d’entreprise.
Par exemple, chez Awels Engineering, dans notre pratique IBM Maximo, nous utilisons les langages Java et Jython, maîtrisés par des LLM tels que GPT. Cependant, sans la connaissance des bonnes pratiques, des API, et des méthodes de modernisation, un LLM générique n’offre que peu de valeur ajoutée pour automatiser ces développements.
Évolutions Majeures de l’IA Générative
– L’apparition de modèles OpenSource de petite taille
Des modèles d’intelligence artificielle OpenSource, variant entre 3 et 7 milliards de paramètres, ont émergé. Ces modèles plus légers permettent une adoption plus large et flexible, notamment pour les organisations qui souhaitent personnaliser et adapter les modèles à leurs besoins spécifiques sans nécessiter des ressources informatiques massives. Ils peuvent en outre être créés et opérés complètement au sein de l’entreprise.
– L’approche “Agentic AI”
Cette nouvelle approche propose la collaboration entre plusieurs agents d’intelligence artificielle. L’idée est de permettre à ces agents de travailler ensemble pour résoudre des problèmes complexes, en combinant leurs capacités individuelles de manière synergique. Cela ouvre la voie à des systèmes plus adaptatifs et intelligents, capables de gérer des tâches plus sophistiquées grâce à la coopération entre agents.
Ces évolutions soulignent la rapidité avec laquelle le domaine de l’IA générative progresse, rendant obsolètes les technologies qui ne sont pas mises à jour régulièrement.
Évolution #1: L’OpenSource : Un catalyseur d’innovation pour l’IA Générative
L’OpenSource joue un rôle déterminant dans l’innovation en matière d’intelligence artificielle générative. Mistral AI a récemment démontré cette dynamique en lançant un modèle de 7 milliards de paramètres sous licence Apache. Ce modèle, exécutable localement sur des appareils équipés de GPU professionnels ou grand public, y compris certains smartphones, rend l’IA plus accessible et flexible pour les utilisateurs et les entreprises. Cette accessibilité permet à un plus grand nombre d’acteurs de participer à l’innovation technologique.
Chez Awels Engineering, l’OpenSource a permis le développement de solutions sur mesure, comme le modèle Maximus, qui a été “sur-entraîné” à partir du modèle Phi 3 de Microsoft pour acquérir des connaissances spécifiques sur IBM Maximo. Les premiers résultats obtenus avec Maximus sont prometteurs : il atteint une performance de 52% à la certification professionnelle d’IBM Maximo, surpassant ainsi un GPT-4 utilisant le même corpus qui n’atteint que 30%. Cette amélioration montre le potentiel des modèles OpenSource pour répondre à des besoins spécifiques et complexes.
L’objectif d’Awels Engineering est d’atteindre une performance de 80 à 85% avec Maximus, ce qui équivaut au niveau d’un expert ayant plus de cinq ans d’expérience. Ce projet illustre comment l’OpenSource peut être un vecteur d’innovation, permettant aux entreprises de repousser les limites de l’IA et de développer des solutions avancées adaptées à leurs besoins. Cette approche ouvre de nouvelles perspectives pour l’adoption et l’optimisation de l’IA dans divers secteurs.
Évolution 2: Les Essaims d’Agents IAG : Une révolution collaborative en 2024
En 2023, une nouvelle approche a émergé dans le domaine de l’intelligence artificielle générative (IAG) : la collaboration entre agents multiples pour résoudre des problèmes spécifiques. Cette méthode, illustrée par le framework AutoGen de Microsoft, repose sur la création de squads d’agents spécialisés, similaires à une équipe de travail traditionnelle. Chaque agent, doté de son propre modèle de langage (LLM) “sur-entraîné”, outils et corpus documentaire, joue un rôle distinct tel que Product Owner, Développeur, Testeur ou SRE si on considère une équipe de développement comme exemple.
Cette approche innovante permet aux agents de travailler ensemble pour résoudre des problèmes complexes. Par exemple, dans le développement logiciel, chaque agent apporte son expertise spécifique pour collaborer efficacement. Cette méthode promet d’améliorer la qualité et l’efficacité des solutions développées, en tirant parti des forces combinées de chaque agent spécialisé.
Chez Awels Engineering, cette stratégie a été adoptée pour les activités de modernisation applicative. Des équipes d’agents, appelées “Essaim” (ou “Swarms”), ont été formées pour effectuer le reverse-engineering des applications monolithiques et les transformer en applications Cloud Native. Cette initiative souligne l’engagement d’Awels Engineering à exploiter les dernières avancées technologiques pour offrir des solutions innovantes. Pour en savoir plus, des informations complémentaires sont disponibles sur notre chaîne YouTube.
Une approche innovante dans le Consulting IT
Awels Engineering utilise les nouvelles approches de collaboration entre agents pour transformer ses services de conseil, en particulier dans des domaines à forte complexité technologique. Traditionnellement, une équipe de conseil comprend un Leader, des Seniors, et des Juniors, chacun ayant des rôles spécifiques dans la gestion et l’exécution des projets. Cependant, Awels Engineering innove en intégrant des “essaims” d’agents spécialisés pour certaines activités de conseil, ce qui peut révolutionner les méthodes existantes.
Cas d’application des essaims d’agents IAG chez Awels Engineering:
1/ Modernisation des Infrastructures Cloud “On-Premise”: Utilisation d’agents pour analyser et transformer les infrastructures existantes vers des solutions cloud modernes.
2/ Modernisation des Applications Monolithiques et ERP: Par exemple, avec IBM Maximo, les agents aident à effectuer le reverse-engineering et la transformation vers le nouveau socle Cloud Natif.
3/ Modernisation des Pratiques de Développement: Adoption de l’IAG pour accélérer la mise en œuvre du Platform Engineering, optimisant ainsi les processus de développement.
Notre accompagnement personnalisé
Awels Engineering propose également d’accompagner d’autres entreprises dans d’autres secteurs dans une réflexion similaire. Par exemple, pour les cabinets d’avocats, des agents spécialisés peuvent être créés et entraînés sur le corpus juridique officiel et sur celui du cabinet, pour faciliter la préparation des dossiers.
Pour plus d’informations ou pour discuter de la manière dont Awels Engineering peut vous aider à intégrer ces innovations dans votre domaine, n’hésitez pas à contacter : contact@awels-engineering.com.