IA générative : une méthode miracle pour qu’elles ne fassent plus d’erreurs ?
C’est le talon d’Achille des IA génératives. Le défaut que toutes les entreprises du secteur tentent de corriger. Les réponses de ChatGPT et consorts à nos questions sont toujours bien tournées. Hélas, elles ne sont pas toujours exactes. Elles peuvent inventer avec aplomb des publications scientifiques. Narrer le règne de rois n’ayant jamais existé. Régler ce problème serait un tournant décisif pour la filière. Cela bouleverserait ni plus ni moins que la manière dont on peut apprendre et s’informer. Raison pour laquelle la sphère de l’IA s’enflamme en ce moment pour trois petites lettres : "RAG". Un sigle désignant une méthode prometteuse : la génération augmentée de récupération ("Retrieval Augmented Generation" en anglais).
Pour comprendre cette révolution, il faut se pencher d’abord sur la raison pour laquelle les IA génératives affirment parfois des choses complètement fausses. Les grands modèles de langue (LLM) génératifs sur lesquels reposent des outils tels que ChatGPT ou Gemini (ex-Bard) sont entrainés sur d’immenses bases de texte. Qu’apprennent-ils dessus ? "A prédire le mot suivant le plus probable quand on leur donne un début de texte", explique Benoît Sagot, chercheur spécialisé en traitement automatique des langues à l’Institut National de Recherche en Informatique et Automatique (Inria). "De proche en proche, poursuit l’expert, l’IA prédit un mot, puis l’autre, jusqu’à fabriquer parfois de longs textes."
Si ces intelligences artificielles génératives sont étonnamment douées pour tenir une conversation, ce n’est pas parce qu’elles comprennent ce qu’on leur dit ou sont en capacité de raisonner. C’est, en réalité, lié à une étape de leur construction appelée "RLHF", le renforcement à partir de rétroactions humaines. "Il se fait en trois étapes. D’abord, on montre à l’IA de nombreux exemples de dialogues. Dans un deuxième temps, on lui transmet des évaluations faites par des humains de la qualité des réponses de ses versions plus anciennes. Pour terminer, l’IA va s’entraîner à prédire ce feedback humain, elle va donc d’une certaine manière apprendre à auto-évaluer ses réponses", décrypte Benoît Sagot.
La méthode RAG aide les IA à ne pas se tromper
Mais une fois l’entraînement terminé, les IA génératives ne sont plus connectées aux immenses corpus de textes qu’elles ont avalés. "Elles sont un peu comme des étudiants qui ont révisé à la bibliothèque, le jour de l’examen : elles n’ont pas accès aux livres et répondent de tête", illustre le chercheur. Au quotidien, les humains, eux, exploitent pourtant tous les moyens à leur disposition (Internet, livres, rapports…) pour travailler plus efficacement. Alors pourquoi ne pas laisser les IA faire de même ? C’est ici qu’intervient la méthode "RAG". Elle propose précisément de connecter les intelligences artificielles génératives à des bases documentaires. Lorsqu’on interroge l’IA, elle peut dès lors chercher des informations en rapport avec notre phrase. En coulisses, elle va ensuite enrichir notre question d’éléments de contexte dénichés dans cette base, augmentant ainsi la probabilité que la réponse générée soit exacte.
Ce n’est pas la seule vertu de la méthode "RAG". Elle ancre aussi les IA dans l’actualité, domaine dans lequel elles pataugent pour l’heure. Car la puissance de calcul nécessaire à l’entraînement d’une IA coûte très cher et ce processus prend du temps. Une fois que cette phase est terminée, on ne peut la réitérer constamment afin d’ajouter à la base d’entraînement des données récentes. C’est la raison pour laquelle la version de ChatGPT adossé à GPT 3.5 n’est pas pertinente sur des évènements postérieurs à janvier 2022, et celle à GPT-4, sur l’actualité plus récente qu’avril 2023.
Combiner la puissance des LLM à des bases documentaires
La méthode "RAG" permet par ailleurs de tisser une passerelle entre les IA et des documents d’entreprises souvent confidentiels. Avec la start-up d’IA Dust, le groupe Malt qui met en relations entreprises et free-lances s’est ainsi créé des robots conversationnels capables d’aller fouiller sa documentation interne. "Si puissant soit-il, un GPT-4 n’aurait pas à lui seul la capacité de bien renseigner nos salariés sur le fonctionnement de Malt ou notre système de pricing car le LLM d’Open AI n’a pas été entraîné sur ces informations. Nos chatbots peuvent, en revanche, identifier des documents internes en lien avec sa question et lui faire une réponse informée", explique Claire Lebarz, vice-présidente Data et IA de Malt. Le tout en offrant une réponse aussi synthétique ou détaillée que souhaité, car ces chatbots sont, eux aussi, adossés aux LLM dernier cri d’entreprises comme OpenAI, Google ou Mistral.
En test pour l’heure, ils s’adresseront chacun à un service différent (relation client, RH, ventes, support…) du français Malt qui emploie 600 salariés. "Cela peut faire gagner beaucoup de temps à nos collaborateurs. D’autant que nous sommes présents dans 9 pays, et que les équipes doivent jongler avec une multitude de marchés et de réglementations nationales", confie Claire Lebarz. Pour les nouvelles recrues, de tels chatbots sont également des outils de renseignements précieux. "Créer des chatbots avec Dust est rapide, précise Claire Lebarz. La clé est de bien bâtir les bases documentaires à laquelle ils seront reliés. Et de trouver les personnes qui sauront actualiser ces bases lorsque cela est nécessaire."
La méthode RAG garantit-elle la fiabilité des réponses des IA génératives ? "Pas à 100 %", met en garde Benoît Sagot, "mais elle est l’améliore significativement." Surtout, l’utilisateur pourra évaluer plus facilement l’exactitude des éléments présentés, en demandant à l’IA les sources prises en compte pour formuler la réponse.
Les chercheurs en IA de Meta
Des techniques de génération augmentée de récupération ont été dessinées dès 2020 par Meta. Mais à l’époque, les IA génératives n’étaient pas aussi performantes ni utilisées. Depuis, les choses ont bien changé : ChatGPT est passé de 1 à près de 180 millions d’utilisateurs mensuels actifs entre fin 2022 et août dernier. Les outils concurrents ont fleuri. Combler leurs lacunes est devenu la priorité des géants de la tech. Les dernières IA plus puissantes sont, du reste, capables de prendre en compte davantage d’éléments contextuels pour formuler leurs réponses. "Et la manière dont les systèmes RAG vont récupérer des documents dans les bases s’est beaucoup améliorée", précise Benoît Sagot. Un cocktail gagnant.
L’éducation aux intelligences artificielles génératives aura cependant, elle aussi, un rôle clé à jouer. Le "prompt engineering", la science de bien formuler les demandes aux IA, maximise en effet les chances d’avoir des réponses pertinentes. Plus la population se familiarisera avec les rouages de ces mystérieux systèmes, plus elle saura ce qu’elle peut leur demander les yeux fermés… Et ce qu’il vaut mieux vérifier à deux fois.