logo_blanc
Rechercher

Pourquoi le RAG est l’élément clé d’une IA générative fiable en entreprise

LLMClose up of woman’s hand touching illuminated and multi-coloured LED display screen, connecting to the future. People, lifestyle and technology

Bien que les grands modèles de langage existent depuis des décennies, la sortie de ChatGPT et d’autres applications d’IA générative ont mis les LLM sous les feux de la rampe, et à juste titre.

Une contribution de Jean Ferré – CEO de Sinequa

 

Les LLM sont devenus la colonne vertébrale de certaines des applications les plus innovantes pour la traduction, l’analyse de sentiments, les chatbots, les assistants virtuels, les copilotes, les applications de génération de contenu et de code, et bien plus encore. Dans l’entreprise, les modèles d’IA générative ont des limitations significatives dues aux hallucinations et au contexte limité. Ils se heurtent à des cas d’utilisation fondés sur des faits, en répondant à des questions, et ne peuvent traiter que des connaissances publiques -. Pour que les applications d’IA générative soient viables, elles doivent fournir des informations exactes et traçables de manière sécurisée et évolutive.

En 2023, le Retrieval-Augmented Generation (RAG) est apparu comme une solution prometteuse. Cette technique associe la recherche d’entreprise aux LLM : le système de recherche effectue la récupération (R), les résultats de la recherche augmentent (A) la demande et la GenAI génère (G) la réponse.

Alors, allons un peu plus dans le détail à propos du RAG, son importance et son rôle à jouer  dans la prochaine vague d’innovation.

 

Qu’est-ce que le RAG et pourquoi cette technique est-elle importante ?

Le RAG signifie simplement effectuer une recherche avant d’engager le LLM : Utilisez la recherche pour trouver (récupérer) les meilleures informations disponibles (R) Demandez à la GenAI de répondre à votre question en utilisant ces informations (A) La GenAI génère une réponse (G).

Comprendre le fonctionnement des LLM et leurs limites permet de mettre les choses en perspective. Ils fonctionnent bien pour reformuler le texte (par exemple, la traduction, la synthèse) et pour les tâches créatives non factuelles (par exemple, les poèmes) et pour les connaissances communes bien établies (par exemple, une dissertation d’histoire du lycée), par exemple. Mais ils n’ont aucune véritable connaissance du monde réel. C’est pourquoi ils hallucinent – une hallucination est une situation où les mots correspondent à des modèles de langage acceptables, mais sont factuellement incorrects.

Cela signifie que les LLM ne conviennent pas aux situations où la précision et la crédibilité sont nécessaires, et qu’ils sont presque inutiles pour les sujets en dehors du domaine public. Les LLM ne sont formés que sur du contenu public et ne connaissent rien aux informations internes de l’entreprise. En bref, les LLM souffrent de quatre problèmes courants :

  • Les « hallucinations ». Présenter avec confiance des informations erronées fabriquées
  • L’opacité – Aucune capacité à donner ou à citer des sources
  • L’obsolescence – Manque d’actualité et absence de connaissance des événements depuis la formation initiale du modèle.
  • L’ignorance – Aucune connaissance des informations internes de l’entreprise.

Le RAG résout ces problèmes en récupérant d’abord des informations factuelles au sein du corpus informationnel propre à l’entreprise, puis en demandant au LLM de répondre en utilisant ces informations (plutôt que sur le jeu de données sur lequel il a été formé).

 

Search + GenAI = une combinaison gagnante

 La recherche et la GenAI sont étonnamment complémentaires. La recherche fournit les informations factuelles, la traçabilité et les informations actualisées que la GenAI ne peut pas apporter, de sorte qu’elle puisse être utilisée dans l’entreprise. La GenAI lit et interprète les résultats d’une recherche et écrit une réponse en langage naturel en temps réel, ce qui élimine le besoin pour un humain de cliquer et de lire, de cliquer et de lire, etc. à travers une série de résultats de recherche différents.

Ce serait simple si nous devions seulement rechercher des documents ou des données très structurées au sein de notre entreprise. Mais les connaissances sont partout – dans les documents, les e-mails, les présentations, Sharepoint, les discussions Slack, Salesforce.com, SAP, à la fois en interne et en externe.

 

L’importance de la sécurité

Les LLM n’ont aucun concept de sécurité ; toutes les informations sur lesquelles ils ont été formés sont incorporées dans le modèle et accessible à quiconque utilise le LLM. Le RAG est sécurisé et vous donne un contrôle total sur les deux types de préoccupations en matière de sécurité : interne et externe.

Un système de recherche d’entreprise robuste assure la sécurité interne en respectant automatiquement toutes vos autorisations existantes. Personne n’a accès à ce qu’il n’est pas censé voir, car les résultats correspondent aux droits et autorisations de l’employé.

Pour la sécurité externe, il existe deux options. La plus courante consiste à envoyer les résultats de la recherche à un LLM commercial (comme le GPT-4 d’OpenAI ou Claude d’Anthropic ou le Gemini de Google). Ces modèles commerciaux ne s’entraîneront pas sur ces données, elles sont donc à l’abri des autres entreprises qui utilisent les mêmes modèles. Mais si vous avez un contenu extra-sensible qui ne peut pas être donné à ces fournisseurs, vous pouvez héberger un LLM open-source (comme le Mistral’s Mixtral ou le Meta’s LLaMa-2) vous-même.

 

Attention : recherche inadéquate = RAG décevant

Avec tout l’enthousiasme suscité par les LLM, il est facile de négliger l’importance du R dans RAG. Le LLM base sa réponse sur les informations qui lui sont données. Il est crucial d’avoir une recherche pertinente et exhaustive afin que le LLM soit doté des meilleures informations possibles pour travailler.

L’avènement des LLM et avec lui, de l’IA générative, a inauguré une nouvelle ère d’innovation technologique, mais l’IA générative a plusieurs faiblesses qui empêchent son utilisation dans la plupart des applications d’entreprise. En 2023, l’association de la recherche avec la GenAI dans une technique appelée RAG est apparue comme la solution à ces défis, en atténuant les faiblesses et en ouvrant une large gamme d’opportunités d’utiliser l’IA générative dans des scénarios basés sur les faits au sein des entreprises. La promesse de l’IA générative de révolutionner les applications d’entreprise par le biais du RAG est immense, donnant aux employés un assistant surhumain afin qu’ils puissent exploiter toutes les connaissances de l’entreprise simplement en ayant une conversation. Les entreprises qui adoptent et déploient rapidement des assistants robustes alimentés par le RAG auront un avantage sur les entreprises qui ne le font pas, en exploitant le potentiel de la GenAI pour stimuler l’innovation, améliorer la productivité et maintenir un avantage concurrentiel dans l’économie numérique en évolution. Les meilleures solutions RAG nécessitent non seulement une GenAI capable, mais aussi une capacité de recherche robuste, donc le choix de la bonne plateforme de recherche est essentiel.

 


À lire également : Rachida Dati sur l’IA : ce qu’il faut retenir de la sortie de la ministre de la Culture 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC