logo_blanc
Rechercher

Considérer les modèles d’IA comme des recettes de cuisine

IAConsidérer les modèles d’IA comme des recettes. Getty Images

Le développement d’applications logicielles d’entreprise peut être comparé au processus de préparation d’une recette. Il y a beaucoup de place pour l’expérimentation et l’introduction de nouveaux ingrédients ou de nouvelles techniques, mais il existe également des recettes qui expliquent toutes les étapes en détail.

 

Un article de Adrian Bridgwater pour Forbes US – traduit par Lisa Deleforterie

 

Alors que les programmeurs de logiciels s’efforcent désormais de préparer, de nettoyer, et de combiner les ingrédients des modèles que nous utilisons pour construire la nouvelle ère de l’intelligence artificielle générative (IA) et sa puissance d’apprentissage machine (ML), il est utile d’envisager le processus de cette manière afin de comprendre les ingrédients des recettes qui sont créées.

Après l’engouement (sans doute justifié) qui a conduit à la popularisation des grands modèles de langage (LLM) dans le cadre de l’IA générative, la conversation qui s’est déroulée dans l’industrie du logiciel s’est orientée vers une nouvelle idée : « grand, c’est bien, mais petit, c’est souvent plus beau », dans le sens où des modèles plus petits pourraient être utilisés pour des tâches plus spécifiques… En fait, commencer petit et simple est tout à fait raisonnable dans toute quête importante.

 

Des boucles de rétroaction rapides

Directeur de la gestion des produits chez Hycu Inc. Andy Fernandez ne saurait trop insister sur l’importance, pour le développeur, de commencer simplement et modestement son parcours dans le domaine des grands modèles de langage (LLM). Il pense que les ingénieurs logiciels doivent identifier des cas d’utilisation spécifiques qui ne sont pas critiques pour la mission et dans lesquels l’équipe peut renforcer l’IA/ML avant d’intégrer pleinement l’IA dans les « produits » informatiques de l’organisation dans des opérations de travail réelles. C’est ce processus d’identification de cas d’utilisation restreints mais critiques à utiliser comme terrain d’essai avant la mise en œuvre qui fait toute la différence. Il peut s’agir, par exemple, de travaux visant à rationaliser la documentation ou à accélérer les exercices de délimitation du champ d’application afin d’analyser les travaux futurs.

« Cette progression étape par étape fournira un apprentissage et des boucles de rétroaction rapides, sur lesquelles on pourra construire la maturité nécessaire pour maximiser l’utilisation des LLM. Cette approche de l’intégration de l’IA/ML dans le développement de logiciels garantit l’établissement d’une base solide, la minimisation des risques et le développement de l’expertise – autant d’éléments qui contribuent à la réussite », a expliqué M. Fernandez. « Dès le départ, il est également essentiel de désigner une partie prenante chargée d’approfondir et de comprendre le fonctionnement du modèle, d’interagir avec lui et de repérer les anomalies. Cela permet une appropriation claire et des actions rapides. »

HYCU (prononcé « haïku » comme dans la poésie japonaise) est une société de protection des données et de sauvegarde en tant que service connue pour gérer des systèmes logiciels d’entreprise comportant des « centaines » de silos de données nécessitant des sauvegardes « multiples ». Hycu Protégé est un service de protection des données en tant que service (DPaaS) qui permet aux entreprises de disposer de solutions spécifiques pour toutes leurs charges de travail, qui peuvent être gérées via une vue unique. C’est donc logiquement le type de plateforme logicielle qui peut faire bon usage de l’IA/ML si elle est appliquée intelligemment.

 

Choisir le bon LLM

« Toutes les tâches ne nécessitent pas un LLM fondamental », a expliqué M. Fernandez. « Les modèles spécialisés répondent souvent mieux aux besoins d’une niche. Cependant, lors de l’intégration des LLM dans le menu de développement, il est essentiel de choisir avec soin, car la plateforme choisie devient souvent un engagement à long terme. La série GPT d’OpenAI offre une flexibilité qui peut répondre à une variété de tâches sans formation spécifique et dispose d’une large base de connaissances étant donné le vaste référentiel de connaissances auquel elle a accès. Les modèles jurassiques d’AI21 Labs sont connus pour leur évolutivité et leurs performances élevées, en particulier lorsqu’il s’agit de tâches de compréhension et de génération de langage.

Après avoir sélectionné la formule initiale d’IA/ML à tester, il est primordial de comprendre exactement comment fonctionne le LLM et comment interagir avec son interface de programmation d’application (API). Les organisations doivent réaliser qu’au moins une personne doit comprendre les forces et les faiblesses du modèle en détail et avec aisance.

« Pour les tâches de base telles que l’amélioration de la documentation, les membres de l’équipe dirigeante doivent évaluer de près les résultats et s’assurer qu’ils correspondent aux objectifs », a déclaré M. Fernandez de HYCU. « Une compréhension plus approfondie est nécessaire pour les tâches avancées telles que l’intégration de l’IA dans les produits, où des questions telles que l’hygiène des données et la protection de la vie privée sont primordiales. En outre, l’utilisation de l’infrastructure et des services en nuage peut débloquer différents cas d’utilisation de l’IA/ML. Mais il est toujours essentiel de comprendre comment le cloud et l’IA/ML peuvent fonctionner en tandem. »

 

Les garde-fous de l’IA

Il est également essentiel de s’assurer de la qualité des données utilisées dans les LLM. Tous les membres de l’équipe doivent constamment tester et remettre en question les résultats afin de s’assurer que les erreurs, les hallucinations et les résultats inadéquats sont repérés et résolus rapidement. C’est là que l’importance des spécialistes ne peut être ignorée. Les résultats de l’IA ne sont pas infaillibles et les développeurs doivent agir en conséquence.

M. Fernandez fait remarquer qu’il existe plusieurs « garde-fous » à prendre en compte à cet égard. Par exemple, du point de vue de l’assainissement des données, les entreprises doivent être strictes et critiques lors de la sélection d’un fournisseur. Il faut pour cela évaluer la manière dont les fournisseurs communiquent sur leurs méthodes de traitement des données, notamment le nettoyage, l’assainissement et la déduplication des données.

« La segmentation des données est essentielle pour séparer physiquement et logiquement les données ouvertes accessibles au LLM et les données critiques ou sensibles », insiste M. Fernandez. « L’organisation doit également procéder à des audits périodiques pour s’assurer que le traitement et la manipulation des données sont conformes aux lois sur la protection des données et aux normes de l’industrie. L’utilisation d’outils et de pratiques permettant d’identifier et d’expurger les informations personnelles identifiables (PII) avant qu’elles ne soient traitées par le LLM est vitale. »

En outre, une organisation doit mettre en place des processus d’examen des résultats du LLM, en particulier dans les applications où des données sensibles peuvent être impliquées. Il est donc essentiel de mettre en place des boucles de rétroaction permettant d’identifier et de traiter rapidement les anomalies ou les violations potentielles de données. Il est également essentiel de se tenir informé des considérations juridiques et éthiques, afin de garantir une utilisation responsable et sûre de la technologie.

 

L’open source

« Nous devons nous rappeler que les LLM à source fermée, recommandés pour les entreprises disposant d’informations propriétaires ou de solutions personnalisées, répondent au besoin d’une gouvernance stricte des données et d’un support dédié. En revanche, les LLM open source sont idéaux pour les projets collaboratifs sans contraintes de propriété. Ce choix a un impact significatif sur l’efficacité et la sécurité du processus de développement », a déclaré M. Fernandez. « Les développeurs peuvent également envisager d’utiliser des injections d’invite. Il s’agit d’utiliser une invite qui modifie le modèle et peut même débloquer des réponses habituellement non disponibles. La plupart de ces injections sont bénignes et impliquent des personnes qui expérimentent et testent les limites du modèle. Toutefois, certaines personnes peuvent le faire à des fins contraires à l’éthique. »

Si l’on se penche sur les ingrédients qui composeront l’IA du futur proche, il est probable que l’on trouve de plus en plus de modèles de langage et d’outils associés qui seront automatisés. Il est logique d’automatiser des processus et des fonctions facilement répétables, mais il faudra toujours lire les « listes d’ingrédients ».

Cette notion est liée aux dernières réflexions de M. Fernandez sur le sujet, qui s’attend à ce que les LLM deviennent plus spécialisés et s’intègrent dans diverses industries. « Cette évolution reflète l’intégration en cours de l’IA dans diverses applications d’entreprise. Nous assisterons également à l’introduction de l’IA dans le tissu de l’entreprise. Par exemple, Microsoft Copilot et les intégrations de l’IA dans GitHub », a-t-il déclaré.

Les logiciels seront toujours un mélange d’ingrédients, préparés selon une recette spécifique avec de nombreuses possibilités d’expérimentation, de fusion et de combinaison – et l’IA est un fondement parfait pour que ces processus se multiplient. Il suffit de se souvenir des garde-fous pour savoir quand « éteindre le four », et d’attribuer les bonnes responsabilités aux personnes appropriées.

 

À lire aussi : Anu Bharadwaj, présidente d’Atlassian : « L’IA va permettre de démocratiser la créativité à grande échelle, avec un gain d’inclusivité prometteur »

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC