logo_blanc
Rechercher

L’IA ne vous remplacera pas… mais une personne utilisant l’IA le fera

L'IA ne vous remplacera pas… mais une personne utilisant l'IA le fera

IAs génératives : même la créativité n’y échapera pas

Figure 1: An illustration of how AI can help creators design new things. This suit was design by MidJourney with the prompt « an elegant business suit that would be a tribute to iron man, full body, haute-couture, photorealistic, ultra detailed 4k, –ar 2:3 »

Les Intelligences Artificielles (IAs) génératives telles que ChatGPT, Dall-E, Mid Journey, Stable Diffusion, ont le potentiel de disrupter le business et la production de contenu comme jamais auparavant. Voici quelques exemples :

 

  • Simuler une conversation humainea par exemple commencé à permettre d’automatiser les tâches de service client.
  • Rédiger du contenu : l’IA peut désormais aider les humains à rédiger des e-mails, des articles, des lettres avec un niveau de qualité comparable, voire supérieur, aux contenus générés par l’homme – en particulier si ceux-ci sont générés de manière itérative avec l’IA.
  • Écrire et déboguer du code informatique : l’IA peut écrire du code informatique. Il suffit pour cela de fournir à l’IA les fonctionnalités souhaitées.
  • Booster la créativité : on a longtemps cru que la créativité était réservée aux humains et que les ordinateurs ne seraient jamais créatifs. Les artistes et les créateurs peuvent désormais tirer parti de l’IA de manière interactive pour améliorer leur créativité humaine et tester rapidement des idées. Par exemple, à quoi ressemblerait un costume trois-pièces élégant à l’image d’Iron Man ( Figure 1) ?

 

 

 

 

Les limites de des IAs génératives

Les IAs génératives ont atteint un niveau de qualité incroyable en 2022 et continueront de progresser dans les années à venir, permettant de nombreuses nouvelles applications. Cependant, ces outils comportent encore un certain nombre de limites et de risques.

 

Qualité des contenus pas toujours fiables, et ce pour plusieurs raisons :

  • Les Large Language Models tels que ChatGPT ne sont pas conçus pour répondre à des questions, et encore pour donner des réponses correctes. Ce ne sont ni plus ni moins que des outils d’autocomplétions – comme sur votre smartphone –  très sophistiqués. Ils sont dont sujet au phénomène dit d’hallucination : il arrive donc fréquemment à ChatGPT de faire des erreurs factuelles et d’inventer des réponses qui semblent correctes, mais qui ne le sont pas.
  • Par ailleurs, le contenu généré peut être assez vague et générique. Par exemple, nous avons essayé de produire un article1 100% généré par l’IA et un seul prompt. A Première vue, on pourrait croire que cet article a été écrit par un humain parce qu’il est correctement écrit, mais le contenu en lui-même n’est pas génial et très générique.
Figure 2: an illustration of the algorithmic bias of ChatGPT.

Risques éthiques, moraux, sociaux :

 

  • Tout d’abord, l’énergie. Plusieurs milliers de pétaflops.jours ont été nécessaires pour entraîner le modèle GPT-3. À titre d’illustration, selon un article[1]de recherche de Nvidia, Microsoft Research et l’Université de Stanford, près de 300 ans aurait été nécessaire pour entrainer GPT-3 avec un seul GPU NVIDIA V100.
  • Le deuxième risque éthique important est le biais algorithmique habituel. Le biais algorithmique fait référence aux différences systématiques et involontaires dans la manière dont un programme informatique traite les individus ou les groupes. Cela peut se produire lorsque les données utilisées pour former l’algorithme sont biaisées, ce qui entraîne des résultats inexacts ou injustes. Et bien que de nombreux efforts aient été déployés pour éviter de tels biais, ils existent toujours et peuvent être très surprenants et dérangeants, comme l’illustre la Figure 2.
  • La troisième question éthique est directement liée à la facilité avec laquelle le contenu peut être généré. Les contenus générés par l’IA ont d’ores et déjà commencé à inonder Internet. Heureusement, il y aura des contre-mesures telles que des outils comme GPT-Zero qui sont destinés à détecter si un contenu est généré par l’IA ou non.

 

 

 

 

 

 

Figure 3: An example to bypass the safeguards and get ChatGPT help me commit a crime.
  • Cybersécurité : Les IAs génératives peuvent être mise à profit pour aider à mener des cyberattaques, voire des formes de crimes telles que l’écriture d’un e-mail de phishing ou d’un code informatique malveillant. ChatGPT n’est pas censé aider à commettre de tels crimes, et si vous essayez de lui demander, il refusera, car il est quelque protégé par l’API de modération d’OpenAI qui empêche d’exposer le bot à un contenu intempestif. Cependant, il est en fait relativement facile de contourner les gardes-fous et de jailbreaker l’IA, comme l’illustre la Figure 3 où j’ai prétendu qu’il fallait compléter le texte pour des comédiens sur scène.

 

 

 

 

 

l’IA ne vous remplacera pas, mais une personne ou une organisation utilisant l’IA le fera

2022 a été un tournant en matière d’IA. 2022 a été l’année où des outils tels que ChatGPT, Dall-E, MidJourney ou Dream Studio sont sortis. La technologie est impressionnante même si elle est encore loin d’être parfaite. 2022 a été l’année où ces outils d’IA sont devenus accessibles facilement, en passant d’un accès via une API à une application Web. Voici ce que nous prévoyons pour 2023 :

  • Qualité : le nombre de paramètres et la quantité de données utilisés pour entrainer le modèle de langage continueront d’augmenter rapidement, ce qui conduira à des résultats encore plus impressionnants et pertinents.
  • Adoption : si des outils tels que ChatGPT, malgré le taux d’adoption rapide observé en 2022, sont encore majoritairement utilisés par les chercheurs, les artistes, les geeks et les early adopters, ils deviendront beaucoup plus courants en 2023, tant auprès des particuliers que des organisations – nous nous attendons à une croissance exponentielle très rapide de la base d’utilisateurs.
  • Utilisation : à mesure que le nombre d’utilisateurs augmente, les individus et les organisations inventeront de nouveaux cas d’utilisation et apprendront de plus en plus comment utiliser au mieux les outils.
  • Réglementation : beaucoup d’incertitude et de vide juridique existent encore autour de ces technologies. La Chine, par exemple, appliquera sa réglementation « Deep Synthesis » à partir du 10 janvier 2023[2]; l’une des conséquences est qu’il deviendra obligatoire de divulguer si un contenu a été généré par une IA.

 

Ces IA génératives sont en train d’atteindre des niveaux de performance absolument incroyable. Cependant, il est important de se rappeler qu’il ne s’agit que d’un outil. C’est à l’artiste, l’écrivain ou le stratège de l’utiliser de manière créative et intentionnelle. La valeur d’une œuvre d’art ou d’une stratégie bien conçue réside dans l’œil, le cerveau et l’intention du créateur, et pas seulement dans les outils qu’il utilise. Ainsi, bien que l’IA puisse faciliter la création de contenu, ce sont les humains derrière qui détermineront en fin de compte sa valeur et son impact. Je crois que les artistes, les écrivains et les consultants ont encore un bel avenir devant eux, même avec l’avènement de l’IA.

 

 

[1] Formation efficace de modèles de langage à grande échelle sur des clusters GPU à l’aide de Megatron-LM , Narayanan et al. (2022)

[2]https://www.china-briefing.com/news/china-to-regulate-deep-synthesis-deep-fake-technology-starting-january-2023/

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC