Dans ta science : la note de synthèse Hub France IA sur ChatGPT et l’IA générative
Il ne vous aura pas échappé que ChatGPT et les IA génératives font la une des actualités depuis plusieurs mois, et que ce phénomène a largement dépassé les milieux spécialisés de l’IT et de l’IA.
Pour répondre aux interrogations soulevées par l’essor de l’IA générative, Hub France IA a constitué un groupe de travail consacré à ChatGTP, et a présenté ses recommandations dans une note de synthèse publiée en avril 2023.
Pierre Monget, Chef de projet Hub France IA, a accepté de répondre à nos questions sur la synthèse des travaux du groupe : le fonctionnement des IA génératives, l’usage qui en est fait actuellement, l’impact, et enfin les recommandations sur l’usage de ChatGPT et des IA génératives.
Compétences, méthodes, outils… dans cette série d’entretiens « Dans ta science », nous confrontons notre expérience de la Data Science à celle du marché, avec la participation de Data Scientists et spécialistes de l’IA externes à Devoteam Revolve.
Pierre Monget a débuté ses études par un IUT Informatique, où il eu sa première expérience de développement d’une IA symbolique, à l’époque en Prolog, puis il a suivi une école d’ingénieur généraliste par apprentissage et finalisé ses études par un mastère spécialisé. Son parcours lui a permis d’explorer plusieurs secteurs et plusieurs pays, avec toujours en fil de conducteur, la gestion de projets dans différents domaines d’ingénierie. Il a notamment eu l’opportunité de vivre l’aventure entrepreneuriale en créant une startup dans le domaine de l’IoT à Bruxelles.
Après cette parenthèse dans le Luxe, le BTP, l’Energie, le Conseil et les Assurances Pierre est revenu à sa première passion, à savoir l’IT et plus particulièrement l’IA en rejoignant le Hub France IA en 2022, ce qui lui permet d’avoir une vision globale dans les sujets adressés par le développement de l’IA.
Pierre Monget
Note de synthèse du groupe ChatGPT Hub France IA et ressources documentaires
Quel est le contexte de la production de la note de synthèse sur ChatGPT ?
Avec l’essor de ChatGPT et de sa bêta rendue publique en novembre 2022, l’IA est entrée de manière fracassante dans les usages du grand public. Chacun a pu jouer à l’apprenti sorcier avec cet agent conversationnel. Le Hub France IA se devait d’adresser le sujet, et dans ce contexte nos membres, startups, PMEs, grands groupes, administrations ou encore établissements de formation, ont exprimé le besoin de pouvoir partager leurs connaissances sur le sujet, mais aussi de mieux comprendre le fonctionnement technique de GPT3 et autres LLMs (Large Language Models). De plus, le besoin de recenser les usages possibles, et anticiper l’impact potentiel sur l’éducation, l’emploi, le juridique, etc. a également été exprimé.
Fort de ce constat, nous avons proposé en début d’année de créer un groupe de travail temporaire. Nous avons lancé un appel à contributeurs, et plus de 100 personnes se sont manifestées pour participer à ce groupe de travail. Au total 120 personnes ont participé, dont 30 contributeurs très actifs.
Quelle a été la méthodologie de travail ?
L’actualité autour des IA génératives était tellement dynamique que nous voulions avancer rapidement. Nous nous sommes donc donné l’ambition de produire notre livrable à l’issue d’un sprint de 6 semaines.. Pour cela, nous avons tout d’abord déterminer les axes que nous souhaitions explorer:
- Le fonctionnement technique : qu’est-ce que c’est, comment ça fonctionne ?
- Les usages : quels sont les usages que se sont déjà appropriés les utilisateurs sur le Web, au sein des entreprises, et parmi les contributeurs du groupe de travail?
- L’impact, notamment sur l’éducation. Les étudiants ont très vite compris l’intérêt d’un outil comme ChatGPT et se le sont approprié.
Le groupe de travail a validé ces trois piliers et nous avons formé des sous-groupes pour chacun d’entre eux. Les participants se sont positionnés en fonction de leurs affinités et de leur expertise. Deux sessions de travail ont été organisées chaque semaine : une session de travail pour chacun des sous-groupes, et une session plénière de restitution des travaux.
Nous avons tout d’abord mené des travaux exploratoires, avec une phase de revue littéraire et bibliographique que nous avons consolidée puis partagée. Puis chaque sous-groupe a rédigé plusieurs livrables, par exemple l’analyse de l’article « attention is all you need » introduisant les Transformers en 2017 de Google, etc.
Enfin, dans un troisième temps, nous avons synthétisé les sous-livrables pour produire une première version brute de la note de synthèse. Trois vagues de relecture et de révision ont été nécessaires avant la finalisation de la note et sa publication, avec pour objectif d’avoir un résultat homogène, y compris dans le style que nous avons souhaité pédagogique
Nous lançons maintenant une nouvelle phase de travail consacrée à l’IA générative au sens large du terme, et continuons à produire des livrables complémentaires où nous approfondirons de façon détaillée des sujets comme l’analyse des autres LLMs, l’IA multi-modale, la frugalité des modèles d’IA Générative, GPT4, AutoGPT, les nouveaux usages ou encore l’adoption de l’IA Générative en entreprise.
Nous prévoyons donc de sortir trois rapports distincts, toujours axés sur la technique, les usages et l’impact. Ces rapports seront plus précis et plus détaillés, parfois plus techniques et donc destinés à une audience plus ciblée en fonction de la thématique de chaque rapport.
Quel constat faites-vous sur l’adoption de ce nouvel outil ? Quels sont les secteurs qui l’ont adopté et voit-on émerger des bonnes pratiques… ou des mauvaises pratiques ?
Précisons tout d’abord que les IA génératives proposent du texte en sortie, mais aussi de l’image, de l’audio et de la voix. Malheureusement, la désinformation a fait partie des premiers usages à émerger. Il est maintenant très facile de produire du texte de qualité, suffisamment crédible afin de diffuser des faits erronés, ou de générer des images deep fakes. Les attaques de phishing sont d’ailleurs devenues plus précises et efficaces, grâce à des emails sans fautes, et très contextualisés.
Les métiers de la relation client et du marketing se sont rapidement emparés du sujet. On a vu notamment la marque Undiz utiliser l’IA générative pour produire des images publicitaires, et pour rédiger des fiches produits. D’autres entreprises, ou des auto entrepreneurs ayant porté par exemple leur activité artisanale sur une marketplace, mettent également ChatGPT à contribution pour produire des fiches produits qui sont ensuite enrichies par leur expertise humaine.
Dans le développement informatique, on a vu l’arrivée de nouveaux outils pour coder, comme GitHub Copilot. Avec un simple prompt en entrée, on peut générer un premier bout de code dans le langage désiré sur lequel itérer ensuite. La liste des langages supportés est d’ailleurs régulièrement étendue. C’est aussi très utile pour débugger, par exemple un bloc de code contenant une erreur afin d’identifier les sources d’erreurs potentielles. Nous avons reçu des témoignages de développeurs qui indiquent avoir accéléré la génération de code informatique et le debugging grâce à l’IA générative. Github ou Google embarquent désormais une IA générative dans leur environnement de développement. On constate que l’IA contribue aussi à abaisser la barrière technique de développement de code. En étant augmenté par une IA générative, tout utilisateur grand public peut facilement créer un site internet et bénéficier d’une assistance sur mesure.
Dans la banque et assurance, l’IA générative est essentiellement utilisée dans la synthèse et la traduction de documents, ou la recherche d’informations dans de larges corpus documentaires et l’aide à la rédaction.
Le journalisme a également développé le même type d’usages, de synthèse sur un corpus documentaire, ou d’aide à la rédaction. BuzzFeed a reconnu utiliser l’IA pour co-créer des articles et des quizz afin de booster leur audience.
Dans la recherche, l’IA a accéléré la création et la diffusion d’articles scientifiques, avec en contrepartie le risque de voir les revues scientifiques inondées d’articles générés à l’aide de l’IA. Comment les comités de révision et de relecture vont-ils gérer l’apparition de cette nouvelle problématique ? La question se pose.
Côté enseignement, ChatGPT a fait débat, entre ceux qui l’ont interdit (Sciences Po par exemple, avant de revenir ensuite sur sa décision), et les étudiants qui ont rapidement adopté l’outil. Certains instituts de formation et grandes écoles souhaitaient interdire ou restreindre l’usage, d’autres ont vu ChatGPT comme un outil d’éducation. Ainsi, certains enseignants proposent à leurs étudiants de faire analyser un corpus documentaire par ChatGPT en saisissant eux-mêmes les prompts en entrée de l’agent conversationnel, puis en demandant aux étudiants d’analyser la qualité de la réponse fournie afin de développer leur esprit critique et analytique. De plus, l’exercice peut également porter sur l’ajout de sources par les étudiants, car ChatGPT n’en cite pas.
Plus généralement, l’essor des IA génératives soulève des questions sur le système éducatif et les examens. GPT4 a réussi l’examen du barreau unifié aux Etats-Unis, parce que l’outil est très fort pour restituer des connaissances. D’ailleurs GPT4 a fait mieux en se classant dans le top des étudiants d’un bon nombre d’examens de diplômes américains en chimie, mathématiques ou biologie par exemple. Est-ce qu’on ne doit pas remettre en question la façon dont sont menés les examens, et les réorienter vers une évaluation des compétences plutôt que des connaissances, et la capacité à exploiter ses connaissances dans une situation particulière ? En effet, quel humain est capable de surperformer dans des examens très sélectifs et ce dans différents domaines à la fois ?
Dans le domaine de la santé, on a vu émerger des cas d’autodiagnostic d’utilisateurs posant des questions à ChatGPT sur la base des symptômes qu’ils ont indiqué ressentir, ce qui demande évidemment de nombreuses précautions d’usage. Cela peut s’avérer assez dangereux car ChatGPT n’a pas d’expertise médicale, et il n’a pas l’historique du patient et son dossier médical. Si l’utilisateur n’est pas sensibilisé, ou s’il n’a pas de regard critique sur les suggestions de l’IA, cela pose problème.
Enfin, du côté RH, ChatGPT a été utilisé par les entreprises pour rédiger des offres d’emploi, préparer des entretiens, ou répondre à des mails de collaborateurs ou de candidats.
Plus généralement, l’essor de l’IA générative soulève des questions sur le plan juridique. Les acteurs américains comme OpenAI ne se sont pas posé la question du copyright dans l’entrainement de GPT3 et ont largement scrappé le web pour entraîner leur modèle. Beaucoup de données pourtant étaient soumises à droit d’auteur, et plusieurs actions en justice sont en cours contre OpenAI pour obtenir une rétribution en contrepartie des données exploitées.
Sur le plan de l’éthique, il faut aussi rester vigilant à ce que l’usage des IAG se fasse pour le bien commun et celui de la société. Le projet December, qui a pour objectif de créer des chatbots sur la base de la personnalité de proches décédés, est un bon exemple des limites à ne pas franchir.
Quelles recommandations faites-vous quant à l’usage avec des données d’entreprise sensibles ou stratégiques ?
Toutes les données en entrée d’un LLM ou de ChatGPT sont utilisées pour faire de l’apprentissage par renforcement avec feedback rétroactif de l’humain (à l’exception de certaines versions d’abonnement de ChatGPT). Les données peuvent donc être exploitées par Open AI, et on a vu le cas du code propriétaire d’une application Samsung qui s’est retrouvé dans le corpus.
Notre première recommandation est donc de ne mettre aucune donnée sensible ou stratégique en entrée d’un LLM.
Aux Etats-Unis, certaines entreprises comme IBM ont annoncé ne plus recruter sur des postes qui pourraient être remplacés par une IA générative. Or, se reposer sur des employés augmentés par l’IA, plus productifs, peut poser problème à long terme : perte de savoir-faire en interne, appauvrissement de la compétence, et accroissement de la dépendance technologique à l’IA. Si demain les conditions changent, que les tarifs des solutions commerciales d’IAG augmentent, ou que l’accès est sujet à latence, une forte dépendance à des acteurs privés peut être préjudiciable à l’entreprise. Il sera alors compliqué de recruter les compétences qui sont parties.
A quoi peut-on s’attendre à l’horizon 2024 ?
Tout d’abord, au développement des IA multi-modales, qui peuvent traiter en entrée plusieurs modalités à la fois telles que du texte, de l’audio ou des images, pour produire du texte ou d’autres formats en sortie. Par exemple, on peut fournir en entrée une photo d’une personne tenant par une ficelle des ballons remplis d’hélium et poser la question à l’IA multi-modale, “que se passerait-il si je coupais la ficelle des ballons” et l’IA de répondre “les ballons s’envoleraient”. Ce qui ouvre le débat de la possibilité de l’émergence d’une IA généraliste, avec toutes les questions sociétales, éthiques et juridiques que cela peut poser.
Deuxièmement, si les grands acteurs américains comme OpenAi ou Google ont longtemps poussé à sortir des modèles plus volumineux, fortement consommateurs de data et ressources (l’entraînement de GPT3 a consommé environ 700 000 litres d’eau selon une estimation), ils changent aujourd’hui de stratégie en explorant le développement de modèles plus légers. Pour l’Europe, développer des modèles plus légers sur une base open source pourrait être une belle opportunité. Stanford a par exemple créé le modèle Alpaca, sur la base de Llama (développé par Meta). Alpaca est un modèle beaucoup plus léger, et qui a coûté à peine 600 dollars à entraîner. Il y a un coup à jouer pour l’Europe, qui cherche son champion de l’IA et des IAG. Il existe toutefois des acteurs européens, comme LightOn (France, qui fait d’ailleurs partie des contributeurs de notre note de synthèse) ou encore Aleph Alpha (Allemagne), mais sans financement public ça sera compliqué.
Indépendamment de leur origine, je pense qu’on verra de plus en plus de modèles légers, entraînés sur un temps plus court. Les entreprises pourront s’approprier ces modèles open source, les adapter à leur contexte métier, les régler finement sur leurs propres données d’entraînement, et en retirer un LLM plus pointu sur leur périmètre métier. La customisation de modèles open source légers avec des IA multi modales est une tendance qui va émerger dans les 12 prochains mois. Je pense que cela va aussi permettre de baisser la barrière technique à l’entrée, et que cela permettra à des utilisateurs métier avertis de développer leurs propres modèles d’IAG afin de proposer une gamme de services toujours plus diversifiée, avec l’aide d’autres services d’IA pour créer et déployer plus facilement du code.
Pour terminer, quelles sont les principales recommandations de la note de synthèse ?
Nous préconisons de former massivement les salariés en entreprise, pour qu’ils comprennent le fonctionnement des IA génératives, leurs usages et les impacts.
Nous recommandons également de ne pas interdire les IA génératives, en entreprise ou dans l’éducation. Si on interdit, les utilisateurs trouveront toujours un moyen de contournement. Il nous semble plus pertinent d’adopter et de débattre du sujet, et de concevoir des chartes d’usage pour définir le cadre d’utilisation, les cas d’usages et les précautions à prendre.
Également, protéger les données confidentielles, et toujours vérifier les résultats produits par les LLMs. ChatGPT ne cite pas de sources, n’a pas d’esprit critique ou d’analyse, il ne fait que restituer la suite de mots ayant la plus forte probabilité logique, donc il faut challenger ses résultats.
Enfin nous recommandons de mettre l’accent sur le développement de solutions souveraines/européennes, open source si possible, plus légères, et travailler à ce que ces modèles permettent de développer des solutions verticales par métier, ou par entreprise.