IA générative
Présentation et atouts
L'IA générative prend des données existantes, en tire des enseignements, puis génère des données présentant des caractéristiques similaires. Par exemple, elle peut générer du texte, des images, du son, de la vidéo et du code informatique.
L'évolution de l'IA générative
Les systèmes traditionnels d'IA et de machine learning reconnaissent des tendances dans les données pour faire des prédictions. Mais l'IA générative va au-delà de la prédiction – elle génère de nouvelles données comme principal résultat. Imaginez pouvoir recevoir le texte intégral d'un discours quelques secondes seulement après avoir donné à un chatbot (comme ChatGPT) quelques mots pour décrire votre idée. Générer de la musique, de l'art ou des images à partir de descriptions textuelles. Ou encore élaborer une stratégie commerciale par le biais d'une conversation, d'un dialogue avec un outil d'IA générative.
Où tout cela a-t-il commencé ?
Contrairement à l'opinion générale, l'IA générative n'est pas nouvelle – elle est construite à partir de technologies que nous utilisons depuis des décennies, notamment l'IA, le machine learning et les méthodes statistiques. Les trois principales technologies d'IA générative sont les jumeaux numériques, les grands modèles de langage et la génération de données synthétiques.
Bien que les origines de l'IA générative puissent être retracées plus loin, nous commencerons par 1966 et un chatbot nommé ELIZA.
Joseph Weizenbaum a conçu ELIZA pour imiter les psychothérapeutes Rogeriens qui reflètent ce que dit le patient. Pour ce faire, ELIZA a eu recours à la recherche de tendances. ELIZA a été l'un des premiers programmes à tenter le test de Turing – un jeu d'imitation qui teste la capacité d'une machine à adopter un comportement intelligent comme celui d'un être humain.
Avec l'évolution des méthodes d'analyse des données textuelles non structurées, les années 1970 à 1990 ont vu se développer les réseaux sémantiques, les ontologies, les réseaux neuronaux récurrents, etc. De 2000 à 2015, la modélisation linguistique et les intégrateurs de mots se sont améliorés, et Google Translate a vu le jour.
En 2014, Ian Goodfellow et ses collègues ont mis au point le réseau contradictoire génératif (GAN), en mettant deux réseaux neuronaux en concurrence (c'est-à-dire en les entraînant) l'un contre l'autre. Un réseau générait des données tandis que l'autre tentait de déterminer si les données était réelles ou fausses. Les modèles Transformer ont été introduits en 2017. Ils comprennent un mécanisme d'auto-attention qui leur permet d'évaluer l'importance des différentes parties de l'entrée lorsqu'ils font des prédictions. Des architectures telles que BERT et ELMo sont également devenues populaires.
Les modèles de transformateurs génératifs pré-entraînés (GPT) sont apparus ensuite, le premier modèle GPT étant arrivé en 2018. Ce modèle a été entraîné sur de grandes quantités de données textuelles provenant d'internet. Avec 117 millions de paramètres, il peut générer un texte dont le style et le contenu sont similaires à ceux des données d'entraînement. En 2023, les modèles GPT à langage étendu avaient évolué au point de pouvoir donner de bons résultats lors d'examens difficiles, comme l'examen du barreau.
L'essor rapide de la technologie de l'IA générative
En tant que technologie perturbatrice, l'impact de l'IA générative a été comparé à des découvertes telles que l'électricité et l'imprimerie. Avec le potentiel de stimuler considérablement la productivité, les modèles d'IA conversationnelle comme ChatGPT ont connu une popularité fulgurante parmi les entreprises et les utilisateurs quotidiens – et ont soulevé des préoccupations concernant la confidentialité des données, les préjugés de l'IA, l'éthique et l'exactitude. Le marché mondial de l'IA générative devrait atteindre 110,8 milliards de dollars d'ici à 2030.
Les décideurs politiques utilisent la technologie du jumeau numérique pour déterminer comment les nouvelles mesures fiscales pourraient affecter les citoyens
Déterminer les "gagnants" et les "perdants" de changements fiscaux potentiels avant de mettre en œuvre des réglementations est crucial pour le Service Public Fédéral Finances de Belgique. Lorsqu'il a besoin de réponses rapides et précises, le SPF Finances utilise Aurora, un jumeau numérique du calculateur qui traite les impôts sur le revenu du pays, pour simuler les futures réformes de la dette. De meilleures simulations produisent des décideurs mieux informés – et de meilleurs résultats.
Qui utilise l'IA générative ?
L'IA générative couvre un large éventail d'industries et de fonctions commerciales à travers le monde. Au fur et à mesure qu'elle gagne en popularité, cette technologie suscite à la fois l'enthousiasme et la crainte des particuliers, des entreprises et des entités gouvernementales. Voyons comment certains secteurs utilisent l'IA générative aujourd'hui.
Les résultats de l'IA générative sont, au fond, le reflet de nous, les humains. ... Les consommateurs doivent continuer à faire preuve d'esprit critique lorsqu'ils interagissent avec l'IA conversationnelle et éviter les préjugés liés à l'automatisation (la croyance qu'un système technique est plus susceptible d'être précis et vrai qu'un humain). Reggie Townsend VP of the SAS Data Ethics Practice
Considérations relatives aux modèles d'IA générative
L'exécution des modèles est coûteuse, car elle nécessite d'énormes quantités de puissance de calcul et de données. Il convient d'évaluer soigneusement le retour sur investissement avant de mettre en œuvre un modèle d'IA générative. Il existe également des considérations éthiques. D'où viennent les données et à qui appartiennent-elles ? Sont-elles dignes de confiance ? Comprenez-vous précisément comment le modèle a été construit ?
Comment fonctionne l'IA générative
Parmi les exemples populaires de technologies d'IA générative, on peut citer DALL-E, un système de génération d'images à partir de textes, ChatGPT (un système de génération de textes), le chatbot Google Bard et le moteur de recherche Bing de Microsoft alimenté par l'IA. Un autre exemple est l'utilisation de l'IA générative pour créer une représentation numérique d'un système, d'un processus commercial ou même d'une personne – comme une représentation dynamique de l'état de santé actuel et futur d'une personne.
Il existe trois grands types de technologies génératives (les jumeaux numériques, les grands modèles de langage et la génération de données synthétiques).
Les jumeaux numériques
Les jumeaux numériques sont des modèles virtuels d'objets ou de systèmes réels construits à partir de données historiques, réelles, synthétiques ou provenant de la boucle de rétroaction d'un système. Ils sont construits avec des logiciels, des données et des collections de modèles génératifs et non génératifs qui reflètent et se synchronisent avec un système physique – tel qu'une entité, un processus, un système ou un produit. Les jumeaux numériques sont utilisés pour tester, optimiser, surveiller ou prévoir. Par exemple, un jumeau numérique d'une chaîne d'approvisionnement peut aider les entreprises à prévoir les risques de pénurie.
Les grands modèles de langage
Un grand modèle de langage (LLM) est un puissant modèle de machine learning capable de traiter et d'identifier des relations complexes dans le langage naturel, de générer du texte et d'avoir des conversations avec les utilisateurs. Ces modèles s'appuient sur des techniques telles que le deep learning et les réseaux neuronaux. Définis comme des modèles d'IA traitant le langage naturel, les LLM sont entraînés sur d'énormes quantités de données textuelles. Les modèles qui en résultent ont jusqu'à des milliards de paramètres. Le ChatGPT d'OpenAI est un exemple de modèle de langage volumineux très répandu.
Génération de données synthétiques
La génération de données synthétiques fait référence à des données à la demande, en libre-service ou automatisées, générées par des algorithmes ou des règles plutôt que collectées dans le monde réel. Les données synthétiques sont souvent générées pour répondre à des conditions absentes des données réelles. Elles reproduisent les mêmes propriétés statistiques, les probabilités, les tendances et les caractéristiques que les données réelles à partir desquelles elles ont été formées. De nombreuses organisations utilisent des données synthétiques pour préserver la vie privée ou pour surmonter d'autres difficultés liées à la collecte et à l'utilisation de données réelles, telles que le coût, les processus de préparation des données qui prennent beaucoup de temps ou les partis pris.
De nombreuses autres technologies permettent et soutiennent l'IA générative :
Un algorithme est une liste d'instructions étape par étape conçues pour accomplir une tâche spécifique ou résoudre un problème. De nombreux programmes informatiques sont une séquence d'algorithmes écrits d'une manière que l'ordinateur peut comprendre. Alors que les algorithmes commencent à compléter ou à remplacer les décisions humaines, nous devons nous interroger sur leur équité et exiger la transparence sur la manière dont ils sont développés.
L'intelligence artificielle permet aux machines d'apprendre par l'expérience, de s'adapter à de nouvelles données et de réaliser des tâches humaines. L'IA s'appuie souvent sur le deep learning et le langage naturel. Grâce à ces technologies, il est possible de former des ordinateurs à effectuer des tâches spécifiques en traitant de grandes quantités de données et en dégageant des tendances.
Le deep learning est un sous-ensemble du machine learning qui permet d'entraîner un ordinateur à effectuer des tâches comme un humain, telles que la reconnaissance vocale, l'identification d'images et la réalisation de prédictions. Il améliore la capacité à classer, à reconnaître, à détecter et à décrire en utilisant des données. Les modèles de deep learning tels que les GAN et les auto-encodeurs variationnels (VAE) sont entraînés sur d'énormes ensembles de données et peuvent générer des données de haute qualité. Des techniques plus récentes comme les StyleGAN et les modèles transformateurs peuvent créer des vidéos, des images, du texte et de la parole réalistes.
Le machine learning est une méthode d'analyse des données qui automatise la construction de modèles analytiques. C'est une branche de l'intelligence artificielle qui apprend à une machine à apprendre. Le machine learning repose sur l'idée que les systèmes peuvent apprendre des données, identifier des tendances et prendre des décisions avec un minimum d'intervention humaine.
Le traitement du langage naturel est une branche de l'intelligence artificielle qui aide les ordinateurs à comprendre, interpréter et manipuler le langage humain. Le NLP s'appuie sur de nombreuses disciplines, notamment l'informatique et la linguistique informatique, pour combler le fossé entre la communication humaine et la compréhension informatique.
Les réseaux neuronaux sont des systèmes informatiques dont les nœuds interconnectés fonctionnent comme les neurones du cerveau humain. Les réseaux neuronaux utilisent des algorithmes pour reconnaître les tendances cachées et les corrélations dans les données brutes, les regrouper et les classer. Ils apprennent et s'améliorent continuellement au fil du temps.
On parle d'apprentissage par renforcement lorsqu'un algorithme découvre, au fil d'essais et d'erreurs, les actions qui produisent les meilleures récompenses. En tant que modèle de machine learning, l'apprentissage par renforcement s'appuie sur un signal de récompense pour son mécanisme de retour d'information, car il apprend progressivement la meilleure politique ou le meilleur objectif (ou le plus gratifiant). Il est souvent utilisé pour la robotique, les jeux et la navigation.
5 étapes pour affiner un modèle
L'IA générative s'appuie sur de nombreux algorithmes et technologies d'IA différents pour générer des données dont les distributions probabilistes et les caractéristiques sont similaires à celles des données à partir desquelles elle apprend. Plutôt que de partir de zéro, vous pouvez suivre les cinq étapes suivantes pour affiner un modèle de langage fondamental pré-entraîné.
1. Définir la tâche.
Choisissez un modèle approprié de langage large pré-entraîné et définissez clairement la tâche pour laquelle il doit être ajusté. Il peut s'agir de la classification de textes (à savoir la reconnaissance d'entités), de la génération de textes, etc.
2. Préparer les données.
Rassemblez et pré-traitez les données spécifiques à votre tâche – pour des tâches telles que l'étiquetage, la mise en forme et la tokenisation. Créez des ensembles de données d'entraînement et de validation (et éventuellement de test).
3. Affiner le modèle.
Entraînez le modèle modifié sur les données spécifiques à votre tâche, en utilisant l'ensemble de données d'entraînement pour mettre à jour le poids du modèle. Surveillez les performances du modèle sur l'ensemble de données de validation afin d'éviter tout surajustement.
4. Évaluer et tester.
Après la formation, évaluez votre modèle affiné sur l'ensemble de validation, en procédant aux ajustements nécessaires en fonction des résultats. Une fois satisfait, testez le modèle sur l'ensemble de test afin d'obtenir une estimation impartiale des performances.
5. Déployer le modèle.
Lorsque vous avez confiance dans les performances du modèle, déployez-le pour l'utilisation prévue. Il peut s'agir d'intégrer le modèle dans une application, un site web ou une autre plateforme.
Qu'est-ce qu'une donnée synthétique ?
Les données sont essentielles à l'élaboration de modèles, mais les données de haute qualité peuvent être difficiles à trouver, biaisées ou coûteuses. L'utilisation de données synthétiques, créées artificiellement (souvent à l'aide d'algorithmes), est un moyen de résoudre ces problèmes. Si nous utilisons des ensembles de données réelles pour générer des données synthétiques supplémentaires – avec les propriétés appropriées pour construire de bons modèles de machine learning – nous pouvons former des modèles pour pratiquement n'importe quel objectif, comme la recherche d'une maladie rare.
Étapes suivantes
Découvrez comment les solutions d'IA peuvent accroître la créativité et les efforts de l'homme.
Une plateforme Analytique et IA
Avec SAS® Viya®, il n'y a jamais trop d'informations. Découvrez comment transformer 1 milliard de données en 1 solution.
Lecture recommandée
- ARTICLE Detect and prevent banking application fraudCredit fraud often starts with a falsified application. That’s why it’s important to use analytics starting at the entrance point. Learn how analytics and machine learning can detect fraud at the point of application by recognizing the biggest challenge – synthetic identities. 14 décembre 2021
- ARTICLE As AI accelerates, focus on 'road' conditionsAI technology has made huge strides in a short amount of time and is ready for broader adoption. But as organizations accelerate their AI efforts, they need to take extra care, because as any police officer will tell you, even small potholes can cause problems for vehicles traveling at high speeds. 7 novembre 2019
- ARTICLE A guide to machine learning algorithms and their applicationsDo you know the difference between supervised and unsupervised learning? How about the difference between decision trees and forests? Or when to use a support vector algorithm? Get all the answers here. 21 août 2018
- Recherche Nerd in the herd: protecting elephants with data scienceA passionate SAS data scientist uses machine learning to detect tuberculosis in elephants. Find out how her research can help prevent the spread of the disease. 7 avril 2018