Créer un bot qui répond aux questions à l'aide de l'IA générative (Français) | Build a Question-answering Bot using Generative AI (French)
Offered By: Amazon Web Services via AWS Skill Builder
Course Description
Overview
Présentation de l’atelier
Dans cet atelier, vous allez créer un chatbot qui répond aux questions concernant les services AWS. Cet atelier est destiné à vous fournir une expérience pratique pour le déploiement d’un grand modèle de langage (LLM), son intégration à une source de données Amazon Kendra et la création d’un chatbot Amazon Lex V2 qui interroge votre LLM et recherche des réponses aux questions des utilisateurs à l’aide de la génération augmentée de récupération (RAG). Cet atelier vous aidera à comprendre comment compléter les capacités natives d’un modèle linguistique avec des informations supplémentaires.
Le chatbot que vous allez créer comporte trois composants principaux : un modèle basique Flan T5-XL, Langchain et un index Kendra. Flan T5-XL est un grand modèle de langage hébergé dans Amazon SageMaker. Langchain est un framework utilisé pour l’ingestion d’un index Kendra composé d’une documentation AWS. Ces documents, ainsi que les questions saisies dans la fenêtre de texte du chatbot, sont ensuite transmis au modèle Flan qui génère une réponse. Cet atelier vous fournit une compréhension générale de la manière de créer une interface de chatbot à l’aide de Lex V2 et d’utiliser les différents services AWS pour améliorer les capacités d’un modèle de langage.
Objectifs
À la fin de cet atelier, vous serez en mesure d’effectuer les actions suivantes :
- expliquer comment il est possible d’utiliser la génération augmentée de récupération pour améliorer les résultats produits par les applications d’IA générative ;
- déployer un chatbot Lex alimenté par un grand modèle de langage ;
- connecter Langchain à un modèle lancé dans Amazon SageMaker.
Connaissances techniques préalables
Cet atelier nécessite une maîtrise des applications mises en conteneur et des concepts de base de l’apprentissage automatique. Vous devez disposer de connaissances élémentaires sur plusieurs services AWS, notamment AWS CodeBuild, AWS Lambda, AWS Cloudformation, Amazon Kendra et Amazon Lex. Vous devez également avoir suivi le cours Guide de démarrage avec Amazon Kendra.
Signification des icônes
De nombreuses icônes sont utilisées dans cet atelier pour attirer l’attention sur différents types d’instructions et de remarques. La liste suivante explique la signification de chaque icône :
- Commande : une commande que vous devez exécuter.
- Sortie attendue : un exemple de sortie que vous pouvez utiliser pour vérifier la sortie d’une commande ou d’un fichier modifié.
- Remarque : un indice, une directive ou un conseil important.
- En savoir plus : un emplacement où trouver davantage d’informations.
- Attention : des informations présentant un intérêt spécial ou d’une importance particulière (pas assez importante pour causer des problèmes avec l’équipement ou les données si vous n’y faites pas attention, mais qui pourrait vous amener à devoir répéter certaines étapes).
- AVERTISSEMENT : une action qui est irréversible et susceptible d’avoir une incidence sur l’échec d’une commande ou d’un processus (y compris les avertissements concernant les configurations ne pouvant pas être modifiées après leur mise en place).
- À savoir : prenez le temps de réfléchir à la façon dont vous pourriez appliquer un concept dans votre propre environnement ou pour entamer une conversation sur le sujet en question.
- Contenu du fichier : un bloc de code affichant le contenu d’un script ou d’un fichier que vous devez exécuter et qui a été préalablement créé pour vous.
- Tâche terminée : une conclusion ou un récapitulatif de l’atelier.
Tags
Related Courses
Prompt Templates for GPT-3.5 and Other LLMs - LangChainJames Briggs via YouTube Getting Started with GPT-3 vs. Open Source LLMs - LangChain
James Briggs via YouTube Chatbot Memory for Chat-GPT, Davinci + Other LLMs - LangChain
James Briggs via YouTube Chat in LangChain
James Briggs via YouTube LangChain Data Loaders, Tokenizers, Chunking, and Datasets - Data Prep
James Briggs via YouTube