LLMOps: Acelerar Inferencia en GPU de LLMs usando TensorRT-LLM
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Descubre cómo acelerar la generación de modelos de lenguaje de gran escala (LLMs) utilizando el runtime TensorRT-LLM en este video informativo de 16 minutos. Explora las técnicas de optimización para mejorar el rendimiento de inferencia en GPUs, con un enfoque práctico que incluye un notebook de Jupyter para implementar los conceptos aprendidos. Aprende sobre LLMOps y cómo aplicar estas estrategias de aceleración en tus proyectos de ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Acelerar Inferencia en GPU de LLMs usando TensorRT-LLM #datascience #machinelerning
Taught by
The Machine Learning Engineer
Related Courses
Data AnalysisJohns Hopkins University via Coursera Computing for Data Analysis
Johns Hopkins University via Coursera Scientific Computing
University of Washington via Coursera Introduction to Data Science
University of Washington via Coursera Web Intelligence and Big Data
Indian Institute of Technology Delhi via Coursera