LLMOps: Optimización de Memoria y Computación en LLMs
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Explora técnicas avanzadas de optimización para Modelos de Lenguaje Grande (LLMs) en este tutorial de 27 minutos. Aprende sobre FlashAttention y GQA como métodos para optimizar las capas de atención, y profundiza en las técnicas de entrenamiento DDP (Distributed Data Parallel) y FSDP (Fully Sharded Data Parallel). Accede a una presentación detallada y un notebook práctico para implementar estos conceptos, mejorando la eficiencia en memoria y computación de tus modelos de lenguaje.
Syllabus
LLMOps: Optimizacion Memoria y Computación en LLM,s #machinelearning #datascience
Taught by
The Machine Learning Engineer
Related Courses
Large Language Models: Application through ProductionDatabricks via edX LLMOps - LLM Bootcamp
The Full Stack via YouTube MLOps: Why DevOps Solutions Fall Short in the Machine Learning World
Linux Foundation via YouTube Quick Wins Across the Enterprise with Responsible AI
Microsoft via YouTube End-to-End AI App Development: Prompt Engineering to LLMOps
Microsoft via YouTube