AirLLM: Inferencia de LLM de 70 Billones de Parámetros en GPU de 4GB - Español
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a realizar inferencia utilizando un modelo de lenguaje grande (LLM) de 70 billones de parámetros en una GPU doméstica con solo 4GB de memoria. Este tutorial en español de 23 minutos, presentado por The Machine Learning Engineer, explora técnicas avanzadas de cuantización y optimización para ejecutar modelos de inteligencia artificial de gran escala en hardware de consumo. Accede al notebook proporcionado en GitHub para seguir paso a paso el proceso y descubre cómo aprovechar al máximo los recursos limitados de GPU para tareas de procesamiento de lenguaje natural y aprendizaje automático.
Syllabus
AirLLM Como hacer Inferencia en una GPU de 4G LLM 70billones Español #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Digital Signal ProcessingÉcole Polytechnique Fédérale de Lausanne via Coursera Principles of Communication Systems - I
Indian Institute of Technology Kanpur via Swayam Digital Signal Processing 2: Filtering
École Polytechnique Fédérale de Lausanne via Coursera Digital Signal Processing 3: Analog vs Digital
École Polytechnique Fédérale de Lausanne via Coursera Digital Signal Processing 4: Applications
École Polytechnique Fédérale de Lausanne via Coursera