YoVDO

AirLLM: Inferencia de LLM de 70 Billones de Parámetros en GPU de 4GB - Español

Offered By: The Machine Learning Engineer via YouTube

Tags

Machine Learning Courses Data Science Courses Quantization Courses Inference Courses GPU Computing Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Aprende a realizar inferencia utilizando un modelo de lenguaje grande (LLM) de 70 billones de parámetros en una GPU doméstica con solo 4GB de memoria. Este tutorial en español de 23 minutos, presentado por The Machine Learning Engineer, explora técnicas avanzadas de cuantización y optimización para ejecutar modelos de inteligencia artificial de gran escala en hardware de consumo. Accede al notebook proporcionado en GitHub para seguir paso a paso el proceso y descubre cómo aprovechar al máximo los recursos limitados de GPU para tareas de procesamiento de lenguaje natural y aprendizaje automático.

Syllabus

AirLLM Como hacer Inferencia en una GPU de 4G LLM 70billones Español #datascience #machinelearning


Taught by

The Machine Learning Engineer

Related Courses

Introduction to Artificial Intelligence
Stanford University via Udacity
Natural Language Processing
Columbia University via Coursera
Probabilistic Graphical Models 1: Representation
Stanford University via Coursera
Computer Vision: The Fundamentals
University of California, Berkeley via Coursera
Learning from Data (Introductory Machine Learning course)
California Institute of Technology via Independent