YoVDO

LLMOps: Quantizing Models and Inference with ONNX Generative Runtime

Offered By: The Machine Learning Engineer via YouTube

Tags

Data Science Courses Machine Learning Courses Generative AI Courses GPU Acceleration Courses ONNX Runtime Courses LLMOps Courses Phi-3 Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Aprende a instalar el onnx runtime con soporte GPU para realizar inferencia con Modelos Generativos en este tutorial de 39 minutos. Explora el proceso de cuantización utilizando un modelo Phi3-mini-4k a 4int y transforma un Phi3-mini-128k a 4int con el runtime onnx. Sigue paso a paso la implementación práctica utilizando el notebook proporcionado en GitHub para dominar técnicas avanzadas de LLMOps, cuantización de modelos e inferencia con ONNX Generative Runtime. Perfecciona tus habilidades en ciencia de datos y aprendizaje automático con este contenido técnico detallado.

Syllabus

LLMOps: Quantizar modelos e Inferencia con ONNX Generative Runtime #datascience #machinelearning


Taught by

The Machine Learning Engineer

Related Courses

Fine-tuning Phi-3 for LeetCode: Dataset Generation and Unsloth Implementation
All About AI via YouTube
LLM News: GPT-4, Project Astra, Veo, Copilot+ PCs, Gemini 1.5 Flash, and Chameleon
Elvis Saravia via YouTube
LLM Tool Use - GPT4o-mini, Groq, and Llama.cpp
Trelis Research via YouTube
LoRA Fine-tuning Explained - Choosing Parameters and Optimizations
Trelis Research via YouTube
Comparing LLAMA 3, Phi 3, and GPT-3.5 Turbo AI Agents for Web Search Performance
Data Centric via YouTube