YoVDO

MLOps: Saving and Loading Microsoft Phi3 Mini 128k in GGUF Format with MLflow

Offered By: The Machine Learning Engineer via YouTube

Tags

MLOps Courses Data Science Courses Machine Learning Courses Inference Courses MLFlow Courses GGUF Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Aprende a guardar y cargar el modelo Microsoft Phi3 mini 128k en formato GGUF utilizando MLflow en este tutorial de 17 minutos. Explora cómo cuantizar el modelo a int8, almacenarlo en MLflow y posteriormente cargarlo para realizar inferencias en un entorno diferente. Accede al notebook proporcionado en GitHub para seguir paso a paso el proceso de trabajo con modelos de lenguaje cuantizados en bfloat16. Ideal para profesionales de machine learning y ciencia de datos interesados en optimizar el rendimiento y la portabilidad de modelos de lenguaje.

Syllabus

MLOPS MLFlow :Salvar y cargar Microsoft Phi3 mini 128k en GGUF MLflow #machinelearning #datascience


Taught by

The Machine Learning Engineer

Related Courses

Fine-Tuning and Deploying LLaMA 3.1 on Hugging Face and Ollama
Mervin Praison via YouTube
How to Quantize a Large Language Model with GGUF or AWQ
Trelis Research via YouTube
MLOps: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
The Machine Learning Engineer via YouTube
MLOps with MLFlow: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
The Machine Learning Engineer via YouTube
MLOps: Logging and Loading Microsoft Phi3 Mini 128k in GGUF with MLflow
The Machine Learning Engineer via YouTube