YoVDO

MLOps with MLFlow: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats

Offered By: The Machine Learning Engineer via YouTube

Tags

MLOps Courses Machine Learning Courses Quantization Courses MLFlow Courses ONNX Courses GGUF Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Explora el Modelo Phi3 Mini 128k de Microsoft en diversos formatos y compara su rendimiento en tiempo y precisión. Trabaja con notebooks que cubren la cuantización MLFlow bfloat16, el formato GGUF cuantizado float16 con Llama.cpp, ONNX CPU cuantizado int4, y ONNX GPU DirectML cuantizado int4. Analiza las diferencias de implementación y rendimiento entre estas variantes del modelo en un contexto de aprendizaje automático y ciencia de datos.

Syllabus

MLOPS MLFlow : Microsoft Phi3 mini 128k formatos GGUF MLFLOW y ONNX #machinelearning #datascience


Taught by

The Machine Learning Engineer

Related Courses

Fine-Tuning and Deploying LLaMA 3.1 on Hugging Face and Ollama
Mervin Praison via YouTube
How to Quantize a Large Language Model with GGUF or AWQ
Trelis Research via YouTube
MLOps: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
The Machine Learning Engineer via YouTube
MLOps: Logging and Loading Microsoft Phi3 Mini 128k in GGUF with MLflow
The Machine Learning Engineer via YouTube
MLOps: Saving and Loading Microsoft Phi3 Mini 128k in GGUF Format with MLflow
The Machine Learning Engineer via YouTube