MLOps with MLFlow: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Explora el Modelo Phi3 Mini 128k de Microsoft en diversos formatos y compara su rendimiento en tiempo y precisión. Trabaja con notebooks que cubren la cuantización MLFlow bfloat16, el formato GGUF cuantizado float16 con Llama.cpp, ONNX CPU cuantizado int4, y ONNX GPU DirectML cuantizado int4. Analiza las diferencias de implementación y rendimiento entre estas variantes del modelo en un contexto de aprendizaje automático y ciencia de datos.
Syllabus
MLOPS MLFlow : Microsoft Phi3 mini 128k formatos GGUF MLFLOW y ONNX #machinelearning #datascience
Taught by
The Machine Learning Engineer
Related Courses
Fine-Tuning and Deploying LLaMA 3.1 on Hugging Face and OllamaMervin Praison via YouTube How to Quantize a Large Language Model with GGUF or AWQ
Trelis Research via YouTube MLOps: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
The Machine Learning Engineer via YouTube MLOps: Logging and Loading Microsoft Phi3 Mini 128k in GGUF with MLflow
The Machine Learning Engineer via YouTube MLOps: Saving and Loading Microsoft Phi3 Mini 128k in GGUF Format with MLflow
The Machine Learning Engineer via YouTube