MLOps with MLFlow: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Explora el Modelo Phi3 Mini 128k de Microsoft en diversos formatos y compara su rendimiento en tiempo y precisión. Trabaja con notebooks que cubren la cuantización MLFlow bfloat16, el formato GGUF cuantizado float16 con Llama.cpp, ONNX CPU cuantizado int4, y ONNX GPU DirectML cuantizado int4. Analiza las diferencias de implementación y rendimiento entre estas variantes del modelo en un contexto de aprendizaje automático y ciencia de datos.
Syllabus
MLOPS MLFlow : Microsoft Phi3 mini 128k formatos GGUF MLFLOW y ONNX #machinelearning #datascience
Taught by
The Machine Learning Engineer
Related Courses
Bayes Classifier on DataprocGoogle via Google Cloud Skills Boost Llama for Python Programmers
University of Michigan via Coursera Quantization Fundamentals with Hugging Face
DeepLearning.AI via Coursera Quantization in Depth
DeepLearning.AI via Coursera Working with Llama 3
DataCamp