MLOps with MLFlow: Comparing Microsoft Phi3 Mini 128k in GGUF, MLFlow, and ONNX Formats
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Explora el Modelo Phi3 Mini 128k de Microsoft en diversos formatos y compara su rendimiento en tiempo y precisión. Trabaja con notebooks que cubren la cuantización MLFlow bfloat16, el formato GGUF cuantizado float16 con Llama.cpp, ONNX CPU cuantizado int4, y ONNX GPU DirectML cuantizado int4. Analiza las diferencias de implementación y rendimiento entre estas variantes del modelo en un contexto de aprendizaje automático y ciencia de datos.
Syllabus
MLOPS MLFlow : Microsoft Phi3 mini 128k formatos GGUF MLFLOW y ONNX #machinelearning #datascience
Taught by
The Machine Learning Engineer
Related Courses
Caffe2: Getting StartedPluralsight Despliegue de modelos de IA en IoT Edge con ONNX
Coursera Project Network via Coursera Flux - The Elegant Machine Learning Library for Julia
The Julia Programming Language via YouTube How to Convert Almost Any PyTorch Model to ONNX and Serve It Using Flask
Abhishek Thakur via YouTube Productionizing Machine Learning with Apache Spark, MLflow and ONNX - Cloud Deployment Using SQL Server
Databricks via YouTube