LLMOPs - Inferencia en CPU con Phi3 4k Instruct ONNX 4bits en C#
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a realizar inferencia en CPU utilizando el modelo Phi 3 4K Instruct cuantizado a 4 bits en formato ONNX con C#. Este tutorial de 24 minutos explica paso a paso cómo implementar LLMOPs (Operaciones de Modelos de Lenguaje Grande) para ciencia de datos y aprendizaje automático. Descubre técnicas avanzadas para optimizar el rendimiento en CPU y trabajar con modelos de lenguaje comprimidos. Accede al código fuente completo en GitHub para seguir la implementación práctica y profundizar en los conceptos presentados.
Syllabus
LLMOPs: Inferencia en CPU Phi3 4k Intruct ONNX 4bits en C# #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Caffe2: Getting StartedPluralsight Despliegue de modelos de IA en IoT Edge con ONNX
Coursera Project Network via Coursera Flux - The Elegant Machine Learning Library for Julia
The Julia Programming Language via YouTube How to Convert Almost Any PyTorch Model to ONNX and Serve It Using Flask
Abhishek Thakur via YouTube Productionizing Machine Learning with Apache Spark, MLflow and ONNX - Cloud Deployment Using SQL Server
Databricks via YouTube