LLMOPs: Inferencia en CPU con Phi3 Vision 128k Instruct - ONNX 4bits en C#
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Explora cómo realizar prompts multimodales e inferencia en CPU utilizando el modelo Phi 3 Vision 128K Instruct cuantizado a 4 bits en formato ONNX con C#. Aprende a implementar estas técnicas avanzadas de procesamiento de lenguaje natural y visión por computadora en un entorno de CPU. Examina el código fuente proporcionado para comprender la implementación práctica de estos conceptos en el contexto de ciencia de datos y aprendizaje automático.
Syllabus
LLMOPs: Inferencia en CPU Phi3 Vision 128k Intruct ONNX 4bits en C# #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Fine-tuning Phi-3 for LeetCode: Dataset Generation and Unsloth ImplementationAll About AI via YouTube LLM News: GPT-4, Project Astra, Veo, Copilot+ PCs, Gemini 1.5 Flash, and Chameleon
Elvis Saravia via YouTube LLM Tool Use - GPT4o-mini, Groq, and Llama.cpp
Trelis Research via YouTube LoRA Fine-tuning Explained - Choosing Parameters and Optimizations
Trelis Research via YouTube Comparing LLAMA 3, Phi 3, and GPT-3.5 Turbo AI Agents for Web Search Performance
Data Centric via YouTube