YoVDO

Inferencia Eficiente de LLMs en CPUs y GPUs Intel con Neural Speed

Offered By: The Machine Learning Engineer via YouTube

Tags

Machine Learning Courses Python Courses Transformers Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Explora la inferencia eficiente de modelos de lenguaje grandes (LLMs) en CPUs y GPUs de Intel utilizando Neural Speed en este video tutorial en español. Aprende sobre las extensiones de Intel para transformadores y cómo optimizar el rendimiento de LLMs. Accede a notebooks prácticos para implementar estas técnicas tanto en CPU como en GPU. Profundiza en estrategias de machine learning avanzadas para mejorar la velocidad y eficiencia de tus modelos de lenguaje en hardware Intel.

Syllabus

Inferencia Eficiente de LLMs en CPUs y GPU,s INTEL. Neural Speed Español #machinelearning


Taught by

The Machine Learning Engineer

Related Courses

Artificial Intelligence for Robotics
Stanford University via Udacity
Intro to Computer Science
University of Virginia via Udacity
Design of Computer Programs
Stanford University via Udacity
Web Development
Udacity
Programming Languages
University of Virginia via Udacity