YoVDO

Inferencia Eficiente de LLMs en CPUs y GPUs Intel con Neural Speed

Offered By: The Machine Learning Engineer via YouTube

Tags

Machine Learning Courses Python Courses Transformers Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Explora la inferencia eficiente de modelos de lenguaje grandes (LLMs) en CPUs y GPUs de Intel utilizando Neural Speed en este video tutorial en español. Aprende sobre las extensiones de Intel para transformadores y cómo optimizar el rendimiento de LLMs. Accede a notebooks prácticos para implementar estas técnicas tanto en CPU como en GPU. Profundiza en estrategias de machine learning avanzadas para mejorar la velocidad y eficiencia de tus modelos de lenguaje en hardware Intel.

Syllabus

Inferencia Eficiente de LLMs en CPUs y GPU,s INTEL. Neural Speed Español #machinelearning


Taught by

The Machine Learning Engineer

Related Courses

Introduction to Artificial Intelligence
Stanford University via Udacity
Natural Language Processing
Columbia University via Coursera
Probabilistic Graphical Models 1: Representation
Stanford University via Coursera
Computer Vision: The Fundamentals
University of California, Berkeley via Coursera
Learning from Data (Introductory Machine Learning course)
California Institute of Technology via Independent