Inferencia Eficiente de LLMs en CPUs y GPUs Intel con Neural Speed
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Explora la inferencia eficiente de modelos de lenguaje grandes (LLMs) en CPUs y GPUs de Intel utilizando Neural Speed en este video tutorial en español. Aprende sobre las extensiones de Intel para transformadores y cómo optimizar el rendimiento de LLMs. Accede a notebooks prácticos para implementar estas técnicas tanto en CPU como en GPU. Profundiza en estrategias de machine learning avanzadas para mejorar la velocidad y eficiencia de tus modelos de lenguaje en hardware Intel.
Syllabus
Inferencia Eficiente de LLMs en CPUs y GPU,s INTEL. Neural Speed Español #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Linear CircuitsGeorgia Institute of Technology via Coursera مقدمة في هندسة الطاقة والقوى
King Abdulaziz University via Rwaq (رواق) Magnetic Materials and Devices
Massachusetts Institute of Technology via edX Linear Circuits 2: AC Analysis
Georgia Institute of Technology via Coursera Transmisión de energía eléctrica
Tecnológico de Monterrey via edX