YoVDO

LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU

Offered By: The Machine Learning Engineer via YouTube

Tags

TensorRT Courses Machine Learning Courses Deep Learning Courses PyTorch Courses Quantization Courses Model Optimization Courses LLMOps Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Explora cómo convertir un modelo al formato TensorRT y compara los tiempos de inferencia en GPU entre PyTorch nativo y TensorRT con diferentes tipos de precisión de datos en este video de 40 minutos. Aprende a utilizar el SDK Nvidia TensorRT para optimizar la inferencia en GPU para modelos de aprendizaje automático. Examina un caso práctico utilizando ResNet50, siguiendo el proceso paso a paso con el notebook proporcionado en GitHub. Descubre las ventajas y consideraciones al implementar TensorRT para mejorar el rendimiento de inferencia en aplicaciones de ciencia de datos y aprendizaje automático.

Syllabus

LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU #datascience #machinelearning


Taught by

The Machine Learning Engineer

Related Courses

Large Language Models: Application through Production
Databricks via edX
LLMOps - LLM Bootcamp
The Full Stack via YouTube
MLOps: Why DevOps Solutions Fall Short in the Machine Learning World
Linux Foundation via YouTube
Quick Wins Across the Enterprise with Responsible AI
Microsoft via YouTube
End-to-End AI App Development: Prompt Engineering to LLMOps
Microsoft via YouTube