YoVDO

LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU

Offered By: The Machine Learning Engineer via YouTube

Tags

TensorRT Courses Machine Learning Courses Deep Learning Courses PyTorch Courses Quantization Courses Model Optimization Courses LLMOps Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
Explora cómo convertir un modelo al formato TensorRT y compara los tiempos de inferencia en GPU entre PyTorch nativo y TensorRT con diferentes tipos de precisión de datos en este video de 40 minutos. Aprende a utilizar el SDK Nvidia TensorRT para optimizar la inferencia en GPU para modelos de aprendizaje automático. Examina un caso práctico utilizando ResNet50, siguiendo el proceso paso a paso con el notebook proporcionado en GitHub. Descubre las ventajas y consideraciones al implementar TensorRT para mejorar el rendimiento de inferencia en aplicaciones de ciencia de datos y aprendizaje automático.

Syllabus

LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU #datascience #machinelearning


Taught by

The Machine Learning Engineer

Related Courses

Optimize TensorFlow Models For Deployment with TensorRT
Coursera Project Network via Coursera
Jetson Xavier NX Developer Kit - Edge AI Supercomputer Features and Applications
Nvidia via YouTube
NVIDIA Jetson: Enabling AI-Powered Autonomous Machines at Scale
Nvidia via YouTube
Jetson AGX Xavier: Architecture and Applications for Autonomous Machines
Nvidia via YouTube
Streamline Deep Learning for Video Analytics with DeepStream SDK 2.0
Nvidia via YouTube