LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Explora cómo convertir un modelo al formato TensorRT y compara los tiempos de inferencia en GPU entre PyTorch nativo y TensorRT con diferentes tipos de precisión de datos en este video de 40 minutos. Aprende a utilizar el SDK Nvidia TensorRT para optimizar la inferencia en GPU para modelos de aprendizaje automático. Examina un caso práctico utilizando ResNet50, siguiendo el proceso paso a paso con el notebook proporcionado en GitHub. Descubre las ventajas y consideraciones al implementar TensorRT para mejorar el rendimiento de inferencia en aplicaciones de ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Optimize TensorFlow Models For Deployment with TensorRTCoursera Project Network via Coursera Jetson Xavier NX Developer Kit - Edge AI Supercomputer Features and Applications
Nvidia via YouTube NVIDIA Jetson: Enabling AI-Powered Autonomous Machines at Scale
Nvidia via YouTube Jetson AGX Xavier: Architecture and Applications for Autonomous Machines
Nvidia via YouTube Streamline Deep Learning for Video Analytics with DeepStream SDK 2.0
Nvidia via YouTube