Fine-Tuning ViT Classifier for Retina Images and Converting to ONNX Format - Part 3
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a personalizar un Vision Transformer utilizando tu propio conjunto de datos en este tutorial en español, parte de una serie de cuatro videos. Descubre cómo usar un modelo preentrenado de Google como base y entrenar un clasificador con datos propios, utilizando un subconjunto del conjunto de datos EyePacs llamado EyeQ. Explora el proceso de conversión de modelos de calidad y detección al formato ONNX. Accede al cuaderno Jupyter proporcionado para seguir paso a paso la implementación práctica de estos conceptos de aprendizaje automático aplicados a imágenes de retina.
Syllabus
LLMOPS :Fine Tune ViT Classifier. Images de Retina.Convertir a formato ONNX(Español)#machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Vision Transformers Explained + Fine-Tuning in PythonJames Briggs via YouTube ConvNeXt- A ConvNet for the 2020s - Paper Explained
Aleksa Gordić - The AI Epiphany via YouTube Do Vision Transformers See Like Convolutional Neural Networks - Paper Explained
Aleksa Gordić - The AI Epiphany via YouTube Stable Diffusion and Friends - High-Resolution Image Synthesis via Two-Stage Generative Models
HuggingFace via YouTube Intro to Dense Vectors for NLP and Vision
James Briggs via YouTube