Fine-Tuning ViT Classifier for Retinal Images with AKS Inference - Part 4 (Español)
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a personalizar un Vision Transformer con tu propio conjunto de datos en este tutorial de 49 minutos, parte 4 de una serie de 4. Utiliza un modelo base pre-entrenado por Google para entrenar un clasificador con datos de imágenes de retina del conjunto EyeQ, un subconjunto de EyePacs. Crea un punto de inferencia administrado en Azure Machine Learning Studio (AKS) para implementar el modelo. Accede a los notebooks del proyecto en GitHub para seguir el proceso paso a paso y aplicar estos conocimientos a tus propios proyectos de aprendizaje automático y visión por computadora.
Syllabus
LLMOPS :Fine Tune ViT Classifier. Images de Retina. Inferencia en AKS (Español)#machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Vision Transformers Explained + Fine-Tuning in PythonJames Briggs via YouTube ConvNeXt- A ConvNet for the 2020s - Paper Explained
Aleksa Gordić - The AI Epiphany via YouTube Do Vision Transformers See Like Convolutional Neural Networks - Paper Explained
Aleksa Gordić - The AI Epiphany via YouTube Stable Diffusion and Friends - High-Resolution Image Synthesis via Two-Stage Generative Models
HuggingFace via YouTube Intro to Dense Vectors for NLP and Vision
James Briggs via YouTube