Processamento Neural de Linguagem Natural em Português I
Offered By: Universidade de São Paulo via Coursera
Course Description
Overview
Berm vindo ao curso de Processamento Neural de Linguagem Natural em Português I, oferecido pelo Departamento de Ciência da Computação do Instituto de Matemática e Estatistica da USP, com apoio do C4AI – USP-IBM-Fapesp Center for Artificial Intelligence e com apoio da Google.
Neste curso você irá aprender como o Machine learning (aprendizado de máquina) pode ser usado para processar textos em português. No final deste curso você já será capaz de escrever programas em Python de treinamento e execução de tarefas como classificação de textos, análise de sentimentos e traduções básicas, dentre outras aplicações de redes neurais em inteligência artificial.
O curso é ministrado em português e utiliza como exemplos o processamento de textos em português brasileiro.
O curso é dividido em 6 módulos. Os tópicos cobertos são:
Modulo 1: Introdução à linguística computacional
Modulo 2: Introdução às redes neurais
Modulo 3: Processamento Neural de Língua e Representação de palavras
Modulo 4: word2vec
Modulo 5: Redes Neurais Recorrentes e Processamento Sequência-para-sequência
Modulo 6: Redes LSTM e GRU
O curso utiliza as bibliotecas do pacote Tensor Flow para Python, que podem ser baixados gratuitamente.
Venha participar!
Prof. Marcelo Finger e equipe do IME USP
Syllabus
- Introdução ao Processamento de Língua Natural e ao Curso
- Bem-vindos! Neste módulo iremos apresentar o estudo computacional da linguagem, modelos gramaticais., modelos probabilísticos e modelos neurais. Este último será explorado nos próximos módulos. Você também será introduzido a problemas típicos de processamento de língua natural
- Introdução às Redes Neurais
- Neste modulo iremos apresentar uma visão moderna sobre redes neurais Feed-forward, também chamadas de Perscétrons Multicamadas. Iremos detalhar como esta arquitetura de rede neural funciona, como ela pode ser treinada e como ela é aplicada em tarefas de classificação.
- Procesamento Neural de Língua e Representação de Palavras
- Neste módulo você irá aprender como palavras podem ser representadas por uma sequência de valores (inserção num espaço multidimensional) e como sequências de palavras podem ser processadas com estes modelos simples.
- word2vec
- A revolução do processamento neural de linguagem começou com métodos capazes de representar palavras de forma a codificar os contextos em que elas ocorrem com mais frequência. O werd2vec foi um dos principais métodos que realizaram esta transição, e neste modulo iremos estudá-lo em detalhe.
- Modelos Neurais Recorrentes (RNNs)
- Para processar sequências cada vez maiores de palavras é necessário capturar o contexto em que elas ocorrem. As redes neurais recorrentes visam solucionar este problema. No entanto elas introduziram novos desafios os quais serão explicados neste módulo. Iremos também abordar o modelo sequência-para-sequência que se iniciou com as redes recorrentes e que é usado largamente até hoje.
- Modelos Recorrentes na Prática: LSTM e GRU
- As redes LSTM (Long Short Term Memory) são uma arquitetura recorrente que permite balancear informações de contextos recentes e distantes e assim enfrentando os desafios introduzidos pela recorrência e possibilitando o verdadeiro processamento de textos de tamanho ilimitado. As redes GRU são uma simplificação deste modelo.
Taught by
Marcelo Finger and Alan Barzilay
Tags
Related Courses
Neural Networks for Machine LearningUniversity of Toronto via Coursera Good Brain, Bad Brain: Basics
University of Birmingham via FutureLearn Statistical Learning with R
Stanford University via edX Machine Learning 1—Supervised Learning
Brown University via Udacity Fundamentals of Neuroscience, Part 2: Neurons and Networks
Harvard University via edX