17.
Redes Adversariais Generativas
search
Quick search
code
Show Source
MXNet
PyTorch
Notebooks
Courses
GitHub
English
Table Of Contents
Prefácio
Instalação
Notação
1. Introdução
2. Preliminares
2.1. Manipulação de Dados
2.2. Pré-processamento de Dados
2.3. Álgebra Linear
2.4. Cálculo
2.5. Diferenciação automática
2.6. Probabilidade
2.7. Documentação
3. Linear Neural NetworkRedes Neurais Lineares
3.1. Linear Regression
3.2. Linear Regression Implementation from Scratch
3.3. Implementação Concisa de Regressão Linear
3.4. Regressão
Softmax
3.5. O
Dataset
de Classificação de Imagens
3.6. Implementação da Regressão
Softmax
do Zero
3.7. Implementação Concisa da Regressão
Softmax
4.
Perceptrons
Multicamada
4.1.
Perceptrons
Multicamada
4.2. Implementação de Perceptrons Multicamadas do Zero
4.3. Implementação Concisa de
Perceptrons
Multicamadas
4.4. Seleção do Modelo,
Underfitting
, e
Overfitting
4.5.
Weight Decay
4.6.
Dropout
4.7. Propagação Direta, Propagação Reversa e Gráficos Computacionais
4.8. Estabilidade Numérica e Inicialização
4.9. Mudança de Ambiente e Distribuição
4.10. Previsão de Preços de Imóveis no Kaggle
5.
Deep Learning
Computacional
5.1. Camadas e Blocos
5.2. Gerenciamento de Parâmetros
5.3. Deferred Initialization
5.4. Camadas Personalizadas
5.5. Entrada e Saída de Arquivos
5.6. GPUs
6. Convolutional Neural Networks
6.1. De Camadas Totalmente Conectadas às Convoluções
6.2. Convolução para Imagens
6.3. Preenchimento e Saltos
6.4. Canais de Múltiplas Entradas e Saídas
6.5.
Pooling
6.6. Redes Neurais Convolucionais (LeNet)
7. Modern Convolutional Neural Networks
7.1. Redes Neurais Convolucionais Profundas (AlexNet)
7.2. Redes Usando Blocos (VGG)
7.3. Network in Network (NiN)
7.4. Redes com Concatenações Paralelas (GoogLeNet)
7.5. Normalização de Lotes
7.6. Redes Residuais (ResNet)
7.7. Redes Densamente Conectadas (DenseNet)
8. Redes Neurais Recorrentes
8.1. Modelos Sequenciais
8.2. Preprocessamento de Texto
8.3. Modelos de Linguagem e o
Dataset
8.4. Redes Neurais Recorrentes (RNNs)
8.5. Implementação de Redes Neurais Recorrentes do Zero
8.6. Implementação Concisa de Redes Neurais Recorrentes
8.7. Retropropagação ao Longo do Tempo
9. Redes Neurais Recorrentes Modernas
9.1. Gated Recurrent Units (GRU)
9.2. Memória Longa de Curto Prazo (LSTM)
9.3. Redes neurais recorrentes profundas
9.4. Redes Neurais Recorrentes Bidirecionais
9.5. Tradução Automática e o Conjunto de Dados
9.6. Arquitetura Encoder-Decoder
9.7. Aprendizado Sequência a Sequência
9.8. Pesquisa de feixe
10. Mecanismos de Atenção
10.1. Dicas para atenção
10.2.
Pooling
de Atenção: Regressão de Kernel de Nadaraya-Watson
10.3. Funções de Pontuação de Atenção
10.4. Atenção de Bahdanau
10.5. Atenção Multi-Head
10.6. Autoatenção e Codificação Posicional
10.7. Transformador
11. Algoritmos de Otimização
11.1. Optimização e Deep Learning
11.2. Convexidade
11.3. Gradiente descendente
11.4. Gradiente Descendente Estocástico
11.5. Gradiente Estocástico Descendente Minibatch
11.6. Momentum
11.7. Adagrad
11.8. RMSProp
11.9. Adadelta
11.10. Adam
11.11. Programação da taxa de aprendizagem
12. Desempenho Computacional
12.1. Compiladores e Interpretadores
12.2. Computação Assíncrona
12.3. Paralelismo Automático
12.4.
Hardware
12.5. Treinamento em Várias GPUs
12.6. Implementação Concisa para Várias GPUs
12.7. Servidores de Parâmetros
13. Visão Computacional
13.1. Aumento de Imagem
13.2. Ajustes
13.3. Detecção de Objetos e Caixas Delimitadoras
13.4. Caixas de Âncora
13.5. Detecção de Objetos Multiescala
13.6. O
Dataset
de Detecção de Objetos
13.7. Detecção
Single Shot Multibox
(SSD)
13.8. Region-based CNNs (R-CNNs)
13.9. Segmentação Semântica e o
Dataset
13.10. Convolução Transposta
13.11. Redes Totalmente Convolucionais (
Fully Convolutional Networks
, FCN)
13.12. Transferência de Estilo Neural
13.13. Classificação de Imagens (CIFAR-10) no Kaggle
13.14. Identificação de Raça de Cachorro (
ImageNet Dogs
) no Kaggle
14. Processamento de linguagem natural: Pré-treinamento
14.1. Incorporação de Palavras (word2vec)
14.2. Treinamento Aproximado
14.3. O conjunto de dados para incorporação de palavras com pré-treinamento
14.4. Pré-treinamento do word2vec
14.5. Incorporação de palavras com vetores globais (GloVe)
14.6. Incorporação de subpalavra
14.7. Encontrando sinônimos e analogias
14.8. Representações de codificador bidirecional de transformadores (BERT)
14.9. O conjunto de dados para pré-treinamento de BERT
14.10. Pré-treinando BERT
15. Processamento de Linguagem Natural: Aplicações
15.1. Análise de Sentimentos e o
Dataset
15.2. Análise de Sentimento: Usando Redes Neurais Recorrentes
15.3. Análise de Sentimento: Usando Redes Neurais Convolucionais
15.4. Inferência de Linguagem Natural e o
Dataset
15.5. Inferência de Linguagem Natural: Usando a Atenção
15.6. Ajuste Fino de BERT para Aplicações de Nível de Sequência e de Token
15.7. Inferência de Linguagem Natural: Ajuste Fino do BERT
16. Sistemas de Recomendação
16.1. Visão geral dos sistemas de recomendação
16.2. O conjunto de dados MovieLens
16.3. Fatoração de Matriz
16.4. AutoRec: Previsão de classificação com codificadores automáticos
16.5. Classificação personalizada para sistemas de recomendação
16.6. Filtragem Neural Colaborativa para Classificação Personalizada
16.7. Sistemas de recomendação com reconhecimento de sequência
16.8. Sistemas de recomendação com muitos recursos
16.9. Máquinas de Fatoração
16.10. Máquinas de Fatoração Profunda
17. Redes Adversariais Generativas
17.1. Redes Adversariais Generativas
17.2. Redes Adversariais Gerativas Convolucionais Profundas
18. Apêndice: Matemática para
Deep Learning
18.1. Operações de Geometria e Álgebra Linear
18.2. Autovalores e Autovetores
18.3. Cálculo de Variável Única
18.4. Cálculo Multivariável
18.5. Cálculo Integral
18.6. Variáveis Aleatórias
18.7. Máxima verossimilhança
18.8. Distribuições
18.9. Naive Bayes
18.10. Estatísticas
18.11. Teoria da Informação
19. Apêndice: Ferramentas para Deep Learning
19.1. Usando Jupyter
19.2. Usando Amazon SageMaker
19.3. Usando instâncias AWS EC2
19.4. Usando Google Colab
19.5. Seleção de servidores e GPUs
19.6. Contribuindo para este livro
19.7. Documento da API
d2l
References
Table Of Contents
Prefácio
Instalação
Notação
1. Introdução
2. Preliminares
2.1. Manipulação de Dados
2.2. Pré-processamento de Dados
2.3. Álgebra Linear
2.4. Cálculo
2.5. Diferenciação automática
2.6. Probabilidade
2.7. Documentação
3. Linear Neural NetworkRedes Neurais Lineares
3.1. Linear Regression
3.2. Linear Regression Implementation from Scratch
3.3. Implementação Concisa de Regressão Linear
3.4. Regressão
Softmax
3.5. O
Dataset
de Classificação de Imagens
3.6. Implementação da Regressão
Softmax
do Zero
3.7. Implementação Concisa da Regressão
Softmax
4.
Perceptrons
Multicamada
4.1.
Perceptrons
Multicamada
4.2. Implementação de Perceptrons Multicamadas do Zero
4.3. Implementação Concisa de
Perceptrons
Multicamadas
4.4. Seleção do Modelo,
Underfitting
, e
Overfitting
4.5.
Weight Decay
4.6.
Dropout
4.7. Propagação Direta, Propagação Reversa e Gráficos Computacionais
4.8. Estabilidade Numérica e Inicialização
4.9. Mudança de Ambiente e Distribuição
4.10. Previsão de Preços de Imóveis no Kaggle
5.
Deep Learning
Computacional
5.1. Camadas e Blocos
5.2. Gerenciamento de Parâmetros
5.3. Deferred Initialization
5.4. Camadas Personalizadas
5.5. Entrada e Saída de Arquivos
5.6. GPUs
6. Convolutional Neural Networks
6.1. De Camadas Totalmente Conectadas às Convoluções
6.2. Convolução para Imagens
6.3. Preenchimento e Saltos
6.4. Canais de Múltiplas Entradas e Saídas
6.5.
Pooling
6.6. Redes Neurais Convolucionais (LeNet)
7. Modern Convolutional Neural Networks
7.1. Redes Neurais Convolucionais Profundas (AlexNet)
7.2. Redes Usando Blocos (VGG)
7.3. Network in Network (NiN)
7.4. Redes com Concatenações Paralelas (GoogLeNet)
7.5. Normalização de Lotes
7.6. Redes Residuais (ResNet)
7.7. Redes Densamente Conectadas (DenseNet)
8. Redes Neurais Recorrentes
8.1. Modelos Sequenciais
8.2. Preprocessamento de Texto
8.3. Modelos de Linguagem e o
Dataset
8.4. Redes Neurais Recorrentes (RNNs)
8.5. Implementação de Redes Neurais Recorrentes do Zero
8.6. Implementação Concisa de Redes Neurais Recorrentes
8.7. Retropropagação ao Longo do Tempo
9. Redes Neurais Recorrentes Modernas
9.1. Gated Recurrent Units (GRU)
9.2. Memória Longa de Curto Prazo (LSTM)
9.3. Redes neurais recorrentes profundas
9.4. Redes Neurais Recorrentes Bidirecionais
9.5. Tradução Automática e o Conjunto de Dados
9.6. Arquitetura Encoder-Decoder
9.7. Aprendizado Sequência a Sequência
9.8. Pesquisa de feixe
10. Mecanismos de Atenção
10.1. Dicas para atenção
10.2.
Pooling
de Atenção: Regressão de Kernel de Nadaraya-Watson
10.3. Funções de Pontuação de Atenção
10.4. Atenção de Bahdanau
10.5. Atenção Multi-Head
10.6. Autoatenção e Codificação Posicional
10.7. Transformador
11. Algoritmos de Otimização
11.1. Optimização e Deep Learning
11.2. Convexidade
11.3. Gradiente descendente
11.4. Gradiente Descendente Estocástico
11.5. Gradiente Estocástico Descendente Minibatch
11.6. Momentum
11.7. Adagrad
11.8. RMSProp
11.9. Adadelta
11.10. Adam
11.11. Programação da taxa de aprendizagem
12. Desempenho Computacional
12.1. Compiladores e Interpretadores
12.2. Computação Assíncrona
12.3. Paralelismo Automático
12.4.
Hardware
12.5. Treinamento em Várias GPUs
12.6. Implementação Concisa para Várias GPUs
12.7. Servidores de Parâmetros
13. Visão Computacional
13.1. Aumento de Imagem
13.2. Ajustes
13.3. Detecção de Objetos e Caixas Delimitadoras
13.4. Caixas de Âncora
13.5. Detecção de Objetos Multiescala
13.6. O
Dataset
de Detecção de Objetos
13.7. Detecção
Single Shot Multibox
(SSD)
13.8. Region-based CNNs (R-CNNs)
13.9. Segmentação Semântica e o
Dataset
13.10. Convolução Transposta
13.11. Redes Totalmente Convolucionais (
Fully Convolutional Networks
, FCN)
13.12. Transferência de Estilo Neural
13.13. Classificação de Imagens (CIFAR-10) no Kaggle
13.14. Identificação de Raça de Cachorro (
ImageNet Dogs
) no Kaggle
14. Processamento de linguagem natural: Pré-treinamento
14.1. Incorporação de Palavras (word2vec)
14.2. Treinamento Aproximado
14.3. O conjunto de dados para incorporação de palavras com pré-treinamento
14.4. Pré-treinamento do word2vec
14.5. Incorporação de palavras com vetores globais (GloVe)
14.6. Incorporação de subpalavra
14.7. Encontrando sinônimos e analogias
14.8. Representações de codificador bidirecional de transformadores (BERT)
14.9. O conjunto de dados para pré-treinamento de BERT
14.10. Pré-treinando BERT
15. Processamento de Linguagem Natural: Aplicações
15.1. Análise de Sentimentos e o
Dataset
15.2. Análise de Sentimento: Usando Redes Neurais Recorrentes
15.3. Análise de Sentimento: Usando Redes Neurais Convolucionais
15.4. Inferência de Linguagem Natural e o
Dataset
15.5. Inferência de Linguagem Natural: Usando a Atenção
15.6. Ajuste Fino de BERT para Aplicações de Nível de Sequência e de Token
15.7. Inferência de Linguagem Natural: Ajuste Fino do BERT
16. Sistemas de Recomendação
16.1. Visão geral dos sistemas de recomendação
16.2. O conjunto de dados MovieLens
16.3. Fatoração de Matriz
16.4. AutoRec: Previsão de classificação com codificadores automáticos
16.5. Classificação personalizada para sistemas de recomendação
16.6. Filtragem Neural Colaborativa para Classificação Personalizada
16.7. Sistemas de recomendação com reconhecimento de sequência
16.8. Sistemas de recomendação com muitos recursos
16.9. Máquinas de Fatoração
16.10. Máquinas de Fatoração Profunda
17. Redes Adversariais Generativas
17.1. Redes Adversariais Generativas
17.2. Redes Adversariais Gerativas Convolucionais Profundas
18. Apêndice: Matemática para
Deep Learning
18.1. Operações de Geometria e Álgebra Linear
18.2. Autovalores e Autovetores
18.3. Cálculo de Variável Única
18.4. Cálculo Multivariável
18.5. Cálculo Integral
18.6. Variáveis Aleatórias
18.7. Máxima verossimilhança
18.8. Distribuições
18.9. Naive Bayes
18.10. Estatísticas
18.11. Teoria da Informação
19. Apêndice: Ferramentas para Deep Learning
19.1. Usando Jupyter
19.2. Usando Amazon SageMaker
19.3. Usando instâncias AWS EC2
19.4. Usando Google Colab
19.5. Seleção de servidores e GPUs
19.6. Contribuindo para este livro
19.7. Documento da API
d2l
References
17.
Redes Adversariais Generativas
¶
17.1. Redes Adversariais Generativas
17.1.1. Gerando Alguns Dados “Reais”
17.1.2. Gerador
17.1.3. Discriminador
17.1.4. Treinamento
17.1.5. Resumo
17.1.6. Exercícios
17.2. Redes Adversariais Gerativas Convolucionais Profundas
17.2.1. O
Dataset
de Pokémon
17.2.2. O Gerador
17.2.3. Discriminador
17.2.4. Treinamento
17.2.5. Resumo
17.2.6. Exercícios
Previous
16.10. Máquinas de Fatoração Profunda
Next
17.1. Redes Adversariais Generativas