17. Redes Adversariais Generativas
Quick search
code
Show Source
MXNet PyTorch Notebooks Courses GitHub English
Dive into Deep Learning
Table Of Contents
  • Prefácio
  • Instalação
  • Notação
  • 1. Introdução
  • 2. Preliminares
    • 2.1. Manipulação de Dados
    • 2.2. Pré-processamento de Dados
    • 2.3. Álgebra Linear
    • 2.4. Cálculo
    • 2.5. Diferenciação automática
    • 2.6. Probabilidade
    • 2.7. Documentação
  • 3. Linear Neural NetworkRedes Neurais Lineares
    • 3.1. Linear Regression
    • 3.2. Linear Regression Implementation from Scratch
    • 3.3. Implementação Concisa de Regressão Linear
    • 3.4. Regressão Softmax
    • 3.5. O Dataset de Classificação de Imagens
    • 3.6. Implementação da Regressão Softmax do Zero
    • 3.7. Implementação Concisa da Regressão Softmax
  • 4. Perceptrons Multicamada
    • 4.1. Perceptrons Multicamada
    • 4.2. Implementação de Perceptrons Multicamadas do Zero
    • 4.3. Implementação Concisa de Perceptrons Multicamadas
    • 4.4. Seleção do Modelo, Underfitting, e Overfitting
    • 4.5. Weight Decay
    • 4.6. Dropout
    • 4.7. Propagação Direta, Propagação Reversa e Gráficos Computacionais
    • 4.8. Estabilidade Numérica e Inicialização
    • 4.9. Mudança de Ambiente e Distribuição
    • 4.10. Previsão de Preços de Imóveis no Kaggle
  • 5. Deep Learning Computacional
    • 5.1. Camadas e Blocos
    • 5.2. Gerenciamento de Parâmetros
    • 5.3. Deferred Initialization
    • 5.4. Camadas Personalizadas
    • 5.5. Entrada e Saída de Arquivos
    • 5.6. GPUs
  • 6. Convolutional Neural Networks
    • 6.1. De Camadas Totalmente Conectadas às Convoluções
    • 6.2. Convolução para Imagens
    • 6.3. Preenchimento e Saltos
    • 6.4. Canais de Múltiplas Entradas e Saídas
    • 6.5. Pooling
    • 6.6. Redes Neurais Convolucionais (LeNet)
  • 7. Modern Convolutional Neural Networks
    • 7.1. Redes Neurais Convolucionais Profundas (AlexNet)
    • 7.2. Redes Usando Blocos (VGG)
    • 7.3. Network in Network (NiN)
    • 7.4. Redes com Concatenações Paralelas (GoogLeNet)
    • 7.5. Normalização de Lotes
    • 7.6. Redes Residuais (ResNet)
    • 7.7. Redes Densamente Conectadas (DenseNet)
  • 8. Redes Neurais Recorrentes
    • 8.1. Modelos Sequenciais
    • 8.2. Preprocessamento de Texto
    • 8.3. Modelos de Linguagem e o Dataset
    • 8.4. Redes Neurais Recorrentes (RNNs)
    • 8.5. Implementação de Redes Neurais Recorrentes do Zero
    • 8.6. Implementação Concisa de Redes Neurais Recorrentes
    • 8.7. Retropropagação ao Longo do Tempo
  • 9. Redes Neurais Recorrentes Modernas
    • 9.1. Gated Recurrent Units (GRU)
    • 9.2. Memória Longa de Curto Prazo (LSTM)
    • 9.3. Redes neurais recorrentes profundas
    • 9.4. Redes Neurais Recorrentes Bidirecionais
    • 9.5. Tradução Automática e o Conjunto de Dados
    • 9.6. Arquitetura Encoder-Decoder
    • 9.7. Aprendizado Sequência a Sequência
    • 9.8. Pesquisa de feixe
  • 10. Mecanismos de Atenção
    • 10.1. Dicas para atenção
    • 10.2. Pooling de Atenção: Regressão de Kernel de Nadaraya-Watson
    • 10.3. Funções de Pontuação de Atenção
    • 10.4. Atenção de Bahdanau
    • 10.5. Atenção Multi-Head
    • 10.6. Autoatenção e Codificação Posicional
    • 10.7. Transformador
  • 11. Algoritmos de Otimização
    • 11.1. Optimização e Deep Learning
    • 11.2. Convexidade
    • 11.3. Gradiente descendente
    • 11.4. Gradiente Descendente Estocástico
    • 11.5. Gradiente Estocástico Descendente Minibatch
    • 11.6. Momentum
    • 11.7. Adagrad
    • 11.8. RMSProp
    • 11.9. Adadelta
    • 11.10. Adam
    • 11.11. Programação da taxa de aprendizagem
  • 12. Desempenho Computacional
    • 12.1. Compiladores e Interpretadores
    • 12.2. Computação Assíncrona
    • 12.3. Paralelismo Automático
    • 12.4. Hardware
    • 12.5. Treinamento em Várias GPUs
    • 12.6. Implementação Concisa para Várias GPUs
    • 12.7. Servidores de Parâmetros
  • 13. Visão Computacional
    • 13.1. Aumento de Imagem
    • 13.2. Ajustes
    • 13.3. Detecção de Objetos e Caixas Delimitadoras
    • 13.4. Caixas de Âncora
    • 13.5. Detecção de Objetos Multiescala
    • 13.6. O Dataset de Detecção de Objetos
    • 13.7. Detecção Single Shot Multibox (SSD)
    • 13.8. Region-based CNNs (R-CNNs)
    • 13.9. Segmentação Semântica e o Dataset
    • 13.10. Convolução Transposta
    • 13.11. Redes Totalmente Convolucionais (Fully Convolutional Networks, FCN)
    • 13.12. Transferência de Estilo Neural
    • 13.13. Classificação de Imagens (CIFAR-10) no Kaggle
    • 13.14. Identificação de Raça de Cachorro (ImageNet Dogs) no Kaggle
  • 14. Processamento de linguagem natural: Pré-treinamento
    • 14.1. Incorporação de Palavras (word2vec)
    • 14.2. Treinamento Aproximado
    • 14.3. O conjunto de dados para incorporação de palavras com pré-treinamento
    • 14.4. Pré-treinamento do word2vec
    • 14.5. Incorporação de palavras com vetores globais (GloVe)
    • 14.6. Incorporação de subpalavra
    • 14.7. Encontrando sinônimos e analogias
    • 14.8. Representações de codificador bidirecional de transformadores (BERT)
    • 14.9. O conjunto de dados para pré-treinamento de BERT
    • 14.10. Pré-treinando BERT
  • 15. Processamento de Linguagem Natural: Aplicações
    • 15.1. Análise de Sentimentos e o Dataset
    • 15.2. Análise de Sentimento: Usando Redes Neurais Recorrentes
    • 15.3. Análise de Sentimento: Usando Redes Neurais Convolucionais
    • 15.4. Inferência de Linguagem Natural e o Dataset
    • 15.5. Inferência de Linguagem Natural: Usando a Atenção
    • 15.6. Ajuste Fino de BERT para Aplicações de Nível de Sequência e de Token
    • 15.7. Inferência de Linguagem Natural: Ajuste Fino do BERT
  • 16. Sistemas de Recomendação
    • 16.1. Visão geral dos sistemas de recomendação
    • 16.2. O conjunto de dados MovieLens
    • 16.3. Fatoração de Matriz
    • 16.4. AutoRec: Previsão de classificação com codificadores automáticos
    • 16.5. Classificação personalizada para sistemas de recomendação
    • 16.6. Filtragem Neural Colaborativa para Classificação Personalizada
    • 16.7. Sistemas de recomendação com reconhecimento de sequência
    • 16.8. Sistemas de recomendação com muitos recursos
    • 16.9. Máquinas de Fatoração
    • 16.10. Máquinas de Fatoração Profunda
  • 17. Redes Adversariais Generativas
    • 17.1. Redes Adversariais Generativas
    • 17.2. Redes Adversariais Gerativas Convolucionais Profundas
  • 18. Apêndice: Matemática para Deep Learning
    • 18.1. Operações de Geometria e Álgebra Linear
    • 18.2. Autovalores e Autovetores
    • 18.3. Cálculo de Variável Única
    • 18.4. Cálculo Multivariável
    • 18.5. Cálculo Integral
    • 18.6. Variáveis Aleatórias
    • 18.7. Máxima verossimilhança
    • 18.8. Distribuições
    • 18.9. Naive Bayes
    • 18.10. Estatísticas
    • 18.11. Teoria da Informação
  • 19. Apêndice: Ferramentas para Deep Learning
    • 19.1. Usando Jupyter
    • 19.2. Usando Amazon SageMaker
    • 19.3. Usando instâncias AWS EC2
    • 19.4. Usando Google Colab
    • 19.5. Seleção de servidores e GPUs
    • 19.6. Contribuindo para este livro
    • 19.7. Documento da API d2l
  • References
Dive into Deep Learning
Table Of Contents
  • Prefácio
  • Instalação
  • Notação
  • 1. Introdução
  • 2. Preliminares
    • 2.1. Manipulação de Dados
    • 2.2. Pré-processamento de Dados
    • 2.3. Álgebra Linear
    • 2.4. Cálculo
    • 2.5. Diferenciação automática
    • 2.6. Probabilidade
    • 2.7. Documentação
  • 3. Linear Neural NetworkRedes Neurais Lineares
    • 3.1. Linear Regression
    • 3.2. Linear Regression Implementation from Scratch
    • 3.3. Implementação Concisa de Regressão Linear
    • 3.4. Regressão Softmax
    • 3.5. O Dataset de Classificação de Imagens
    • 3.6. Implementação da Regressão Softmax do Zero
    • 3.7. Implementação Concisa da Regressão Softmax
  • 4. Perceptrons Multicamada
    • 4.1. Perceptrons Multicamada
    • 4.2. Implementação de Perceptrons Multicamadas do Zero
    • 4.3. Implementação Concisa de Perceptrons Multicamadas
    • 4.4. Seleção do Modelo, Underfitting, e Overfitting
    • 4.5. Weight Decay
    • 4.6. Dropout
    • 4.7. Propagação Direta, Propagação Reversa e Gráficos Computacionais
    • 4.8. Estabilidade Numérica e Inicialização
    • 4.9. Mudança de Ambiente e Distribuição
    • 4.10. Previsão de Preços de Imóveis no Kaggle
  • 5. Deep Learning Computacional
    • 5.1. Camadas e Blocos
    • 5.2. Gerenciamento de Parâmetros
    • 5.3. Deferred Initialization
    • 5.4. Camadas Personalizadas
    • 5.5. Entrada e Saída de Arquivos
    • 5.6. GPUs
  • 6. Convolutional Neural Networks
    • 6.1. De Camadas Totalmente Conectadas às Convoluções
    • 6.2. Convolução para Imagens
    • 6.3. Preenchimento e Saltos
    • 6.4. Canais de Múltiplas Entradas e Saídas
    • 6.5. Pooling
    • 6.6. Redes Neurais Convolucionais (LeNet)
  • 7. Modern Convolutional Neural Networks
    • 7.1. Redes Neurais Convolucionais Profundas (AlexNet)
    • 7.2. Redes Usando Blocos (VGG)
    • 7.3. Network in Network (NiN)
    • 7.4. Redes com Concatenações Paralelas (GoogLeNet)
    • 7.5. Normalização de Lotes
    • 7.6. Redes Residuais (ResNet)
    • 7.7. Redes Densamente Conectadas (DenseNet)
  • 8. Redes Neurais Recorrentes
    • 8.1. Modelos Sequenciais
    • 8.2. Preprocessamento de Texto
    • 8.3. Modelos de Linguagem e o Dataset
    • 8.4. Redes Neurais Recorrentes (RNNs)
    • 8.5. Implementação de Redes Neurais Recorrentes do Zero
    • 8.6. Implementação Concisa de Redes Neurais Recorrentes
    • 8.7. Retropropagação ao Longo do Tempo
  • 9. Redes Neurais Recorrentes Modernas
    • 9.1. Gated Recurrent Units (GRU)
    • 9.2. Memória Longa de Curto Prazo (LSTM)
    • 9.3. Redes neurais recorrentes profundas
    • 9.4. Redes Neurais Recorrentes Bidirecionais
    • 9.5. Tradução Automática e o Conjunto de Dados
    • 9.6. Arquitetura Encoder-Decoder
    • 9.7. Aprendizado Sequência a Sequência
    • 9.8. Pesquisa de feixe
  • 10. Mecanismos de Atenção
    • 10.1. Dicas para atenção
    • 10.2. Pooling de Atenção: Regressão de Kernel de Nadaraya-Watson
    • 10.3. Funções de Pontuação de Atenção
    • 10.4. Atenção de Bahdanau
    • 10.5. Atenção Multi-Head
    • 10.6. Autoatenção e Codificação Posicional
    • 10.7. Transformador
  • 11. Algoritmos de Otimização
    • 11.1. Optimização e Deep Learning
    • 11.2. Convexidade
    • 11.3. Gradiente descendente
    • 11.4. Gradiente Descendente Estocástico
    • 11.5. Gradiente Estocástico Descendente Minibatch
    • 11.6. Momentum
    • 11.7. Adagrad
    • 11.8. RMSProp
    • 11.9. Adadelta
    • 11.10. Adam
    • 11.11. Programação da taxa de aprendizagem
  • 12. Desempenho Computacional
    • 12.1. Compiladores e Interpretadores
    • 12.2. Computação Assíncrona
    • 12.3. Paralelismo Automático
    • 12.4. Hardware
    • 12.5. Treinamento em Várias GPUs
    • 12.6. Implementação Concisa para Várias GPUs
    • 12.7. Servidores de Parâmetros
  • 13. Visão Computacional
    • 13.1. Aumento de Imagem
    • 13.2. Ajustes
    • 13.3. Detecção de Objetos e Caixas Delimitadoras
    • 13.4. Caixas de Âncora
    • 13.5. Detecção de Objetos Multiescala
    • 13.6. O Dataset de Detecção de Objetos
    • 13.7. Detecção Single Shot Multibox (SSD)
    • 13.8. Region-based CNNs (R-CNNs)
    • 13.9. Segmentação Semântica e o Dataset
    • 13.10. Convolução Transposta
    • 13.11. Redes Totalmente Convolucionais (Fully Convolutional Networks, FCN)
    • 13.12. Transferência de Estilo Neural
    • 13.13. Classificação de Imagens (CIFAR-10) no Kaggle
    • 13.14. Identificação de Raça de Cachorro (ImageNet Dogs) no Kaggle
  • 14. Processamento de linguagem natural: Pré-treinamento
    • 14.1. Incorporação de Palavras (word2vec)
    • 14.2. Treinamento Aproximado
    • 14.3. O conjunto de dados para incorporação de palavras com pré-treinamento
    • 14.4. Pré-treinamento do word2vec
    • 14.5. Incorporação de palavras com vetores globais (GloVe)
    • 14.6. Incorporação de subpalavra
    • 14.7. Encontrando sinônimos e analogias
    • 14.8. Representações de codificador bidirecional de transformadores (BERT)
    • 14.9. O conjunto de dados para pré-treinamento de BERT
    • 14.10. Pré-treinando BERT
  • 15. Processamento de Linguagem Natural: Aplicações
    • 15.1. Análise de Sentimentos e o Dataset
    • 15.2. Análise de Sentimento: Usando Redes Neurais Recorrentes
    • 15.3. Análise de Sentimento: Usando Redes Neurais Convolucionais
    • 15.4. Inferência de Linguagem Natural e o Dataset
    • 15.5. Inferência de Linguagem Natural: Usando a Atenção
    • 15.6. Ajuste Fino de BERT para Aplicações de Nível de Sequência e de Token
    • 15.7. Inferência de Linguagem Natural: Ajuste Fino do BERT
  • 16. Sistemas de Recomendação
    • 16.1. Visão geral dos sistemas de recomendação
    • 16.2. O conjunto de dados MovieLens
    • 16.3. Fatoração de Matriz
    • 16.4. AutoRec: Previsão de classificação com codificadores automáticos
    • 16.5. Classificação personalizada para sistemas de recomendação
    • 16.6. Filtragem Neural Colaborativa para Classificação Personalizada
    • 16.7. Sistemas de recomendação com reconhecimento de sequência
    • 16.8. Sistemas de recomendação com muitos recursos
    • 16.9. Máquinas de Fatoração
    • 16.10. Máquinas de Fatoração Profunda
  • 17. Redes Adversariais Generativas
    • 17.1. Redes Adversariais Generativas
    • 17.2. Redes Adversariais Gerativas Convolucionais Profundas
  • 18. Apêndice: Matemática para Deep Learning
    • 18.1. Operações de Geometria e Álgebra Linear
    • 18.2. Autovalores e Autovetores
    • 18.3. Cálculo de Variável Única
    • 18.4. Cálculo Multivariável
    • 18.5. Cálculo Integral
    • 18.6. Variáveis Aleatórias
    • 18.7. Máxima verossimilhança
    • 18.8. Distribuições
    • 18.9. Naive Bayes
    • 18.10. Estatísticas
    • 18.11. Teoria da Informação
  • 19. Apêndice: Ferramentas para Deep Learning
    • 19.1. Usando Jupyter
    • 19.2. Usando Amazon SageMaker
    • 19.3. Usando instâncias AWS EC2
    • 19.4. Usando Google Colab
    • 19.5. Seleção de servidores e GPUs
    • 19.6. Contribuindo para este livro
    • 19.7. Documento da API d2l
  • References

17. Redes Adversariais Generativas¶

  • 17.1. Redes Adversariais Generativas
    • 17.1.1. Gerando Alguns Dados “Reais”
    • 17.1.2. Gerador
    • 17.1.3. Discriminador
    • 17.1.4. Treinamento
    • 17.1.5. Resumo
    • 17.1.6. Exercícios
  • 17.2. Redes Adversariais Gerativas Convolucionais Profundas
    • 17.2.1. O Dataset de Pokémon
    • 17.2.2. O Gerador
    • 17.2.3. Discriminador
    • 17.2.4. Treinamento
    • 17.2.5. Resumo
    • 17.2.6. Exercícios
Previous
16.10. Máquinas de Fatoração Profunda
Next
17.1. Redes Adversariais Generativas