Github标星5.4k+:常见NLP模型的代码实现(基于TensorFlow和PyTorch)
推薦github上的一個NLP代碼教程:nlp-tutorial,教程中包含常見的NLP模型代碼實現(xiàn)(基于TensorFlow和Pytorch),而且教程中的大多數(shù)NLP模型都使用少于100行代碼。
教程說明
這是使用TensorFlow和Pytorch學(xué)習(xí)NLP(自然語言處理)的教程,把常用NLP模型用不到100行的代碼實現(xiàn)了,教程里附論文下載,并且包含py和ipynb文件,經(jīng)過測試全部通過。
倉庫地址:
https://github.com/graykode/nlp-tutorial
里面有使用說明和樣例(py和ipynb格式)。
注意:論文下載請“閱讀原文”。
教程目錄
1. Basic Embedding Model(基礎(chǔ)嵌入模型)
1-1. NNLM(Neural Network Language Model)- Predict Next Word
論文下載
A Neural Probabilistic LanguageModel(2003)
代碼實現(xiàn)
?NNLM_Tensor.ipynb, NNLM_Torch.ipynb
1-2. Word2Vec(Skip-gram) - EmbeddingWords and Show Graph
?論文下載
Distributed Representations of Wordsand Phrases and their Compositionality(2013)
代碼實現(xiàn)
Word2Vec_Tensor(NCE_loss).ipynb,Word2Vec_Tensor(Softmax).ipynb,Word2Vec_Torch(Softmax).ipynb
1-3. FastText(Application Level)- Sentence Classification
論文下載
Bag of Tricks for Efficient Text Classification(2016)
?代碼實現(xiàn)
FastText.ipynb
2. CNN(卷積神經(jīng)網(wǎng)絡(luò))
2-1. TextCNN - BinarySentiment Classification
論文下載
Convolutional Neural Networks for SentenceClassification(2014)
代碼實現(xiàn)
TextCNN_Tensor.ipynb, TextCNN_Torch.ipynb
2-2. DCNN(Dynamic Convolutional Neural Network)
3. RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))
3-1. TextRNN - Predict NextStep
論文下載
Finding Structure in Time(1990)
代碼實現(xiàn)
TextRNN_Tensor.ipynb, TextRNN_Torch.ipynb
3-2. TextLSTM - Autocomplete
論文下載
LONG SHORT-TERM MEMORY(1997)
代碼實現(xiàn)
TextLSTM_Tensor.ipynb, TextLSTM_Torch.ipynb
3-3. Bi-LSTM - Predict NextWord in Long Sentence
代碼實現(xiàn)
Bi_LSTM_Tensor.ipynb, Bi_LSTM_Torch.ipynb
4. Attention Mechanism(注意力機制)
4-1. Seq2Seq - Change Word
?論文下載
Learning Phrase Representations using RNN Encoder–Decoder for Statistical MachineTranslation(2014)
代碼實現(xiàn)
Seq2Seq_Tensor.ipynb, Seq2Seq_Torch.ipynb
4-2. Seq2Seq with Attention - Translate
論文下載
NeuralMachine Translation by Jointly Learning to Align and Translate(2014)
代碼實現(xiàn)
Seq2Seq(Attention)_Tensor.ipynb,Seq2Seq(Attention)_Torch.ipynb
4-3. Bi-LSTM with Attention - BinarySentiment Classification
代碼實現(xiàn)
Bi_LSTM(Attention)_Tensor.ipynb,Bi_LSTM(Attention)_Torch.ipynb
5. Model based on Transformer(Transformer模型)
5-1. The Transformer - Translate
論文下載
Attention Is All You Need(2017)
代碼實現(xiàn)
Transformer_Torch.ipynb, Transformer(Greedy_decoder)_Torch.ipynb
5-2. BERT - ClassificationNext Sentence & Predict Masked Tokens
論文下載
BERT: Pre-training of Deep Bidirectional Transformers for LanguageUnderstanding(2018)
代碼實現(xiàn)
BERT_Torch.ipynb
部分內(nèi)容截圖
TextCNN的兩種實現(xiàn)方式(使用TensorFlow和Pytorch)
總結(jié)
推薦github上的一個NLP代碼教程:nlp-tutorial,一個使用TensorFlow和Pytorch學(xué)習(xí)NLP(自然語言處理)的教程,教程中的大多數(shù)NLP模型都使用少于100行代碼實現(xiàn)。
倉庫地址:
https://github.com/graykode/nlp-tutorial
里面有使用說明和樣例(py和ipynb格式)。
倉庫作者:Tae Hwan Jung(Jeff Jung)
注意:論文下載請“閱讀原文”。
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機器學(xué)習(xí)在線手冊深度學(xué)習(xí)在線手冊AI基礎(chǔ)下載(pdf更新到25集)本站qq群1003271085,加入微信群請回復(fù)“加群”獲取一折本站知識星球優(yōu)惠券,請回復(fù)“知識星球”喜歡文章,點個在看
總結(jié)
以上是生活随笔為你收集整理的Github标星5.4k+:常见NLP模型的代码实现(基于TensorFlow和PyTorch)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 今日上午,清华大学发布中国首个高校自研深
- 下一篇: 【面试经验分享】大厂HR在面试时,都想听