Skip to content

Latest commit

 

History

History
11 lines (10 loc) · 580 Bytes

File metadata and controls

11 lines (10 loc) · 580 Bytes

NLP

  1. 基于tensorflow实现的基本的seq2seq模型,该模型实现了对字母的排序,输入一个字母序列,模型返回排序后的字母序列
  2. transformer pytorch版本
  3. Bert Google源码和pytorch版本
  4. 使用Bert预处理模型 uncased_L-12_H-768_A-12 来处理imdb情感二分类问题
  5. WordPiece的一个主要实现byte-pair encoding(BPE)算法

感谢大佬的付出

seq2seq:https://zhuanlan.zhihu.com/p/27608348
bert pytorch:https://github.com/codertimo/BERT-pytorch
bert tensorflow:https://github.com/google-research/bert