使用 BERT 預訓練模型進行中文 NER 任務。
- cner
sh tarin.sh
sh eval.sh
Eval: 100%|█████████████████████████████████████| 30/30 [00:03<00:00, 8.45it/s]
Average f1 : 0.9666356650437157
BERT (from Google) released with the paper BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding by Jacob Devlin, Ming-Wei Chang, Kenton Lee and Kristina Toutanova.
基本上就是這張圖的 fine-tune 情境:
當兵前無事練習寫的 pytorch BERT-NER 模型,還有許多地方可以加強。