huggingface实操_Transformers 简介(上)
作者|huggingface
編譯|VK
來源|Github
Transformers是TensorFlow 2.0和PyTorch的最新自然語言處理庫
Transformers(以前稱為pytorch-transformers和pytorch-pretrained-bert)提供用于自然語言理解(NLU)和自然語言生成(NLG)的最先進的模型(BERT,GPT-2,RoBERTa,XLM,DistilBert,XLNet,CTRL ...) ,擁有超過32種預訓練模型,支持100多種語言,并且在TensorFlow 2.0和PyTorch之間具有深厚的互操作性。
特性
與pytorch-transformers一樣易于使用
像Keras一樣強大而簡潔
在NLU和NLG任務上具有高性能
教育者和從業者進入的門檻低
面向所有人的最新NLP架構
深度學習研究人員
練習實踐學習人員
AI/ML/NLP教師和教育者
降低計算成本
研究人員可以共享訓練好的模型,而不必總是再訓練
從業人員可以減少計算時間和生產成本
具有30多種預訓練模型的10種架構,其中一些采用100多種語言
為模型生命周期的每個部分選擇合適的框架
3行代碼訓練最先進的模型
TensorFlow 2.0和PyTorch模型之間的深層互操作性
在TF2.0/PyTorch框架之間隨意遷移模型
無縫選擇合適的框架進行訓練,評估和生產
章節
描述
安裝
如何安裝套件
模型架構
體系結構(帶預訓練權重)
在線演示
總結
以上是生活随笔為你收集整理的huggingface实操_Transformers 简介(上)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 帝豪gs车机系统wince_有了帝豪GS
- 下一篇: android平台 arcgisr_《A