Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。
🤗 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。同时,每个定义的 Python 模块都是完全独立的,便于修改和快速进行研究实验。
🤗 Transformers 支持三个最热门的深度学习库: Jax, PyTorch 以及 TensorFlow — 并与之无缝整合。你可以直接使用一个框架训练你的模型然后用另一个加载和推理。
是 Hugging Face 团队开发的一个开源项目,专注于提供最先进的机器学习工具,主要用于自然语言处理(NLP)、计算机视觉、语音处理等多模态任务。它是一个功能强大且广受欢迎的 Python 库,支持 PyTorch、TensorFlow 和 JAX 等主流深度学习框架。
这个库的核心是 Transformers 架构(最初由 2017 年论文《Attention is All You Need》提出),它为用户提供了大量预训练模型,比如 BERT、GPT、T5 等,可以直接用于文本分类、翻译、问答、文本生成等任务。不仅如此,它还支持对这些模型进行微调(fine-tuning),让用户能够根据自己的数据集定制模型。
from transformers import pipeline
classifier = pipeline("sentiment-analysis")
result = classifier("I love this!")
print(result) # 输出 [{'label': 'POSITIVE', 'score': 0.999}]
你可以通过以下命令安装:
pip install transformers
如果需要最新版本,可以从源码安装:
git clone https://github.com/huggingface/transformers.git
cd transformers
pip install .
这个项目不仅是工具库,更是一个围绕 Hugging Face 生态系统的社区产物,与 Datasets、Tokenizers 等库无缝协作。它致力于让 AI 更易用、更开放,是目前机器学习领域的标杆之一。