Transformers 提供了大量预训练模型,可以有效地处理不同模式(如文本、视觉和音频)的各种任务。这些模型可以部署以执行与文本相关的任务,如文本分类、信息提取、问答、摘要、翻译和文本生成,支持 100 多种语言。它们还可以处理与图像相关的任务,如图像分类、对象检测和分割,以及与音频相关的任务,如语音识别和音频分类。此外,变压器模型可以对各种模式执行多任务处理,包括表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答。

Transformers 提供了一个用户友好的界面,可以快速访问和利用文本上的预训练模型,使用自定义数据集对其进行微调,并通过我们的模型中心在社区内共享它们。此外,定义架构的每个python模块都是完全独立的,易于修改,以促进快速的研究实验。

Transformers由三个使用最广泛的深度学习库支持,即Jax,PyTorch和TensorFlow,它们之间无缝集成。这种集成允许使用一个库轻松训练模型,然后加载它们以使用另一个库进行推理。