python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > Python Transformer 库

Python Transformer 库安装配置及使用方法

作者:学亮编程手记

Hugging Face Transformers 是自然语言处理(NLP)领域最流行的开源库之一,支持基于 Transformer 架构的预训练模型(如 BERT、GPT、T5 等),覆盖文本、图像、音频等多模态任务,本文介绍Python 中的 Transformer 库及使用方法,感兴趣的朋友一起看看吧

Python 中的 Transformer 库及使用方法

一、库的概述

Hugging Face Transformers 是自然语言处理(NLP)领域最流行的开源库之一,支持基于 Transformer 架构的预训练模型(如 BERT、GPT、T5 等),覆盖文本、图像、音频等多模态任务。其核心功能包括:

二、安装与配置

安装库

pip install transformers
# 安装完整依赖(推荐)
pip install transformers[sentencepiece]

国内镜像加速
若下载模型缓慢,可设置镜像源:

import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"

三、基础使用:Pipeline 快速推理

pipeline() 是 Transformers 库的核心接口,支持一键调用预训练模型完成常见任务。

情感分析示例

from transformers import pipeline
classifier = pipeline("sentiment-analysis")
result = classifier("I love using transformers library!")
print(result)  # 输出:[{'label': 'POSITIVE', 'score': 0.9998}]

文本生成示例

generator = pipeline("text-generation", model="gpt2")
text = generator("The future of AI is", max_length=50)
print(text[0]["generated_text"])

支持的任务类型

四、进阶使用:自定义模型与分词器

加载模型与分词器
使用 AutoModelAutoTokenizer 按需加载模型:

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
# 加载翻译模型(英文→法文)
model_name = "Helsinki-NLP/opus-mt-en-fr"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

编写翻译函数

def translate(text, tokenizer, model):
    inputs = tokenizer.encode(text, return_tensors="pt", truncation=True)
    outputs = model.generate(inputs, max_length=50, num_beams=4)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)
english_text = "Hello, how are you?"
print(translate(english_text, tokenizer, model))  # 输出法文翻译

批量翻译与参数优化

def batch_translate(texts, tokenizer, model):
    inputs = tokenizer(texts, return_tensors="pt", padding=True, truncation=True)
    outputs = model.generate(**inputs, max_length=50, num_beams=8)
    return [tokenizer.decode(output, skip_special_tokens=True) for output in outputs]

五、模型微调与多模态应用

微调预训练模型

使用 Trainer 类和 TrainingArguments 配置训练参数:

from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
    output_dir="./results",
    num_train_epochs=3,
    per_device_train_batch_size=16
)
trainer = Trainer(model=model, args=training_args, train_dataset=train_data)
trainer.train()

图像分类任务(Vision Transformer)

from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
    output_dir="./results",
    num_train_epochs=3,
    per_device_train_batch_size=16
)
trainer = Trainer(model=model, args=training_args, train_dataset=train_data)
trainer.train()

六、常见问题与优化

显存不足

设备适配

七、学习资源与总结

适用场景

到此这篇关于Python Transformer 库及使用方法的文章就介绍到这了,更多相关Python Transformer 库内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
阅读全文