Hugging Face 学习路线
Hugging Face是开源AI模型的核心平台,本文提供完整学习资料。
官方资源
1. 官方文档
2. 官方课程
Transformers 库
基础使用
# 安装
pip install transformers
# Pipeline - 最简单的使用方式
from transformers import pipeline
# 文本生成
generator = pipeline("text-generation", model="gpt2")
result = generator("Hello, I am", max_length=50)
# 情感分析
classifier = pipeline("sentiment-analysis")
result = classifier("I love this product!")
# 问答
qa = pipeline("question-answering")
result = qa(question="What is AI?", context="AI is...")
模型加载
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b")
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b")
inputs = tokenizer("Hello", return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))
模型微调
from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
output_dir="./results",
num_train_epochs=3,
per_device_train_batch_size=8,
learning_rate=2e-5,
)
trainer = Trainer(
model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=eval_dataset,
)
trainer.train()
Hub 使用
进阶功能
- PEFT - 参数高效微调
- TRL - RLHF训练
- Accelerate - 分布式训练
暂无评论。成为第一个评论的人吧!