CodeEasy

Hugging Face 深度学习指南

| 2025-12-15 00:34 | 4128 浏览

Hugging Face 学习路线

Hugging Face是开源AI模型的核心平台,本文提供完整学习资料。

官方资源

1. 官方文档

2. 官方课程

Transformers 库

基础使用

# 安装
pip install transformers

# Pipeline - 最简单的使用方式
from transformers import pipeline

# 文本生成
generator = pipeline("text-generation", model="gpt2")
result = generator("Hello, I am", max_length=50)

# 情感分析
classifier = pipeline("sentiment-analysis")
result = classifier("I love this product!")

# 问答
qa = pipeline("question-answering")
result = qa(question="What is AI?", context="AI is...")

模型加载

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b")
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b")

inputs = tokenizer("Hello", return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))

模型微调

from transformers import Trainer, TrainingArguments

training_args = TrainingArguments(
    output_dir="./results",
    num_train_epochs=3,
    per_device_train_batch_size=8,
    learning_rate=2e-5,
)

trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=train_dataset,
    eval_dataset=eval_dataset,
)

trainer.train()

Hub 使用

进阶功能

Hugging FaceTransformers模型深度学习
315 点赞 52 评论

评论 (0)

登录后发表评论。

暂无评论。成为第一个评论的人吧!