【Hugging Face】Hugging Face模型的基本使用

前言

前面我们了解了Hugging Face Space空间 和 DataSets数据集 的基本使用方式,今天我们继续探索Hugging Face Models的基本使用方式。对往期内容感兴趣的小伙伴也可以看往期:

模型使用方式

使用Hugging Face模型有两种方式,一种是通过 Hugging Face提供的 huggingface_hub,一种是通过Hugging Face提供的 transformers 和 diffusers

  • huggingface_hub:由Hugging Face统一封装调用,需要提供Hugging Face API Key
  • transformers 和 diffusers:
    • transformers:Hugging Face提供的专注自然语言处理(NLP)及多模态任务,如文本生成、翻译、分类、问答等,无需提供Hugging Face API Key
    • diffusers:Hugging Face提供的专注扩散模型(Diffusion Models),用于图像、音频、视频、3D 等生成任务,无需提供Hugging Face API Key

通过huggingface_hub使用

由于个人电脑配置有限,我这里在Google的Colab上使用,在本地使用步骤也是类似的,对Google Colab还不了解的小伙伴可以看往期:
初识Google Colab

Qwen3-0.6B文本生成

以Qwen3-0.6B模型为例,进入模型详情

点击【View Code Snippets】查看接入代码

在Colab上新建Colab Notebooks,输入代码

ini 复制代码
import os
from huggingface_hub import InferenceClient
# Set the environment variable for the current process
os.environ['HF_TOKEN'] = "your hugging face api key"
client = InferenceClient(
    provider="featherless-ai",
    api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
    model="Qwen/Qwen3-0.6B",
    messages=[
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)
print(completion.choices[0].message.content)

点击左侧运行,输出结果如下

这里是英文的,我们也可以AI输出中文结果,稍微改动一下提示词

ini 复制代码
import os
from huggingface_hub import InferenceClient
# Set the environment variable for the current process
os.environ['HF_TOKEN'] = "your hugging face api key"
client = InferenceClient(
    provider="featherless-ai",
    api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
    model="Qwen/Qwen3-0.6B",
    messages=[
        {
            "role": "user",
            "content": "默认使用中文回复"
        },
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)
print(completion.choices[0].message.content)

此时AI就会以中文回复了

FLUX.1-dev绘图

进入FLUX.1-dev模型详情

点击【View Code Snippets】查看接入代码

在Colab文档上新建一个代码块,输入以下代码

ini 复制代码
import os
from huggingface_hub import InferenceClient
from IPython.display import display
os.environ['HF_TOKEN'] = "your api key"
client = InferenceClient(
    provider="nebius",
    api_key=os.environ["HF_TOKEN"],
)
# output is a PIL.Image object
image = client.text_to_image(
    "Astronaut riding a horse",
    model="black-forest-labs/FLUX.1-dev",
)
# 展示图片
display(image)

点击运行,执行结束后,我们将得到一张图片

通过transformers和diffusers使用

transformers 和 diffusers 是Hugging Face提供的两个重要Python库,使用较为复杂,这里只做模型的简单使用,不深入了解。

情感分析

以distilbert-base-uncased-finetuned-sst-2-english模型为例,进入distilbert-base-uncased-finetuned-sst-2-english模型详情,复制模型名称

在Colab中创建代码块,添加如下代码

ini 复制代码
from transformers import pipeline

# huggingface远程模型名
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
# 创建管道
classifier = pipeline("sentiment-analysis", model=model_name)
# 进行情感分析
result = classifier("I hate you")[0]
print(result)
result = classifier("I love you")[0]
print(result)

点击左侧运行,输出结果如下

sdxl-turbo绘图

Diffusers库,这里以stabilityai/sdxl-turbo模型为例,进入stabilityai/sdxl-turbo模型详情,复制模型名称

在Colab中创建代码块,添加如下代码

ini 复制代码
from diffusers import DiffusionPipeline
import torch
if torch.cuda.is_available():
    device = "cuda"
    torch_dtype = torch.float16
else:
    device = "cpu"
    torch_dtype = torch.float32
pipe = DiffusionPipeline.from_pretrained("stabilityai/sdxl-turbo", torch_dtype=torch_dtype)
pipe.to(device)
image = pipe(
    prompt="Astronaut riding a horse",
    negative_prompt="low quality, bad quality, loss body", # 反向提示词
    num_inference_steps=1, # 步长
    guidance_scale=0.0, # 引导系数
    width=512,
    height=512
).images[0]
display(image)

等待执行,执行完成后,可以看到生成图片的效果如下:

参考

友情提示

见原文:【Hugging Face】Hugging Face模型的基本使用

本文同步自微信公众号 "程序员小溪" ,这里只是同步,想看及时消息请移步我的公众号,不定时更新我的学习经验。

相关推荐
小程故事多_8024 分钟前
Agent Infra核心技术解析:Sandbox sandbox技术原理、选型逻辑与主流方案全景
java·开发语言·人工智能·aigc
猫头虎2 小时前
OpenClaw-VSCode:在 VS Code 里玩转 OpenClaw,远程管理+SSH 双剑合璧
ide·vscode·开源·ssh·github·aigc·ai编程
种时光的人2 小时前
CANN 生态安全防护:cann-security 筑牢 AIGC 大模型全生命周期安全防线
aigc
阿杰学AI2 小时前
AI核心知识92——大语言模型之 Self-Attention Mechanism(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·transformer·自注意力机制
猫头虎3 小时前
如何使用Docker部署OpenClaw汉化中文版?
运维·人工智能·docker·容器·langchain·开源·aigc
猫头虎4 小时前
手动部署开源OpenClaw汉化中文版过程中常见问题排查手册
人工智能·langchain·开源·github·aigc·agi·openclaw
多恩Stone4 小时前
【3D AICG 系列-9】Trellis2 推理流程图超详细介绍
人工智能·python·算法·3d·aigc·流程图
猫头虎5 小时前
OpenClaw开源汉化发行版:介绍、下载、安装、配置教程
运维·windows·开源·aigc·ai编程·agi·csdn
EdisonZhou5 小时前
MAF快速入门(15)Agent调试利器:DevUI
llm·aigc·agent·.net core
种时光的人6 小时前
CANN 生态 ×AIGC 合规:cann-compliance 让大模型落地既安全又合规
安全·aigc