【Hugging Face】Hugging Face模型的基本使用

前言

前面我们了解了Hugging Face Space空间 和 DataSets数据集 的基本使用方式,今天我们继续探索Hugging Face Models的基本使用方式。对往期内容感兴趣的小伙伴也可以看往期:

模型使用方式

使用Hugging Face模型有两种方式,一种是通过 Hugging Face提供的 huggingface_hub,一种是通过Hugging Face提供的 transformers 和 diffusers

  • huggingface_hub:由Hugging Face统一封装调用,需要提供Hugging Face API Key
  • transformers 和 diffusers:
    • transformers:Hugging Face提供的专注自然语言处理(NLP)及多模态任务,如文本生成、翻译、分类、问答等,无需提供Hugging Face API Key
    • diffusers:Hugging Face提供的专注扩散模型(Diffusion Models),用于图像、音频、视频、3D 等生成任务,无需提供Hugging Face API Key

通过huggingface_hub使用

由于个人电脑配置有限,我这里在Google的Colab上使用,在本地使用步骤也是类似的,对Google Colab还不了解的小伙伴可以看往期:
初识Google Colab

Qwen3-0.6B文本生成

以Qwen3-0.6B模型为例,进入模型详情

点击【View Code Snippets】查看接入代码

在Colab上新建Colab Notebooks,输入代码

ini 复制代码
import os
from huggingface_hub import InferenceClient
# Set the environment variable for the current process
os.environ['HF_TOKEN'] = "your hugging face api key"
client = InferenceClient(
    provider="featherless-ai",
    api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
    model="Qwen/Qwen3-0.6B",
    messages=[
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)
print(completion.choices[0].message.content)

点击左侧运行,输出结果如下

这里是英文的,我们也可以AI输出中文结果,稍微改动一下提示词

ini 复制代码
import os
from huggingface_hub import InferenceClient
# Set the environment variable for the current process
os.environ['HF_TOKEN'] = "your hugging face api key"
client = InferenceClient(
    provider="featherless-ai",
    api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
    model="Qwen/Qwen3-0.6B",
    messages=[
        {
            "role": "user",
            "content": "默认使用中文回复"
        },
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)
print(completion.choices[0].message.content)

此时AI就会以中文回复了

FLUX.1-dev绘图

进入FLUX.1-dev模型详情

点击【View Code Snippets】查看接入代码

在Colab文档上新建一个代码块,输入以下代码

ini 复制代码
import os
from huggingface_hub import InferenceClient
from IPython.display import display
os.environ['HF_TOKEN'] = "your api key"
client = InferenceClient(
    provider="nebius",
    api_key=os.environ["HF_TOKEN"],
)
# output is a PIL.Image object
image = client.text_to_image(
    "Astronaut riding a horse",
    model="black-forest-labs/FLUX.1-dev",
)
# 展示图片
display(image)

点击运行,执行结束后,我们将得到一张图片

通过transformers和diffusers使用

transformers 和 diffusers 是Hugging Face提供的两个重要Python库,使用较为复杂,这里只做模型的简单使用,不深入了解。

情感分析

以distilbert-base-uncased-finetuned-sst-2-english模型为例,进入distilbert-base-uncased-finetuned-sst-2-english模型详情,复制模型名称

在Colab中创建代码块,添加如下代码

ini 复制代码
from transformers import pipeline

# huggingface远程模型名
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
# 创建管道
classifier = pipeline("sentiment-analysis", model=model_name)
# 进行情感分析
result = classifier("I hate you")[0]
print(result)
result = classifier("I love you")[0]
print(result)

点击左侧运行,输出结果如下

sdxl-turbo绘图

Diffusers库,这里以stabilityai/sdxl-turbo模型为例,进入stabilityai/sdxl-turbo模型详情,复制模型名称

在Colab中创建代码块,添加如下代码

ini 复制代码
from diffusers import DiffusionPipeline
import torch
if torch.cuda.is_available():
    device = "cuda"
    torch_dtype = torch.float16
else:
    device = "cpu"
    torch_dtype = torch.float32
pipe = DiffusionPipeline.from_pretrained("stabilityai/sdxl-turbo", torch_dtype=torch_dtype)
pipe.to(device)
image = pipe(
    prompt="Astronaut riding a horse",
    negative_prompt="low quality, bad quality, loss body", # 反向提示词
    num_inference_steps=1, # 步长
    guidance_scale=0.0, # 引导系数
    width=512,
    height=512
).images[0]
display(image)

等待执行,执行完成后,可以看到生成图片的效果如下:

参考

友情提示

见原文:【Hugging Face】Hugging Face模型的基本使用

本文同步自微信公众号 "程序员小溪" ,这里只是同步,想看及时消息请移步我的公众号,不定时更新我的学习经验。

相关推荐
后端小肥肠2 小时前
10W+育儿漫画是怎么做的?我用n8n搭建了自动化工作流,3分钟生成到本地磁盘
人工智能·aigc·agent
司马阅-SmartRead3 小时前
司马阅与铨亿科技达成生态战略合作,AI赋能工业领域智能化转型
人工智能·aigc
Mintopia8 小时前
🤖 通用人工智能(AGI)离 Web 应用还有多远?
前端·javascript·aigc
墨风如雪18 小时前
360 FG-CLIP2:让AI拥有“火眼金睛”,刷新全球图文理解上限
aigc
用户5191495848451 天前
原型污染攻击工具揭秘:Prototype Pollution Gadgets Finder
人工智能·aigc
安思派Anspire1 天前
构建一个自主深度思考的RAG管道以解决复杂查询--通过网络搜索扩充知识(6)
aigc·openai·agent
ZEGO即构开发者1 天前
【ZEGO即构开发者日报】Soul AI Lab开源播客语音合成模型;腾讯混元推出国内首个交互式AI播客;ChatGPT Go向用户免费开放一年......
人工智能·aigc·语音识别·实时音视频
Baihai_IDP1 天前
怎样为你的 RAG 应用选择合适的嵌入模型?
人工智能·llm·aigc
视觉&物联智能1 天前
【杂谈】-制造业变革:机器人与自动化引领新时代
人工智能·ai·机器人·自动化·aigc·agi·deepseek
Mintopia1 天前
🧬 医疗Web场景下,AIGC的辅助诊断技术边界与伦理
前端·javascript·aigc