transformer不同的包加载模型的结构不一样

AutoModel

AutoModelForTokenClassification


结论:

AutoModel加载的模型与AutoModelForTokenClassification最后一层是不一样的,从这个模型来看,AutoModelForTokenClassification加载的结果是对的

问题:

为什么AutoModel和AutoModelForTokenClassification加载的结果不一样?

相关推荐
逻辑君8 小时前
认知神经科学研究报告【20260010】
人工智能·深度学习·神经网络·机器学习
龙文浩_9 小时前
Attention Mechanism: From Theory to Code
人工智能·深度学习·神经网络·学习·自然语言处理
微臣愚钝9 小时前
prompt
人工智能·深度学习·prompt
宝贝儿好10 小时前
【LLM】第二章:文本表示:词袋模型、小案例:基于文本的推荐系统(酒店推荐)
人工智能·python·深度学习·神经网络·自然语言处理·机器人·语音识别
啦啦啦在冲冲冲11 小时前
多头注意力机制的优势是啥,遇到长文本的情况,可以从哪些情况优化呢
人工智能·深度学习
CV-杨帆12 小时前
ICLR 2026 LLM安全相关论文整理
人工智能·深度学习·安全
小程故事多_8012 小时前
从零吃透Transformer核心,多头注意力、残差连接与前馈网络(大白话完整版)
人工智能·深度学习·架构·aigc·transformer
清空mega14 小时前
动手学深度学习——SSD
人工智能·深度学习
bryant_meng16 小时前
【Reading Notes】(4)Favorite Articles from 2021
人工智能·深度学习·业界资讯
清空mega16 小时前
动手学深度学习——多尺度锚框
人工智能·深度学习·目标跟踪