LLM春招准备(1)

llm排序

GPT4V

GPT-4V可以很好地理解直接绘制在图像上的视觉指示。它可以直接识别叠加在图像上的不同类型的视觉标记作为指针,例如圆形、方框和手绘(见下图)。虽然GPT-4V能够直接理解坐标,但相比于仅文本坐标,GPT-4V在有视觉指示帮助下能够更可靠地执行任务。


位置编码

相对位置编码

手写

手写softmax,

python 复制代码
def softmax(x):
    exp_x = np.exp(x - np.max(x, axis=-1, keepdims=True))
    sm = exp_x/np.sum(exp_x, axis=-1, keepdims=True)
    return sm

手写crossentropy

python 复制代码
def cross_entropy(predictions, targets, epsilon=1e-12):
    predictions = np.clip(predictions, epsilon, 1.-epsilon)
    N = predictions.shape[0]
    ce = - np.sum(targets*np.log(predictions)) / N
    return ce

手写attention

python 复制代码
def saled_dot_product_attention(Q,K,V):
	dk = K.shape[-1]
	scores = np.dot(Q,K.T)/np.sqrt(dk)
	weights = softmax(scores)
	output = np.dot(weight,V)
	return weight, output

标签平滑label smoothing

标签平滑其实就是将硬标签(hard label)转化为软标签(soft label),也就是将标签的one hot编码中的1转化为比1稍小的数,将0转化为比0稍大的数,这样在计算损失函数时(比如交叉熵损失函数),损失函数会把原来值为0的标签也考虑进来,其实就相当于在标签的one hot编码中的每一维上增加了噪声。本质上是向训练集中增加了信息,使得训练集的信息量增大了,更加接近真实分布的数据集的信息量,所以有利于缓解过拟合

解决Transformer处理长序列

稀疏注意力

和Linformer,Longformer类似,Sparse Attention也是为了解决Transformer模型随着长度的增加,Attention部分所占用的内存和计算呈平方比增加的问题。

相关推荐
kaizq7 小时前
AI-MCP-SQLite-SSE本地服务及CherryStudio便捷应用
python·sqlite·llm·sse·mcp·cherry studio·fastmcp
亚里随笔11 小时前
GenEnv:让AI智能体像人一样在_游戏_中成长
人工智能·游戏·llm·rl·agentic
彼岸花开了吗13 小时前
构建AI智能体:八十、SVD知识整理与降维:从数据混沌到语义秩序的智能转换
人工智能·python·llm
栀秋66614 小时前
智能驱动的 Git 提交:基于 Ollama 大模型的规范化提交信息生成方案
react.js·llm·ollama
AI架构师易筋17 小时前
AIOps 告警归因中的提示工程:从能用到可上生产(4 阶梯)
开发语言·人工智能·llm·aiops·rag
小小宫城狮18 小时前
BPE 算法原理与训练实现
算法·llm
且去填词20 小时前
DeepSeek :基于 AST 与 AI 的遗留系统“手术刀”式治理方案
人工智能·自动化·llm·ast·agent·策略模式·deepseek
且去填词20 小时前
构建基于 DeepEval 的 LLM 自动化评估流水线
运维·人工智能·python·自动化·llm·deepseek·deepeval
CoderJia程序员甲2 天前
GitHub 热榜项目 - 日榜(2026-1-9)
开源·大模型·llm·github·ai教程
树獭非懒2 天前
AI大模型小白手册|如何像工程师一样写Prompt?
llm·aigc·ai编程