AI机考-Transformers

Ref

  1. SelfAttention

概述

主要是Deep-ML中基于Transformer场景的一些题目

SelfAttention

基于numpy

py 复制代码
import numpy as np

def self_attention(Q, K, V):
	scores = Q @ K.T
	d_k = Q.shape[-1]
	scaled_scores = scores / np.sqrt(d_k)
	exp_scores = np.exp(scaled_scores - np.max(scaled_scores, axis=-1, keepdims=True))
	atten_weights = exp_scores / np.sum(exp_scores, axis=-1, keepdims=True)
	atten_out = atten_weights @ V
    
	return atten_out

def compute_qkv(X, W_q, W_k, W_v):
	Q = X @ W_q
	K = X @ W_k
	V = X @ W_v
	return Q, K, V
相关推荐
BAOYUCompany2 小时前
暴雨AI服务器点燃AGI蓝海市场
人工智能
神一样的老师2 小时前
Google学术搜索实验室:自然语言检索新体验
人工智能
居然JuRan2 小时前
全量微调 vs LoRA:一篇文章彻底搞懂参数高效微调
人工智能
EQ-雪梨蛋花汤2 小时前
【AI工具】使用 Doubao-Seed-Code 优化 Unity 编辑器插件:从功能实现到界面美化的完整实践
人工智能·unity·编辑器
量子位2 小时前
马斯克开始用Grok替代员工了!最惨部门裁员90%
人工智能·grok
夫唯不争,故无尤也3 小时前
PyTorch 的维度变形一站式入门
人工智能·pytorch·python
量子位3 小时前
Nano Banana新玩法无限套娃!“GPT-5都不会处理这种级别的递归”
人工智能·gpt
m0_650108243 小时前
PaLM:Pathways 驱动的大规模语言模型 scaling 实践
论文阅读·人工智能·palm·谷歌大模型·大规模语言模型·全面评估与行为分析·scaling效应
Ma0407133 小时前
【论文阅读19】-用于PHM的大型语言模型:优化技术与应用综述
人工智能·语言模型·自然语言处理