[论文泛读]zkLLM: Zero Knowledge Proofs for Large Language models

文章目录

介绍

这篇文章发在CCS2024,CCS是密码学领域的顶会。作者是来自加拿大的University of Waterloo。文章对大语言模型像GPT和LLM等大语言模型实现了零知识可验证执行,但不涉及零知识可验证训练。个人觉得这是一篇值得精读的一篇文章。文章的方案与现存的RISC-ZERO和EZKL或者Halo2的方案(zkML)不同。文中使用完全并行化的 CUDA ,同时对于拥有 130 亿个参数的 LLM,这篇文章的方法能够在 15 分钟内为整个推理过程生成正确性证明。生成的证明大小不到 200 kB。(使用ezkl的方案使用nanoGPT参数大概40w实现零知识可验证执行所需要的时间2小时,而这篇论文的方案有着质的提升)。

实验数据

实验数据1

论文中分别对大语言模型进行证明生成的时间,证明大小以及验证时间进行了测量。

实验数据2

论文中与zkML的生成证明的时间进行了比较,zk LLM方案的生成证明的时间远远低于zkML生成证明的时间。zkML这个方案是基于halo2的方案。

实验数据3

该实验研究了Sequence Length对生成证明的时间,生成证明的大小,以及验证时间的影响。Sequence Length是模型输入文本的长度。

相关推荐
ai生成式引擎优化技术5 分钟前
TSPR-WEB-LLM-HIC (TWLH四元结构)AI生成式引擎(GEO)技术白皮书
人工智能
帐篷Li6 分钟前
9Router:开源AI路由网关的架构设计与技术实现深度解析
人工智能
新缸中之脑25 分钟前
在GCP上运行autoresearch
人工智能
Fleshy数模26 分钟前
OpenCV 实时人脸检测实战:从视频文件到人脸框标注
人工智能·opencv·计算机视觉
Timer@35 分钟前
LangChain 教程 04|Agent 详解:让 AI 学会“自己干活“
javascript·人工智能·langchain
青稞社区.37 分钟前
ICLR‘26 Oral | 当 LLM Agent 在多轮推理中迷失时:T3 如何让强化学习重新学会主动推理
人工智能·算法·agi
环黄金线HHJX.1 小时前
Tuan符号系统重塑智能开发
开发语言·人工智能·算法·编辑器
代码搬运媛1 小时前
AI 大模型 + RAG + 智能体 + 工程落地面试题
人工智能
摸鱼仙人~1 小时前
Agent & RAG 底层核心难点
人工智能
小手指动起来1 小时前
保姆级提示词工程学习总结(含实操示例+工具推荐)
人工智能·学习·自然语言处理