大模型

m0_488913017 小时前
人工智能·学习·机器学习·大模型·产品经理·llama·uml
万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!在AI领域,大模型的发展正以前所未有的速度推进技术的边界。北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-2和Code-Llama之后的第三代模型,Llama-3在多个基准测试中实现了全面领先,性能优于业界同类最先进的模型。
xixixi7777712 小时前
开发语言·网络·人工智能·ai·大模型·php·通信
AI自主挖洞 + 通信网络扩散:全域风险指数级放大,如何构建密码-沙箱-终端联动闭环?当AI学会自主挖掘0day漏洞,并通过通信网络秒级扩散,传统“补丁式”安全已彻底失效。我们需要一场从终端到云端的防御范式革命。
guslegend13 小时前
人工智能·架构·大模型·rag
第10节:设计高效混合检索架构,提升召回精度RAG与Agent性能调优:第8节:打造可配置,可扩展的自动化预处理流水线Gitee地址:https://gitee.com/agiforgagaplus/OptiRAGAgent
Flying pigs~~13 小时前
运维·人工智能·docker·容器·大模型·agent·rag
检索增强生成RAG项目tools_01:Docker 极简实战一份写给「只做开发、不做运维」的 AI 工程师的 Docker 学习笔记!总之就是一个字:好!!!Docker 拉取镜像时需要访问 Docker Hub(registry-1.docker.io),但国内网络访问不稳定,即使(●'◡'●)上网了,Docker Desktop 也不会自动使用系统代理。
前端摸鱼匠17 小时前
人工智能·深度学习·面试·大模型·transformer·求职招聘
【AI大模型春招面试题21】什么是Transformer的“预归一化”与“后归一化”?两者的差异及影响?你好!咱们直接切入正题。这道题在现在的架构演进(尤其是从 BERT 到 LLaMA 系列)背景下,属于必考题。它不仅仅考察你对归一化层位置的记忆,更考察你对深层网络训练稳定性、梯度流以及现代大模型架构设计哲学的理解。
人道领域17 小时前
大数据·人工智能·chatgpt·大模型
2026年3月大模型全景深度解析:国产登顶、百万上下文落地、Agent工业化,AI实用时代全面来临[特殊字符]🔥个人主页:北极的代码(欢迎来访) 🎬作者简介:java后端学习者 ❄️个人专栏:苍穹外卖日记,SSM框架深入,JavaWeb ✨命运的结局尽可永在,不屈的挑战却不可须臾或缺!
CoderJia程序员甲17 小时前
人工智能·ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-14)生成于:2026-04-14共发现热门项目: 16 个榜单类型:日榜Token赞助:siliconflow
kcuwu.20 小时前
大模型·提示词工程
大模型提示词工程基础博客你是不是也有过这样的经历: 对着 ChatGPT 问 “帮我写个文案”,结果 AI 给你写了一篇干巴巴的官方宣传稿,完全不是你想要的小红书种草风格? 问 AI 一个数学题,结果它给了你一个错误的答案,你还得自己再算一遍?
网安INF21 小时前
论文阅读·大模型·prompt·ai安全
【论文阅读】-《Formalizing and Benchmarking Prompt Injection Attacks and Defenses》提示注入攻击旨在将恶意指令/数据注入到 LLM 集成应用的输入中,从而使应用产生攻击者期望的结果。现有工作仅限于案例研究。因此,文献中缺乏对提示注入攻击及其防御的系统性理解。本文旨在弥补这一空白。具体而言,我们提出了一个框架来形式化提示注入攻击。现有攻击是我们框架中的特例。此外,基于我们的框架,我们通过组合现有攻击设计了一种新的攻击。利用我们的框架,我们对 5 种提示注入攻击和 10 种防御措施在 10 个 LLM 和 7 个任务上进行了系统评估。我们的工作为定量评估未来的提示注入攻击和防御提供了一个通用
前端摸鱼匠21 小时前
人工智能·ai·语言模型·面试·大模型·求职招聘
【AI大模型春招面试题20】大模型训练中优化器(AdamW、SGD、RMSProp)的选择依据?你好!咱们今天不整那些虚头巴脑的定义堆砌,直接来一场“硬核”的面试实战解析。这道题在现在的面试里(尤其是2026年这个时间节点),如果只背公式,基本就是挂。面试官想听的是**“场景感”和“底层权衡”**。
山顶夕景1 天前
大模型·llm·prompt
【LLM应用】深度研究报告生成prompt分为横向、纵向分析,可以参考[1] https://github.com/KKKKhazix/khazix-skills
山顶夕景2 天前
大模型·llm·diffusion·生成式·llada
【LLaDA】Large Language Diffusion Models这篇论文提出了LLaDA(Large Language Diffusion with mAsking),一种从预训练和监督微调(SFT)范式下从头开始训练的扩散模型。
BothSavage2 天前
大模型·agent·openharness
OpenHarness源码研究-2-CLI构建工具Typer从cli.py,用传统web开发的视角,看typer框架如何定义通信和交互的,以及观察命令是如何设计的
xixixi777772 天前
开发语言·人工智能·5g·大模型·php·通信·polar码
从5G标准到6G前沿:Polar码的技术演进与未来之路当6G时代加速逼近,这款让华为“一战成名”的编码技术,正在迎来怎样的全新蜕变?2025年8月8日,国际电信联盟(ITU)在日内瓦正式宣布冻结全球首个6G技术标准框架。在这一标准体系中,中国代表团主导的极化码(Polar Code) 方案被采纳为6G增强移动宽带(eMBB)场景控制信道的核心编码方案。
CoderJia程序员甲2 天前
ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-13)生成于:2026-04-13共发现热门项目: 14 个榜单类型:日榜Token赞助:siliconflow
博士僧小星2 天前
人工智能·lora·大模型·微调·peft·qlora·prefix tuning
人工智能|大模型——训练——大模型微调全栈指南:从Transformer架构、10+种PEFT原理、流程与实战(全网最详细)本文是一份面向工程落地的大模型参数高效微调(PEFT)深度技术指南。全文覆盖:① 大模型“预训练→微调”两阶段范式本质;② Transformer 架构中各 PEFT 方法的作用位置与数学原理;③ LoRA、QLoRA、Adapter Tuning、Prefix Tuning、Prompt Tuning、P-Tuning v1、P-Tuning v2 共 7 种主流方法的完整技术解构(含公式、结构图示逻辑、参数量级、实证效果);④ 从 PDF 文档→Markdown→QA 数据集→微调训练→监控部署的端到
Flying pigs~~2 天前
数据库·redis·缓存·大模型·qa·rag·prompt提示词
RAG前身:基于mysql➕redis➕bm25的传统QA问答系统本文将从一个完整的项目实战出发,详细讲解如何构建一个基于传统检索技术的智能问答系统。我们会逐行分析代码,深入理解每个模块的设计思想、实现细节和优化思路。
努力的小巴掌2 天前
语言模型·大模型·llm·多模态
多模态大模型-基础概念多模态大模型(Multimodal LLM)是指能够同时处理文本、图像、语音、视频等多种数据模态的模型,并在统一表示空间中进行理解与推理。
guslegend2 天前
人工智能·大模型·faiss·rag
第9节:FAISS,HNSW还是BM25?如何选择最适合业务的向量检索引擎?如何选择最适合业务的向量检索引擎RAG与Agent性能调优:第8节:打造可配置,可扩展的自动化预处理流水线Gitee地址:https://gitee.com/agiforgagaplus/OptiRAGAgent
很小心的小新2 天前
人工智能·笔记·langchain·大模型
大模型应用开发笔记1、OpenAI库的基础使用: (1)role角色: ①system角色:设定助手的整体行为、角色和规则,为对话提供上下文框架,是全局的背景设定,影响后续所有交互 ②assistant角色:代表AI助手的回答,可以在代码中认为设定 ③user角色:代表用户,发送问题、指令或需求 (2)OpenAI库的流式输出:stream=True;for chunk in response: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.