大模型

山顶夕景15 小时前
大模型·llm·diffusion·生成式·llada
【LLaDA】Large Language Diffusion Models这篇论文提出了LLaDA(Large Language Diffusion with mAsking),一种从预训练和监督微调(SFT)范式下从头开始训练的扩散模型。
BothSavage16 小时前
大模型·agent·openharness
OpenHarness源码研究-2-CLI构建工具Typer从cli.py,用传统web开发的视角,看typer框架如何定义通信和交互的,以及观察命令是如何设计的
xixixi7777716 小时前
开发语言·人工智能·5g·大模型·php·通信·polar码
从5G标准到6G前沿:Polar码的技术演进与未来之路当6G时代加速逼近,这款让华为“一战成名”的编码技术,正在迎来怎样的全新蜕变?2025年8月8日,国际电信联盟(ITU)在日内瓦正式宣布冻结全球首个6G技术标准框架。在这一标准体系中,中国代表团主导的极化码(Polar Code) 方案被采纳为6G增强移动宽带(eMBB)场景控制信道的核心编码方案。
CoderJia程序员甲18 小时前
ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-13)生成于:2026-04-13共发现热门项目: 14 个榜单类型:日榜Token赞助:siliconflow
博士僧小星19 小时前
人工智能·lora·大模型·微调·peft·qlora·prefix tuning
人工智能|大模型——训练——大模型微调全栈指南:从Transformer架构、10+种PEFT原理、流程与实战(全网最详细)本文是一份面向工程落地的大模型参数高效微调(PEFT)深度技术指南。全文覆盖:① 大模型“预训练→微调”两阶段范式本质;② Transformer 架构中各 PEFT 方法的作用位置与数学原理;③ LoRA、QLoRA、Adapter Tuning、Prefix Tuning、Prompt Tuning、P-Tuning v1、P-Tuning v2 共 7 种主流方法的完整技术解构(含公式、结构图示逻辑、参数量级、实证效果);④ 从 PDF 文档→Markdown→QA 数据集→微调训练→监控部署的端到
Flying pigs~~19 小时前
数据库·redis·缓存·大模型·qa·rag·prompt提示词
RAG前身:基于mysql➕redis➕bm25的传统QA问答系统本文将从一个完整的项目实战出发,详细讲解如何构建一个基于传统检索技术的智能问答系统。我们会逐行分析代码,深入理解每个模块的设计思想、实现细节和优化思路。
努力的小巴掌20 小时前
语言模型·大模型·llm·多模态
多模态大模型-基础概念多模态大模型(Multimodal LLM)是指能够同时处理文本、图像、语音、视频等多种数据模态的模型,并在统一表示空间中进行理解与推理。
guslegend20 小时前
人工智能·大模型·faiss·rag
第9节:FAISS,HNSW还是BM25?如何选择最适合业务的向量检索引擎?如何选择最适合业务的向量检索引擎RAG与Agent性能调优:第8节:打造可配置,可扩展的自动化预处理流水线Gitee地址:https://gitee.com/agiforgagaplus/OptiRAGAgent
很小心的小新20 小时前
人工智能·笔记·langchain·大模型
大模型应用开发笔记1、OpenAI库的基础使用: (1)role角色: ①system角色:设定助手的整体行为、角色和规则,为对话提供上下文框架,是全局的背景设定,影响后续所有交互 ②assistant角色:代表AI助手的回答,可以在代码中认为设定 ③user角色:代表用户,发送问题、指令或需求 (2)OpenAI库的流式输出:stream=True;for chunk in response: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.
Flying pigs~~21 小时前
数据库·python·flask·大模型·fastapi·异步
检索增强生成RAG项目tools_04:flask➕fastapi➕高并发前面我们介绍了Docker部署➕ollama➕logging➕bm25➕mysql➕redis➕milvus等RAG项目中各个必不可少的tools,本篇主要讲的是flask➕fastapi➕高并发!!!
xcLeigh21 小时前
人工智能·ai·自然语言处理·重构·大模型·nlp·标书
AI标书底层技术全解析:NLP+大模型落地,喜鹊标书AI如何重构投标效率AI标书底层技术,本质是一套将招标文件解析、评分点映射、大纲生成、正文写作与合规审核串成自动化闭环的专业系统,由 OCR/NLP、行业大模型、RAG 知识库与规则引擎协同完成,替代资深投标专家的完整工作流。
CoderJia程序员甲2 天前
ai·大模型·llm·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-12)生成于:2026-04-12共发现热门项目: 13 个榜单类型:日榜Token赞助:siliconflow
微尘hjx2 天前
人工智能·深度学习·大模型·标注工具·训练数据集·yolo数据集
【数据集】数据集汇总(按比例划分训练、验证、测试)包含训练好的模型汇总往期的数据集链接。家庭室内烟火数据集吸烟行为数据集参考链接【深度学习02】YOLO模型的数据集、训练、验证、预测、导出_yolo训练数据集-CSDN博客
披星の月2 天前
人工智能·大模型
一次完整大模型Lora训练实现“AI面试风”闲来无事,最近面试工作比较多,搞个模型训练下,看看能不能实现回答风格语气,符合面试的要求。本地物理机Ubuntu22.04系统 CPU ultra 265K 20核 内存32GB GPU RTX 5080 16GB显存 可正常访问所有网络,下载pytorch相关依赖包可能会需要国外网络环境。
汤姆yu2 天前
gpt·大模型·gpt6
GPT-6核心能力解析及与现有主流大模型对比随着人工智能技术的飞速迭代,大模型已从“参数竞赛”迈入“架构创新+场景深耕”的新阶段,OpenAI作为行业引领者,即将推出的GPT-6被定义为“AGI最后一公里”的核心载体,并非前代模型的简单迭代,而是实现了架构、能力、应用的全方位革新。本文将详细解析GPT-6的核心能力,结合当前国内外主流大模型(如GPT-5、Gemini 2.5 Pro、Claude 4 Opus、通义千问3.0等)的核心参数与性能表现,从多维度进行全面对比,清晰呈现GPT-6的优势与定位,为行业应用与选型提供参考。
xixixi777772 天前
大数据·人工智能·机器学习·ai·大模型·算力·通信
Token 经济引爆 AI 产业加速:从百模大战到百虾大战,谁在定义 2026 的中国 AI?当全球 AI 产业的焦点还在为单一模型的性能突破争论不休时,2026 年春天的中国 AI 市场,正在上演一场更为宏大且多维的产业变革。中国 AI 大模型周调用量连续五周超越美国,字节跳动、阿里、智谱、腾讯等巨头密集发布新一代模型与智能体,一场围绕“Token 经济”的全球竞赛正进入白热化阶段。
拥抱AGI2 天前
人工智能·学习·程序员·开源·大模型·大模型训练·qwen3.5
Qwen3.5开源矩阵震撼发布!从0.8B到397B,不同规模模型性能、显存、速度深度对比与选型指南来了!截至今天2026年3月3日,Qwen3.5已形成从0.8B到397B的完整开源矩阵,分为轻量稠密(0.8B/2B/4B/9B/27B)、中型MoE(35B-A3B/122B-A10B)、旗舰MoE(397B-A17B)三大梯队。不同尺度在性能、显存、速度、场景上差异显著,下面是完整对比与选型指南,仅供参考。
comedate2 天前
大模型·本地部署·ollama·vibe coding
【OpenClaw】 8GB 显卡本地大模型部署指南本文档整理自实际问答,针对 8GB 显存环境下的本地大模型部署方案进行对比分析。Linux/macOS:
nix.gnehc2 天前
人工智能·大模型·llm·ollama
实战部署|Ollama\+Qwen2\.5:3b\+Open WebUI 本地AI助手搭建全记录(附避坑指南)在AI大模型普及的今天,很多人都想拥有一个本地可部署、隐私安全、无API费用的AI助手——既不用依赖云端服务,数据全程不离开自己的设备,又能满足日常学习、编程辅助、基础问答等需求。我用一台10年前的惠普暗夜精灵2游戏本(原本16GB内存,为折腾k8s特意升级到32GB),成功部署了Ollama+Qwen2.5:3b+Open WebUI本地AI系统,全程踩坑少、操作简单,适合新手入门,今天就把完整部署过程整理出来,供大家参考。
淡海水2 天前
人工智能·大模型
【AI模型】API-GoogleGemini【AI&游戏】专栏-直达Google Gemini API是Google DeepMind团队打造的大语言模型服务,提供了业界领先的多模态AI能力。作为Google在AI领域的重要战略产品,Gemini系列模型在2023年12月正式发布后迅速成为业界焦点。与其他模型相比,Gemini在长上下文窗口、多模态理解、视频处理和成本效率等方面展现出独特的优势。本篇文章将全面介绍Google Gemini API的核心功能、模型家族、开发指南以及在游戏开发中的应用场景。