语言模型

硅谷秋水6 小时前
人工智能·深度学习·机器学习·计算机视觉·语言模型·机器人
NORA:一个用于具身任务的小型开源通才视觉-语言-动作模型25年4月来自新加坡技术和设计大学的论文“NORA: a Small Open-Sourced Generalist Vision Language Action Model for Embodied Tasks”。
扫地的小何尚6 小时前
c++·人工智能·语言模型·机器人·ocr·llama·gpu
全新NVIDIA Llama Nemotron Nano视觉语言模型在OCR基准测试中准确率夺冠PDF、图表、图形和仪表板等文档是丰富的数据源,当这些数据被提取和整理后,能够为决策制定提供有价值的洞察。从自动化财务报表处理到改进商业智能工作流程,智能文档处理正在成为企业AI解决方案的核心组件。
时空无限7 小时前
人工智能·语言模型
使用 ollama 在 mac 本地部署一个 qwen3:8b 模型ollama 就是一个运行大模型的框架。要运行大模型,还需要大模型本身。从 ollama 官网 下载mac 版本的 ollama。
艾醒(AiXing-w)16 小时前
人工智能·语言模型·自然语言处理
探索大语言模型(LLM):使用EvalScope进行模型评估(API方式)EvalScope 是由阿里巴巴魔搭社区(ModelScope)开发的开源模型评估与性能基准测试框架,专注于为大语言模型(LLM)、多模态模型及其他 AI 模型提供系统化的评估解决方案。其核心目标是帮助开发者、研究机构和企业用户全面验证模型能力,优化部署方案,并推动模型技术的落地应用。
Jamence17 小时前
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
多模态大语言模型arxiv论文略读(118)➡️ 论文标题:VoiceWukong: Benchmarking Deepfake Voice Detection ➡️ 论文作者:Ziwei Yan, Yanjie Zhao, Haoyu Wang ➡️ 研究机构: 华中科技大学 ➡️ 问题背景:随着文本转语音(TTS)和语音转换(VC)技术的快速发展,检测深度伪造语音(Deepfake Voice)变得越来越重要。然而,学术界和工业界缺乏一个全面且直观的基准来评估检测器。现有的数据集在语言多样性方面有限,且缺乏在实际生产环境中遇到的多种操作。 ➡️
明明跟你说过20 小时前
人工智能·语言模型·chatgpt·openai
FastChat 架构拆解:打造类 ChatGPT 私有化部署解决方案的基石🐇明明跟你说过:个人主页🏅个人专栏:《深度探秘:AI界的007》 🏅🔖行路有良友,便是天堂🔖
Ven%21 小时前
人工智能·语言模型·自然语言处理
语言模型进化论:从“健忘侦探”到“超级大脑”的破案之旅想象一下,你面前站着一位试图理解人类语言的机器人侦探。早期它像个固执的老学究,拿着厚厚一本《语法规则大全》办案:“‘吃苹果’合法,‘苹果吃’非法!”结果案件越复杂,规则手册越臃肿,最终陷入死胡同。
Jay Kay1 天前
人工智能·语言模型·自然语言处理
论文阅读:强化预训练大型语言模型 (LLMs) 的惊人能力很大程度上归功于在海量文本语料库上进行下一词元预测 (Next-Token Prediction, NTP) 的规模化训练。与此同时,强化学习 (Reinforcement Learning, RL) 已成为微调 LLMs、使其与人类偏好对齐或增强特定技能(如复杂推理)的强大技术。然而,当前的 RL 应用面临规模化和泛化挑战。RLHF (基于人类反馈的强化学习) 依赖昂贵的人类标注数据,且易受奖励欺骗 (reward hacking)。RLVR (基于可验证奖励的强化
学步_技术1 天前
人工智能·机器学习·计算机视觉·语言模型·自然语言处理·ar
增强现实—Flame: Learning to navigate with multimodal llm in urban environments🌟🌟 欢迎来到我的技术小筑,一个专为技术探索者打造的交流空间。在这里,我们不仅分享代码的智慧,还探讨技术的深度与广度。无论您是资深开发者还是技术新手,这里都有一片属于您的天空。让我们在知识的海洋中一起航行,共同成长,探索技术的无限可能。
新加坡内哥谈技术2 天前
人工智能·语言模型·自然语言处理
Mistral AI发布Magistral系列:面向企业与开源应用的先进链式思维大语言模型每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
Jamence2 天前
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
多模态大语言模型arxiv论文略读(119)➡️ 论文标题:ODE: Open-Set Evaluation of Hallucinations in Multimodal Large Language Models ➡️ 论文作者:Yahan Tu, Rui Hu, Jitao Sang ➡️ 研究机构: 北京交通大学 (Beijing Jiaotong University) ➡️ 问题背景:多模态大语言模型(Multimodal Large Language Models, MLLMs)在图像描述和视觉问答等任务中取得了显著进展,但这些模型面
文军的烹饪实验室2 天前
人工智能·语言模型·自然语言处理
用于评估大语言模型(LLMs)能力的重要基准任务(Benchmark)基准任务涵盖了 多领域(如语言理解、数学、推理、编程、医学等)和 多能力维度(如事实检索、计算、代码生成、链式推理、多语言处理)。常用于模型发布时的对比评测,例如 GPT-4、Claude、Gemini、Mistral 等模型的论文或报告中。
硅谷秋水2 天前
人工智能·深度学习·计算机视觉·语言模型·机器人
GraspCorrect:通过视觉-语言模型引导反馈进行机器人抓握矫正25年3月来自韩国 POSTECH 的论文 “GraspCorrect: Robotic Grasp Correction via Vision-Language Model-Guided Feedback”。
东临碣石822 天前
人工智能·深度学习·语言模型
【AI论文】利用自注意力机制实现大型语言模型(LLMs)中依赖于输入的软提示摘要:大型语言模型在特定领域任务中的性能需要进行微调,这在计算上代价高昂,在技术上具有挑战性。 本文重点介绍使用软提示进行参数有效的微调,这是一种有前景的方法,通过学习一小部分参数,使预训练模型适应下游任务。 我们提出了一种新的输入依赖软提示技术,该技术具有自注意力机制(ID-SPAM),可以根据输入标记生成软提示,并关注不同重要性的不同标记。 我们的方法简单高效,保持了可训练参数的数量较小。 我们展示了所提出的方法与各种任务上最先进的技术相比的优点,并展示了改进的零样本领域迁移能力。Huggingfac
UQI-LIUWJ2 天前
人工智能·语言模型·自然语言处理
论文略读:REEF: Representation Encoding Fingerprints for Large Language ModelsICLR 2025 ORAL该方法具有以下优点:无需重新训练模型;不会削弱模型的通用能力;对顺序微调、剪枝、模型融合与参数置换等操作具有良好鲁棒性。
cnblogs.com/qizhou/2 天前
人工智能·语言模型·自然语言处理
综述论文解读:Editing Large Language Models: Problems, Methods, and Opportunities论文为大语言模型知识编辑综述,发表于自然语言处理顶会ACL(原文链接)。由于目前存在广泛的模型编辑技术,但一个统一全面的分析评估方法,所以本文:
UQI-LIUWJ2 天前
人工智能·语言模型·自然语言处理
论文笔记:Large Language Models for Next Point-of-Interest RecommendationSIGIR 2024当前轨迹块(current trajectory block)当前轨迹块中只包含当前用户的一条轨迹,且不含最后一个签到点
大咖分享课3 天前
人工智能·语言模型·音视频
顶级视频生成大模型分析:Seedance 1.0 Pro (字节跳动) - 新晋榜首2025年,AI视频生成技术迎来了前所未有的发展高峰。从2024年2月OpenAI发布Sora开始,到如今的百花齐放,这个领域正在以前所未有的速度发展。目前市场上已有超过20款主流视频生成大模型,技术水平参差不齐,但顶级模型的能力已经接近专业级别。
chanalbert3 天前
人工智能·ai·语言模型
AI Agent核心技术深度解析:Function Calling与ReAct对比报告本文系统分析了大语言模型(LLM)与外部工具交互的两大核心技术范式:Function Calling(函数调用)和ReAct(推理-行动框架)。通过对比其设计哲学、工作机制、应用场景和技术边界,揭示二者在AI Agent架构中的互补关系。研究表明:
蓦然回首却已人去楼空3 天前
人工智能·语言模型·自然语言处理
Build a Large Language Model (From Scratch) 第二章 Working with text dataThis chapter covers你将学习如何为训练大型语言模型(LLMs)准备输入文本。这包括将文本拆分为单个单词和子词标记,然后将这些标记编码为适合LLM的向量表示。你还将了解高级标记化方案,如字节对编码(BPE)——这是GPT等流行LLM中使用的技术。最后,我们将实现一种采样和数据加载策略,以生成训练LLM所需的输入-输出对。