llama

liliangcsdn8 小时前
人工智能·python·macos·llama
mac llama_index agent算术式子计算示例本文通过简单数学计算,示例llama_index使用agent解决复杂任务过程。假设mac本地llama_index环境已安装,过程参考
许愿与你永世安宁1 天前
数据库·人工智能·gpt·oracle·llama·rag
RAG(检索增强生成)里的文档管理RAG(检索增强生成)是结合检索与生成式 AI 的技术框架。核心逻辑是先从外部知识库精准检索相关信息,再将其作为上下文输入大模型生成回答。技术上依赖检索引擎(如向量数据库、BM25)、大语言模型(如 GPT、LLaMA)及数据预处理技术。通过检索增强,解决大模型知识滞后、幻觉问题,提升回答准确性。应用广泛,涵盖智能客服、医疗问答、法律检索、教育辅导等场景,能基于特定领域知识提供精准、可控的生成内容。
许愿与你永世安宁5 天前
人工智能·python·自然语言处理·json·github·llama·faiss
基于Llama的RAG 3种模型配置方法目录方法一:使用Llama-index为智谱构建的专门的包安装六个包环境变量读取APIkey配置对话模型
至善迎风5 天前
docker·容器·llama·kimi
本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)Kimi K2 是 Moonshot AI 于2025年7月11日发布的高性能多专家语言模型(MoE),支持最大 128K 上下文,激活参数规模为 32B,具备极强的推理、代码生成与多轮对话能力。自从其权重以多种格式开源以来,许多开发者希望将其部署在本地,以获得更高的私密性和灵活性。
阿斯卡码5 天前
开发语言·python·llama
安装 llama-cpp-python 的CPU和GPU方法关于Langchain、LlamaCpp一些执行错误。需要同时满足两个条件: 1.NVIDIA显卡驱动(通过nvidia-smi验证) 2.CUDA Toolkit(通过nvcc --version验证)
学不会就看6 天前
llama
llama-factory快速开始这是GitHub中文介绍文档,里面的教程更加详细,本人记录是方便本人看,对于我已经熟练的部分,教程中可能不会细说甚至跳过。
NullPointerExpection8 天前
数据库·人工智能·sql·算法·llm·llama·工作流
LLM大语言模型不适合统计算数,可以让大模型根据数据自己建表、插入数据、编写查询sql统计例如有如下数据:表示的是某班级学生各科目的分数,假如我们想让大模型统计该班各科目成绩的总分,最能想到的方法就是编写如下的提示词扔给大模型:
MUTA️9 天前
llama
Llama系列:Llama1, Llama2,Llama3内容概述参考视频:大模型修炼之道(三): Llama系列讲解 Llama1,Llama2, Llama3_哔哩哔哩_bilibili
kailp10 天前
人工智能·3d·ai·语言模型·llama·gpu算力
语言模型玩转3D生成:LLaMA-Mesh开源项目LLaMA-Mesh 是一个创新项目,旨在利用大型语言模型(LLM)的能力,实现文本描述到 3D 网格模型的统一生成。该项目将自然语言处理与 3D 几何建模相结合,其核心功能和特点如下:
大模型最新论文速读12 天前
人工智能·深度学习·语言模型·自然语言处理·llama
指令微调时,也要考虑提示损失大模型在预训练之后往往需要经过指令微调,以更好地遵循人类指令。常规做法是在自回归流程中,只对回答部分计算损失而忽略提示部分的误差。但这样的设计是否最优,一直缺乏深入研究
liliangcsdn14 天前
人工智能·macos·语言模型·llama
在mac m1基于llama.cpp运行deepseeklama.cpp是一个高效的机器学习推理库,目标是在各种硬件上实现LLM推断,保持最小设置和最先进性能。llama.cpp支持1.5位、2位、3位、4位、5位、6位和8位整数量化,通过ARM NEON、Accelerate和Metal支持Apple芯片,使得在MAC M1处理器上运行Deepseek大模型成为可能。
强哥之神16 天前
人工智能·深度学习·计算机视觉·语言模型·自然语言处理·llama
Meta AI 推出 Multi - SpatialMLLM:借助多模态大语言模型实现多帧空间理解多模态大语言模型(MLLM)作为多功能 AI 助手,在处理各类视觉任务方面取得了巨大进步。然而,它们作为独立数字实体部署,限制了其潜在影响。随着将 MLLM 整合到像机器人技术和自动驾驶汽车这类现实应用中的需求不断增长,这些应用需要复杂的空间理解能力。当前的 MLLM 存在基本的空间推理缺陷,常常连左右区分这类基础任务都难以完成。以往研究将这些局限归因于缺乏专门的训练数据,并通过在训练期间纳入空间数据来解决,但这些方法侧重于单图像场景,从而使模型的感知局限于静态视场分析,缺少动态信息。
try2find21 天前
开发语言·python·llama
安装llama-cpp-python踩坑记安装报错,分析如下:这个错误是因为 LLAMA_CUBLAS 选项已经被弃用,建议使用 GGML_CUDA 替代。你需要修改安装命令中的 CMake 参数。
西西弗Sisyphus21 天前
微调·llama·llama-factory·后训练
LLaMA-Factory 单卡后训练微调Qwen3完整脚本flyfish将下面代码保存为 train_single_gpu.sh修改脚本中的以下参数: MODEL_PATH:模型路径 DS_CONFIG_PATH:DeepSpeed配置文件路径 OUTPUT_PATH:输出目录路径 --dataset erfen:替换为实际数据集名称 这里是erfen
顾道长生'21 天前
计算机视觉·数据挖掘·llama·自回归模型·多模态生成与理解
(Arxiv-2024)自回归模型优于扩散:Llama用于可扩展的图像生成paper是香港大学发布在Arxiv2024的工作paper title:Autoregressive Model Beats Diffusion: Llama for Scalable Image Generation
Zhijun.li@Studio1 个月前
人工智能·自然语言处理·llama·多模态大模型
【LLaMA-Factory 实战系列】二、WebUI 篇 - Qwen2.5-VL 多模态模型 LoRA 微调保姆级教程本教程将详细介绍如何使用 LLaMA-Factory 的图形化 WebUI 界面,对强大的开源多模态模型 Qwen2.5-VL-3B-Instruct 进行 LoRA 微调。LLaMA-Factory 是一个功能强大、简单易用的一站式大模型微调平台,它集成了多种主流的微调方法(如 LoRA、QLoRA、全量微调等),并通过简洁的 WebUI 和命令行工具,极大地降低了个人或小型团队进行模型训练的门槛。我们将以经典的宝可梦图文数据集为例,一步步带您完成从环境搭建到模型评估的全过程。
121341 个月前
gpt·aigc·ai编程·llama·gpu算力
LLM:重构数字世界的“智能操作系统”当我们谈论「计算机」时,脑海中浮现的往往是屏幕、键盘与芯片的组合。但从GPT-3.5到GPT-4,从Llama到Claude,大语言模型(LLM)的爆发式发展正在颠覆这一认知——它们不再是简单的「工具」或「算法」,而是一种全新的「计算机形态」。这种新型计算机以语言为接口,以智能为算力,以生态为延伸,正在重新定义计算的边界。
冷雨夜中漫步1 个月前
java·开发语言·windows·llama
Java中如何使用lambda表达式分类groupby比如一群学生根据性别和年龄排队,Student类有性别gender、年龄age属性,将同性别,同年龄的学生归为一类
扫地的小何尚1 个月前
c++·人工智能·语言模型·机器人·ocr·llama·gpu
全新NVIDIA Llama Nemotron Nano视觉语言模型在OCR基准测试中准确率夺冠PDF、图表、图形和仪表板等文档是丰富的数据源,当这些数据被提取和整理后,能够为决策制定提供有价值的洞察。从自动化财务报表处理到改进商业智能工作流程,智能文档处理正在成为企业AI解决方案的核心组件。
CFAteam1 个月前
人工智能·ai·fpga开发·llama
DeepSeek AI功能演示:如何生成Verilog脚本在EDA设计流程中,Verilog语言作为主要的硬件描述语言(HDL),广泛用于芯片设计的各个阶段,包括设计、仿真和综合。然而,手动编写Verilog代码过程繁琐,易出错且耗时。随着AI技术的发展,将人工智能融入到Verilog脚本的生成过程中,逐渐成为业界提升设计效率的重要趋势。