这里是苦瓜大王,一个极度焦虑但还在坚持输出的Java后端学习者
🐋 希望大家多多支持,我们一起进步
🌲如果文章对你有帮助的话
欢迎 :评论 💬点赞👍🏻 收藏 📂加关注❤️
━(`∀´)ノ亻!
「长风破浪会有时,直挂云帆济沧海」
-
文章目录
-
- [**11. ollama是什么,有什么作用?**](#11. ollama是什么,有什么作用?)
- [**12. Ollama谁部署的?你的AI机器人怎么部署的?**](#12. Ollama谁部署的?你的AI机器人怎么部署的?)
- [**13. 你们的Ollama怎么用的,你们用的是什么硬件**](#13. 你们的Ollama怎么用的,你们用的是什么硬件)
- [**14. 你们的Ollama用的什么模型版本?**](#14. 你们的Ollama用的什么模型版本?)
- [**15. 你们Ollama大模型里面都是老数据,是怎么解决的?**](#15. 你们Ollama大模型里面都是老数据,是怎么解决的?)
- [**16. 你的Maxkb和Ollama是怎么联系起来的?**](#16. 你的Maxkb和Ollama是怎么联系起来的?)
- [**17. 用户是直接和Ollama对话还是和Maxkb知识库对话?**](#17. 用户是直接和Ollama对话还是和Maxkb知识库对话?)
- [**18. 你项目中的AI是怎么做的,怎么将数据公司项目数据同步到大模型中**](#18. 你项目中的AI是怎么做的,怎么将数据公司项目数据同步到大模型中)
- [**19. 大模型在你们的项目里怎么用的,有什么兴趣吗**](#19. 大模型在你们的项目里怎么用的,有什么兴趣吗)
- [**20. 大模型的使用心得,尤其是在图像处理上**](#20. 大模型的使用心得,尤其是在图像处理上)
- 「持续更新,建议关注我哦!」...
-
11. ollama是什么,有什么作用?
参考答案:
Ollama 是一个轻量级的本地大模型部署工具,允许用户快速在本地或服务器上部署和管理多个大模型(如Llama、Qwen)。其核心作用是:
- 本地推理:避免依赖云端API,降低延迟和成本。
- 模型管理:支持多模型并行运行,切换灵活。
- 轻量化:优化模型加载速度,适合边缘设备。
12. Ollama谁部署的?你的AI机器人怎么部署的?
参考答案:
Ollama是我们公司运维部署的,本地我自己也搭过,我的AI机器人部署流程如下:
- 环境准备 :安装Ollama并拉取所需模型(如
ollama pull qwen)。 - 服务集成:通过Spring AI集成Ollama。
- 容器化:使用Docker封装服务,便于扩展和维护。
- 监控与优化:通过Prometheus监控资源使用,调整并发配置。
13. 你们的Ollama怎么用的,你们用的是什么硬件
参考答案:
我们用Ollama部署了qwen2.5:32b,硬件配置为:
- 服务器:NVIDIA A10/A40 GPU,支持多模型并行推理。
- 存储:SSD硬盘加速模型加载。
- 网络:高带宽保证API调用延迟低于200ms。
14. 你们的Ollama用的什么模型版本?
参考答案:
当前使用的是qwen2.5:32b,该版本在[具体任务,如对话连贯性、代码生成]上性能提升显著。
15. 你们Ollama大模型里面都是老数据,是怎么解决的?
参考答案:
通过以下方式更新数据:
- 增量训练:定期用新数据微调模型。
- 知识库联动:结合RAG技术,动态检索最新知识库内容。
- API混合调用:对时效性要求高的场景,优先调用云端最新模型API。
16. 你的Maxkb和Ollama是怎么联系起来的?
参考答案:
Maxkb是知识库系统,Ollama是推理引擎,两者通过以下方式协作:
- 数据同步:Maxkb将文档向量化后,存储到Ollama支持的检索数据库。
- 联合推理:用户查询先通过Ollama生成初步回答,再结合Maxkb的检索结果优化输出。
17. 用户是直接和Ollama对话还是和Maxkb知识库对话?
参考答案:
用户直接与Ollama对话,但Maxkb作为后端支持:
- Ollama负责生成回答,Maxkb提供上下文知识检索。
- 例如:用户问"产品价格",Ollama调用Maxkb的最新价格数据生成回答。
18. 你项目中的AI是怎么做的,怎么将数据公司项目数据同步到大模型中
参考答案:
数据同步流程:
- 数据采集:从公司数据库或API获取结构化数据。
- 清洗与标注:去噪、标准化,并标注关键字段。
- 向量化存储:使用Sentence-BERT等工具将文本转化为向量,存入Maxkb或Milvus,我们用的是ES。
- 模型微调:用公司数据对预训练模型进行Fine-tuning,提升领域适配性。
19. 大模型在你们的项目里怎么用的,有什么兴趣吗
参考答案:
大模型在项目中用于:
- 文本生成:客服对话、报告撰写。
- 数据分析:从非结构化数据中提取关键信息。
- 多模态处理 :结合图像/语音输入生成综合回答。
兴趣点在于探索大模型在[具体领域,如医疗、金融]的垂直应用潜力。
20. 大模型的使用心得,尤其是在图像处理上
参考答案:
使用心得:
-
优势:单模型支持多任务(如文本生成、图像描述)。
-
挑战:
-
图像处理需结合专用模型(如Stable Diffusion)或API。
-
需要数据增强解决小样本问题。
-
优化:通过CLIP模型实现图文对齐,提升跨模态理解能力。
「持续更新,建议关注我哦!」...
关注苦瓜小生,后续会持续更新面试题总结哦!
🌲如果文章对你有帮助的话
欢迎 :评论 💬点赞👍🏻 收藏 📂加关注❤️
━(`∀´)ノ亻!