大模型面试(三)

这次是某家公司的一个电话面试,问的过程还比较简单直接。

问:我们在大模型开源项目的应用上遇到了什么困难?

这个。。有两个困难,一个是RAG的优化,一开始RAG是比较慢的,而且召回率不高;

后来使用了HyQE的方法,针对一段文本,提出一个问题和它对应,以补充的问题来建立文档索引。当用户提问的时候,直接在数据库里寻找相似问题,这样检索效率高而且召回率高。

第二个是语音识别识别错误的问题;把识别语音和转写文字的特征一起输入到神经网络里,这样可以提高识别准确度。(或者多几个候选词)

然后问到了我以前在一家人工智能公司的工作经验,问到了其中的内容审核项目。

这个项目的创新点在哪里?过拟合的情况?

主要是从网上爬取文本数据,然后给公开的审核接口先过一遍,然后训练过程中遇到的难样本,重新标注再训练。

正负样本不均匀的问题:实际场景,正样本远少于负样本,用了针对样本不平衡的loss比如dice loss,weighted ce等,然后多种loss采用加权和的方式进行融合(问题:有没有其他融合的方式呢?辅助loss?)。

过拟合?主要是看在测试集上的loss表现吧。

还提到了分词的问题;但是这个是不可避免的,这种词要衡量一个边界条件,要不要使用关键词检索规则还是经过bert模型判断。

对将来发展的规划?大模型应该怎么应用?

反问环节:

大模型的应用主要是面向to C还是to b的?都有,客服这种是to C的

训练的数据和算力准备的怎么样?数据以文本数据为主,算力似乎不太够,只有t级别的显卡?比较寒酸了,有a10显卡吗

什么指标比较看重?避免大模型幻觉。

相关推荐
yantuguiguziPGJ23 分钟前
基于CUDA12.1+CUDNN8.9+PYTORCH2.3.1,实现自定义数据集训练
深度学习·yolov8
木小同1 小时前
redis面试(八)watchdog看门狗代码逻辑
数据库·redis·面试
AI知识图谱大本营2 小时前
大型语言模型微调 新进展-4篇 论文
人工智能·深度学习·机器学习
一只特立独行的猪6112 小时前
leetcode面试算法题
算法·leetcode·面试
@BangBang2 小时前
torch.gather的使用
pytorch·python·深度学习
七七鸭灬2 小时前
对于深度学习中训练模型的体会
人工智能·深度学习
学步_技术2 小时前
人工智能深度学习系列—探索Jaccard相似度损失:图像分割领域的新利器
人工智能·深度学习·机器学习·分类·自动驾驶
追蜻蜓追累了3 小时前
灰狼优化算法(GWO)与门控循环单元(GRU)结合的预测模型(GWO-GRU)及其Python和MATLAB实现
深度学习·神经网络·机器学习·gru·启发式算法·推荐算法·回归算法
小万哥丶3 小时前
Kotlin 控制流和数组操作详解
linux·程序人生·面试·程序员·开源·kotlin·移动开发·软件工程·编程语言·技术·andriod
海的宇宙3 小时前
C#:具体类=>抽象类=>接口的变化过程详解
开发语言·面试·c#·抽象工厂模式·接口隔离原则·开闭原则