大模型面试(三)

这次是某家公司的一个电话面试,问的过程还比较简单直接。

问:我们在大模型开源项目的应用上遇到了什么困难?

这个。。有两个困难,一个是RAG的优化,一开始RAG是比较慢的,而且召回率不高;

后来使用了HyQE的方法,针对一段文本,提出一个问题和它对应,以补充的问题来建立文档索引。当用户提问的时候,直接在数据库里寻找相似问题,这样检索效率高而且召回率高。

第二个是语音识别识别错误的问题;把识别语音和转写文字的特征一起输入到神经网络里,这样可以提高识别准确度。(或者多几个候选词)

然后问到了我以前在一家人工智能公司的工作经验,问到了其中的内容审核项目。

这个项目的创新点在哪里?过拟合的情况?

主要是从网上爬取文本数据,然后给公开的审核接口先过一遍,然后训练过程中遇到的难样本,重新标注再训练。

正负样本不均匀的问题:实际场景,正样本远少于负样本,用了针对样本不平衡的loss比如dice loss,weighted ce等,然后多种loss采用加权和的方式进行融合(问题:有没有其他融合的方式呢?辅助loss?)。

过拟合?主要是看在测试集上的loss表现吧。

还提到了分词的问题;但是这个是不可避免的,这种词要衡量一个边界条件,要不要使用关键词检索规则还是经过bert模型判断。

对将来发展的规划?大模型应该怎么应用?

反问环节:

大模型的应用主要是面向to C还是to b的?都有,客服这种是to C的

训练的数据和算力准备的怎么样?数据以文本数据为主,算力似乎不太够,只有t级别的显卡?比较寒酸了,有a10显卡吗

什么指标比较看重?避免大模型幻觉。

相关推荐
强哥之神14 分钟前
Nexa AI发布OmniAudio-2.6B:一款快速的音频语言模型,专为边缘部署设计
人工智能·深度学习·机器学习·语言模型·自然语言处理·音视频·openai
18号房客18 分钟前
一个简单的深度学习模型例程,使用Keras(基于TensorFlow)构建一个卷积神经网络(CNN)来分类MNIST手写数字数据集。
人工智能·深度学习·机器学习·生成对抗网络·语言模型·自然语言处理·tensorflow
神秘的土鸡26 分钟前
神经网络图像隐写术:用AI隐藏信息的艺术
人工智能·深度学习·神经网络
数据分析能量站27 分钟前
神经网络-LeNet
人工智能·深度学习·神经网络·机器学习
贵州晓智信息科技33 分钟前
如何优化求职简历从模板选择到面试准备
面试·职场和发展
Jaly_W35 分钟前
用于航空发动机故障诊断的深度分层排序网络
人工智能·深度学习·故障诊断·航空发动机
FL16238631291 小时前
钢材缺陷识别分割数据集labelme格式693张4类别
深度学习
南七澄江4 小时前
各种网站(学习资源及其他)
开发语言·网络·python·深度学习·学习·机器学习·ai
Crossoads8 小时前
【汇编语言】端口 —— 「从端口到时间:一文了解CMOS RAM与汇编指令的交汇」
android·java·汇编·深度学习·网络协议·机器学习·汇编语言
古木20199 小时前
前端面试宝典
前端·面试·职场和发展