现在应该没人怀疑AI时代的到来了吧,在HUB上每天100+的新的预训练模型产生,不夸张的说的,现在稍微有点计算机基础的人都可以训练自己的模型了。
说远了,还是说说那些不争气的安全厂商吧。为啥只说安全厂商?因为国内还是有达摩啊,华为啊,阿里啊,智普啊真的做了自己的基座模型或者其中算法库。chatGPT3.x开源的那段时间,国内的数家安全厂商就开始做大模型了,还是一如既往的别人开源我就牛批儿的熟悉的场景。
其实别人一开源我就牛批儿式的玩法也是没错,毕竟这个世界不需要每个人都是科学家。只是有点失望吧。2022年360放出NLP对话模型,说是基于安全的,但是表现,额。。。
然后就是深信服推出了大模型结合XDR(也不太记得了)没有独立的大模型接口开放给公众,也无法体验到。
然后就是2024年3月20日,奇安信发布大模型QAX_GPT,额。。。也体验不到,还有360不知道是不是由预谋一样和奇安信同时期也放出一个新的大模型,额。。。也体验不到。所以这里只说说纸面感受。先说说我知道的和安全有点关系的大模型吧:
1.360这几年一共放出了2个大模型产品吧,感觉都不是针对安全的,更多的是通用模型,同时赋能安全产品和它的非安全类型产品,第一个模型智力是相当的差,第二个模型没体验过希望能好点。
2.奇安信的大模型我觉得算是真正的应用到了安全场景,它可以分析安全事件,安全流量,它可以应急响应,算是做了一个安全厂商该做的事。
3.深信服的安全大模型定位和奇安信应该差不多,深度结合安全产品,只是公开信息太少了,无法判断。
4.SECGPT,老实说这个我要点赞!!!因为它敢开源!各行各业都在努力促进AI的进步,纷纷开源自己的模型,而那些大的安全厂商,拿了别人的预训练模型却不舍得开源。SECGPT是一个叫云起无垠的公司,因为开源了,本人有幸体验了一下,nice。
5.yakit chatgpt,我不知道yakit的GPT仅仅是一个接口,还是有自己模型,但是我印象里,是第一个把gpt集成到渗透工具箱里的,只是它的大模型貌似没有私人订制的能力,最基本的都没有解放道德限制。
现在很多人都想知道为什么安全行业出不来一个优秀的大模型?我认为有以下几个因素:
1.没钱。对,安全厂商别看叫的欢,各种技术前沿,各种秀存在,各种牛批儿,其实内部是真的穷。
2.技术基因差。安全厂商同样有研发,算法等高级工程师,但是相对其他互联网大厂,其实更多的倾向于快速产品转化,产品快速盈利化,而很少做长达超过一年的研究计划。说到底兜里钱少,求生存呐。
3.目前仍然没有更优秀的idea来集成AI智能,这不仅表现在安全行业,而是所有行业都在绞尽脑汁的思考,AI怎么落地的问题。
那么安全行业如何落地大模型的应用场景?我觉得以下几个领域可以研究:
1.利用大模型进行漏洞挖掘,渗透,比各位师傅自己写的自动化脚本应该会好一些,无非要解决大模型调用安全工具或者手工的问题,可能还要解决多个大模型协同工作的问题。这里其实能做很多事了,渗透,漏洞挖掘,红队,基线检查,风险评估,可惜目前还没有见到同类产品。
2.利用大模型做安全运营,这个奇安信的大模型感觉就是这样,深信服的场景应该也是这样,大模型在流量分析,事件分析,应急响应,速度比人快,水平相当于中级师傅们的水平,那不是妥妥的。毕竟高级的师傅也不多吧。
3.利用大模型做代码审计,这个其实就是废话了,通用模型几乎都可以了,secgpt这方面也专门做了训练,大家可以尝试。不过现在大模型都有长文本和理解工程结构的缺陷。如果解决让大模型理解长文本和代码工程结构,并且能跟踪变量,仍然是个问题。
4.利用大模型进行社会工程学,大模型模拟对话的能力的,用于反诈等等社工能力的地方应该也是可行的,需要解决的就是调用各种设备和工具的接口问题。
5.利用大模型进行对话式安全服务,总比小白到处找大佬强吧。
6.利用大模型快速生成各种安全报告,师傅们不怕挖漏洞,怕写报告啊。
最后比较纠结的是,希望基于红队类型的大模型出现,也不希望它出现(我相信肯定有公司已经在搞了)。目前来看,人类对于LLM大模型的管理能力已经失控了。马斯克的观点我还是赞同的。