还是大模型的话题,总结回顾下,整理记录下当前对大模型(其实特指的DeepSeek - r和ChatGPT - o这类生成式模型)的使用感受。
1.让信息整合效率提高(基于信息可获取到的前提下)
比如借助AI在线搜索,以前可能需要向相关专家了解,或者查阅较多资料来得到的信息,现在则变得相对容易。AI工具会基于其较高的"学识"和"逻辑推理"能力,检索在线资料并筛选出有效信息,然后做归纳总结和输出。我们则可以把精力放到"想要什么"。
比如问DS-r1联网版:李飞飞团队用50美元训练出s1-32B,以及其研究成果论文,背后的本质?AI就从研究背景、技术核心、成果与争议、研究本质等方面进行了整理归纳,并给出最后概括性总结------通过高效利用现有基座模型、精细化数据筛选及动态推理控制技术,探索低成本优化模型的可行性,但未颠覆基础模型训练的高资源依赖特性,并且附上了相应的来源参考。如果有疑问,还能继续追问。
2.让普通知识的学习成本降低
了解或自学一些即有的公开技术,以前资料分散、缺乏指导可能是个问题,而现在AI工具能补上这个缺。只要准备好基本的问题(清单),通过不断向AI工具提问,就能较快速了解。再结合一定的实践和理解,也能逐步建立认知并去深入。那么,是否现在建立认知的成本更低了?好像是,但也不是。因为学这个步骤没有少,并且过程中的方法和技巧同样重要。
3.让对知识储备的依赖降低(具备基本认知的前提下)
这次CL在实现VS插件的时候,并没有去了解和学习VS插件相应的开发接口。直接向 Code Copilot(背后是调用DeepSeek和ChatGPT)描述期望实现的功能效果"点击后定位到原始的代码行位置",自动就生成了可用的功能代码。
放在以前,肯定得先搜索并搭环境调试一番。而现在,这类主要依靠知识储备来实现的功能,交给AI就行了。我们则可以专注到想要的效果和创意上。
4.我们自身的思考能力仍然很重要
通用大模型的学识渊博,什么都知道,但它也做不到百分百的正确(多个不同类的通用/专用模型结合各自工具,相互去验证和纠偏,是否是进一步提升结果质量的方式?)。
推理大模型的思考能力看上去确实有点强,一些时候看去看它的思考链,感觉比自己考虑得更为全面。但它还做不到直接理解我们内心的想法,也不可能直接帮我们决策。并且其思考过程也并非百分百正确,仍然需要依靠我们自己做鉴别和判断。
所以,就目前而言,可以去参考大模型给出的结果、借鉴或借助其思考能力,但不能完全去依赖,仍需提升我们自己的思考和鉴别能力。
最后,额外记录两点:
1.有想法、具备特定的能力很重要,这些与用不用AI没直接关系。
2.AI和大模型并不只是DeepSeek-r和ChatGPT-o这类生成式模型,但感觉最近有点陷进去了(一想到AI,脑子就被直接定向过去了),需要跳出来了。