超声波俱乐部分享:百度世界大会点燃AI创业者新希望

10月22日,2023年第十三期超声波俱乐部内部分享会在北京望京举行。本期的主题是:百度世界大会点燃AI创业者新希望。

到场的嘉宾有:超声波创始人杨子超,超声波联合创始人、和牛商业创始人刘思雨,中国国际经济交流中心研究员、文化与旅游部中国建筑文化研究会理事徐曦,360数字安全集团安全GPT产品部负责人杨玉奇,蓝驰创投合伙人刘勇,着魔APP创始人杨磊,豆语星辰CEO阎鹏,量子云投资公司创始人闫娜,dappOS技术负责人江彦君,伽利略资本投资人薛泽峥,还有来自百度、美团等互联网公司的相关负责人。紫辉创投创始合伙人兼CEO郑刚以线上的形式,参与了大家的讨论。

10月17日,百度世界大会2023举行,百度创始人、董事长兼CEO李彦宏在会上正式发布了文心大模型4.0,并展示了AI重构百度各业务线的成果。今天超声波俱乐部的分享会上,百度的小伙伴跟大家详细分享了百度新搜索、GBI、如流、百度文库、百度网盘/云一朵、百度地图、文心插件开发平台灵境矩阵、营销平台轻舸、慧播星平台、小度等产品的重构表现。

杨子超表示,自己参加完百度世界大会非常激动,看到了新的希望,尤其是在当下AI创业遇冷的环境下。杨子超分享了自己参加完百度世界大会的思考:

  1. 百度全部产品线拥抱AI,可以看出李彦宏对AI的决心非常大,大公司比拼的一定是老板的意志和决心。

  2. 百度是真正拥有数亿C端用户的,这些用户大多都是第一次接触大模型的AI产品,所以这些用户心里对AI的认知就是百度,这点从品牌和产品数据来说都是非常重要的。

  3. 国内大家都在比拼大模型的时候,百度已经开始大规模卷应用了,原生与否不重要,这标志着创业者们可以选择百度作为第一首选的大模型底座。

  4. 后续如何要看百度的开放程度了,从目前看百度对Agent的支持还不够,快速迭代和开放才能保持住这一波优势,毕竟AI还在早期,谁都说不好后面的事儿。

  5. 不管业内对AI如何认知,百度已经把这个赛道做成了一个真实存在的大赛道了,创业者们不需要怀疑什么了,大家现在可以赶快下场。

同时,杨子超认为AI的终极一定是仿生机器人。10月21日,英伟达开源了Eureka,可自动训练实体机器人的动作指令,例如转笔、开抽屉、使用剪刀等超复杂的动作。

转笔

开抽屉

Eureka是基于OpenAI的GPT-4打造的,是AI与强化学习相结合以实现更高的执行力,Eureka具备零样本生成、编写代码和语境改进等能力,可对强化学习的奖励设计流程、代码进行大幅度优化,达到人类专家级水平。

杨子超总结说,从仿生机器人的角度看,机器人在有思考的同时也要有肌肉的动作执行。

AI的能力是什么?杨子超总结为三个能力:

  1. LLM的能力:听得懂、看得见、聊得来、编得出、做得到。

"编得出"其实是一个半自动的动作,这个应该是当下AI的一个进化大方向。

  1. AI Agents的能力:交流、量大、个性化、可训练。

"可训练"标志着之前AI是一个实习生,现在可以培训他提升一些复杂能力了。

  1. AI的交互:

AI和物理世界(自动驾驶)

AI和科学世界(AI for Science)

AI和感知世界(人类大脑)

目前物理世界和科学世界都还是比较容易实现的,感知世界应该是在最后阶段。

杨子超最后分享了自己对目前AI创业的观点:

  1. 大模型简单套壳必死,不在这一轮,就在下一轮大模型的跌代中死去。

  2. 大模型理论上通吃垂直行业模型,现在看就是时间的问题。

  3. 从人的进化的角度,垂直细分到很细的服务场景,才有价值,同时大模型不会取代你。

  4. 大模型创业是对人性的理解,考察的是对语言把控,对人设的理解,以及对人情世故的思考。

  5. 没有明确答案的商品或者服务都会被AI重做一遍,用消费的理解就是如果不能用大模型带来情绪价值,那么一切都将回归性价比(性价比的意思就是Web2)。

杨磊分享,现在大部分人的注意力都放在了大语言模型上。但我们可以把AI这波的第一性原理分拆成两个逻辑,第一个叫从CPU到GPU的调整,整个计算架构完全被调整了。量化一下,如果我们按照一个计算单元的成本来算,基本上比原来冯·诺依曼体系,也就是英特尔CPU的计算成本能下降10~15倍,这是事实性的在发生的。并且,今年英伟达大概率能卖出500亿美元的芯片,所有的北美科技大厂无一例外的在做超算中心。

第二个是信息计算的颗粒度不一样了。计算机出来后,先出现的是文件系统。文件系统是什么?在计算机上,大家的增删改查数据库、Oracle这些东西都是文件系统。它只能以字节和基础的文件为单位进行计算机的逻辑运算,这意味着数据和信息处理的颗粒度是不够细的。

后来,所有的文件变成了并行计算的token,且token可以用数学的逻辑计算,用向量为单位进行计算,从此促成了LLM的诞生。

算力得到了大幅度提升,原来算不了的,现在能算了。原来只能算文件系统里增删改查那几个操作,现在能做超大量的64位精点向量运算了,这样语言之间的关系就能算出来了。

所以,整个计算的基础设施不一样了,计算信息的颗粒度也不一样了。换句话讲,我们之前经历的所有PC互联网、移动互联网里跑出来的所有商业化应用,都是建立在上一个基础设施上的。

但我们经常讲一个逻辑,技术再怎么变化,最终还是要为产品服务的,产品最终还是要为用户服务的,它才能产生真正的价值。

我们经历了长达大半年的时间,总是想把技术研究明白。但到今天,我觉得应该回过头来看一件事,那就是我们的用户需求、行业需求到底是什么,哪些需求是可以通过新的技术做一些更有价值的东西。如果这个技术对某些需求没有更好更优的解决方案,那么我个人认为在这个赛道里头,AI只能被称为过渡性技术的话,甚至都可以不用花时间去研究。

江彦君认为,人脑对信息的处理不是线性的,我们的神经元是立体的。以后AI的发展可能会搞一个立体的模型,最后出来一个随机内容。硅基是没有化学反应的,但人脑有化学反应,可以从这些角度把API做出来,这样很多智能问题才能解决。

杨磊非常赞同,认为这次AI革命的核心点有两个,第一个肯定不是连接和匹配,一定是深度信息的价值挖掘,把原来拿不到的信息拿到,第二个就是通过超高性能的计算方式,挖掘出以前挖不到的东西。

阎鹏分享,我们做教育做了10年,最开始的时候,以为我们需要解决的是传授大量知识和技巧给用户的成本问题,比如说一对一成本很高。后来我们发现并不是,其实所有人类已知的知识并没有那么多,需要孩子掌握的也没有那么多,成本并没有那么高,真正高成本的是耐心,就是人。

教育本身这件事情,育大于教。知识那部分并不是最稀缺的,全行业现在知识爆炸,知识没有那么稀缺,我们现在随随便便可以找到9年义务教育所有的内容,但缺的还是耐心。我们招过很多名校出身的老师,他们对教育心理学了如指掌,包括一些因材施教的方法,但我们监测到,落在每个孩子个体上的个性化方案的作用是有限的,也不好衡量。

即使给与很高的待遇,但他们依然更偏向统一的教学方法,因为这样的投入更容易产生价值。这就是我为什么要想做AI的核心原因,AI比人更有耐心,并且可以做到真正的因材施教、长期陪伴。

蓝驰创投投了两个大模型公司,一个是西湖心辰,还有一个是Moonshot AI。刘勇表示:"中国需要大模型,而有能力做大模型的公司就这么几家。但垂直模型或者中国小的创业公司也有机会,核心在于能够获取别人不能获取的数据,这也是我们投资的一个很重要的逻辑。我们内部有一句话叫一边赚数据,一边赚钱,这个数据一定是在你的商业模式的闭环里面的。"

刘勇认为,要定义什么是AI原生应用,首先要了解AI最核心的基本属性。从移动互联网时代看智能手机的原生应用,就要看手机的基本属性,一个是always on,另一个是随时随地。只有把这两个属性研究透了,才有可能去定义什么是移动互联网的原生应用。

如果说媒介是人的延伸,那么大模型可以看做是人的智力的延伸,它涉及到推理,而推理又包含归纳和演绎。回到AI原生应用的定义,如果它用到了归纳和演绎,那么勉强可以称为AI原生应用。

参会嘉宾们都贡献出了精彩观点,但由于是超声波俱乐部内部的分享会,所以很多精彩的内容不便对外公开,欢迎更多优秀的朋友们加入超声波俱乐部。

#超声波定期组织顶级产品经理、CTO、头部风险投资人、独角兽企业创始人开展私董会,分享内容涵盖行业趋势、技术创新、产品及商业等方向。

相关推荐
搏博几秒前
神经网络问题之一:梯度消失(Vanishing Gradient)
人工智能·机器学习
z千鑫几秒前
【人工智能】深入理解PyTorch:从0开始完整教程!全文注解
人工智能·pytorch·python·gpt·深度学习·ai编程
YRr YRr8 分钟前
深度学习:神经网络的搭建
人工智能·深度学习·神经网络
威桑11 分钟前
CMake + mingw + opencv
人工智能·opencv·计算机视觉
爱喝热水的呀哈喽14 分钟前
torch张量与函数表达式写法
人工智能·pytorch·深度学习
肥猪猪爸1 小时前
使用卡尔曼滤波器估计pybullet中的机器人位置
数据结构·人工智能·python·算法·机器人·卡尔曼滤波·pybullet
LZXCyrus1 小时前
【杂记】vLLM如何指定GPU单卡/多卡离线推理
人工智能·经验分享·python·深度学习·语言模型·llm·vllm
我感觉。2 小时前
【机器学习chp4】特征工程
人工智能·机器学习·主成分分析·特征工程
YRr YRr2 小时前
深度学习神经网络中的优化器的使用
人工智能·深度学习·神经网络
DieYoung_Alive2 小时前
一篇文章了解机器学习(下)
人工智能·机器学习