ShowMeAI | 用光5亿GPT token积累的7条实战心得;全球最牛X科技创企榜单;GPT极速入门教程;科技巨头AI全景解析;凯文·凯利新书中文版

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!

1. 全球最具创新力企业 Top 50 榜单,波士顿咨询公司 (BCG) 持续更新 20 年了

从2023年起,波士顿咨询公司 (BCG) 每年都会评选出 ⋙ 全球最具创新能力的50家公司「the 50 Most Innovative Companies」,并出具一份报告。至今已经持续了超过 20 年。

BCG 官网还设计了一个可交互的图表。顶部有4个下拉框 ,点击选择不同的分类方式,就可以看到分类榜单和近20年的历史数据变化 👆

BCG每年都会发布一份年度创新报告评选出当年最具创新力的 50 家公司 ,探讨新入选公司脱颖而出的原因,并分析榜单上这些公司的创新特质。目前最新的报告是 2023 年的

2. 112位顶级投资人,36位知名企业家,共同评选出 2024 全球科技初创公司 Top 榜单

⋙ Wing Venture Capital 是一家专注于科技领域的风险投资公司,成立于2013年。从2019年起,Wing VC 每年会发布一份「Enterprise Tech 30 」报告,评选出全球最有前途的科技初创公司

5月初,Wing VC 释出了最新的 2024 年「Enterprise Tech 30」榜单和报告。总榜如下,报告中还有很多细分榜单和详细的数据解读,信息密度很高。。

报告前 43 页,整体分析了 2024 年入选企业的显著特征和变化趋势。简单整理要点如下:

生成式人工智能 (GenAI) 的崛起

  • 本年度 40 家企业上榜,其中新上榜的 17 家公司都不同程度涉足了生成式人工智能领域。
  • 7 家新公司专注于开发AI模型或基础设施 ,3 家新公司专注于构建面向AI应用的数据平台&工具
  • 另外 4 家新公司则属于应用型,要么构建基于生成式AI的原生应用,要么通过生成式AI显著提升了其产品性能。

基础设施和工具的建设现状

  • SaaS 领域仅占比 25% ,刷新榜单历史最低值,表明当前仍处于基础设施和工具建设的阶段
  • 约 50% 的上榜公司与AI模型、工具、数据等有关 ,表明行业正在为下一代应用的爆发积累基础和推动力。

报告的后40多页,对榜单的 40 家公司进行了逐一介绍,格式很整齐,重要信息也很完备。是一份必看&必收藏的资料哇 ~

3. 3Blue1Brown 又更新啦!30 分钟动画,直观解释注意力机制 - Transformer 的核心

3Blue1Brown 是一个专注于数学教育的 YouTube 频道,视频制作精良,而且非常擅于用直观的动画和图表,讲清楚复杂抽象的数学话题,以及由此拓展的机器学习、深度学习等等。

3Blue1Brown 在 B 站也有官方账号,而且有 200 多万粉丝啦!值得一提的是,账号发布的视频是有专门的翻译团队把关的。难怪双语字幕的准确度和流畅度这么好 👍

3Blue1Brown 最近在B站更新的两期视频,都与大模型有关,整个系列还在持续更新中。

如果你想直观地搞清楚 GPT 原理,那 3Blue1Brown 这个系列的视频,应该是全球最好的学习资料了,甚至没有之一。

  • 第一期 的主题是解析 GPT-3 等大语言模型背后的机制和原理 👉 点击播放

  • 第二期 重点讲解大语言模型中的注意力机制 👉 点击播放

B站UP主 @和AI一起进化 进行了一次新的尝试,借助AI技术把 3Blue1Brown 这两期视频搞成了「中文配音 」!体验非常神奇!中文配音 + 双语字幕,极大提升了信息获取效率 ↓ ↓ ↓ 一起感受下 ↓↓ ↓

4. 一份AI急速入门教程:咻咻咻,大佬带你快速梳理 LLM 几十年发展脉络

这个系列的教程,风格与上面的 3Blue1Brown 系列视频「完全相反」~ 没有配图,没有细致的解释说明,甚至还配了大量代码、公式、专业术语......

能感受到,作者在试图用尽可能短的篇幅 ,讲清楚 LLM 和 AI 发展过程中的关键技术 ,以及彼此之间的演进关系读起来更像是一份学霸笔记,适合有一定基础之后,用来梳理自己的知识脉络。

如果你需要一份优质中文教程平滑过渡一下 ,那么强烈推荐 ShowMeAI 这份 → www.showmeai.tech/tutorials/3...

日报简单梳理了目前4篇内容的要点。原教程内容丰富得多 (信息密度真的很高!)

⋙ Part 1:Eliza

对「非人类只能」的探索其实由来已久,机器智能和图灵测试更是在上个世纪50年代就已经诞生了。

但是!虽然 Eliza 通过了图灵测试,但它距离真正的人工智能,还有漫长的距离。

  • Eliza:Eliza 是一个早期 (1966年) 聊天机器人,能够模仿心理治疗师的对话风格,并通过了图灵测试。
  • Eliza 的工作原理 :基本工作流程包括接收用户输入、处理回答、结束对话。
  • 知识库 (Knowledge Base) :Eliza 使用了一个包含关键词和转换规则的知识库来生成回答。
  • 同义词 (Synonyms) :Eliza 使用了同义词组来扩展其对话能力,并通过一些特殊的规则 (如 goto 规则) 和记忆功能来提高对话的连贯性。

⋙ Part 2:Markov Chains

Eliza 彼时出色表现的主要功臣,是一套精心设计的规则,这种方式是有局限性的。而马尔科夫链 (Markov Chain) 不依赖严格的规则,就灵活和简单得多了

但是!虽然马尔可夫链与 Eliza 相比有进步,并成为了机器学习的经典算法之一。但它仍属于随机性输出,我们还需要引入一些更高级的技术

  • 马尔可夫链 (Markov Chain) :是一种基于概率转移的数学模型,可以用来生成文本,其中每个词的出现仅依赖于前一个状态 (即前一个词) 。
  • 构建一个马尔可夫链 (Building a Markov Chain) :构建一个简单的马尔可夫链,需要先从文本中学习转移概率,再使用这些概率来生成新的文本。

⋙ Part 3:Neural Networks

现代人工智能的核心------神经网络 (Neural Network) 再次回到舞台中央。我们开始构建简单的神经网络。

但是!神经网络最初并不能现在的样子,还不能根据输入生成文本等等内容。为了变得更强,神经网络的规模需要不停地变大!大!大!

  • 用6行代码实现的神经网络 (Neural Network in 6 Lines of Code) :通过一个简短的 JavaScript 代码示例,展示了一个基本的神经网络的实现过程。即便只有6行代码,这个神经网络已经能够预测二进制 XOR 函数的输出了。
  • 训练一个网络 (Training a Network) :训练神经网络,就是通过调整网络的权重和偏置 (bias) 来提升输出的准确率。
  • 自动求导 (Autograd) :通过自动计算梯度,来简化神经网络的训练过程。
  • 构建一个更智能的网络 (Building a Smarter Network) :构建一个更复杂的、能够自我训练的神经网络结构,能解决的问题也能更加复杂。

⋙ Part 4:Large Language Models (LLMs)

终于!我们等到了大语言模型!人类开始和机器进行对话,并思考如何借助AI改变世界。

但是!这就是我们追索了几十年的「智能」嘛?Who Knows 🤷‍♀️ maybe~

  • GPT :GPT 是使用大量数据预训练的神经网络模型,能够生成连贯且语义合理的文本。
  • 词元 (Token) :GPT模型的 Tokenization 就是把长的文本分割成更小的、有意义的词元 (tokens) ,并将其转换为数值形式以方便模型处理。
  • 词向量 (Word Vectors) :GPT模型使用词向量来表示单词,这些向量能够捕捉单词之间的语义关系。
  • 层 (Layers) :GPT 模型每一层都包含了多个不同的权重和偏置,能够处理和转换输入数据。
  • 自注意力 (Self-Attention) :自注意力机制使模型能够识别和专注于输入序列中的不同部分,从而生成更有意义的输出。
  • 进行数学运算 (Do the Math) : GPT 模型需要的数学运算包括线性变换、激活函数、归一化和 softmax 函数等。
  • 运行单个层 (Running a Single Layer) :GPT 模型中单个层的运行过程,包括如何处理自注意力和多层感知器的计算。
  • 解码 (Decoding) :将模型的最后一层输出转换为单词,以及通过迭代过程生成连贯的文本序列。

5. 22万字,全景解析海内外科技巨头的AI布局:微软、谷歌、百度、阿里、腾讯、字节......

说实话,看到这个系列的时候,我脑子里闪过最多的是:「这么多字?!」「佩服佩服」......

作者用超长的篇幅,详细介绍了海内外科技巨头的AI生态,目前整个系列更新了6家,内容目录如上。感兴趣可以追更哦!或者收藏备用~

6. 6个月,消耗了5亿个 GPT Token,忍不住想分享点你大概率不知道的

我们经常在社区看到 LLM 相关的分享,各种新名词、新技术、新应用也让人应接不暇。然而!一位消耗了 5亿 GPT token 的开发者,忍不住想说一说自己的实际感受。虽然可能跟一些「主流」的声音不太一致 😳 ⋙ 阅读原文

简单介绍下开发者的基本信息:五亿 token 约等于 75 万页的文本,其中 85% GPT-4 + 15% GPT-3.5。开发业务只专注于文本处理,重点是总结、分析和信息提取。

作者明确给出了 7 个 Lesson。以下是要点总结:

  • [Lesson 1 ] 提示词越简洁越好。冗长的指令会严重降低模型的响应质量。

  • [Lesson 2 ] OpenAI 的 Chat API 基本能满足所有需求。根本用不上 OpenAI 过去一年里发布的其他工具,甚至连 LangChain 都不需要。

  • [Lesson 3 ] 你可能忽略了 ChatGPT 在用户体验 (UX) 上的一次重大创新。简单说就是用流式API提升响应速度,并向用户展示变速打字的效果。

  • [Lesson 4 ] GPT不善于处理空值 (null hypothesis)。

  • [Lesson 5 ] 上下文窗口 (Context windows) 的说法其实并不准确。只有输入端在不断增大,输出端的容量依旧是受限的

  • [Lesson 6] 对普通开发者和用户来说,向量数据库、RAG/embeddings 这些技术的应用场景非常有限

  • [Lesson 7 ] 最起码在文本信息提取的任务中,幻觉 (Hallucination) 基本上不会出现,很少很少

7. K.K. 凯文·凯利新书 (中文版):5000 天后的世界 - AI扩展人类无限的可能性

凯文·凯利 (Kevin Kelly) 是全球知名科技杂志《连线》的创始主编,采访了一众科技大佬,著有《失控》《必然》《科技想要什么》等爆火书籍,并成功预言了多次科技发展趋势,被誉为硅谷精神之父。K.K. 是中国读者对他的爱称~

5000 天后的世界 》最近推出了中文版,描绘了随着AI技术的发展,5000天之后人类世界的面貌

简单说就是,世间万物都可以与AI连接,现实世界与数字化完美融合,并产生出 AR 的世界 (即镜像世界)。届时会诞生一个超级平台,帮助身处全球各地的人构建实时的虚拟世界。这势必会对人生社会产生全方位的影响。

为什么是 5000 天呢? 因为据 K.K. 观察,互联网实现商业化 5000 天后,出现了社交媒体。又过了 5000 天之后,互联网和社交媒体已经深刻改变了我们的生活。

那以 5000 天为单位,下一个变化会是什么呢?K.K. 在书里详细描绘了「下一个未来」的样子。

  • 第一章 数百万人一起工作的未来
  • 第二章 进化中的数字经济的现状
  • 第三章 所有的产业都将因科技重塑
  • 第四章 亚洲的时代与科技地缘政治
  • 第五章 倾听科技 洞见未来
  • 第六章 创新与成功的困境
  • 终章

◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ > 前往 🎡ShowMeAI,获取结构化成长路径和全套资料库,用知识加速每一次技术进步!

相关推荐
_.Switch几秒前
Python机器学习模型的部署与维护:版本管理、监控与更新策略
开发语言·人工智能·python·算法·机器学习
XiaoLiuLB19 分钟前
ChatGPT Canvas:交互式对话编辑器
人工智能·自然语言处理·chatgpt·编辑器·aigc
Hoper.J19 分钟前
PyTorch 模型保存与加载的三种常用方式
人工智能·pytorch·python
菜就多练_082822 分钟前
《深度学习》OpenCV 摄像头OCR 过程及案例解析
人工智能·深度学习·opencv·ocr
达柳斯·绍达华·宁38 分钟前
CNN中的平移不变性和平移等变性
人工智能·神经网络·cnn
技术无疆1 小时前
【Python】Streamlit:为数据科学与机器学习打造的简易应用框架
开发语言·人工智能·python·深度学习·神经网络·机器学习·数据挖掘
xuehaishijue1 小时前
红外画面空中目标检测系统源码分享
人工智能·目标检测·计算机视觉
羊小猪~~1 小时前
机器学习/数据分析--用通俗语言讲解时间序列自回归(AR)模型,并用其预测天气,拟合度98%+
人工智能·python·机器学习·数据挖掘·数据分析·回归·时序数据库
浊酒南街2 小时前
吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)2.7-2.8
人工智能·深度学习·神经网络