ShowMeAI | 用光5亿GPT token积累的7条实战心得;全球最牛X科技创企榜单;GPT极速入门教程;科技巨头AI全景解析;凯文·凯利新书中文版

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!

1. 全球最具创新力企业 Top 50 榜单,波士顿咨询公司 (BCG) 持续更新 20 年了

从2023年起,波士顿咨询公司 (BCG) 每年都会评选出 ⋙ 全球最具创新能力的50家公司「the 50 Most Innovative Companies」,并出具一份报告。至今已经持续了超过 20 年。

BCG 官网还设计了一个可交互的图表。顶部有4个下拉框 ,点击选择不同的分类方式,就可以看到分类榜单和近20年的历史数据变化 👆

BCG每年都会发布一份年度创新报告评选出当年最具创新力的 50 家公司 ,探讨新入选公司脱颖而出的原因,并分析榜单上这些公司的创新特质。目前最新的报告是 2023 年的

2. 112位顶级投资人,36位知名企业家,共同评选出 2024 全球科技初创公司 Top 榜单

⋙ Wing Venture Capital 是一家专注于科技领域的风险投资公司,成立于2013年。从2019年起,Wing VC 每年会发布一份「Enterprise Tech 30 」报告,评选出全球最有前途的科技初创公司

5月初,Wing VC 释出了最新的 2024 年「Enterprise Tech 30」榜单和报告。总榜如下,报告中还有很多细分榜单和详细的数据解读,信息密度很高。。

报告前 43 页,整体分析了 2024 年入选企业的显著特征和变化趋势。简单整理要点如下:

生成式人工智能 (GenAI) 的崛起

  • 本年度 40 家企业上榜,其中新上榜的 17 家公司都不同程度涉足了生成式人工智能领域。
  • 7 家新公司专注于开发AI模型或基础设施 ,3 家新公司专注于构建面向AI应用的数据平台&工具
  • 另外 4 家新公司则属于应用型,要么构建基于生成式AI的原生应用,要么通过生成式AI显著提升了其产品性能。

基础设施和工具的建设现状

  • SaaS 领域仅占比 25% ,刷新榜单历史最低值,表明当前仍处于基础设施和工具建设的阶段
  • 约 50% 的上榜公司与AI模型、工具、数据等有关 ,表明行业正在为下一代应用的爆发积累基础和推动力。

报告的后40多页,对榜单的 40 家公司进行了逐一介绍,格式很整齐,重要信息也很完备。是一份必看&必收藏的资料哇 ~

3. 3Blue1Brown 又更新啦!30 分钟动画,直观解释注意力机制 - Transformer 的核心

3Blue1Brown 是一个专注于数学教育的 YouTube 频道,视频制作精良,而且非常擅于用直观的动画和图表,讲清楚复杂抽象的数学话题,以及由此拓展的机器学习、深度学习等等。

3Blue1Brown 在 B 站也有官方账号,而且有 200 多万粉丝啦!值得一提的是,账号发布的视频是有专门的翻译团队把关的。难怪双语字幕的准确度和流畅度这么好 👍

3Blue1Brown 最近在B站更新的两期视频,都与大模型有关,整个系列还在持续更新中。

如果你想直观地搞清楚 GPT 原理,那 3Blue1Brown 这个系列的视频,应该是全球最好的学习资料了,甚至没有之一。

  • 第一期 的主题是解析 GPT-3 等大语言模型背后的机制和原理 👉 点击播放

  • 第二期 重点讲解大语言模型中的注意力机制 👉 点击播放

B站UP主 @和AI一起进化 进行了一次新的尝试,借助AI技术把 3Blue1Brown 这两期视频搞成了「中文配音 」!体验非常神奇!中文配音 + 双语字幕,极大提升了信息获取效率 ↓ ↓ ↓ 一起感受下 ↓↓ ↓

4. 一份AI急速入门教程:咻咻咻,大佬带你快速梳理 LLM 几十年发展脉络

这个系列的教程,风格与上面的 3Blue1Brown 系列视频「完全相反」~ 没有配图,没有细致的解释说明,甚至还配了大量代码、公式、专业术语......

能感受到,作者在试图用尽可能短的篇幅 ,讲清楚 LLM 和 AI 发展过程中的关键技术 ,以及彼此之间的演进关系读起来更像是一份学霸笔记,适合有一定基础之后,用来梳理自己的知识脉络。

如果你需要一份优质中文教程平滑过渡一下 ,那么强烈推荐 ShowMeAI 这份 → www.showmeai.tech/tutorials/3...

日报简单梳理了目前4篇内容的要点。原教程内容丰富得多 (信息密度真的很高!)

⋙ Part 1:Eliza

对「非人类只能」的探索其实由来已久,机器智能和图灵测试更是在上个世纪50年代就已经诞生了。

但是!虽然 Eliza 通过了图灵测试,但它距离真正的人工智能,还有漫长的距离。

  • Eliza:Eliza 是一个早期 (1966年) 聊天机器人,能够模仿心理治疗师的对话风格,并通过了图灵测试。
  • Eliza 的工作原理 :基本工作流程包括接收用户输入、处理回答、结束对话。
  • 知识库 (Knowledge Base) :Eliza 使用了一个包含关键词和转换规则的知识库来生成回答。
  • 同义词 (Synonyms) :Eliza 使用了同义词组来扩展其对话能力,并通过一些特殊的规则 (如 goto 规则) 和记忆功能来提高对话的连贯性。

⋙ Part 2:Markov Chains

Eliza 彼时出色表现的主要功臣,是一套精心设计的规则,这种方式是有局限性的。而马尔科夫链 (Markov Chain) 不依赖严格的规则,就灵活和简单得多了

但是!虽然马尔可夫链与 Eliza 相比有进步,并成为了机器学习的经典算法之一。但它仍属于随机性输出,我们还需要引入一些更高级的技术

  • 马尔可夫链 (Markov Chain) :是一种基于概率转移的数学模型,可以用来生成文本,其中每个词的出现仅依赖于前一个状态 (即前一个词) 。
  • 构建一个马尔可夫链 (Building a Markov Chain) :构建一个简单的马尔可夫链,需要先从文本中学习转移概率,再使用这些概率来生成新的文本。

⋙ Part 3:Neural Networks

现代人工智能的核心------神经网络 (Neural Network) 再次回到舞台中央。我们开始构建简单的神经网络。

但是!神经网络最初并不能现在的样子,还不能根据输入生成文本等等内容。为了变得更强,神经网络的规模需要不停地变大!大!大!

  • 用6行代码实现的神经网络 (Neural Network in 6 Lines of Code) :通过一个简短的 JavaScript 代码示例,展示了一个基本的神经网络的实现过程。即便只有6行代码,这个神经网络已经能够预测二进制 XOR 函数的输出了。
  • 训练一个网络 (Training a Network) :训练神经网络,就是通过调整网络的权重和偏置 (bias) 来提升输出的准确率。
  • 自动求导 (Autograd) :通过自动计算梯度,来简化神经网络的训练过程。
  • 构建一个更智能的网络 (Building a Smarter Network) :构建一个更复杂的、能够自我训练的神经网络结构,能解决的问题也能更加复杂。

⋙ Part 4:Large Language Models (LLMs)

终于!我们等到了大语言模型!人类开始和机器进行对话,并思考如何借助AI改变世界。

但是!这就是我们追索了几十年的「智能」嘛?Who Knows 🤷‍♀️ maybe~

  • GPT :GPT 是使用大量数据预训练的神经网络模型,能够生成连贯且语义合理的文本。
  • 词元 (Token) :GPT模型的 Tokenization 就是把长的文本分割成更小的、有意义的词元 (tokens) ,并将其转换为数值形式以方便模型处理。
  • 词向量 (Word Vectors) :GPT模型使用词向量来表示单词,这些向量能够捕捉单词之间的语义关系。
  • 层 (Layers) :GPT 模型每一层都包含了多个不同的权重和偏置,能够处理和转换输入数据。
  • 自注意力 (Self-Attention) :自注意力机制使模型能够识别和专注于输入序列中的不同部分,从而生成更有意义的输出。
  • 进行数学运算 (Do the Math) : GPT 模型需要的数学运算包括线性变换、激活函数、归一化和 softmax 函数等。
  • 运行单个层 (Running a Single Layer) :GPT 模型中单个层的运行过程,包括如何处理自注意力和多层感知器的计算。
  • 解码 (Decoding) :将模型的最后一层输出转换为单词,以及通过迭代过程生成连贯的文本序列。

5. 22万字,全景解析海内外科技巨头的AI布局:微软、谷歌、百度、阿里、腾讯、字节......

说实话,看到这个系列的时候,我脑子里闪过最多的是:「这么多字?!」「佩服佩服」......

作者用超长的篇幅,详细介绍了海内外科技巨头的AI生态,目前整个系列更新了6家,内容目录如上。感兴趣可以追更哦!或者收藏备用~

6. 6个月,消耗了5亿个 GPT Token,忍不住想分享点你大概率不知道的

我们经常在社区看到 LLM 相关的分享,各种新名词、新技术、新应用也让人应接不暇。然而!一位消耗了 5亿 GPT token 的开发者,忍不住想说一说自己的实际感受。虽然可能跟一些「主流」的声音不太一致 😳 ⋙ 阅读原文

简单介绍下开发者的基本信息:五亿 token 约等于 75 万页的文本,其中 85% GPT-4 + 15% GPT-3.5。开发业务只专注于文本处理,重点是总结、分析和信息提取。

作者明确给出了 7 个 Lesson。以下是要点总结:

  • **Lesson 1** \] **提示词越简洁越好**。冗长的指令会严重降低模型的响应质量。

  • **Lesson 3** \] 你可能忽略了 ChatGPT 在用户体验 (UX) 上的一次重大创新。简单说就是**用流式API提升响应速度**,并向用户展示变速打字的效果。

  • **Lesson 5** \] 上下文窗口 (Context windows) 的说法其实并不准确。**只有输入端在不断增大,输出端的容量依旧是受限的**。

  • **Lesson 7** \] 最起码在文本信息提取的任务中,**幻觉 (Hallucination) 基本上不会出现,很少很少**。

凯文·凯利 (Kevin Kelly) 是全球知名科技杂志《连线》的创始主编,采访了一众科技大佬,著有《失控》《必然》《科技想要什么》等爆火书籍,并成功预言了多次科技发展趋势,被誉为硅谷精神之父。K.K. 是中国读者对他的爱称~

5000 天后的世界 》最近推出了中文版,描绘了随着AI技术的发展,5000天之后人类世界的面貌

简单说就是,世间万物都可以与AI连接,现实世界与数字化完美融合,并产生出 AR 的世界 (即镜像世界)。届时会诞生一个超级平台,帮助身处全球各地的人构建实时的虚拟世界。这势必会对人生社会产生全方位的影响。

为什么是 5000 天呢? 因为据 K.K. 观察,互联网实现商业化 5000 天后,出现了社交媒体。又过了 5000 天之后,互联网和社交媒体已经深刻改变了我们的生活。

那以 5000 天为单位,下一个变化会是什么呢?K.K. 在书里详细描绘了「下一个未来」的样子。

  • 第一章 数百万人一起工作的未来
  • 第二章 进化中的数字经济的现状
  • 第三章 所有的产业都将因科技重塑
  • 第四章 亚洲的时代与科技地缘政治
  • 第五章 倾听科技 洞见未来
  • 第六章 创新与成功的困境
  • 终章

◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ > 前往 🎡ShowMeAI,获取结构化成长路径和全套资料库,用知识加速每一次技术进步!

相关推荐
NAGNIP7 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab9 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab9 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP12 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年12 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼13 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS13 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
warm3snow13 小时前
Claude Code 黑客马拉松:5 个获奖项目,没有一个是"纯码农"做的
ai·大模型·llm·agent·skill·mcp
天翼云开发者社区14 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈14 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能