ShowMeAI | 用光5亿GPT token积累的7条实战心得;全球最牛X科技创企榜单;GPT极速入门教程;科技巨头AI全景解析;凯文·凯利新书中文版

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!

1. 全球最具创新力企业 Top 50 榜单,波士顿咨询公司 (BCG) 持续更新 20 年了

从2023年起,波士顿咨询公司 (BCG) 每年都会评选出 ⋙ 全球最具创新能力的50家公司「the 50 Most Innovative Companies」,并出具一份报告。至今已经持续了超过 20 年。

BCG 官网还设计了一个可交互的图表。顶部有4个下拉框 ,点击选择不同的分类方式,就可以看到分类榜单和近20年的历史数据变化 👆

BCG每年都会发布一份年度创新报告评选出当年最具创新力的 50 家公司 ,探讨新入选公司脱颖而出的原因,并分析榜单上这些公司的创新特质。目前最新的报告是 2023 年的

2. 112位顶级投资人,36位知名企业家,共同评选出 2024 全球科技初创公司 Top 榜单

⋙ Wing Venture Capital 是一家专注于科技领域的风险投资公司,成立于2013年。从2019年起,Wing VC 每年会发布一份「Enterprise Tech 30 」报告,评选出全球最有前途的科技初创公司

5月初,Wing VC 释出了最新的 2024 年「Enterprise Tech 30」榜单和报告。总榜如下,报告中还有很多细分榜单和详细的数据解读,信息密度很高。。

报告前 43 页,整体分析了 2024 年入选企业的显著特征和变化趋势。简单整理要点如下:

生成式人工智能 (GenAI) 的崛起

  • 本年度 40 家企业上榜,其中新上榜的 17 家公司都不同程度涉足了生成式人工智能领域。
  • 7 家新公司专注于开发AI模型或基础设施 ,3 家新公司专注于构建面向AI应用的数据平台&工具
  • 另外 4 家新公司则属于应用型,要么构建基于生成式AI的原生应用,要么通过生成式AI显著提升了其产品性能。

基础设施和工具的建设现状

  • SaaS 领域仅占比 25% ,刷新榜单历史最低值,表明当前仍处于基础设施和工具建设的阶段
  • 约 50% 的上榜公司与AI模型、工具、数据等有关 ,表明行业正在为下一代应用的爆发积累基础和推动力。

报告的后40多页,对榜单的 40 家公司进行了逐一介绍,格式很整齐,重要信息也很完备。是一份必看&必收藏的资料哇 ~

3. 3Blue1Brown 又更新啦!30 分钟动画,直观解释注意力机制 - Transformer 的核心

3Blue1Brown 是一个专注于数学教育的 YouTube 频道,视频制作精良,而且非常擅于用直观的动画和图表,讲清楚复杂抽象的数学话题,以及由此拓展的机器学习、深度学习等等。

3Blue1Brown 在 B 站也有官方账号,而且有 200 多万粉丝啦!值得一提的是,账号发布的视频是有专门的翻译团队把关的。难怪双语字幕的准确度和流畅度这么好 👍

3Blue1Brown 最近在B站更新的两期视频,都与大模型有关,整个系列还在持续更新中。

如果你想直观地搞清楚 GPT 原理,那 3Blue1Brown 这个系列的视频,应该是全球最好的学习资料了,甚至没有之一。

  • 第一期 的主题是解析 GPT-3 等大语言模型背后的机制和原理 👉 点击播放

  • 第二期 重点讲解大语言模型中的注意力机制 👉 点击播放

B站UP主 @和AI一起进化 进行了一次新的尝试,借助AI技术把 3Blue1Brown 这两期视频搞成了「中文配音 」!体验非常神奇!中文配音 + 双语字幕,极大提升了信息获取效率 ↓ ↓ ↓ 一起感受下 ↓↓ ↓

4. 一份AI急速入门教程:咻咻咻,大佬带你快速梳理 LLM 几十年发展脉络

这个系列的教程,风格与上面的 3Blue1Brown 系列视频「完全相反」~ 没有配图,没有细致的解释说明,甚至还配了大量代码、公式、专业术语......

能感受到,作者在试图用尽可能短的篇幅 ,讲清楚 LLM 和 AI 发展过程中的关键技术 ,以及彼此之间的演进关系读起来更像是一份学霸笔记,适合有一定基础之后,用来梳理自己的知识脉络。

如果你需要一份优质中文教程平滑过渡一下 ,那么强烈推荐 ShowMeAI 这份 → www.showmeai.tech/tutorials/3...

日报简单梳理了目前4篇内容的要点。原教程内容丰富得多 (信息密度真的很高!)

⋙ Part 1:Eliza

对「非人类只能」的探索其实由来已久,机器智能和图灵测试更是在上个世纪50年代就已经诞生了。

但是!虽然 Eliza 通过了图灵测试,但它距离真正的人工智能,还有漫长的距离。

  • Eliza:Eliza 是一个早期 (1966年) 聊天机器人,能够模仿心理治疗师的对话风格,并通过了图灵测试。
  • Eliza 的工作原理 :基本工作流程包括接收用户输入、处理回答、结束对话。
  • 知识库 (Knowledge Base) :Eliza 使用了一个包含关键词和转换规则的知识库来生成回答。
  • 同义词 (Synonyms) :Eliza 使用了同义词组来扩展其对话能力,并通过一些特殊的规则 (如 goto 规则) 和记忆功能来提高对话的连贯性。

⋙ Part 2:Markov Chains

Eliza 彼时出色表现的主要功臣,是一套精心设计的规则,这种方式是有局限性的。而马尔科夫链 (Markov Chain) 不依赖严格的规则,就灵活和简单得多了

但是!虽然马尔可夫链与 Eliza 相比有进步,并成为了机器学习的经典算法之一。但它仍属于随机性输出,我们还需要引入一些更高级的技术

  • 马尔可夫链 (Markov Chain) :是一种基于概率转移的数学模型,可以用来生成文本,其中每个词的出现仅依赖于前一个状态 (即前一个词) 。
  • 构建一个马尔可夫链 (Building a Markov Chain) :构建一个简单的马尔可夫链,需要先从文本中学习转移概率,再使用这些概率来生成新的文本。

⋙ Part 3:Neural Networks

现代人工智能的核心------神经网络 (Neural Network) 再次回到舞台中央。我们开始构建简单的神经网络。

但是!神经网络最初并不能现在的样子,还不能根据输入生成文本等等内容。为了变得更强,神经网络的规模需要不停地变大!大!大!

  • 用6行代码实现的神经网络 (Neural Network in 6 Lines of Code) :通过一个简短的 JavaScript 代码示例,展示了一个基本的神经网络的实现过程。即便只有6行代码,这个神经网络已经能够预测二进制 XOR 函数的输出了。
  • 训练一个网络 (Training a Network) :训练神经网络,就是通过调整网络的权重和偏置 (bias) 来提升输出的准确率。
  • 自动求导 (Autograd) :通过自动计算梯度,来简化神经网络的训练过程。
  • 构建一个更智能的网络 (Building a Smarter Network) :构建一个更复杂的、能够自我训练的神经网络结构,能解决的问题也能更加复杂。

⋙ Part 4:Large Language Models (LLMs)

终于!我们等到了大语言模型!人类开始和机器进行对话,并思考如何借助AI改变世界。

但是!这就是我们追索了几十年的「智能」嘛?Who Knows 🤷‍♀️ maybe~

  • GPT :GPT 是使用大量数据预训练的神经网络模型,能够生成连贯且语义合理的文本。
  • 词元 (Token) :GPT模型的 Tokenization 就是把长的文本分割成更小的、有意义的词元 (tokens) ,并将其转换为数值形式以方便模型处理。
  • 词向量 (Word Vectors) :GPT模型使用词向量来表示单词,这些向量能够捕捉单词之间的语义关系。
  • 层 (Layers) :GPT 模型每一层都包含了多个不同的权重和偏置,能够处理和转换输入数据。
  • 自注意力 (Self-Attention) :自注意力机制使模型能够识别和专注于输入序列中的不同部分,从而生成更有意义的输出。
  • 进行数学运算 (Do the Math) : GPT 模型需要的数学运算包括线性变换、激活函数、归一化和 softmax 函数等。
  • 运行单个层 (Running a Single Layer) :GPT 模型中单个层的运行过程,包括如何处理自注意力和多层感知器的计算。
  • 解码 (Decoding) :将模型的最后一层输出转换为单词,以及通过迭代过程生成连贯的文本序列。

5. 22万字,全景解析海内外科技巨头的AI布局:微软、谷歌、百度、阿里、腾讯、字节......

说实话,看到这个系列的时候,我脑子里闪过最多的是:「这么多字?!」「佩服佩服」......

作者用超长的篇幅,详细介绍了海内外科技巨头的AI生态,目前整个系列更新了6家,内容目录如上。感兴趣可以追更哦!或者收藏备用~

6. 6个月,消耗了5亿个 GPT Token,忍不住想分享点你大概率不知道的

我们经常在社区看到 LLM 相关的分享,各种新名词、新技术、新应用也让人应接不暇。然而!一位消耗了 5亿 GPT token 的开发者,忍不住想说一说自己的实际感受。虽然可能跟一些「主流」的声音不太一致 😳 ⋙ 阅读原文

简单介绍下开发者的基本信息:五亿 token 约等于 75 万页的文本,其中 85% GPT-4 + 15% GPT-3.5。开发业务只专注于文本处理,重点是总结、分析和信息提取。

作者明确给出了 7 个 Lesson。以下是要点总结:

  • **Lesson 1** \] **提示词越简洁越好**。冗长的指令会严重降低模型的响应质量。

  • **Lesson 3** \] 你可能忽略了 ChatGPT 在用户体验 (UX) 上的一次重大创新。简单说就是**用流式API提升响应速度**,并向用户展示变速打字的效果。

  • **Lesson 5** \] 上下文窗口 (Context windows) 的说法其实并不准确。**只有输入端在不断增大,输出端的容量依旧是受限的**。

  • **Lesson 7** \] 最起码在文本信息提取的任务中,**幻觉 (Hallucination) 基本上不会出现,很少很少**。

凯文·凯利 (Kevin Kelly) 是全球知名科技杂志《连线》的创始主编,采访了一众科技大佬,著有《失控》《必然》《科技想要什么》等爆火书籍,并成功预言了多次科技发展趋势,被誉为硅谷精神之父。K.K. 是中国读者对他的爱称~

5000 天后的世界 》最近推出了中文版,描绘了随着AI技术的发展,5000天之后人类世界的面貌

简单说就是,世间万物都可以与AI连接,现实世界与数字化完美融合,并产生出 AR 的世界 (即镜像世界)。届时会诞生一个超级平台,帮助身处全球各地的人构建实时的虚拟世界。这势必会对人生社会产生全方位的影响。

为什么是 5000 天呢? 因为据 K.K. 观察,互联网实现商业化 5000 天后,出现了社交媒体。又过了 5000 天之后,互联网和社交媒体已经深刻改变了我们的生活。

那以 5000 天为单位,下一个变化会是什么呢?K.K. 在书里详细描绘了「下一个未来」的样子。

  • 第一章 数百万人一起工作的未来
  • 第二章 进化中的数字经济的现状
  • 第三章 所有的产业都将因科技重塑
  • 第四章 亚洲的时代与科技地缘政治
  • 第五章 倾听科技 洞见未来
  • 第六章 创新与成功的困境
  • 终章

◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ > 前往 🎡ShowMeAI,获取结构化成长路径和全套资料库,用知识加速每一次技术进步!

相关推荐
Panesle22 分钟前
transformer架构与其它架构对比
人工智能·深度学习·transformer
我有医保我先冲1 小时前
AI大模型与人工智能的深度融合:重构医药行业数字化转型的底层逻辑
人工智能·重构
pen-ai1 小时前
【NLP】15. NLP推理方法详解 --- 动态规划:序列标注,语法解析,共同指代
人工智能·自然语言处理·动态规划
Chaos_Wang_1 小时前
NLP高频面试题(二十九)——大模型解码常见参数解析
人工智能·自然语言处理
EdisonZhou1 小时前
使用MCP C# SDK开发MCP Server + Client
llm·aigc·asp.net core·.net core
Acrelhuang1 小时前
8.3MW屋顶光伏+光储协同:上海汽车变速器低碳工厂的能源革命-安科瑞黄安南
大数据·数据库·人工智能·物联网·数据库开发
区块链蓝海1 小时前
沉浸式体验测评|AI Ville:我在Web3小镇“生活”了一周
人工智能·web3·生活
whaosoft-1432 小时前
51c自动驾驶~合集15
人工智能
花楸树2 小时前
前端搭建 MCP Client(Web版)+ Server + Agent 实践
前端·人工智能