👉👉 AGI 早早聊知识库
「 行业动态 」
◇ 杭州政府发钱啦 ! 每年 5000 万 元 " 算力 券"支持中小企业 🔗 News
市政府提出了加快推进人工智能产业创新发展的意见,目标是在 2025 年打造全国领先、国际一流的人工智能产业高地,促进人工智能与实体经济深度融合,建设"高算力+强算法+大数据"的产业生态。
◇ 机器人| 大模型 进现实世界 , DeepMind 重量级突破 🔗 Link
DeepMind 推出 RT-2:全球第一个控制机器人的视觉-语言-动作模型,机器人可以像 ChatGPT 一样通过简单的自然语言指令操纵物体,这代表着具身智能的重大进展。
- Google DeepMind Research Blog: 《RT-2: New model translates vision and language into action》
- paper:robotics-transformer2.github.io/assets/rt2....
◇ 医疗保健 |Google 推出医用 多模态 生成 模型 Med-PaLM M 🔗 Link1 、 Link2
Google Health、Google Deepmind 和 Google AI 推出了 Med-PaLM M,这是一种多模态 LLM,可以灵活编码和解释生物医学数据,处理临床语言、医学图像和基因组学等任务,表现优异。
- Med-PaLM M 通过对 Google AI 的语言模型 PaLM-E 进行微调和调整,使用 MultiMedBench 的开源基准构建,甚至优于专业模型和 PaLM-E。
- MultiMedBench 包含 7 种生物医学数据类型和 14 种不同的任务,鼓励开发通用生物医学 AI 系统。
◇ 纯 AI 创作 科幻电影《创世纪》 预告片 震撼登场 🔗 Link
《创世纪》是一部使用多种 AI 工具制作的火爆科幻电影预告片,制作者 Nicolas Neubert 在其中运用了 Midjourney、Runway、Pixabay 和 CapCut 等工具来完成图像、视频、音乐和剪辑等制作过程。
◇ 华为超级 大模型 基建: AI 算力 平台先遣组、数据中心军团 🔗 Link
华为在内部会议中宣布成立"AI 算力平台先遣组"和"数据中心军团",对标英伟达、Azure 和 Open AI,旨在全力支持国内大模型的算力需求,并发布了华为云盘古大模型 3.0,应用于多个领域。
- "AI 算力平台先遣组"由陶景文担任组长,成员包括多个业务线的总裁或 VP。
- "数据中心军团"由邹志磊领导,他曾担任华为原运营商 BG 总裁,现为华为煤炭军团董事长。
- 华为发布了 AI 大模型华为云盘古大模型 3.0,已应用于煤矿、铁路、气象、金融、代码开发、数字内容生成等领域。
- 华为三大数据中心预计投入使用 10W 张卡,华为云总裁张平安负责卡的规划建设与资源利用。
◇ 训练数据 质量不行?Skill-It:用于理解和训练 LMs 的数据驱动框架 🔗 Twitter1 、 Twitter2
正如人类以有意的顺序获得相互依赖的技能一样,语言模型在从训练数据中学习一组技能时也遵循自然顺序。如果存在这样的顺序,它可以用于增进对 LM 的理解和数据高效的训练。Skill-It 框架正是根据相关数据形式化了技能和有序技能集的概念。
paper: 《Skill-it! A Data-Driven Skills Framework for Understanding and Training Language Models》
「 融资快讯」
◇ 提供数据 Pipeline 和 大模型 中间件能力,「灵奥科技」宣布完成数百万美元 种子轮 融资 🔗 News
灵奥科技近完成数百万美元的种子轮融资,投资方为靖亚资本和 Plug and Play。灵奥科技致力于构建数据 Pipeline 和大模型中间件,当前主要提供两款产品:
- Vanus Connect 可打通 SaaS 应用等业务工具,基于非结构化的业务数据,建立事件处理引擎,并针对不同来源的数据,基于用户的要求响应处理。
- Vanus AI 可帮助企业链接大模型和构建知识库,并同时进行提示词(prompt engineering) 调试,搭建企业自己的 AI 应用。
◇ 00 后华人 大模型 创业,挑战 langchain,获硅谷顶级创始人投资 🔗 News
Cortex 背后的公司叫做 Kinesys AI,由两位华人创始人领导的 7 人团队发起,是一个大模型中间件项目,在国外已有 10 多家付费用户和上千个个人用户,并获得 Silicon Valley 顶级创始人的支持。
- Cortex 允许外接私有数据库,包括 Notion、Slack、Google Drive 等,为特定领域提供定制版 GPT,同时可打造千人千面的 Copilot。
- Cortex 团队计划接入 Slack confluence、Microsoft 全家桶和 Google 全家桶等,持续增加功能。
◇ Tromero 筹集了 150 万 英镑 ,通过加密货币挖矿降低 ****AI 训练 和托管成本 🔗 News
总部位于伦敦的机器学习训练和托管平台 Tromero 在由 BlueYard Capital 领投的种子轮融资中筹集了 150 万英镑。该初创公司将利用这笔投资组建团队,并在未来 12 个月内交付功能测试版。Tromero 通过区块链技术提供"Proof of Work"和"Proof of Useful Work",以解决机器学习培训需求,打破了现有云计算巨头如 AWS、Azure 和 Google Cloud 的垄断地位。
◇ 这到底是不是一门好生意?独家解密 Palantir 差异化竞争优势|深度研报(下篇) 🔗 News
深度研报揭示 Palantir 的赛道地位、竞争格局和六大视角的异化竞争优势:本体论、模块化、通用性、军事级护栏、高壁垒、高转换成本及高留存率、帮派文化。
- Palantir 专注于数据整合,与大模型发展相结合,成为全球领头羊,具备军事级护栏。
- Palantir 面临 ToG 和 ToB 市场竞争,与老牌军工企业和 AIP 同行竞争。
- Palantir 产品项目制定制化,对客户关系要求高,需考验战略耐心。
「 早点趣玩 」
◇ AI 视频创作十八法:超级工具合集让你轻松创作各种形式的视频! 🔗 News
文章整理了各种生成短视频的方法和工具,点击链接阅读对应教程。包含:
- 图片转视频双雄:Runway Gen-2 和 AI 图片工具 Midjourney。
- 文字生成视频三强:Runway Gen-2、Pikalabs 和 Zeroscope。
- 使用 Midjourney 的 Vary、Pan、Zoom Out 功能制作视频。
- 使用其他 AI 软件创作视频:Runway frame interpolation、Wonder Studio、Stable Diffusion 等。
◇ 眼镜内置字幕 🔗 Twitter
使用 Whisper 等语音转文本 API,更改语言将是最简单的部分。
◇ 用好 ChatGPT | 为什么要在 ChatGPT 里面实现分析超长文本、上传并分析特定文件 🔗 Twitter
- 免费使用
- 方便自定义 prompt
- 就在手边,不需要再打开新的工具
- 数据直接发到 OpenAI,不经过中间人
◇ AI 实时测谎仪, LiarLiar-AI 🔗 News
LiarLiar 是一款尖端的人工智能工具,能够在视频通话和视频分析过程中检测谎言和心率波动。易于使用并与所有流行的视频平台兼容。LiarLiar 使用计算机视觉神经网络模型来捕捉人的面部和身体动作,包括眼睛注视方向,甚至可以通过监测额头微动来确定一个人的心跳。利用数学将心理学转化成数字,并通过"真实度计"来综合所有因素,判断一个人是否说谎。
「 技术阅读 」
◇ 模块架构解析:一图带你了解 LangChain 的内部结构 🔗 Twitter
LangChain (JS) Modules Overview v0.2.0 released for npm:langchain@0.0.114.
- feat: introduce agents and callbacks
- fix: correct some data flow arrows
◇ Meta ****AI 公布了有关 Llama 2 架构、训练计算、微调方法等更多细节 ****🔗 Twitter
论文发布了关于 Llama 2 架构、训练计算和微调方法的详细信息,使社区能够以其为基础,并为 LLMs 的负责任发展做出贡献。Llama-2 具备在 GPU 或 CPU 上本地运行,并支持不同规模和硬件的推理。
paper: 《Llama 2: Open Foundation and Fine-Tuned Chat Models》
◇ 一文读懂 Transformer:Transformer 神经网络 架构的整体指南 🔗 News
Transformer 模型是一种神经网络架构,于 2017 年提出,革命性地影响了深度学习和计算机科学。它成功应用于序列到序列建模,克服了其他神经网络架构的局限性。关键词解读:
- MLPs (多层感知器) 一种经典神经网络方法,使用广泛但不适合序列建模,因为无法保留序列中信息的顺序。
- CNN(卷积神经网络)对于图像和模式处理非常成功,但不适用于序列建模,因为无法处理可变长度的数据。
- RNN(循环神经网络) 能够处理序列,但对于长序列可能不稳定,而且无法并行化。
- Transformer 是一种能够处理序列数据的神经网络架构,不使用循环或卷积层,其核心是 Attention 机制。
- Transformer 包含编码器和解码器两个部分,多层感知器 (MLP) 是其中一个基本层。
◇ 什么是 AI 的"智能涌现",以及为什么理解它对创业者、从业者、普通人都价值巨大 🔗 News
本文介绍了 AI 大模型中的智能涌现现象,通过图像实验演示了涌现的过程和阈值,并强调
- 对创业者:理解涌现有助于看清 AI 发展前景和终局思维的重要性。
- 对从业者:理解涌现可帮助指引 AI 工作并理解 AI 能力的本质。
- 对所有人:通过涌现的理解,拥有更好的预判力和适应 AI 时代的能力。
◇ 简单微调 Llama 2 指南 🔗 News
本指南展示如何将 Llama 2 微调为对话摘要器,并介绍使用 Huggingface 库在 samsum 对话摘要数据集上的微调步骤。
- 📚 首先,下载模型克隆 Meta 的 Llama 推理存储库:git clone github.com/facebookres... download.sh,以获取 7B 模型。
- 🔄 接着,将模型转换为 Hugging Face 格式,执行以下命令:
rubywget https://raw.githubusercontent.com/huggingface/transformers/main/src/transformers/models/llama/convert_llama_weights_to_hf.py pip install git+https://github.com/huggingface/transformers pip install -e . python convert_llama_weights_to_hf.py \ --input_dir llama-2-7b --model_size 7B --output_dir models_hf/7B
💻 运行微调笔记本的步骤:
- 克隆 Llama-recipies 存储库:git clone github.com/facebookres...
- 打开 quickstart.ipynb 文件并运行整个笔记本,确保更改模型路径为转换后的模型路径。
🧠 对微调后的模型进行推理的步骤:
- 导入所需库:import torch, from transformers import LlamaForCausalLM, LlamaTokenizer, from peft import PeftModel, PeftConfig
- 加载分词器和模型:tokenizer = LlamaTokenizer.from_pretrained(model_id),model = LlamaForCausalLM.from_pretrained(model_id, load_in_8bit=True, device_map='auto', torch_dtype=torch.float16)
- 从训练后保存的位置加载适配器:model = PeftModel.from_pretrained(model, "/root/llama-recipes/samsungsumarizercheckpoint")
- 运行推理并生成对话摘要。
「 招聘信息 」
HC 曝光,简历投递可联系小助手(wx:wongmicky)
- 早早聊 AGI HC 文档:AGI 早早聊招聘内推坑位表
- 早早聊 AGI 招聘内推群,欢迎大家相互勾搭
「 讲师招募 」
2023 年 8 月 26 日,早早聊计划举办线上【前端搞构建】专场
📃 讲师报名,可联系早早聊负责人 Micky (wx:wongmicky)
🎙️ 可以聊聊:各类跨端、跨栈构建解决方案、构建的难点与挑战、Bundle 与 Bundleless 构建工具、本地/远程/上云构建方案、工程体积与构建性能、模块标准与模块规范、基于服务/浏览器的构建、分发等...
🎁 讲师福利,一次分享,即可享受:
- 永久免费与会前端早早聊大会
- 免费参与早早聊举办的酒蒙子局,认识更多技术人、创业人、AI 同行者
- 线上招聘,社区优先简历内推
- 还有更多等你来解锁...