哄哄模拟器:现象级爆款+1;音视频转录翻译神器MemoAI;AI新手战地生存手册;LLM技术年货下载;大模型微调概述;AI大模型挑选指南 | ShowMeAI日


👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!

🉑 哈佛神课 CS50 「AI课堂」经验分享,让万能的AI仅仅授之以渔

哈佛大学 CS50 全称是 Introduction to Computer Science (计算机科学导论),是一门非常知名的计算机入门课程,在 David J. Malan 教授的讲解下,课堂妙趣横生。

本学期已经结束,官方将视频、Note、作业、项目、社区、常见问题等课程相关资料,都发布在了 👆 上方官网,无需注册就可以直接下载~

cs50.ai/

补充一份背景:几个月前,ChatGPT 风靡全球、势头正劲的时候,诸多高校对其「严防死守」,防止学生借助AI偷工减料。哈佛却宣布在 CS50 课堂引入最近技术,探讨生成式AI与教育的结合

作为探索AI与课堂融合的产品之一,CS50 Duck (CS50.ai 和 VS 插件) 是 CS50 课程推出的一个编程辅助工具CS50.ai 网站可以通过 GitHub 账号授权登录并免费使用。

不同于 ChatGPT 或 GitHub Copilot 直接给大段代码,CS50 Duck 更像是一位循循善诱的助教,尝试引导你去寻找答案

如 👆 上图所示,CS50.ai 的使用限制机制是 ♥ 的数量,每次开始有10个 ♥,每次互动消耗一个,每三分钟恢复一个

课程明确规定,学习过程中只允许使用 CS50 课内提供的AI工具 ,不能借助其他的生成式AI工具,有效避免了AI带来的学术诚信危机。学生们的正向反馈也表明,谨慎地将AI整合到教育环境中,通过提供持续的、定制化的支持来增强学习体验,是一种更科学的教育方式。

cs.harvard.edu/malan/publi...

ShowMeAI知识星球资源编码:R226

课程助教和讲师团队发布报告「Teaching CS50 with AI: Leveraging Generative Artificial Intelligence in Computer Science Education (在计算机科学教育中利用生成式人工智能)」,完整阐述了这次探索的背景、动机、解决方案、实施细节,以及下一步开发规划。

👀 一站式「音视频 ↔ 文字」处理软件 MemoAI,好用到停不下来 (内测免费)

memo.ac/

补充一份背景:Memo AI 是一款音视频转文字的AI工具,目前内测中,非常好用!!

Memo AI 可以根据上传的音视频文件/链接,生成带时间轴的字幕还支持字幕的细颗粒度翻译、编辑和导出 。而且,如 👆 上图所示,Memo AI 还能直接生成思维导图、对话和笔记 ,快速 get 内容要点 (视频&播客必备功能项)!以及,还可以根据字幕合成语音!!支持模型、语言、发言人、语速等设置~

整体来说,我们「音视频 → 文字 → 音视频 」的处理需求,可以在这里一站式完成,而且体验和效果都很不错!

Memo AI 目前是内测状态,访问上方网址并点击「内测码申请 」,可以免费获取内测码

跟随教程页下载 windows / macOS 应用,本地安装后输入上方领取的内测码,就可以立即开启使用啦~

上传本地音/视频文件,或者上传 YouTube / Apple Podcast 链接,就可以开始转写,并等待系统生成带时间轴的字幕

Memo AI 提供了丰富的设置选项,基本可以满足从简单到高精度定制的各种需求

例如,在「翻译设置」选项中可以从微软、谷歌、百度、腾讯、智谱、火山、DeepL、OpenAI 等集成的第三方服务中进行选择,并完成对应的 API Key 的配置。

以及,「模型管理」部分提供了丰富的候选模型,有支持多种语言、仅支持英语两大类,可以自由选择所需要的类型。

更多功能可以下载后自行探索呀 (* ̄3 ̄)╭

🉑 24小时 / 60万用户 / 2000万次对话,哄哄模拟器火了,开发者却想哭

hong.greatdk.com/链接在浏览器中打开,因为时不时会被腾讯封)

上周五,一款AI应用「哄哄模拟器」突然就火了。

玩法很简单:用户选择题目后,在限定次数内哄好对方,获得原谅就算成 功。但是!应用设置了数值系统,回答正确就加分,回答错误则减分,所以还是很有挑战的~

C.AI 这些角色扮演的聊天类应用相比,哄哄模拟器设计了更具体的场景,因此有了更多「要完成任务」的紧迫感,和「终于哄好了」的胜利体验 😀

为了增加体验感,网页还支持上传对方和自己的头像!!一下子真实感就扑面而来~ 已经开始严阵以待 (๑•̀ㅂ•́)و✧

web.okjike.com/originalPos...

补充一份背景:突然的爆火把开发者都给搞懵了,到处找这么大的流量是哪里来的,以及 token 真的好贵...

流量暴增 → token账单爆炸 → 寻找外部支持 → 链接被腾讯封锁 → 流量迅速减少 → 链接恢复访问 → ...... 开发者 @王登科 度过了跌宕起伏的三天。

这款「哄哄模拟器」的诞生和爆火都非常意外,由此导致的大模型 token 消耗更是一度刷报账单 😭 幸好找到了外部支持,有效支撑住了这波流量。开发者在这篇文章中 ⋙ 详细复盘了完整始末

值得一提的是,这次 月之暗面 又出手了,给开发者提供了最亟需的支持 ⋙ 让我们说:感谢Kimi!

为什么说「又」呢?因为上一款意外爆火的小游戏 ⋙ 完蛋!我被LLM包围了! 也是短时间内巨量 token 消耗给开发者带来巨大的压力,最终也是由 Kimi 提供的支持~

嘶... 好像发现了什么规律...

🉑 以 Perplexity 为例,讲解AI应用的「UX 设计」要达到什么水准

mttmr.com/2024/01/10/...

补充一份背景:Perplexity 是目前首屈一指的AI搜索引擎 ,可以根据用户输入的问题,直接输出结构化的结果,包括来源链接、明确答案和相关问题等 。往期这篇日报详细介绍了 Perplexity的发展历程

当前生成式AI产品与用户的交互方式,还停留在对话框这种早期阶段,但是各产品之间已经拉开身位。Perplexity 的用户体验 (UX) 设计,值得被点名表扬,简约清晰、可用性强,而且极富新时代的AI感!

这篇文章就对照 Jakob Nielsen 提出的十大可用性原则,详细拆解了 Perplexity 的 UX 设计细节,开发者们可以学起来了!!

Jakob Nielsen,人机交互学博士,1994年4月24日发表的「十大可用性原则」对于交互设计来说意义重大,可以提升整个产品的可用性

  1. 系统状态的可见性 (Visibility of System Status):设计应始终让用户了解正在发生什么,通过适当的反馈在合理的时间内告知用户

  2. 用户语言的设计 (Match Between System and the Real World):使用用户熟悉的词汇、短语和概念,而不是内部行话

  3. 用户控制和自由 (User Control and Freedom):用户经常因误操作而执行某些动作,他们需要一个明确标记的「紧急出口」,以便在不经过延长过程的情况下离开不希望的动作

  4. 一致性和标准 (Consistency and Standards):用户不应怀疑不同的词语、情况或动作是否意味着相同的事情

  5. 错误预防 (Error Prevention):良好的错误消息很重要,但最好的设计是首先防止问题发生;要么消除易出错的条件,要么在用户承诺行动之前检查它们,并呈现确认选项

  6. 识别而非回忆 (Recognition Rather than Recall):通过使元素、动作和选项可见,最小化用户的记忆力负担

  7. 灵活性和效率的利用 (Flexibility and Efficiency of Use):对于新手用户隐藏的快捷方式可以加快专家用户的交互速度,这样设计就可以同时满足新手和经验丰富的用户

  8. 美学和极简设计 (Aesthetic and Minimalist Design):界面不应包含无关或很少需要的信息,界面中的每个额外信息单元都会与相关信息单元竞争,并降低它们的相对可见性

  9. 帮助用户识别、诊断和恢复错误 (Help Users Recognize, Diagnose, and Recover from Errors):错误消息应以平实的语言(没有错误代码)表达,准确指出问题,并建设性地提出解决方案

  10. 帮助和文档 (Help and Documentation):最好是系统不需要任何额外的解释,然而可能需要提供文档来帮助用户了解如何完成任务

👀 AI大模型购买指南:教你挑选「性价比最高」的模型和供应商

artificialanalysis.ai/

这个网站很实用哇!基于数据进行了大量分析和可视化 呈现,帮你搞懂各个大模型的性能排名和价格数据,并给出了详细的解释。以下是页面的模型亮点比较,感兴趣可以访问 👆 上方链接了解详情!

质量 vs. 吞吐量,价格 (Quality vs. Throughput, Price)

能力比较 (Quality comparison by ability)

托管提供商亮点比较 (Host comparison highlights)

定价:输入和输出价格 (Pricing: Input and Output prices)

所有模型列表,以及每个模型的具体信息呈现页面

👀 技术科普短文:大模型微调 (LLM fine-tuning) 概述

modal.com/blog/llm-fi...

这是一篇「技术科普 」小短文,非常清晰地介绍了大语言模型微调 (fine-tuning) 的基本概念和主要步骤~

简单来说,微调就是调整预训练模型的权重,使其更好地适应特定任务或领域,从而提高模型性能。

为什么要微调 LLM

  • 成本效益:微调比简单的提示工程更有效、更高效,可以减少输入 token 的使用,降低成本和延迟

  • 常见用例 :微调适用于强调基础模型的固有知识定制响应的结构或风格教授模型领域特定指令

微调步骤

  1. 选择基础模型:选择适合的开源 LLM,如 Llama 2、Pythia、Mistral 等

  2. 准备数据集:创建与任务相关的数据集,包括输入和输出对,并将其格式化为 JSONL 或 CSV 文件

  3. 训练:加载预训练模型,使用数据集进行训练,并调整超参数,如学习率、批大小和训练周期

  4. 使用高级微调策略:如 Parameter-Efficient Fine-Tuning (PEFT)、量化(Quantization)和分布式训练

  5. 使用额外的微调库

  • trl:允许实现强化学习循环,根据生成的输出奖励模型

  • accelerate:简化了在多个 GPU 或 CPU 上运行模型的过程

🉑 我和AI并肩作战后,总结了一份新手战地生存手册

medium.com/unintended-...

这是一份如何与AI合作 的操作指南,可以帮助人类理解AI的运作方式,避免在各种危险情况犯错或者支付高昂代价

AI是听人类指令的战友。为了保持职场和社会竞争力 ,我们应该更快速地切换到AI指令长、AI操作员的角色。

  • 你是驾驶员,而非修车工:不要对AI的工作原理或训练过程做无根据的假设,调试AI与驾驶它不是一回事

  • 症状与根源大相径庭:AI系统中的错误可能在系统的另一端才能被诊断出来,症状与根源往往相距甚远

  • 别给你的模型赋予人格:不要给模型强加个性,这会导致对模型行为的错误假设

  • 模型也有保质期:如果不定期重新训练,模型的性能会下降,这种现象称为「漂移」

  • 外推并非易事:机器学习模型在未见过的数据区域往往表现不佳,因为它们没有被训练来处理这些情况

  • 区分定性与定量错误:AI的失败与人类的失败截然不同,AI擅长处理数字,而人类则依赖经验

  • AI严格按照训练执行:如果模型在训练中表现优异,但在实际预测中表现不佳,可能是因为训练目标与预测目标不一致

  • 数据中的偏见会反映在AI上:模型会复制数据中的偏见,需要平衡数据中的各类别比例

  • 不要篡改输入或输出:篡改输入或输出可能导致不良后果,尤其是输入,因为模型只认识它见过的输入模式

  • 模型串联的风险:串联多个模型会增加系统故障的风险

  • 串联模型的错误会指数级增长:即使单个模型准确率很高,串联使用时准确率会大幅下降

  • 保持模型间合同的一致性:在使用串联模型时,确保模型间的合同得到妥善记录和执行

  • 对AI负责:AI不会自我监管,使用AI并不意味着可以逃避责任

  • 关注训练频率和数据延迟:AI通常有「训练」和「推理」两种模式,新数据需要经过训练才能影响模型的预测

  • 建立防护措施:不要让AI在无人监督的情况下做决策,设定合理的预期结果界限

  • 在流程中设置理智检查:不要仅依赖单一的性能指标,确保流程中的每个组件都正常运作

🉑 OneFlow 大模型技术年货:60+精选文章,800页电子手册

ShowMeAI知识星球资源编码:R219
补充一份背景:OneFlow (一流科技) 是袁进辉在2017年创立的深度学习框架公司,2023年被光年之外收购,后并入美团

最近一年,OneFlow 一直在公众号发布大模型「硬核」技术文章,近期将这些文章整理为一本电子书合集,并开放下载。以下是文章标题,如果有感兴趣的内容,可以扫描上方二维码,前往星球下载完整版。

一、揭秘 ChatGPT 的技术原理

  1. 语言大模型的进化轨迹

  2. 揭秘编码器与解码器语言模型

  3. 通俗解构语言大模型的工作原理

  4. 揭示 GPT Tokenizer 的工作原理

  5. ChatGPT 数据集之谜

  6. ChatGPT 训练三阶段与 RLHF 的威力

  7. 向量嵌入:AutoGPT 的幻觉解法?

  8. GPT-3/ChatGPT 复现的经验教训

  9. 为什么 ChatGPT 用强化学习而非监督学习?

  10. 谷歌研究科学家:ChatGPT 秘密武器的演进与局限

  11. ChatGPT 作者 John Shulman:我们成功的秘密武器

  12. ChatGPT 背后的经济账 154

二、语言大模型的演进

  1. 语言大模型 100K 上下文窗口的秘诀

  2. 大模型的无限上下文与数据集组合艺术

  3. 大模型长上下文运行的关键问题

  4. 关于大型语言模型的争论和局限

  5. 关于语言大模型的八大论断

  6. 复杂推理:语言大模型的"北极星"能力

  7. 超越 ChatGPT:大模型的智能极限

  8. ChatGPT 架构师:语言大模型的多模态能力、幻觉与研究经验

  9. John Schulman:强化学习与真实性,通往 TruthGPT 之路

  10. AI 教父 Geoffrey Hinton:智能进化的下一个阶段

三、开源语言大模型的崛起

  1. ChatGPT 一周年:开源语言大模型的冲击

  2. 开源语言大模型演进史 (1):早期革新

  3. 开源语言大模型演进史 (2):高质量基础模型竞赛

  4. 开源语言大模型演进史 (3):向 LLaMA 2 看齐

  5. 为什么开源语言大模型很重要?

  6. 开源语言大模型的正确姿势

四、语言大模型的预训练、微调、推理

  1. 语言大模型的分布式训练与高效微调指南

  2. 全面对比 GPT-3.5 与 LLaMA 2 微调

  3. 微调语言大模型选 LoRA 还是全参数?基于 LLaMA 2 的深度分析

  4. LoRA 和 QLoRA 微调语言大模型:数百次实验后的见解

  5. LoRA 微调语言大模型的实用技巧

  6. 推演语言模型的大小与计算开销

  7. Transformer 模型的基础演算

  8. 大型语言模型的推理演算

  9. 语言大模型的推理技巧

  10. 迈向 100 倍加速:全栈 Transformer 推理优化

  11. 语言大模型推理性能工程:最佳实践

  12. 可复现的语言大模型推理性能指标

  13. ChatGPT 规模化服务的经验与教训

  14. OpenAI 的规模化经济效益与第二护城河

五、AI 底层软硬件协同优化

  1. GPU 架构与计算入门指南

  2. 机器学习硬件十年:性能变迁与趋势

  3. 编译器技术的演进与变革

  4. AI 算力碎片化:矩阵乘法的启示

  5. AI 算力反碎片化:世界上最快的统一矩阵乘法

  6. LLVM 之父 Chris Lattner:我的 AI 基础设施软件构建理念

  7. PyTorch 创始人:开源成功的方法论

  8. 英伟达的 AI 霸主地位会持久吗?

六、OpenAI 的通用人工智能洞察

  1. 从 0 到 1,OpenAI 的创立之路

  2. GPT-4 首席科学家:第二次改变 AI 浪潮的方向

  3. OpenAI 联合创始人:GPT 的研究起源和构建心法

  4. OpenAI 首席科学家:通向无监督学习之路

  5. GPT 总设计师:大型语言模型的未来

  6. OpenAI 首席科学家:直面 AGI 的可能性

  7. Sam Altman 的成功学

七、AI 的应用与未来

  1. Transformer 作者:指令型智能体的构建之法

  2. GPT-4.5 前瞻:代码解释器,编程新纪元

  3. ChatGPT 们的淘金时代

  4. ChatGPT,大增长时代的序幕

感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!

◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ 点击 🎡生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!

相关推荐
珠海新立电子科技有限公司2 小时前
FPC柔性线路板与智能生活的融合
人工智能·生活·制造
IT古董2 小时前
【机器学习】机器学习中用到的高等数学知识-8. 图论 (Graph Theory)
人工智能·机器学习·图论
曼城周杰伦2 小时前
自然语言处理:第六十三章 阿里Qwen2 & 2.5系列
人工智能·阿里云·语言模型·自然语言处理·chatgpt·nlp·gpt-3
余炜yw3 小时前
【LSTM实战】跨越千年,赋诗成文:用LSTM重现唐诗的韵律与情感
人工智能·rnn·深度学习
莫叫石榴姐3 小时前
数据科学与SQL:组距分组分析 | 区间分布问题
大数据·人工智能·sql·深度学习·算法·机器学习·数据挖掘
如若1234 小时前
利用 `OpenCV` 和 `Matplotlib` 库进行图像读取、颜色空间转换、掩膜创建、颜色替换
人工智能·opencv·matplotlib
YRr YRr4 小时前
深度学习:神经网络中的损失函数的使用
人工智能·深度学习·神经网络
ChaseDreamRunner4 小时前
迁移学习理论与应用
人工智能·机器学习·迁移学习
Guofu_Liao4 小时前
大语言模型---梯度的简单介绍;梯度的定义;梯度计算的方法
人工智能·语言模型·矩阵·llama
我爱学Python!4 小时前
大语言模型与图结构的融合: 推荐系统中的新兴范式
人工智能·语言模型·自然语言处理·langchain·llm·大语言模型·推荐系统