根据Github Trendings的统计,今日(2024-02-20统计)共有10个项目上榜。根据开发语言中项目的数量,汇总情况如下:
开发语言 | 项目数量 |
---|---|
Python项目 | 6 |
非开发语言项目 | 2 |
TypeScript项目 | 1 |
Rust项目 | 1 |
命令行的艺术
- 创建周期:3198 天
- Star数量:144791 个
- Fork数量:14212 次
- 关注人数:144791 人
- 贡献人数:151 人
- Open Issues数量:225 个
- Github地址:https://github.com/jlevy/the-art-of-command-line.git
命令行的艺术是一本综合指南,提供了关于使用命令行的笔记和技巧,涵盖了基础知识、日常使用、处理文件和数据、系统调试、一行命令、晦涩但有用的命令以及特定平台的技巧。它强调工程师在命令行上的流利程度对灵活性和生产力的重要性,并欢迎社区的贡献和修订。
稳定扩散Web UI
- 创建周期:526 天
- 开发语言:Python
- 协议类型:GNU Affero General Public License v3.0
- Star数量:119358 个
- Fork数量:23783 次
- 关注人数:119358 人
- 贡献人数:430 人
- Open Issues数量:1833 个
- Github地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
稳定扩散Web UI是基于Gradio库的浏览器界面,用于稳定扩散。
《Hello 算法》:动画图解、一键运行的数据结构与算法教程
- 创建周期:439 天
- 协议类型:Other
- Star数量:59897 个
- Fork数量:7318 次
- 关注人数:59897 人
- 贡献人数:132 人
- Open Issues数量:18 个
- Github地址:https://github.com/krahets/hello-algo.git
- 项目首页: https://hello-algo.com
《Hello 算法》是一本开源的数据结构与算法教程,采用动画图解和支持多种编程语言,旨在帮助新手轻松入门。读者可以通过一键运行的源代码进行练习,同时享受互助学习的机会。
跨平台ChatGPT/Gemini UI
- 创建周期:347 天
- 开发语言:TypeScript
- 协议类型:MIT License
- Star数量:60923 个
- Fork数量:52325 次
- 关注人数:60923 人
- 贡献人数:160 人
- Open Issues数量:198 个
- Github地址:https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web.git
- 项目首页: https://app.nextchat.dev/
一个跨平台的 ChatGPT/Gemini UI,允许用户轻松部署自己的聊天应用程序,具有紧凑的客户端、与自部署的LLMs兼容、注重隐私的数据存储、Markdown支持、响应式设计和国际化等功能。
少样本语音克隆的高质量TTS模型训练
- 创建周期:5 天
- 开发语言:Python
- 协议类型:MIT License
- Star数量:1779 个
- Fork数量:180 次
- 关注人数:1779 人
- 贡献人数:11 人
- Open Issues数量:32 个
- Github地址:https://github.com/RVC-Boss/GPT-SoVITS.git
该项目展示了如何使用仅1分钟的语音数据来训练高质量的文本到语音(TTS)模型,展示了少样本语音克隆。在提供的GitHub链接中有演示视频。
Magika: 深度学习文件类型检测工具
- 创建周期:181 天
- 开发语言:Python
- 协议类型:Apache License 2.0
- Star数量:2812 个
- Fork数量:126 次
- 关注人数:2812 人
- 贡献人数:5 人
- Open Issues数量:38 个
- Github地址:https://github.com/google/magika.git
- 项目首页: https://google.github.io/magika/
Magika是一种AI驱动的文件类型检测工具,利用深度学习准确检测文件类型。它采用自定义的、高度优化的Keras模型,可以在毫秒内精确识别文件。在超过100万个文件和100种内容类型的评估中,它实现了超过99%的精度和召回率,并且被Google大规模使用以提高用户安全性。
minbpe:LLM标记的字节对编码算法
- 创建周期:4 天
- 开发语言:Python
- 协议类型:MIT License
- Star数量:4034 个
- Fork数量:248 次
- 关注人数:4034 人
- 贡献人数:6 人
- Open Issues数量:4 个
- Github地址:https://github.com/karpathy/minbpe.git
项目'minbpe'提供了常用于LLM标记的字节对编码(BPE)算法的最小清晰代码。它包括两个标记器'BasicTokenizer'和'RegexTokenizer',以及一个'RegexTokenizer',它复制了GPT-4的标记化。该项目还包括一个脚本'train.py',用于在输入文本上训练标记器并将词汇保存到磁盘以进行可视化。
大世界模型(LWM)
- 创建周期:10 天
- 开发语言:Python
- 协议类型:Apache License 2.0
- Star数量:1282 个
- Fork数量:68 次
- 关注人数:1282 人
- 贡献人数:3 人
- Open Issues数量:14 个
- Github地址:https://github.com/LargeWorldModel/LWM.git
Large World Model (LWM) 是一个通用的大上下文多模态自回归模型。它是使用RingAttention在大量多样化的长视频和书籍数据集上训练的,可以进行语言、图像和视频的理解和生成。
具有Transformer的可扩展扩散模型(DiT)的官方PyTorch实现
- 创建周期:431 天
- 开发语言:Python
- 协议类型:Other
- Star数量:2682 个
- Fork数量:210 次
- 关注人数:2682 人
- 贡献人数:3 人
- Open Issues数量:34 个
- Github地址:https://github.com/facebookresearch/DiT.git
官方PyTorch实现的"具有Transformer的可扩展扩散模型"称为DiT。
zkSync Era: 以太坊的零知识证明扩展
- 创建周期:367 天
- 开发语言:Rust
- 协议类型:Apache License 2.0
- Star数量:1722 个
- Fork数量:1347 次
- 关注人数:1722 人
- 贡献人数:100 人
- Open Issues数量:75 个
- Github地址:https://github.com/matter-labs/zksync-era.git
zkSync Era是一个使用零知识证明来扩展以太坊的Layer 2 Rollup,旨在在不损害安全性或去中心化的情况下扩展以太坊。它兼容EVM,允许99%的以太坊项目在不重构或重新审计的情况下进行重新部署。zkSync Era还使用基于LLVM的编译器,最终将允许开发人员使用C++、Rust等流行语言编写智能合约。