阿里通义千问开源 320 亿参数模型;文字和音频自动翻译成手语Hand Talk拉近人与人的距离

✨ 1: Qwen1.5-32B

Qwen1.5-32B是Qwen1.5系列中性能与效率兼顾的最新语言模型,内存占用低,运行速度快。

Qwen1.5-32B是Qwen1.5语言模型系列的最新成员,这个模型是基于先进的技术研发的,旨在提供一种既高效又经济的AI语言理解和生成工具。

Qwen1.5-32B是一款既高效又经济实惠的语言模型,适用于需要自然语言处理能力的多种场景。尤其对于那些追求成本效益、运行效率,同时又不愿牺牲太多性能的开发者和企业来说,Qwen1.5-32B提供了一个非常吸引人的选择。

地址:https://qwenlm.github.io/zh/blog/qwen1.5-32b/

✨ 2: Hand Talk

利用3D角色和人工智能将文字和音频自动翻译成手语的应用程序

Hand Talk是一个旨在促进交流和帮助学习美国手语(ASL)和巴西手语(Libras)的应用程序。它通过人工智能将文本和音频自动翻译为手语。该应用程序通过两个可爱的3D角色,Hugo和Maya,来引导用户学习手语,使得学习过程既实用又有趣。全球有超过4.66亿的聋人和听力受损的人,Hand Talk被联合国评为世界上最佳的社会应用程序之一,目标是通过技术和交流拉近人们之间的距离。

地址:https://www.handtalk.me/en/app/

✨ 3: Chinese-Tiny-LLM

专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练

Chinese-Tiny-LLM(简称CT-LLM)是一个专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练。这个模型使用了1,2000亿个token的语料库,包括8000亿个中文token、3000亿个英文token和1000亿个代码token。这种多语言混合的训练方法提高了模型对中文的处理能力,并且通过对齐技术进一步改进。在中文语言任务上,CT-LLM在CHC-Bench上展示出优秀的表现,并且通过SFT(Structured Fine-Tuning)也能够处理英文任务。这标志着开发LLM(大型语言模型)的方向开始着重考虑中文,拓展了训练方法论。

地址:https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM

✨ 4: VAR

北大发布新兴的图像生成方法

Visual Autoregressive Modeling (VAR) 是一种新兴的图像生成方法,它代表了生成式预训练模型(如GPT系列模型)在视觉生成领域的重要进步。VAR模型通过使用一种称为"下一尺度预测"或"下一分辨率预测"的方法,重新定义了对图像的自回归学习。这与传统的按照像素序列逐点预测的方法有所不同。

地址:https://github.com/FoundationVision/VAR

更多AI工具,参考国内AiBard123Github-AiBard123

相关推荐
EkihzniY4 小时前
AI+OCR:解锁数字化新视界
人工智能·ocr
东哥说-MES|从入门到精通4 小时前
GenAI-生成式人工智能在工业制造中的应用
大数据·人工智能·智能制造·数字化·数字化转型·mes
铅笔侠_小龙虾5 小时前
深度学习理论推导--梯度下降法
人工智能·深度学习
kaikaile19955 小时前
基于遗传算法的车辆路径问题(VRP)解决方案MATLAB实现
开发语言·人工智能·matlab
lpfasd1235 小时前
第1章_LangGraph的背景与设计哲学
人工智能
Aevget5 小时前
界面组件Kendo UI for React 2025 Q3亮点 - AI功能全面提升
人工智能·react.js·ui·界面控件·kendo ui·ui开发
桜吹雪6 小时前
LangChain.js/DeepAgents可观测性
javascript·人工智能
&&Citrus6 小时前
【杂谈】SNNU公共计算平台:深度学习服务器配置与远程开发指北
服务器·人工智能·vscode·深度学习·snnu
乌恩大侠6 小时前
Spark 机器上修改缓冲区大小
人工智能·usrp
STLearner6 小时前
AI论文速读 | U-Cast:学习高维时间序列预测的层次结构
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘