阿里通义千问开源 320 亿参数模型;文字和音频自动翻译成手语Hand Talk拉近人与人的距离

✨ 1: Qwen1.5-32B

Qwen1.5-32B是Qwen1.5系列中性能与效率兼顾的最新语言模型,内存占用低,运行速度快。

Qwen1.5-32B是Qwen1.5语言模型系列的最新成员,这个模型是基于先进的技术研发的,旨在提供一种既高效又经济的AI语言理解和生成工具。

Qwen1.5-32B是一款既高效又经济实惠的语言模型,适用于需要自然语言处理能力的多种场景。尤其对于那些追求成本效益、运行效率,同时又不愿牺牲太多性能的开发者和企业来说,Qwen1.5-32B提供了一个非常吸引人的选择。

地址:https://qwenlm.github.io/zh/blog/qwen1.5-32b/

✨ 2: Hand Talk

利用3D角色和人工智能将文字和音频自动翻译成手语的应用程序

Hand Talk是一个旨在促进交流和帮助学习美国手语(ASL)和巴西手语(Libras)的应用程序。它通过人工智能将文本和音频自动翻译为手语。该应用程序通过两个可爱的3D角色,Hugo和Maya,来引导用户学习手语,使得学习过程既实用又有趣。全球有超过4.66亿的聋人和听力受损的人,Hand Talk被联合国评为世界上最佳的社会应用程序之一,目标是通过技术和交流拉近人们之间的距离。

地址:https://www.handtalk.me/en/app/

✨ 3: Chinese-Tiny-LLM

专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练

Chinese-Tiny-LLM(简称CT-LLM)是一个专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练。这个模型使用了1,2000亿个token的语料库,包括8000亿个中文token、3000亿个英文token和1000亿个代码token。这种多语言混合的训练方法提高了模型对中文的处理能力,并且通过对齐技术进一步改进。在中文语言任务上,CT-LLM在CHC-Bench上展示出优秀的表现,并且通过SFT(Structured Fine-Tuning)也能够处理英文任务。这标志着开发LLM(大型语言模型)的方向开始着重考虑中文,拓展了训练方法论。

地址:https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM

✨ 4: VAR

北大发布新兴的图像生成方法

Visual Autoregressive Modeling (VAR) 是一种新兴的图像生成方法,它代表了生成式预训练模型(如GPT系列模型)在视觉生成领域的重要进步。VAR模型通过使用一种称为"下一尺度预测"或"下一分辨率预测"的方法,重新定义了对图像的自回归学习。这与传统的按照像素序列逐点预测的方法有所不同。

地址:https://github.com/FoundationVision/VAR

更多AI工具,参考国内AiBard123Github-AiBard123

相关推荐
feifeigo12310 分钟前
基于DTW和HMM的语音识别仿真
人工智能·语音识别
永霖光电_UVLED31 分钟前
GlobalFoundries从台积电获得GaN技术许可
人工智能·神经网络·生成对抗网络
AKAMAI1 小时前
Forrester调研400位高级决策者,揭示AI应用未来
人工智能·云计算
KKKlucifer1 小时前
数据智能时代的安全困局与 AI 破局逻辑
人工智能·安全
Dm_dotnet1 小时前
Microsoft Agent Framework/C#:了解Workflows的几种不同模式
人工智能
Macbethad1 小时前
基于世界模型的自动驾驶控制算法
人工智能·机器学习·自动驾驶
带电的小王1 小时前
【AI大模型技术】4.预训练语言模型(PLMs,Pre-trained Langue Models);5.Transformers Tutorial
人工智能·语言模型·自然语言处理
搬砖者(视觉算法工程师)1 小时前
自动驾驶技术前沿:传感器技术
人工智能·自动驾驶
算法与编程之美2 小时前
探究pytorch中多个卷积层和全连接层的输出方法
人工智能·pytorch·深度学习·神经网络·cnn
Master_oid2 小时前
机器学习21:可解释机器学习(Explainable Machine Learning)(上)
人工智能·机器学习