阿里通义千问开源 320 亿参数模型;文字和音频自动翻译成手语Hand Talk拉近人与人的距离

✨ 1: Qwen1.5-32B

Qwen1.5-32B是Qwen1.5系列中性能与效率兼顾的最新语言模型,内存占用低,运行速度快。

Qwen1.5-32B是Qwen1.5语言模型系列的最新成员,这个模型是基于先进的技术研发的,旨在提供一种既高效又经济的AI语言理解和生成工具。

Qwen1.5-32B是一款既高效又经济实惠的语言模型,适用于需要自然语言处理能力的多种场景。尤其对于那些追求成本效益、运行效率,同时又不愿牺牲太多性能的开发者和企业来说,Qwen1.5-32B提供了一个非常吸引人的选择。

地址:https://qwenlm.github.io/zh/blog/qwen1.5-32b/

✨ 2: Hand Talk

利用3D角色和人工智能将文字和音频自动翻译成手语的应用程序

Hand Talk是一个旨在促进交流和帮助学习美国手语(ASL)和巴西手语(Libras)的应用程序。它通过人工智能将文本和音频自动翻译为手语。该应用程序通过两个可爱的3D角色,Hugo和Maya,来引导用户学习手语,使得学习过程既实用又有趣。全球有超过4.66亿的聋人和听力受损的人,Hand Talk被联合国评为世界上最佳的社会应用程序之一,目标是通过技术和交流拉近人们之间的距离。

地址:https://www.handtalk.me/en/app/

✨ 3: Chinese-Tiny-LLM

专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练

Chinese-Tiny-LLM(简称CT-LLM)是一个专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练。这个模型使用了1,2000亿个token的语料库,包括8000亿个中文token、3000亿个英文token和1000亿个代码token。这种多语言混合的训练方法提高了模型对中文的处理能力,并且通过对齐技术进一步改进。在中文语言任务上,CT-LLM在CHC-Bench上展示出优秀的表现,并且通过SFT(Structured Fine-Tuning)也能够处理英文任务。这标志着开发LLM(大型语言模型)的方向开始着重考虑中文,拓展了训练方法论。

地址:https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM

✨ 4: VAR

北大发布新兴的图像生成方法

Visual Autoregressive Modeling (VAR) 是一种新兴的图像生成方法,它代表了生成式预训练模型(如GPT系列模型)在视觉生成领域的重要进步。VAR模型通过使用一种称为"下一尺度预测"或"下一分辨率预测"的方法,重新定义了对图像的自回归学习。这与传统的按照像素序列逐点预测的方法有所不同。

地址:https://github.com/FoundationVision/VAR

更多AI工具,参考国内AiBard123Github-AiBard123

相关推荐
soulteary5 分钟前
使用 AI 辅助开发一个开源 IP 信息查询工具:一
人工智能·tcp/ip·开源·ip 查询
爱补鱼的猫猫10 分钟前
2、Bert论文笔记
论文阅读·人工智能·bert
起名字什么的好难1 小时前
conda虚拟环境安装pytorch gpu版
人工智能·pytorch·conda
18号房客1 小时前
计算机视觉-人工智能(AI)入门教程一
人工智能·深度学习·opencv·机器学习·计算机视觉·数据挖掘·语音识别
百家方案1 小时前
「下载」智慧产业园区-数字孪生建设解决方案:重构产业全景图,打造虚实结合的园区数字化底座
大数据·人工智能·智慧园区·数智化园区
云起无垠1 小时前
“AI+Security”系列第4期(一)之“洞” 见未来:AI 驱动的漏洞挖掘新范式
人工智能
QQ_7781329741 小时前
基于深度学习的图像超分辨率重建
人工智能·机器学习·超分辨率重建
清 晨2 小时前
Web3 生态全景:创新与发展之路
人工智能·web3·去中心化·智能合约
公众号Codewar原创作者2 小时前
R数据分析:工具变量回归的做法和解释,实例解析
开发语言·人工智能·python
IT古董2 小时前
【漫话机器学习系列】020.正则化强度的倒数C(Inverse of regularization strength)
人工智能·机器学习