阿里通义千问开源 320 亿参数模型;文字和音频自动翻译成手语Hand Talk拉近人与人的距离

✨ 1: Qwen1.5-32B

Qwen1.5-32B是Qwen1.5系列中性能与效率兼顾的最新语言模型,内存占用低,运行速度快。

Qwen1.5-32B是Qwen1.5语言模型系列的最新成员,这个模型是基于先进的技术研发的,旨在提供一种既高效又经济的AI语言理解和生成工具。

Qwen1.5-32B是一款既高效又经济实惠的语言模型,适用于需要自然语言处理能力的多种场景。尤其对于那些追求成本效益、运行效率,同时又不愿牺牲太多性能的开发者和企业来说,Qwen1.5-32B提供了一个非常吸引人的选择。

地址:https://qwenlm.github.io/zh/blog/qwen1.5-32b/

✨ 2: Hand Talk

利用3D角色和人工智能将文字和音频自动翻译成手语的应用程序

Hand Talk是一个旨在促进交流和帮助学习美国手语(ASL)和巴西手语(Libras)的应用程序。它通过人工智能将文本和音频自动翻译为手语。该应用程序通过两个可爱的3D角色,Hugo和Maya,来引导用户学习手语,使得学习过程既实用又有趣。全球有超过4.66亿的聋人和听力受损的人,Hand Talk被联合国评为世界上最佳的社会应用程序之一,目标是通过技术和交流拉近人们之间的距离。

地址:https://www.handtalk.me/en/app/

✨ 3: Chinese-Tiny-LLM

专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练

Chinese-Tiny-LLM(简称CT-LLM)是一个专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练。这个模型使用了1,2000亿个token的语料库,包括8000亿个中文token、3000亿个英文token和1000亿个代码token。这种多语言混合的训练方法提高了模型对中文的处理能力,并且通过对齐技术进一步改进。在中文语言任务上,CT-LLM在CHC-Bench上展示出优秀的表现,并且通过SFT(Structured Fine-Tuning)也能够处理英文任务。这标志着开发LLM(大型语言模型)的方向开始着重考虑中文,拓展了训练方法论。

地址:https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM

✨ 4: VAR

北大发布新兴的图像生成方法

Visual Autoregressive Modeling (VAR) 是一种新兴的图像生成方法,它代表了生成式预训练模型(如GPT系列模型)在视觉生成领域的重要进步。VAR模型通过使用一种称为"下一尺度预测"或"下一分辨率预测"的方法,重新定义了对图像的自回归学习。这与传统的按照像素序列逐点预测的方法有所不同。

地址:https://github.com/FoundationVision/VAR

更多AI工具,参考国内AiBard123Github-AiBard123

相关推荐
go54631584656 分钟前
修改Spatial-MLLM项目,使其专注于无人机航拍视频的空间理解
人工智能·算法·机器学习·架构·音视频·无人机
还有糕手43 分钟前
西南交通大学【机器学习实验2】
人工智能·机器学习
jndingxin44 分钟前
OpenCV CUDA模块设备层-----在 GPU 上执行类似于 std::copy 的操作函数warpCopy()
人工智能·opencv·计算机视觉
weixin_377634841 小时前
【数据增强】精细化贴图数据增强
人工智能·目标检测·贴图
老A技术联盟1 小时前
超实用的Cursor使用技巧之案列分析-教你基于Cursor零代码开发一个chrome插件
人工智能·cursor
慧星云1 小时前
ComfyUI工作流 :一键换背景体验不同场景
人工智能
程序员的小马甲1 小时前
如何编写AI提示词
人工智能·程序员·产品经理
算家计算1 小时前
4 位量化 + FP8 混合精度:ERNIE-4.5-0.3B-Paddle本地部署,重新定义端侧推理效率
人工智能·开源
晓13131 小时前
OpenCV篇——项目(二)OCR文档扫描
人工智能·python·opencv·pycharm·ocr
小白狮ww1 小时前
VASP 教程:VASP 机器学习力场微调
人工智能·深度学习·机器学习