请体验一下falcon 180b 大语言模型的感觉引言 由Technology Innovation Institute(T四训练的开源大模型Falcon 180B登陆Hugging Face!Falcon180B为开源大模型树立了全新的标杆。作为当前最大的开源大模型,有l80B参数并且是在在3.5万亿token的TII RefinedWeb数据集上进行训练,这也是目前开源模型里最长的单波段预训练。 你可以在Hugging Face Hub中查阅其基础模型、聊天模型,以及其Space应用。 从表现能力上来看,Falcon180B在自然语言任务上的表现十分