Hugging Face: 代码生成模型的预训练和微调

和大家分享我们的机器学习工程师 Loubna Ben Allal 在 10 月上海 KubeCon 大会的主题演讲 📢 题目是: 代码生成模型的预训练和微调

演讲介绍了构建和训练大型代码模型比如: StarCoder 🌟 的幕后过程, 还探讨了如何使用开源库,包括 Transformers、datasets 和 PEFT 等。

相关推荐
The Open Group1 小时前
英特尔公司Darren Pulsipher 博士:以架构之力推动政府数字化转型
大数据·人工智能·架构
Ronin-Lotus2 小时前
深度学习篇---卷积核的权重
人工智能·深度学习
.银河系.2 小时前
8.18 机器学习-决策树(1)
人工智能·决策树·机器学习
敬往事一杯酒哈2 小时前
第7节 神经网络
人工智能·深度学习·神经网络
三掌柜6662 小时前
NVIDIA 技术沙龙探秘:聚焦 Physical AI 专场前沿技术
大数据·人工智能
2502_927161282 小时前
DAY 42 Grad-CAM与Hook函数
人工智能
Hello123网站3 小时前
Flowith-节点式GPT-4 驱动的AI生产力工具
人工智能·ai工具
yzx9910133 小时前
Yolov模型的演变
人工智能·算法·yolo
若天明4 小时前
深度学习-计算机视觉-微调 Fine-tune
人工智能·python·深度学习·机器学习·计算机视觉·ai·cnn
爱喝奶茶的企鹅4 小时前
Ethan独立开发新品速递 | 2025-08-19
人工智能