每人10万元,这13位青年人才获得2023年度字节跳动奖学金

一年一度,字节跳动奖学金计划「开奖」了。

2023 年 5 月,第三届「字节跳动 奖学金计划」正式发起,吸引了来自数十所高校、数百位国内优秀青年学子的报名申请。经过专家团队的初审、复审、终审等层层考核,共有 13 位同学凭借着卓越的学术成果和优异的个人实践,每人荣获 10 万奖学金。

今年的获奖者来自北京大学复旦大学清华大学 、上海交通大学、香港科技大学、浙江大学、中国科学技术大学(按学校拼音首字母排序)这 7 所国内高校,研究领域涉及机器学习 、生成式模型、自然语言处理 、智能媒体数据生成与编码等当前热门技术领域。

他们之中,有人是国际顶会的杰出论文获得者、高被引作者,有人是国产开源深度学习框架核心参与者、对话式大模型产品研发主导者,也有人是生成式 AI、AI4science 等前沿课题的早期探索者。

10月24日,2023 字节跳动奖学金颁奖典礼暨学术交流会活动在北京线下举行。

完整名单如下:

  • 常建慧 (北京大学
  • 董天 (上海交通大学)
  • 国孟昊 (清华大学
  • 黄融杰 (浙江大学)
  • 孔祥哲 (清华大学
  • 李云飞 (清华大学
  • 路橙 (清华大学
  • 孙天祥 (复旦大学
  • 汪子龙 (香港科技大学)
  • 袁牧 (中国科学技术大学)
  • 张博航(北京大学
  • 张心怡(北京大学
  • 朱琪豪(北京大学

*(按姓名首字母拼音排序,不分先后)

接下来,让我们看看本年度奖学金获得者都有哪些特别的经历和成果。
2023 年度获奖名单
常建慧

北京大学 视频与视觉技术国家工程研究中心 研究领域:智能媒体数据生成与编码 导师:高文、马思伟

常建慧目前是北京大学 计算机学院在读博士,曾获北京大学 优秀科研奖、三好学生、计算机学院斯伦贝谢奖学金等荣誉。

常建慧在图像视频编码领域的权威会议及期刊发表了学术论文 10 余篇,其中一作 5 篇,包括 T-IP、IJCV、ACMMM 等 CCF-A 类期刊会议,申请三项专利并全部授权,并担任期刊 IEEE T-C、T-IP、T-CSVT、ACL 等多个国际期刊与会议的审稿人。

针对主流的混合编码框架与全神经网络 编码在极低码率遭遇编码瓶颈,主观重构 质量差的问题,常建慧首次提出了一种结构 - 纹理分层的新型概念压缩框架,将视觉数据编码为紧凑的空间相关稀疏结构表示和空间无关纹理特征表示,并以深度合成方式解码。目前已经能够实现了超过千倍的极限压缩比,在相同主观质量下相比最新编码标准 VVC 能够实现 30% 至 59% 的码率节省。常建慧提出的编码方案已扩展至人脸及人体视频编码、三维数字人生成式压缩相关研究中,研究成果在 IJCV、TIP 等国际期刊会议上发表,并有三项专利获得授权。
董天

上海交通大学 网络安全与隐私保护实验室 研究领域:计算机安全、人工智能安全 导师:朱浩瑾

董天现为上海交通大学计算机系博士在读,主要围绕人工智能 领域里的安全、隐私与可信治理三方面开展研究。

安全方面,董天参与研究并提出了语言模型 的隐匿后门攻击,为进一步构建安全语言模型 服务打下基础,发表于安全四大顶会之一 CCS 2021 上,获得最佳论文提名奖(Best Paper Award Runner-up)。此外,董天首次揭示了一种针对边缘计算 中动态深度神经网络 的隐蔽后门威胁,为边缘计算人工智能 安全防护提供了新的视角,发表于网络顶会 INFOCOM 2023。

隐私方面,基于模型落地实际需求,董天发现数据集浓缩技术可以带来额外的隐私保障,为隐私边缘智能计算提供了新型解决方案,相关成果发表于机器学习 顶会 ICML 2022 上,并获得了杰出论文奖。

治理方面,针对云端模型确权过程中身份难确定的问题,董天提出了一种基于参数 碰撞概率分析的数据集与模型身份注册与审计框架,同时允许可信第三方对问题模型进行确权,可用于模型与数据集版权保护等场景,助力了负责任的人工智能 生态发展,相关成果发表于国际安全顶会 NDSS 2023。
国孟昊

清华大学 计算机系可视媒体研究中心 研究领域:计算机视觉计算机图形学、基础模型 导师:胡事民

国孟昊目前是清华大学 计算机系四年级博士生,在 IEEE TPAMI,ACM TOG,CVPR,NeurIPS,CVMJ 等多个国际期刊和会议上发表多篇论文,主要成果包括大核注意力机制 (Large kernel attention),外部注意力机制 (External attention)以及点云注意力机制 (PCT)等。

他曾获 CVMJ 2022 最佳论文奖,3 篇论文入选 ESI 高被引论文,2 篇论文入选热点论文,谷歌学术引用超过 2400 次,并担任 IEEE TPAMI、IJCV、IEEE TIP、CVPR、 ICCV、NeurIPS、ICLR 等多个国际期刊和会议的审稿人。

除此之外,国孟昊还积极参与开源社区的建设,不仅将自己的论文成果开源,还以核心成员的身份参与了中国高校第一个开源深度学习 框架计图(Jittor)的研发工作。目前,他参与的所有开源项目累积已超 7000 个 stars。
黄融杰 浙江大学 数字媒体与计算 (DCD) 实验室 研究领域:语音音乐生成模型,多模态语言处理 导师:赵洲

黄融杰目前是浙江大学数字媒体与计算 (DCD) 实验室在读硕士生,研究方向为语音音乐生成模型 、多模态语言处理等。

黄融杰参与的 NATSpeech、TransFace、Make-An-Audi o 等系列工作解决了非自回归生成、多模态语音翻译、开放域和多任务生成的难题。近年来,他在 NeurIPS/ICML/ICLR/ACL 等 A 类会议发表了十余篇文章,引用量超过 500,Github 星标 10k+。他长期担任 NeurIPS/ICML/ICLR/ACL 等顶会审稿人,2022 年 ICML 杰出审稿人。

在非自回归 NATSpeech 系列中,高泛化性 GenerSpeech 实现了对未见语者、情感、韵律的可泛化零样本迁移与高质量无监督风格建模,解决了高质量、可控性、可泛化的跨模态序列映射 问题;

在多模态同传的 TransFace 系列研究中,TranSpeech 建立非自回归 S2ST 模型,应对了非自回归翻译中的语言学 多峰性挑战。音视频 TranSpeech 则用视觉信息补充音频流,以提高系统的鲁棒性,开辟了口述、为档案电影配音的应用前景;

在开放域多任务系列中,文本到音频的生成系统 Make-An-Audi o 可将任意模态(例如文本、音频、图像、视频等)作为输入,输出开放域符合描述的音频音效;多任务生成模型 Audi oGPT 以 ChatGPT 充当负责对话与控制的大脑,语音基础模型协同以完成跨模态转换、以及音频 (语音、音乐、背景音、3D 说话人) 模态的理解、生成,能够完成超过 20 种多任务、多语言、多模态语言语音任务。
孔祥哲

清华大学 自然语言处理与社会人文计算实验室 研究领域:几何图学习,分子表征学习,分子生成,抗体设计 导师:刘洋

孔祥哲是清华大学 计算机科学与技术系博士生,目前主要的研究方向为 AI4science,包含几何图学习、分子表征学习 、分子生成、抗体设计等,在多个国际顶级会议(NeurIPS、ICLR 和 ICML 等)上发表过高水平论文,其中《Conditional Antibody Design as 3D Equivariant Graph Translation》获 ICLR 2023 杰出论文奖提名。

孔祥哲的研究对象大多是生物、化学等科学领域中三维空间的微观粒子(原子、分子等),在这类微观数据结构上开发符合物理世界对称性(例如 E (3) 空间等变性)的深度学习 模型,是他非常重要的研究方向。

在模型本身之外,孔祥哲致力于通过 AI4science 产生新的落地成果。例如,他认为 AI 的参与有望为药物研发带来新的范式,从而提升药物研发的效率和速度。同时,他也希望生成式 AI 强大的空间探索能力最终可以实现传统药物研发过程难以完成的困难靶点药物发现 (例如癌症、HIV 等疾病相关靶点以及跨膜靶点),在落地中寻找有价值的科研问题,在科研中推动落地的进程,连通科研和落地的闭环。
李云飞

清华大学 交叉信息研究院 研究领域:强化学习,机器人 导师:吴翼

李云飞是清华大学 交叉信息研究院博士生,主要研究内容是如何让机器人具有像人一样自主解决复杂任务的能力,从而更好地适应灵活多变的人类日常生活,从实验室和工厂来到现实生活。

在上述方向,李云飞提出了两条研究路径,一条是增强机器人探索到复杂策略的能力,另一条是复用机器人已有能力去解决新任务,以达到持续创新能力。截至目前,李云飞已在 ICLR, ICML, IROS, ICRA 等机器学习 、机器人领域顶级会议上发表相关研究成果近 10 篇。

在积累学术研究经验的同时,李云飞同样有着丰富的工业界实践经验。在与产业界公司的智能机械臂项目合作中,她可以在没有图纸的情况下探索出利用长短不一的物料搭建稳定的积木桥的策略,并在实机部署;此外她提出的主动简化任务再复用自我策略的强化学习 框架是第一个仅依赖二值化 奖励信号就能控制机械臂搭出 6 层积木塔的工作。

作为所在实验室最早研究机器人方向的学生,李云飞从头开始搭建了机械臂、足式机器人等软硬件设施,逐渐开发出了双臂 / 人机协同传接物品、开放域自然语言驱动的机械臂操作、四足机器人的双足动作等项目,未来还将继续研究如何让机器人更好地适应人的生活、更自然地与人交互。
路橙 清华大学 统计人工智能与学习组** 研究领域:机器学习 、深度生成模型 导师:朱军

路橙现在是清华大学 计算机系 TSAIL 组博士五年级学生,他的研究方向包括机器学习 、深度生成模型 及其在计算机视觉 和离线强化学习 中的应用,在 ICML/ICLR/NeurIPS 等国际顶会发表了多篇论文。

路橙很早就开始致力于扩散模型的研究,科研成果颇受瞩目,曾以一作身份发表多篇「明星」论文。他提出的无需额外训练的扩散模型加速采样算法 DPM-Solver 和 DPM-Solver++ 是目前扩散模型最主流的采样算法之一。该算法极大地提升了扩散模型的采样效率,仅仅需要 10 到 25 步就可以得到非常高质量的采样,且无需额外训练。

截至目前,DPM-Solver 已经在各大开源社区产生了广泛的影响,在 Github 获得了 1k+ Star,并被扩散模型主流库 Diffusers 支持。该算法是目前 Stable-Diffusion 的官方示例的默认采样算法,在 DreamStudio、StableBoost、Stable-Diffusion-WebUI 等各大 text-to-image 项目中也为公认的加速效果最好的算法。

一直以来,路橙积极探索扩散模型的基础理论和应用场景,在扩散模型的最大似然训练理论、加速采样、可控生成、跨域生成等方面发表了十余篇论文。
孙天祥 复旦大学 自然语言处理实验室 研究领域:自然语言处理 导师:黄萱菁、邱锡鹏

孙天祥现为复旦大学 计算机学院博士生,研究方向为自然语言处理 ,主要关注预训练语言模型 的知识增强、高效训练、动态推理、无梯度优化等研究方向。

2022 年初,孙天祥首次公开提出「语言模型 即服务」的概念,并开发了面向大规模语言模型 的黑箱优化方法,该方向后续被 MIT、UCB、CMU、Google Brain 等高校和科研机构引用和延续。

在最近的大模型浪潮中,孙天祥主导研发了 MOSS 系统,这是国内最早的对话式语言模型 之一和最早的多插件增强语言模型 之一,在 Github 获得 11K+ Star,在行业内也收获了极高的关注度。

他作为第一作者在 ICML, AAAI, ACL, EMNLP, NAACL, COLING 等国际顶级会议发表论文 10 余篇,据 Google Scholar 统计被引 1900 余次,曾获复旦大学 国家奖学金、复旦大学 学术之星、WAIC 云帆奖・明日之星等。
汪子龙

香港科技大学 智能网络与系统实验室 iSING Lab 研究领域:数据中心高性能网络与系统、硬件加速

导师:陈凯

汪子龙目前是香港科技大学计算机科学专业博士生,研究兴趣主要集中在数据中心高性能网络与系统以及硬件加速,专注于通过硬件和软件的方法来优化数据中心网络和云、AI 系统,主要分为高速网络和领域专用加速器两个方面。高速网络方面,汪子龙致力于为各种场景提供高性能的网络服务,包括高吞吐、低延迟,例如为数据中心云设计通用的 RDMA 网络,以及为 AI 集群定制芯片互联技术。针对领域专用加速器,能结合具体应用和系统的特点来做硬件加速优化。

在这些领域的研究中,汪子龙已取得多项重要成果,相关工作发表在 NSDI、SIGCOMM、OSDI 等顶级网络系统会议,如高速网络方面的 SRNIC(NSDI'23,高性能的、可拓展的 RDMA 网卡)、Tiara(NSDI'22,可拓展的、高效的数据中心网关系统)、Aeolus(SIGCOMM'20,最优化数据中心主动传输协议)以及领域专用加速器方面的 FAERY(OSDI'22,首个推荐召回加速器)。这些成果不仅在学术界引起了关注,同时也在工业界得到了落地,助力实际业务得到了进一步提升。
袁牧

中国科学技术大学 LINKE 实验室 研究领域:智能物联网 导师:李向阳

袁牧是中国科学技术大学博士生,研究主要围绕智能物联网场景中的模型推理系统,关注深度学习 模型在实际系统中如何提供低延迟、低功耗、高精度的推理服务。

针对视频智能分析系统中长期存在的带宽需求大、处理延迟高、资源占用多等效率低下问题,他研发了一系列模型推理优化技术,相关成果以第一作者论文在 ACM SIGCOMM / ACM MobiCom / IEEE TPAMI 等顶会和顶刊上发表,并作为项目主要学生负责人成功将相关技术落地应用于实际场景。

袁牧以第一作者发表过 CCF-A 类论文六篇,曾作为队长获得全国高校云计算 应用创新大赛 1500 余支队伍中的唯一特等奖。
张博航

北京大学 通用人工智能国家重点实验室** 研究领域:机器学习 导师:王立威

张博航现在是北京大学 五年级博士生,聚焦神经网络 表达能力这一机器学习 领域基础性问题,并以表达能力为指导来研究鲁棒学习、图学习、大语言模型 等领域的核心问题。博士期间,张博航在 NeurIPS、ICLR、ICML 上共发表 9 篇论文,均为(共同)第一作者,并有 3 篇论文入选口头报告。

在今年的国际顶会 ICLR 2023 中,张博航为一作的研究论文《Rethinking the Expressive Power of GNNs via Graph Biconnectivity》获得了会议最高奖项 ------ 杰出论文奖,该工作通过双连通性这一新颖的指标重新审视了图神经网络 的表达能力,并从理论上证明了距离信息与双连通性之间的密切关系,开创了图神经网络 表达能力领域的新研究方向。

目前,张博航还有一项代表性工作已入选 NeurIPS 2023 口头报告,该论文探究了大语言模型 中的「思维链提示」(CoT)这一常用技术背后的深层次机理,从理论上指出了 Transformer 模型在数学和推理能力上的本质缺陷以及「思维链提示」对提升相关能力的帮助。
张心怡

北京大学 数据与智能实验室 研究领域:自治数据库系统 导师:崔斌

张心怡现为北京大学 计算机学院博士研究生,重点关注了数据库 系统智能调优在生产环境中的关键问题,包括数据冷启动、安全隐患和高维优化等方面。已发表 10 篇 CCF-A 类论文,其中 5 篇是数据库 领域顶级会议的第一作者论文。

在研究生涯中,张心怡取得了多项突破,包括首个数据库 在线调优系统(SIGMOD 2022)、首个多模块数据库 调优框架(SIGMOD 2023)、基于元学习 的资源优化研究(SIGMOD 2021)。这些工作从不同角度提高了数据库 系统的性能和表现。

张心怡同样注重将科研成果应用于实际项目,设计并开发了工业界首个正式上线的数据库 智能调参系统。该系统在不同工作负载下实现了 13% 到 50% 的吞吐率提升,为企业和云服务提供商提供了重要的性能优化工具。核心技术成果于 SIGMOD 2021 会议上以第一作者身份发表。

张心怡的工作对自治数据库 系统研究做出了积极贡献,并为实际应用场景提供了创新性解决方案。
朱琪豪 北京大学 高可信软件技术教育部重点实验室 研究领域:程序自动生成、程序自动修复 导师:熊英飞

朱琪豪现为北京大学 计算机科学技术系博士生,他的研究兴趣在于软件工程与深度学习 的交叉领域,特别是研究程序编程语言的语言定义与神经网络 的融合。

在他看来,编程语言可以被看作一种具有特定语言定义的系统,相比于将其视为一种自然语言,这一概念更能准确、全面地理解代码的结构和语义信息。一直以来,朱琪豪都在努力探索这一核心信息,并基于此推动软件工程和深度学习 领域的发展,致力于发掘和利用这一关键信息,以推动软件工程和深度学习 领域的发展。

此前,朱琪豪的研究工作涉及将对程序语言定义的语法、类型、语义等约束信息设计了特定的神经网络 结构进行编码,分别发表于 ICSE、ESEC/FSE、ASE、IJCAI、AAAI 等国际会议上,并获得了杰出论文提名和杰出论文奖。

面向未来,朱琪豪希望将现有的语言定义编码技术与大型代码模型相结合,提出具备变革性的深度程序处理框架,进一步提高模型的泛化能力和对程序约束的理解能力,解决更多实际问题,为软件工程和深度学习 领域做出更多贡献。

2019 年,机器之心 曾经报道过朱琪豪参与的研究工作《A Grammar-Based Structural CNN Decoder for Code Generation》,这是首个成功用 CNN 解码器生成代码的工作,论文被 AAAI 2019 大会接收。团队将提出的新方法在《炉石传说》数据集上进行了测试,效果超过了此前各类业内最佳模型,引起了广泛讨论。
连续三年评选 32 位杰出青年人才被「看见」
字节跳动 奖学金计划设立于 2021 年,设立的初衷是帮助具有创新精神的科技人才用专业知识解决实际难题,用技术回馈社会、引领未来。目前,字节跳动 奖学金计划已经连续完成了三届评选,共有 32 位杰出的青年人才入选,受到了更多的关注。

该计划为每位获奖学生提供 10 万元人民币的资助基金。在奖学金的支持下,年轻的学子们可以获得新的科研项目费用、学术交流机会,让自己的才华和努力有了更进一步的发挥空间。除了现金奖励,每位奖学金得主还将获得「直通心仪技术部门面试」、「深度参与字节团队内部研讨」、「专属研学计划」等丰厚奖励。

在往届的字节跳动 奖学金得主中,有人选择了留在学界,成为新晋青年教师,做出了不俗的科研成果。也有人选择来到工业界,利用自己的研究积累创造出惊艳的落地成果。对于一部分奖学金得主来说,获奖是他们与字节跳动 结下深厚的「缘分」的起点,也让字节跳动 成为了他们在工业界求职的首选。

从今日头条首创的「信息流 + 推荐引擎」的模式开始,字节跳动 以业务场景驱动的技术创新方式与成果,一直以来不断体现在数款产品的更新迭代中,也渗透于技术产品与 ToB 业务场景的深度结合。

目前,字节跳动 技术团队在基础架构、人工智能 、安全、大数据技术 、音视频等领域持续创新。这些技术成果不仅在字节内部业务落地应用,也通过「火山引擎」平台为更多企业提供服务,助力业务的可持续增长。

更多字节跳动 奖学金项目资讯,欢迎登陆【字节跳动 校园合作官网】ur.bytedance.com/home

相关推荐
蚝油菜花16 天前
王炸!Anthropic 推出全新模型 Claude 3.5 Haiku,首发支持计算机使用功能!
人工智能·llm·资讯
三花AI18 天前
Playground V3:图形设计模型的文字处理新标杆
开源·资讯
万界星空科技1 个月前
万界星空科技MES系统与各大系统的集成
产品·运营·资讯
战场小包3 个月前
OpenAI动荡,将走向何方、GPT5或许将近、毒舌AI轻松破防网友、最新版 GPT-4o AI 模型得满分 | AGI掘金视界周刊第 4 期
人工智能·资讯
字节跳动开源3 个月前
字节跳动开源多云多集群管理引擎 KubeAdmiral v1.0.0 发布!
开源·github·资讯
战场小包3 个月前
AI视界周刊第 2 期:里程碑 Llama 3.1 开源、AI训AI,越训越傻、AI 搜索重燃战火
人工智能·资讯
栩栩云生3 个月前
[240726] Mistral AI 发布新一代旗舰模型 | Node.js 合并 TypeScript 文件执行提案
typescript·node.js·资讯
赵侠客4 个月前
使用Hutool要注意了!升级到6.0后你调用的所有方法都将报错
java·后端·资讯
栩栩云生4 个月前
[240706] 史蒂夫·乔布斯近40年前就预言了苹果智能 | Globalping 用于网络诊断和性能测试的命令行工具
命令行·apple·资讯
栩栩云生5 个月前
[240622] X-CMD 发布 v0.3.12: 引入 codeberg,增强传统命令,改善对 Elvish 和 Fish 支持
开源·命令行·资讯