天天看点

清华大学NLP实验室刘知远教授组:预训练语言模型方向博士后

作者:PaperWeekly

清华大学自然语言处理实验室

自2018年以来,以ELMo、BERT和GPT为代表的预训练模型成功激活了深度学习技术利用大量未标记数据的能力,实现了模型规模和模型性能的持续增长,成为人工智能和深度学习的最新革命性突破,也是自然语言处理的重要前沿研究课题。清华大学自然语言处理实验室在预训练语言模型方面有较多的研究和积累,包括与华为、腾讯等机构ERNIE、KEPLER、ERICA等机构共同开发的融合知识预训练模型,以及以汉语为核心的大型预训练语言模型的"CPM-1"CPM-2,以及"高效大规模预训练语言模型"CPM-2, 由北京致远人工智能研究所在五道文源的支持下开发。

清华大学NLP实验室刘知远教授组:预训练语言模型方向博士后

我们的师生团队专注于培训前培训模式,对前沿问题进行微调、推理和应用。现在因为需要科研项目招收博士后,联合开展前期培训模式的前沿研究和应用探索,欢迎有自然语言处理等方面研究经验的青年学者加盟。

有关预训练语言模型的基本简介,请参阅概述:

预先训练的模型:过去,现在和未来。

https://arxiv.org/abs/2106.07139

共同导师

清华大学NLP实验室刘知远教授组:预训练语言模型方向博士后

刘志远,清华大学计算机系副教授、博士生导师。主要研究方向是表现学习、知识图谱和社会计算。他于2011年获得清华大学博士学位,并在人工智能领域的领先国际期刊和会议上发表了100多篇论文,如ACL,EMNLP,IJCAI,AAAI,以及Google Scholar的14,000多个参考文献。曾获教育部自然科学一等奖(二等奖)、中国中文信息学会钱伟昌中国一等奖、信息处理科学技术奖二等奖、中国信息学会汉王青年创新奖,并入选国家人民计划优秀青年人才, 北京致远研究院青年科学家,2020年爱思唯尔中国高被引学者,中国科学青年才俊。他是中国信息社会青年工作委员会主任,中国信息社会社交媒体处理委员会秘书长,ACL,EMNLP,WWW,CIKM,COLING FIELD主席。

首页: http://nlp.csai.tsinghua.edu.cn/~lzy/

电子邮件: [email protected]

1、获得国内外知名大学学位后3年内,或应届博士毕业(视学位论文答辩要求而定)3年内全日制博士,年龄在35岁以下(不含);

2、自然语言处理、高性能计算、机器学习等相关领域发表的高层次论文者优先,主持或参与过特定项目者优先;

3、思维活跃,创新能力强,技术创新和研发热情强。;

4、责任心强,有良好的团队合作意识。

1、工资、保险等应当按照国家和清华大学的博士后管理办法实施;

2、可申请清华区博士后公寓或享受租房补贴;

3、解决儿童入学和入学问题;

4. 推荐各种博士后支持项目的申请,包括清华大学的博士后科学基金计划、博士后创新人才支持计划、博士后对外交流计划和沃特伍德学者支持计划。欲了解更多信息,请查看清华大学博士后网站:

http://postdoctor.tsinghua.edu.cn/

配送方式

[email protected]

请在电子邮件主题中注明您的姓名和"申请预培训模型指导博士后"。该材料由首次候选人面试(面试时间另行通知),然后经过清华大学的博士后申请流程。

继续阅读