北京雁栖湖应用数学研究院 北京雁栖湖应用数学研究院

  • 关于我们
    • 院长致辞
    • 理事会
    • 协作机构
    • 参观来访
  • 人员
    • 管理层
    • 科研人员
    • 博士后
    • 来访学者
    • 行政团队
  • 学术研究
    • 研究团队
    • 公开课
    • 讨论班
  • 招生招聘
    • 教研人员
    • 博士后
    • 学生
  • 会议
    • 学术会议
    • 工作坊
    • 论坛
  • 学院生活
    • 住宿
    • 交通
    • 配套设施
    • 周边旅游
  • 新闻
    • 新闻动态
    • 通知公告
    • 资料下载
关于我们
院长致辞
理事会
协作机构
参观来访
人员
管理层
科研人员
博士后
来访学者
行政团队
学术研究
研究团队
公开课
讨论班
招生招聘
教研人员
博士后
学生
会议
学术会议
工作坊
论坛
学院生活
住宿
交通
配套设施
周边旅游
新闻
新闻动态
通知公告
资料下载
清华大学 "求真书院"
清华大学丘成桐数学科学中心
清华三亚国际数学论坛
上海数学与交叉学科研究院
BIMSA > Frontiers in Large Language Models (LLMs) \(ICBS\)
Frontiers in Large Language Models (LLMs)
This course covers cutting-edge developments and research advancements in large language models (LLMs), including popular models, their application technologies, and recent improvements. By completing this course, participants will gain a comprehensive understanding of the latest knowledge in the field of large language models and insights into future development trends.
Professor Lars Aake Andersson
讲师
谢海华
日期
2024年09月18日 至 12月16日
位置
Weekday Time Venue Online ID Password
周一,周三 13:30 - 15:05 A3-1a-205 ZOOM 02 518 868 7656 BIMSA
修课要求
Computer Science, Machine Learning, Natural Language Processing, Python
课程大纲
1. Introduction of Frontier LLMs 1 - GPT Model
2. Introduction of Frontier LLMs 2 - Llama/PaLM/ChatGLM/Kimi
3. Introduction of Frontier LLMs 3 - ViT/Wav2Vec
4. LLM Applications - Prompt Learning 1
5. LLM Applications - Prompt Learning 2
6. LLM Applications - Retrieval-Augmented Generation 1
7. LLM Applications - Retrieval-Augmented Generation 2
8. Advances in LLMs - MoE (Mixture of Experts)
9. Advances in LLMs - Attention as an RNN
10. Advances in LLMs - Infini-attention
11. Advances in LLMs - REFORMER / Wide-Feedforward
12. Advances in LLMs - RoFormer
参考资料
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: Attention is All you Need. NIPS 2017: 5998-6008
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186
[3] Tom B. Brown, et. al.: Language Models are Few-Shot Learners. NeurIPS 2020
[4] Long Ouyang, et. al.: Training language models to follow instructions with human feedback. NeurIPS 2022
[5] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, Graham Neubig: Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Comput. Surv. 55(9): 195:1-195:35 (2023)
听众
Advanced Undergraduate , Graduate , 博士后 , Researcher
视频公开
公开
笔记公开
公开
语言
中文 , 英文
讲师介绍
谢海华2015年在美国爱荷华州立大学取得计算机博士学位,之后在北京大学数字出版技术国家重点实验室担任高级研究员和知识服务方向负责人,于2021年10月全职入职BIMSA。他的研究方向包括:自然语言处理和知识服务。他发表论文数量超过20篇,拥有7项发明专利,入选北京市高水平人才项目并当选北京市杰出专家。
北京雁栖湖应用数学研究院
CONTACT

No. 544, Hefangkou Village Huaibei Town, Huairou District Beijing 101408

北京市怀柔区 河防口村544号
北京雁栖湖应用数学研究院 101408

Tel. 010-60661855
Email. administration@bimsa.cn

版权所有 © 北京雁栖湖应用数学研究院

京ICP备2022029550号-1

京公网安备11011602001060 京公网安备11011602001060