CodeWisdom 10月02日
LLM4Code 2026:代码大模型国际研讨会征稿启事
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

第三届代码大模型国际研讨会(LLM4Code 2026)将于2026年4月在巴西里约热内卢举行的ICSE 2026会议期间召开。本次研讨会旨在为学术界和工业界提供一个交流平台,共同探讨大语言模型在代码领域的应用与发展。会议接收研究性论文、观点性论文和扩展摘要,并提供Archival和Non-archival两种投稿选项。研讨会主题涵盖LLM在代码生成、测试、缺陷分析、程序理解等方面的应用,以及相关数据集、评估方法、模型设计与优化等。优秀论文将有机会获得最佳论文奖。

💡 LLM4Code 2026研讨会将于2026年4月在巴西里约热内卢的ICSE 2026会议同期举办,旨在汇聚学术界与工业界,共同探索大语言模型在代码领域的最新进展与未来方向。前两届的成功举办使其已成为ICSE规模最大的workshop之一,为领域内的深入交流提供了重要平台。

📄 会议诚邀各界研究者提交研究性论文(4-8页)、观点性论文(1-4页)或扩展摘要(1-5页)。投稿论文可选择被收录进ICSE 2026 workshop proceedings(Archival),或仅在研讨会官网列出(Non-archival),后者不影响后续或并行投稿。论文提交截止日期为2025年10月20日(AOE)。

💻 研讨会关注的主题广泛,包括但不限于大语言模型在代码生成、测试、缺陷分析与修复、程序分析与理解、代码维护、逆向工程等方面的应用,以及为LLM4Code设计的训练与评估数据集、数据集自动生成、LLM4Code的实证研究,还有模型设计和优化,如模型架构、超参数调整、提示工程、预训练目标设计、模型对齐、优化、蒸馏和量化等。

🏆 为鼓励高质量的研究,本次研讨会将在会议期间颁发最佳论文奖,获奖论文数量不超过论文总数的10%,旨在表彰在代码大模型领域做出杰出贡献的研究成果。

2025-10-02 20:01 吉林

LLM4Code Workshop征稿进行中!

LLM4Code 2026

 2026.4.12

ICSE 2026

巴西 里约热内卢

01 关于LLM4Code 2026

第三届代码大模型国际研讨会(The Third International Workshop on Large Language Models for Code ,  简称LLM4Code)将于明年4月与软件工程旗舰会议ICSE’26一同在巴西里约热内卢举办。

LLM4Code workshop 旨在为学术界和工业界提供一个交流平台,用以讨论和分享如何应用和发展大语言模型在代码领域的能力,交流领域最新进展,讨论开放性挑战和未来发展方向。前两届LLM4Code workshop反响热烈,已经成为ICSE规模最大的workshop。

本次研讨会有幸邀请到四十多位来自学术界和工业界的软件工程领域和自然语言处理领域的资深专家担任程序委员会成员;并拟安排包括主题演讲、论文报告和小组讨论等多种交流形式,从而为参会者提供充分交流与讨论的机会。

02 论文征集

论文类型与提交方式

本次研讨会接收以下三类论文:

研究性论文:聚焦于新颖的方法、工具、数据集和研究,篇幅应保持在4-8页(含引用)。

观点性论文:关注于尚未被完善的新颖观点和立场,篇幅应保持在1-4页(含引用)。

扩展摘要:免收文章处理费,篇幅应保持在1-5页(含引用)。

论文提交链接:

https://llm4code2026.hotcrp.com/

* 所有被接收的文章默认收录至 ICSE 2026 workshop proceedings中 (即 Archival 选项);同时,本次研讨会也为想要宣传工作的作者提供 Non-archival 选项, Non-archival 选项的投稿接收后只会在研讨会官网列出,不会收录在ICSE workshop proceedings 和DBLP 中,不影响后续或并行投稿。更多细节详见:

https://llm4code.github.io/call

论文主题

本研讨会接收(但不限于)以下主题的论文:

1

大语言模型智能体在代码任务上的应用

2

大语言模型在代码相关任务上的应用

基于大模型的代码生成、测试任务、缺陷分析与修复、程序分析与理解、代码维护、逆向工程等

3

数据集与评估

- 为LLM4Code设计的训练或评估数据集

- 数据集自动生成/增全

- LLM4Code的实证性研究

4

LLM4Code相关的模型设计和优化

- 模型架构设计

- 模型超参数调整

- 提示工程

- 预训练目标设计

- 模型对齐

- 模型优化、蒸馏、量化

🏆 本次研讨会将在开会期间颁发最佳论文奖(获奖论文数量不超过论文总数的10%)。

03 组织设置

General Co-Chairs

Prem Devanbu

UC Davis, USA

Lin Tan

Purdue University, USA

Lingming Zhang

UIUC, USA

PC Co-chairs

Kexin Pei

The University of Chicago, USA

Yiling Lou

Fudan University, China

Web Co-chairs

Chenyuan Yang

UIUC, USA

Zijie Zhao

UIUC, USA

Publicity Co-Chairs

Junwei Liu

Fudan University, China

Ziqi Zhang

UIUC, USA

04 程序委员会

Tegawendé F. Bissyandé 

University of Luxembourg, Luxembourg

Jose Cambronero

Google, USA

Shing-Chi Cheung 

The Hong Kong University of Science and Technology, China

Loris D’Antoni 

UCSD, USA

Yangruibo Ding 

University of California, Los Angeles, USA

Saikat Dutta 

Cornell University, USA

Jiani Huang 

University of Pennsylvania, USA

Wenke Lee 

Georgia Institute of Technology, USA

Penghui Li 

Columbia University, USA

Zhenhao Li 

York University, Canada

Ziyang Li 

Johns Hopkins University, USA

Qinghua Lu 

CSIRO, Australia

Pengyu Nie 

University of Waterloo, Canada

Corina Pasareanu 

CMU, USA

Chao Peng 

ByteDance, China

Viet Hung Pham 

York University, Canada

Gabriel Ryan 

Microsoft, USA

Dongdong She 

HKUST, HK SAR, China

Linhai Song 

Institute of Computing Technology, Chinese Academy of Sciences, China

Jun Sun

Singapore Management University, Singapore

Aditya Thimmaiah

The University of Texas at Austin, USA

Michele Tufano 

Google, USA

Chengpeng Wang 

Purdue University, USA

Anjiang Wei 

Stanford University, USA

Xiangzhe Xu 

Purdue University, USA

Wei Yang 

UTD, USA

Kundi Yao 

University of Waterloo, Canada

Juan Zhai 

UMass, Amherst, USA

Jie Zhang 

King’s College London, UK

Tianyi Zhang 

Purdue University, USA

Thomas Zimmermann 

University of California, Irvine, USA

05 重要日程

2025.10.20 23:59AOE

论文提交截止

2025.12.24

评审结果通知

2026.1.26

最终定稿日期

2026.4.12

研讨会召开

* 召开时间暂定

🎉 欢迎各位研究者积极参与本次研讨会,我们期待着明年4月与大家相聚在巴西里约热内卢,一起交流LLM4Code领域的最新进展。

🎉 本次研讨会的最新的消息会及时在网站和公众号平台推送,希望大家关注、支持以及转发。

🎉 欢迎访问研讨会网站获取详细信息:

https://llm4code.github.io/

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LLM4Code 代码大模型 AI for Code ICSE 2026 研讨会 论文征集 Large Language Models for Code Workshop Call for Papers
相关文章