仅收录五年以上有检索的国际会议

平台仅发布5年以上有检索的会议
保障会议真实有效

会议简介 Brief Introduction01

2026年第十届深度学习技术国际会议(ICDLT 2026)将于 2026年7月17-19日中国昆明 召开,由昆明理工大学主办,昆明理工大学信息工程与自动化学院承办,为深度学习领域的研究人员,学者和科学家提供一个面对面交流自己的想法的机会,欢迎大家踊跃投稿参加!
 
深度学习在许多领域都有广泛的应用,如计算机视觉、自然语言处理、语音识别等。 随着计算能力的不断提升和硬件设备的不断发展,深度学习模型的规模和复杂度将进一步增加,从而能够处理更大规模和更复杂的数据。其次,深度学习将与其他技术相结合,如增强学习、迁移学习等,进一步提高模型的性能和泛化能力。此外,深度学习还将与其他学科领域相结合,如生物学、心理学等,从而更好地理解和模拟人脑的工作原理。深未来,深度学习将继续发展,并在各个领域取得更多的突破,为人类带来更多的创新和进步。

重要信息 Highlights02

会议出版
ICDLT 2026 会议收录的文章将以论文集出版.会被 Ei Compendex 和 Scopus 等检索,文章作者将被邀请参会展示研究报告。
 
组委会
Advisory Committee
KWONG Tak Wu Sam, 香港岭南大学(IEEE Fellow)
Yiguang Liu, 四川大学
Zhenqiu Shu, 昆明理工大学
 
Conference Chairs
Xudong Jiang, 新加坡南洋理工大学(IEEE Fellow)
Ce Zhu, 电子科技大学(IEEE Fellow)
Zhengtao Yu, 昆明理工大学
Hongbin Wang, 昆明理工大学
 
Conference Co-chairs
Hui Yu, 英国朴茨茅斯大学
Yingna Li, 昆明理工大学

征稿主题 Call for Paper03

专题一:深度学习模型与算法
循环神经网络
稀疏编码
神经模糊算法
进化计算方法
卷积神经网络
深度层次网络
降维技术
无监督特征学习
深度玻尔兹曼机
生成对抗网络
自编码器
深度信念网络
元学习与深度网络
深度度量学习方法
深度网络的最大后验推理
深度强化学习
深度生成模型学习
深度核学习
图表示学习
机器学习中的高斯过程
聚类分类与回归
分类可解释性
新型机器与深度学习
主动学习
增量学习与在线学习
基于智能体的学习
流形学习
多任务学习
贝叶斯网络及应用
基于案例的推理方法
统计模型与学习
计算学习
进化算法与学习
基于模糊逻辑的学习
遗传优化
聚类分类与回归
神经网络模型与学习
并行与分布式学习
强化学习
监督半监督与无监督学习
张量学习

专题二:大数据分析的深度学习与机器学习
基于深度机器学习的理论与计算模型
机器学习方法(如深度、强化、统计关系、迁移学习)
基于模型的推理

专题三:深度学习与机器学习应用
计算与网络平台的深度学习
推荐系统
社交媒体与网络的深度学习
计算机视觉中的深度学习
语音识别中的深度学习
自然语言处理中的深度学习
机器翻译中的深度学习
生物信息学中的深度学习
医学图像分析中的深度学习
气候科学中的深度学习
棋类程序的深度学习
数据挖掘与知识发现的深度与机器学习

专题四:负责任的人工智能、安全与治理
人工智能安全
隐私保护
算法公平性
公平性与伦理
分类可解释性与可解释人工智能
人工智能伦理
人工智能治理
绿色深度学习
合成数据生成
人工智能的社会经济影响
可持续人工智能
人工智能风险评估

会议投稿 Conference submission 05

投稿系统:https://www.zmeeting.org/submission/icdlt2026
 
请注意:按Word单栏模板准备请篇幅不少于8页,Latex双栏模式,篇幅不少于4页。
 
若只想在 ICDLT 2026 上展示报告,请投稿摘要 ,只有全文投稿才可参与文章出版评审环节。
 
文章模板:https://www.icdlt.org/sub.html
 
ICDLT政策
 
剽窃:
 
ICDLT对剽窃行为零容忍。提交的论文必须包含作者原创的作品,并对其他作者的作品进行充分、恰当且符合学术规范的引用。作者有责任清晰地标明自己的贡献以及所依赖或借鉴的已发表成果/技术。审稿人有责任确保这些标准得到遵守。
 
如果发现作者存在剽窃行为,将采取以下处罚措施:
 
1. 拒绝提交的论文或从最终发表的期刊中删除该论文。
2. 向作者的导师和所属机构报告其违规行为。
3. 向相应的学术伦理监管机构和科研资助机构报告其违规行为。
4. 保留公布作者姓名、论文标题、所属机构名称以及剽窃者违规行为详情等的权利。
 
重复投稿/一稿多写:
 
作者向 ICDLT 提交稿件即表示其确认该稿件此前未以实质相同的形式在任何同行评审的公开期刊、会议、研讨会或其他同行评审的存档论坛上发表或被接受发表。此外,在审稿期间,作者未曾将内容实质相同的论文提交给其他同行评审的公开会议或研讨会。作者同时声明,其未向 ICDLT 提交过内容实质相同的稿件。一般而言,ICDLT 的投稿内容与先前发表的稿件内容的相似度不应超过 20%。违反上述任何一项规定都将导致稿件被拒。

联系方式 Contact us 06