投稿指南
一、来稿必须是作者独立取得的原创性学术研究成果,来稿的文字复制比(相似度或重复率)必须低于用稿标准,引用部分文字的要在参考文献中注明;署名和作者单位无误,未曾以任何形式用任何文种在国内外公开发表过;未一稿多投。 二、来稿除文中特别加以标注和致谢之外,不侵犯任何版权或损害第三方的任何其他权利。如果20天后未收到本刊的录用通知,可自行处理(双方另有约定的除外)。 三、来稿经审阅通过,编辑部会将修改意见反馈给您,您应在收到通知7天内提交修改稿。作者享有引用和复制该文的权利及著作权法的其它权利。 四、一般来说,4500字(电脑WORD统计,图表另计)以下的文章,不能说清问题,很难保证学术质量,本刊恕不受理。 五、论文格式及要素:标题、作者、工作单位全称(院系处室)、摘要、关键词、正文、注释、参考文献(遵从国家标准:GB\T7714-2005,点击查看参考文献格式示例)、作者简介(100字内)、联系方式(通信地址、邮编、电话、电子信箱)。 六、处理流程:(1) 通过电子邮件将稿件发到我刊唯一投稿信箱(2)我刊初审周期为2-3个工作日,请在投稿3天后查看您的邮箱,收阅我们的审稿回复或用稿通知;若30天内没有收到我们的回复,稿件可自行处理。(3)按用稿通知上的要求办理相关手续后,稿件将进入出版程序。(4) 杂志出刊后,我们会按照您提供的地址免费奉寄样刊。 七、凡向文教资料杂志社投稿者均被视为接受如下声明:(1)稿件必须是作者本人独立完成的,属原创作品(包括翻译),杜绝抄袭行为,严禁学术腐败现象,严格学术不端检测,如发现系抄袭作品并由此引起的一切责任均由作者本人承担,本刊不承担任何民事连带责任。(2)本刊发表的所有文章,除另有说明外,只代表作者本人的观点,不代表本刊观点。由此引发的任何纠纷和争议本刊不受任何牵连。(3)本刊拥有自主编辑权,但仅限于不违背作者原意的技术性调整。如必须进行重大改动的,编辑部有义务告知作者,或由作者授权编辑修改,或提出意见由作者自己修改。(4)作品在《文教资料》发表后,作者同意其电子版同时发布在文教资料杂志社官方网上。(5)作者同意将其拥有的对其论文的汇编权、翻译权、印刷版和电子版的复制权、网络传播权、发行权等权利在世界范围内无限期转让给《文教资料》杂志社。本刊在与国内外文献数据库或检索系统进行交流合作时,不再征询作者意见,并且不再支付稿酬。 九、特别欢迎用电子文档投稿,或邮寄编辑部,勿邮寄私人,以免延误稿件处理时间。

语言教学与研究权威期刊(语言研究 期刊)(2)

来源:语言教学与研究 【在线投稿】 栏目:综合新闻 时间:2022-12-07
作者:网站采编
关键词:
摘要:> 目录如下: Chapter 1: 深度学习与自然语言简介(邓力,刘洋) Chapter 2: 对话理解系统中的深度学习(Gokhan Tur, Asli Celikyilmaz,何晓冬,Dilek Hakkani-Tür, 邓力

>

目录如下:

Chapter 1: 深度学习与自然语言简介(邓力,刘洋)

Chapter 2: 对话理解系统中的深度学习(Gokhan Tur, Asli Celikyilmaz,何晓冬,Dilek Hakkani-Tür, 邓力)

Chapter 3: 语音与文本对话系统中的深度学习(Asli Celikyilmaz, 邓力, and Dilek Hakkani-Tür)

Chapter 4: 语法与词法分析中的深度学习(车万翔 张岳)

Chapter 5: 知识图谱中的深度学习(刘知远,韩先培)

Chapter 6: 机器学习中的深度学习(刘洋,张家俊)

Chapter 7: 问答系统中的深度学习(刘康,冯岩松)

Chapter 8: 情感分析中的深度学习(唐都钰,张梅山)

Chapter 9: 社交计算中的深度学习(赵鑫,李晨亮)

Chapter 10: 看图说话中的深度学习(何晓冬,邓力)

Chapter 11: 后记(邓力,刘洋)

在调查了应用深度学习的 NLP 领域的突出成功之后,作者指出并分析了当前深度学习技术的几个主要局限性,涉及一般以及更具体的 NLP 领域。这项调查为 NLP 指出了五个未来的前沿发展方向:神经 - 符号整合框架、探索更好的记忆模型、更好地利用知识,以及更好的深度学习范式(包括无监督和生成学习、多模态和多任务学习和元学习)。

整本书共有 11 章,包含了深度学习在 NLP 中各个领域的研究与应用,并且在全书的最后一部分,作者们讨论了基于 DL 的 NLP 如何扩展到更为通用领域。泛化的本质是将深度神经网络(如:参数化功能块的计算图表)从静态转为动态。这意味着泛化可以使由许多可微分模型组成的网络架构以数据相关的进行实时创建。正如本书很多章节中使用逻辑表达式、条件、赋值和循环等进行程序化编程,在可微分编程模型中,涉及到存储、注意、堆栈、队列和指针模块的深度神经网络架构亦如此实现。

实际上,当前的深度学习框架(如: PyTorch, TensorFlow, Chainer, MXNet, CNTK 等)更要追求模型的灵活性,因为一旦高效的编译器被开发出来,我们将需采用一个全新的软件实现。以循环和条件判断为主的传统编程逻辑将被淘汰,取而代之的是由神经网络实现的参数化功能模块的组装图表。其中的关键技术在于,基于模型的可微分性,使用高效的梯度优化方法,通过端到端的反向传播学习从数据中自动训练出组装图表中的所有参数,比如神经网络的权重以及定义网络非线性和存储模块的参数。

总之,相信在不久的将来,以广义深度学习或可微分编程框架所创建的更加强大、更加灵活、更加先进的学习架构可以解决本书中所列举的 NLP 前沿研究领域的遗留问题。不止于本书中所提及的研究成果,新的成就将会像雨后春笋般涌现,这一切都将会使我们越来越接近通用人工智能实现的日子。那时,NLP 将会成为通用人工智能的一个重要组成部分呈现在大家面前。

此外,读者可以看看原书语言建模与基于注意力的机器翻译两小节截图,从而对整本书的风格与内容有大概的了解:

作者介绍

主编

邓力博士(人工智能科学家),2017 年 5 月至今任对冲基金公司 Citadel 首席人工智能官(Chief Artificial-Intelligence Officer)。之前任微软人工智能首席科学家。邓力在 2009 年就同 Geoffrey Hinton 教授合作,首次提出并将深度神经网络应用到大规模语言识别中,显著提高了机器对语音的识别率,极大推动了人机交互领域的发展与进步。目前,邓力的研究方向主要为应用于大数据、语音、文本、图像和多模态处理的深度学习和机器智能方法,以及人工智能和深度学习在金融领域的应用。在语音、NLP、大数据分析、企业智能、互联网搜索、机器智能、深度学习等领域,邓力曾获 70 多项美国或国际专利。同时,他还获得过 IEEE、国际言语通讯协会、美国声学协会、亚太信号与信息处理协会、微软等组织授予的多项荣誉。2015 年,凭借在深度学习与自动语音识别方向做出的杰出贡献,邓力获 IEEE 技术成就奖。

刘洋博士,清华大学计算机科学与技术系长聘副教授、博士生导师、智能技术与系统实验室主任,国家优秀青年基金获得者。研究方向是自然语言处理,在自然语言处理和人工智能领域重要国际刊物 Computational Linguistics 和国际会议 ACL、EMNLP、IJCAI 和 AAAI 上发表 50 余篇论文,获 ACL 2017 杰出论文奖和 ACL 2006 优秀亚洲自然语言处理论文奖。承担 10 余项国家自然科学基金、国家重点研发计划、国家 863 计划、国家科技支撑计划和国际合作项目,2015 年获国家自然科学基金优秀青年项目资助。获得 2015 年国家科技进步二等奖、2014 年电子学会科学技术奖科技进步类一等奖、2009 年北京市科学技术奖二等奖和 2014 年中文信息学会钱伟长中文信息处理科学技术奖汉王青年创新奖一等奖等多项科技奖励。担任或曾担任国际计算语言学学会亚太分部执委会委员、SIGHAN Information Officer、中文信息学会青年工作委员会主任兼计算语言学专业委员会秘书长、Computational Linguistics 编委、ACM TALLIP 副编辑、ACL 2015 组织委员会共同、ACL 2014 讲习班共同、ACL 2017/2018 与 EMNLP 2016/2018 程序委员会机器翻译领域共同、IJCAI 2016/2018 和 AAAI 2019 资深程序委员会委员。

文章来源:《语言教学与研究》 网址: http://www.yyjxyyjzz.cn/zonghexinwen/2022/1207/891.html



上一篇:如何理解语言教学课程思政的哲学意蕴
下一篇:语言教学与研究论文范文格式(研究论文的语言

语言教学与研究投稿 | 语言教学与研究编辑部| 语言教学与研究版面费 | 语言教学与研究论文发表 | 语言教学与研究最新目录
Copyright © 2021 《语言教学与研究》杂志社 版权所有 Power by DedeCms
投稿电话: 投稿邮箱: