搜书名
搜作者
登 录
注 册
首页
每日读书
诗词鉴赏
热门专区
在线阅读
国学古籍
主页
出版图书
科学技术
计算机&网络
软件与程序设计
其他编程语言&工具
精通Transformer:从零开始构建最先进的NLP模型
添加到书架
作 者:
萨瓦斯·伊尔蒂利姆
梅萨姆·阿斯加里-切纳格卢
江红
余青松
余靖
出版社:
北京理工大学出版社
丛编项:
版权说明:
本书为公共版权或经版权方授权,请支持正版图书
标 签:
暂缺
扫码手机阅读
ISBN
出版时间
包装
开本
页数
字数
未知
暂无
暂无
未知
0
暂无
作者简介
本书由Savas Yldmnm专业人士编写萨瓦斯 ·伊尔蒂利姆 (Savas Yldmnm) 毕业于伊斯坦布尔技术大学计算机工程系,拥有自然 语言处理 (NaturalLanguageProcessing,NLP)专业的博士学位。目前,他是土耳其伊斯坦布尔比尔基大学的副教授,也是加拿大瑞尔森大学的访问研究员。他是一位积极热情的讲师和研究员, 具有20多年教授机器学习、深度学习和自然语言处理等课程的丰富经验。他开发了大量的开源软件和资源,为土耳其自然语言理解社区做出了重大贡献。他还为人工智能公司的研究开发项目提供全面的咨询服务。
内容简介
AI领域的基石王者,那些还沉迷于CNN,RNN的工程师被警告:放弃战斗吧,向Transformer投降!在过去的二十年中,自然语言处理研究领域发生了翻天覆地的变化。在这段时间里,自然语 言处理经历了不同的处理范式,并终进入了一个由神奇的Transformer体系结构主导的新时代。 Transformer深度学习架构是通过继承许多方法而产生的,其中包括上下文词嵌入、多头注意力机制、位置编码、并行体系结构、模型压缩、迁移学习、跨语言模型等。在各种基于神经的自然语言处理方法中, Transformer架构逐渐演变为基于注意力的“编码器-解码器”体系结构,并持续发展到今天。现在,我们在文献中看到了这种体系结构的新的成功变体。目前研究已经发现了只使用 Transformer 架构中编码器部分的出色模型,如 BERT(Bidirectional Encoder Representations from Transformers,Transformers双向编码表示);或者只使用Transformer架构 中解码器部分的出色模型,如 GPT(Generated Pre -trained Transformer,生成式的预训练Transformer)。本书涵盖了这些自然语言处理方法。基于 Hugging Face社区的Transformer库,我们能够轻 松地使用Transformer。 本书将循序渐进地提供各种自然语言处理问题的解决方案:从文档摘要到问 题回答系统。我们将看到,基于Transformer, 可以取得的成果。
图书目录
暂缺《精通Transformer:从零开始构建最先进的NLP模型》目录