封面
版权信息
关于作者
关于封面
O'Reilly Media Inc.介绍
前言
第一部分 浮光掠影
第1章 自然语言处理介绍
1.1 什么是自然语言处理
1.2 基本的自然语言处理
1.3 总结
第2章 Transformer和迁移学习
2.1 利用fast.ai库进行训练
2.2 利用Hugging Face系列库进行推理
2.3 总结
第3章 NLP任务和应用程序
3.1 预训练语言模型
3.2 迁移学习和微调
3.3 NLP任务
3.4 自然语言数据集
3.5 NLP任务1:命名实体识别
3.6 NLP任务2:文本分类
3.7 总结
第二部分 纲举目张
第4章 分词
4.1 一个极简的分词器
4.2 Hugging Face的分词器
4.3 搭建自己的分词器
4.4 总结
第5章 向量嵌入:计算机如何“理解”单词
5.1 理解文本与读取文本
5.2 词向量
5.3 词向量嵌入实践
5.4 非词条的嵌入
5.5 总结
第6章 循环神经网络和其他序列模型
6.1 循环神经网络
6.2 长短期记忆网络
6.3 门控循环单元
6.4 总结
第7章 Transformer
7.1 从头开始构建Transformer
7.2 注意力机制
7.3 计算机视觉Transformer
7.4 总结
第8章 BERT方法论:博采众长创新篇
8.1 ImageNet
8.2 通往NLP“ImageNet时刻”之路
8.3 预训练的词向量嵌入
8.4 序列模型
8.5 循环神经网络
8.6 注意力机制
8.7 Transformer架构
8.8 NLP的“ImageNet时刻”
8.9 总结
第三部分 经世致用
第9章 工欲善其事,必先利其器
9.1 深度学习框架
9.2 可视化与实验跟踪
9.3 AutoML
9.4 机器学习基础设施和计算
9.5 边缘/终端侧推理
9.6 云推理和机器学习即服务
9.7 持续集成和持续交付
9.8 总结
第10章 可视化
10.1 我们的第一个Streamlit应用程序
10.2 总结
第11章 产品化
11.1 数据科学家、工程师和分析师
11.2 Databricks:你的统一数据分析平台
11.3 Databricks的安装
11.4 机器学习作业
11.5 MLflow
11.6 Databricks的替代品
11.7 总结
第12章 归纳提升
12.1 最后十课
12.2 最后的话
附录A 大规模训练
A.1 多GPU训练
A.2 分布式训练
A.3 是什么让深度学习训练得更快
附录B CUDA
B.1 线程和线程块
B.2 编写CUDA内核
B.3 CUDA实践
更新时间:2022-08-10 10:07:17