封面
版权信息
内容简介
前言
第1章 Spark大数据分析概述
1.1 大数据时代
1.2 大数据分析的要素
1.3 简单、优雅、有效———这就是Spark
1.4 Spark 3.0核心——ML
1.5 星星之火,可以燎原
1.6 小结
第2章 Spark 3.0安装和开发环境配置
2.1 Windows 10单机模式下安装和配置Spark
2.1.1 Windows 10安装Java 8
2.1.2 Windows 10安装Scala 2.12.10
2.1.3 Intellij IDEA下载和安装
2.1.4 Intellij IDEA中Scala插件的安装
2.1.5 HelloJava——使用Intellij IDEA创建Java程序
2.1.6 HelloScala——使用Intellij IDEA创建Scala程序
2.1.7 最后一脚——Spark 3.0单机版安装
2.2 经典的wordCount
2.2.1 Spark 3.0实现wordCount
2.2.2 MapReduce实现wordCount
2.3 小结
第3章 DataFrame详解
3.1 DataFrame是什么
3.1.1 DataFrame与RDD的关系
3.1.2 DataFrame理解及特性
3.1.3 DataFrame与DataSet的区别
3.1.4 DataFrame的缺陷
3.2 DataFrame工作原理
3.2.1 DataFrame工作原理图
3.2.2 宽依赖与窄依赖
3.3 DataFrame应用API和操作详解
3.3.1 创建DataFrame
3.3.2 提前计算的cache方法
3.3.3 用于列筛选的select和selectExpr方法
3.3.4 DataFrame的收集行collect方法
3.3.5 DataFrame计算行数count方法
3.3.6 DataFrame限制输出limit方法
3.3.7 除去数据集中重复项的distinct方法
3.3.8 过滤数据的filter方法
3.3.9 以整体数据为单位操作数据的flatMap方法
3.3.10 以单个数据为目标进行操作的map方法
3.3.11 分组数据的groupBy和agg方法
3.3.12 删除数据集中某列的drop方法
3.3.13 随机采样方法和随机划分方法
3.3.14 排序类型操作的sort和orderBy方法
3.3.15 DataFrame和Dataset以及RDD之间的相互转换
3.4 小结
第4章 ML基本概念
4.1 ML基本数据类型及管道技术
4.1.1 支持多种数据类型
4.1.2 管道技术
4.1.3 管道中的主要概念
4.1.4 管道的工作流程
4.1.5 Pipeline的使用
4.2 ML数理统计基本概念
4.2.1 基本统计量
4.2.2 统计量基本数据
4.2.3 距离计算
4.2.4 两组数据相关系数计算
4.2.5 分层抽样
4.2.6 假设检验
4.2.7 随机数
4.3 小结
第5章 协同过滤算法
5.1 协同过滤
5.1.1 协同过滤概述
5.1.2 基于用户的推荐UserCF
5.1.3 基于物品的推荐ItemCF
5.1.4 协同过滤算法的不足
5.2 相似度度量
5.2.1 基于欧几里得距离的相似度计算
5.2.2 基于余弦角度的相似度计算
5.2.3 欧几里得相似度与余弦相似度的比较
5.2.4 基于余弦相似度的用户相似度计算示例
5.3 交替最小二乘法
5.3.1 最小二乘法详解
5.3.2 ML中交替最小二乘法详解
5.3.3 ALS算法示例
5.4 小结
第6章 线性回归理论与实战
6.1 随机梯度下降算法详解
6.1.1 道士下山的故事
6.1.2 随机梯度下降算法的理论基础
6.1.3 随机梯度下降算法实战
6.2 回归的过拟合
6.2.1 过拟合产生的原因
6.2.2 Lasso回归、岭回归与ElasticNet回归
6.3 ML线性回归示例
6.3.1 线性回归程序
6.3.2 线性回归:广义线性回归
6.4 小结
第7章 分类实战
7.1 逻辑回归详解
7.1.1 逻辑回归不是回归算法
7.1.2 逻辑回归的数学基础
7.1.3 ML逻辑回归二分类示例
7.1.4 ML逻辑回归多分类示例
7.1.5 ML逻辑回归汇总提取
7.1.6 ML逻辑回归处理文本文档
7.2 线性支持向量机详解
7.2.1 三角还是圆
7.2.2 支持向量机的数学基础
7.2.3 ML支持向量机示例
7.2.4 ML支持向量机进行分类预测
7.3 朴素贝叶斯分类器详解
7.3.1 穿裤子的男生or女生
7.3.2 贝叶斯定理的数学基础和意义
7.3.3 朴素贝叶斯定理
7.3.4 ML朴素贝叶斯使用示例
7.3.5 ML朴素贝叶斯中文文本分类
7.4 小结
第8章 决策树与随机森林
8.1 决策树详解
8.1.1 水晶球的秘密
8.1.2 决策树的算法基础:信息熵
8.1.3 决策树的算法基础——ID3算法
8.1.4 ML中决策树的构建
8.1.5 ML中决策树示例
8.2 随机森林与梯度提升算法
8.3 小结
第9章 聚类
9.1 聚类与分类
9.1.1 什么是分类
9.1.2 什么是聚类
9.2 K-means算法
9.2.1 K-means算法及其算法步骤
9.2.2 ML中K-means算法示例
9.2.3 K-means算法中细节的讨论
9.3 高斯混合聚类
9.3.1 从高斯分布聚类起步
9.3.2 混合高斯模型
9.3.3 ML高斯混合模型使用示例
9.4 快速迭代聚类
9.4.1 快速迭代聚类理论基础
9.4.2 ML快速迭代聚类使用示例
9.5 小结
第10章 关联规则
10.1 Apriori频繁项集算法
10.1.1 “啤酒与尿布”的经典故事
10.1.2 经典的Apriori算法
10.1.3 Apriori算法示例
10.2 FP-growth算法
10.2.1 Apriori算法的局限性
10.2.2 FP-growth算法
10.2.3 ML中的FP树算法示例
10.3 小结
第11章 数据降维
11.1 奇异值分解
11.1.1 行矩阵详解
11.1.2 奇异值分解算法基础
11.1.3 ML中奇异值分解示例
11.2 主成分分析
11.2.1 主成分分析的定义
11.2.2 主成分分析的数学基础
11.2.3 ML中主成分分析示例
11.3 小结
第12章 特征提取和转换
12.1 TF-IDF
12.1.1 如何查找想要的新闻
12.1.2 TF-IDF算法的数学计算
12.1.3 ML中TF-IDF示例
12.2 词向量化Word2Vec
12.2.1 词向量化基础
12.2.2 ML中词向量化使用示例
12.3 基于卡方检验的特征选择
12.3.1 “吃货”的苦恼
12.3.2 ML中基于卡方检验的特征选择示例
12.4 小结
第13章 ML实战演练——鸢尾花分析
13.1 建模说明
13.1.1 数据的描述与分析目标
13.1.2 建模说明
13.2 数据预处理和分析
13.2.1 微观分析—均值与方差的对比分析
13.2.2 宏观分析——不同种类特性的长度计算
13.2.3 去除重复项—相关系数的确定
13.3 长与宽之间的关系——数据集的回归分析
13.3.1 使用线性回归分析长与宽之间的关系
13.3.2 使用逻辑回归分析长与宽之间的关系
13.4 使用分类和聚类对鸢尾花数据集进行处理
13.4.1 使用聚类分析对数据集进行聚类处理
13.4.2 使用分类分析对数据集进行分类处理
13.5 最终的判定——决策树测试
13.5.1 决定数据集归类的方法之一——决策树
13.5.2 决定数据集归类的方法之二——随机森林
13.6 小结
更新时间:2023-09-21 10:31:02