Spark机器学习案例 spark-example: spark mllib example
#这是一个Spark MLlib实例
##1 K-means基础实例
###1.1 数据准备 准备好如下数据:
0.0 0.0 0.0
0.1 0.1 0.1
0.2 0.2 0.2
9.0 9.0 9.0
9.1 9.1 9.1
9.2 9.2 9.2
0.3 0.2 0.2
9.1 9.5 9.1
0.2 0.2 0.2
0.1 0.2 0.2
8.9 9.5 9.1
命名为kmeans_data.txt,且上传到hdfs的/spark/mllib/data/路径中。
###1.2 代码打包
- 在Intellij中,点击file->选择project structure->选择Artifact->添加jar->把乱七八糟的依赖移除->勾选Build on make。
- 点击Build->选择Build Artifact->选择ReBuild,然后在之前填写的路径下找到jar。
- 上传到spark中。
###1.3 执行代码
- 执行命令
./spark-submit --class com.blogchong.spark.mllib.base.Kmeans --master spark://192.168.5.200:7077 --num-executors 2 --driver-memory 124m --executor-memory 124m --total-executor-cores 2 /root/spark/hcy/spark-example.jar
//需要注意的是,在设置core数以及内存时,最好先参考一下spark-master-id:8080页面中的worker参数,别超过了就行。 - 跑完了,直接到输出文件夹下,找到代码的输出结果即可。
##2 协同推荐ALS算法基础实例
###2.1 数据准备 用户评分数据,格式: 用户ID,电影ID,评分
1,1,5.0
1,2,1.0
1,3,5.0
1,4,1.0
2,1,5.0
2,2,1.0
2,3,5.0
2,4,1.0
3,1,1.0
3,2,5.0
3,3,1.0
3,4,5.0
4,1,1.0
4,2,5.0
4,3,1.0
4,4,5.0
上传到hdfs的/spark/mllib/data/als路径中。
###2.2 代码打包
- 在Intellij中,点击file->选择project structure->选择Artifact->添加jar->把乱七八糟的依赖移除->勾选Build on make。
- 点击Build->选择Build Artifact->选择ReBuild,然后在之前填写的路径下找到jar。
- 上传到spark中。
###2.3 执行代码
- 执行命令
./spark-submit --class com.blogchong.spark.mllib.base.AlsArithmetic --master spark://192.168.5.200:7077 --num-executors 2 --driver-memory 124m --executor-memory 124m --total-executor-cores 2 /root/spark/hcy/spark-example.jar
//需要注意的是,在设置core数以及内存时,最好先参考一下spark-master-id:8080页面中的worker参数,别超过了就行。 - 跑完了,直接到输出文件夹下,找到代码的输出结果即可。
###2.4 附加说明
在实际的调试过程中,我们会把ALS的几个重要参数,比如迭代次数,比如lambda值等,设置成一个范围,然后进行逐步调优,当MSE值,也就是均根方差值最小时,这个模型即我们需要的训练模型。
##3 协同推荐ALS算法进阶--电影推荐实例
###3.1 数据准备
**当前用户(需要给这货做推荐)评分数据(11条)personalRatings.txt
格式 用户ID::电影ID::评分::时间戳**
0::1::5::1409495135
0::780::4::1409495135
0::590::3::1409495135
0::1216::4::1409495135
0::648::5::1409495135
0::344::3::1409495135
0::165::4::1409495135
0::153::5::1409495135
0::597::4::1409495135
0::1586::5::1409495135
0::231::5::1409495135
**电影信息数据(3706条)movies.dat
格式: 电影ID::电影名称::类型**
1::Toy Story (1995)::Animation|Children's|Comedy
2::Jumanji (1995)::Adventure|Children's|Fantasy
3::Grumpier Old Men (1995)::Comedy|Romance
4::Waiting to Exhale (1995)::Comedy|Drama
5::Father of the Bride Part II (1995)::Comedy
6::Heat (1995)::Action|Crime|Thriller
7::Sabrina (1995)::Comedy|Romance
8::Tom and Huck (1995)::Adventure|Children's
9::Sudden Death (1995)::Action
**用户电影评分信息数据(1000209条)ratings.dat
格式: 用户ID::电影名称::评分::时间戳**
3::260::5::978297512
3::2858::4::978297039
3::3114::3::978298103
3::1049::4::978297805
3::1261::1::978297663
3::552::4::978297837
3::480::4::978297690
4::1265::2::978298316
4::1266::5::978297396
4::733::5::978297757
上传到hdfs的/spark/mllib/data/als2路径中。
###3.2 代码打包
- 在Intellij中,点击file->选择project structure->选择Artifact->添加jar->把乱七八糟的依赖移除->勾选Build on make。
- 点击Build->选择Build Artifact->选择ReBuild,然后在之前填写的路径下找到jar。
- 上传到spark中。
###3.3 执行代码
- 执行命令
./spark-submit --class com.blogchong.spark.mllib.advance.ALSRecommendMovie.AlsArithmeticPractice --master spark://192.168.5.200:7077 --num-executors 2 --driver-memory 400m --executor-memory 400m --total-executor-cores 2 /root/spark/hcy/spark-example.jar
//需要注意的是,在设置core数以及内存时,最好先参考一下spark-master-id:8080页面中的worker参数,别超过了就行。 - 跑完了,直接到输出文件夹下,找到代码的输出结果即可。
###3.4 附加说明
在调试过程中,把ALS的几个重要参数,比如迭代次数,比如lambda值等,设置成一个范围,然后进行逐步调优,当MSE值,也就是均根方差值最小时,这个模型即我们需要的训练模型。
###3.5 输出结果
对于每次尝试的结果直接打印,最终给用户0推荐的结果按降序保存在/spark/mllib/result/als2/data/recommendations,模型文件保存在/spark/mllib/result/als2/model。
##4 LDA主题特征抽取实例
###执行命令
批量文档训练:获取训练文档的Docs-Topics概率矩阵,以及Words-Topics概率矩阵,当然,还有Model文件,这是后期预测新文档的基础.
- 训练执行命令
./spark-submit --class com.blogchong.spark.mllib.advance.LdaExtractTopics.Train.LDAModelBuild --master spark://192.168.25.10:7077 --conf "spark.driver.extraJavaOptions=-XX:MaxPermSize=512m" --conf "spark.executor.extraJavaOptions=-XX:MaxPermSize=512m" --executor-memory 6G --driver-memory 6G --num-executors 4 --executor-cores 4 --jars /root/hcyLda/spark-example-1.0-SNAPSHOT.jar XX PdataPath /hcy/lda/train/part-r-00000-write PmodelPath /hcy/lda/model PtopicSize 100 PmaxIterations 100 PwordsPath /hcy/lda/train/extract_index.dic PsaveVector true > ~/hcyLda/20151219.log 2>&1
新文档主题预测:利用上面训练得到的LocalLDAMoldel,进行新文档的主题预测,求docs-topics矩阵,然后结合Model中已有的Topics-words矩阵,求docs-words矩阵
- 测试执行命令
./spark-submit --class com.blogchong.spark.mllib.advance.LdaExtractTopics.Check.PredictsDocTopics --master spark://192.168.25.10:7077 --conf "spark.driver.extraJavaOptions=-XX:MaxPermSize=512m" --conf "spark.executor.extraJavaOptions=-XX:MaxPermSize=512m" --executor-memory 6G --driver-memory 6G --num-executors 1 --executor-cores 1 --jars /root/hcyLda/spark-example-1.0-SNAPSHOT.jar XX PdataPath /hcy/lda/data/test.data PmodelPath /hcy/lda/model/2015-12-23-23-32-00/localLdaModel PtopicsPath /hcy/lda/data PtopicSize 200 PwordsPath /hcy/lda/train/extract_index.dic > ~/hcyLda/201512231544.log 2>&1
##5 新词发现(基于Ansj工具)
###执行命令
- 训练执行命令
./spark-submit --class com.blogchong.spark.mllib.advance.DiscoveryNewWord.AnsjDisWords --master spark://192.168.25.10:7077 --conf "spark.driver.extraJavaOptions=-XX:MaxPermSize=512m" --conf "spark.executor.extraJavaOptions=-XX:MaxPermSize=512m" --executor-memory 3G --driver-memory 3G --num-executors 1 --executor-cores 1 --jars /root/hcyLda/newWord/spark-example-1.0-SNAPSHOT.jar,/root/hcyLda/newWord/ansj_seg-0.9.jar,/root/hcyLda/newWord/tree_split-1.0.1.jar --driver-library-path /root/hcyLda/newWord/ansj_seg-0.9.jar /root/hcyLda/newWord/tree_split-1.0.1.jar /hcy/newWord/data/11 /hcy/newWord/result
##6 新词发现(基于NGram算法的Spark实现)
###执行命令
- 执行命令
./spark-submit --class com.blogchong.spark.mllib.advance.DiscoveryNewWord.NGramSpark --master spark://192.168.25.10:7077 --conf "spark.driver.extraJavaOptions=-XX:MaxPermSize=512m" --conf "spark.executor.extraJavaOptions=-XX:MaxPermSize=512m" --executor-memory 6G --driver-memory 18G --num-executors 3 --executor-cores 3 --jars /root/hcyLda/newWord/spark-example-1.0-SNAPSHOT.jar,/root/hcyLda/newWord/ansj_seg-0.9.jar,/root/hcyLda/newWord/tree_split-1.0.1.jar,/root/hcyLda/newWord/json-lib-2.4-jdk13.jar,/root/hcyLda/newWord/ezmorph-1.0.6.jar /root/hcyLda/newWord/spark-example-1.0-SNAPSHOT.jar /hcy/newWord/data/userLibrary.dic /hcy/newWord/data/11 /hcy/newWord/result > ~/hcyLda/newWord/20160118.log