当前位置: 首页 > news >正文

大连专业做网站佛山网站设计资讯

大连专业做网站,佛山网站设计资讯,搜索网站不显示图片,wordpress获取文章的标签Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava versi… Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava version “11.0.19” 2023-04-18 LTSSpark3.4.1 1.Spark 下载 Spark 下载 2.单机测试环境配置 ## 1.创建目录 mkdir -p /usr/local/spark ## 2.解压 sprak 到指定目录 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /usr/local/spark/ ## 3.进入安装目录可将解压后文件夹重命名为 spark 即可 cd /usr/local/spark/spark-3.4.1-bin-hadoop3/ ## 4.修改环境变量并更新 echo export SPARK_HOME/usr/local/spark/spark-3.4.1-bin-hadoop3 /etc/profile echo PATH${SPARK_HOME}/bin:${PATH} /etc/profile source /etc/profile ## 5.复制 spark 配置 cd $SPARK_HOME/conf cp spark-env.sh.template spark-env.sh ## 6.测试 cd $SPARK_HOME/bin ./run-example SparkPi## 1.启动 ./spark-shellUI访问控制打印地址为虚拟机域名Windows 未添加 Host 解析直接通过IP地址访问## 1.停止 scala :quit## 1.交互分析 cd $SPARK_HOME/bin cat /home/test.txt ./spark-shell ## 2.取文件 var filesc.textFile(file:///home/test.txt) ## 3.打印行数和第一行信息 file.count() file.first() ## 4.过滤 var hellofile.filter(lineline.contains(Hello)) hello.count()3.集群配置 域名地址类别nn192.168.1.6masternd1192.168.1.7slavend2192.168.1.8slave 同单机配置在 nd1 、nd2 部署 spark并设置环境变量也可利用 scp 命令将住节点下配置好的文件拷贝到从节点 ## 1.修改 nn 配置此处旧版本为 slave cd $SPARK_HOME/conf cp workers.template workers vim workers ## 2.添加主从节点域名 echo nn workers echo nd1 workers echo nd2 workers ## 3.保存并将配置文件分发到 nd1、nd2 scp workers rootnd1:$SPARK_HOME/conf/ scp workers rootnd2:$SPARK_HOME/conf/ ## 4.增加 spark 配置 echo export JAVA_HOME/usr/local/java/jdk-11.0.19/ spark-env.sh echo export SPARK_MASTER_HOSTnn spark-env.sh echo export SPARK_MASTER_PORT7077 spark-env.sh ## 5.将配置分发到 nd1、nd2 scp spark-env.sh rootnd1:$SPARK_HOME/conf/ scp spark-env.sh rootnd2:$SPARK_HOME/conf/workers 文件配置内容如下 ## 1.修改 host 将本机域名与IP地址绑定 vim /etc/hosts ## 2.启动 cd $SPARK_HOME/sbin/ ./start-all.sh ## 3.停止 ./stop-all.shHost 配置 启动日志 查看集群 UIhttp://192.168.1.6:8080/二.Java 访问 Spark 当前测试环境为 VM Ware 虚拟机本地为 WIN 10 IDEA 调试问题记录Spark 回调本机超时Win 防火墙未关闭端口不通Lamdba 语法 cannot assign instance of java.lang.invoke.SerializedLambda本地 Jdk 版本和 Spark 集群环境 Jdk 版本要一致String Serialized 序列化问题Java 依赖包和 Spark Jar 包版本要一致Jdk 版本过高某些类解析提示 unnamed可以在 IDEA 启动命令配置上–add-exports java.base/sun.nio.chALL-UNNAMED域名 由于虚拟机原因本机存在虚拟网卡虚拟机内访问本地会通过域名默认本地主机名访问要注意服务回调端口绑定的地址是虚拟网卡地址还是真实网卡地址并将该地址配置配置到虚拟机的 Hosts | Linux 配置域名解析 vim /etc/hosts 1.Pom 依赖 ?xml version1.0 encodingUTF-8? project xmlnshttp://maven.apache.org/POM/4.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdorg.example/groupIdartifactIdspark-demo/artifactIdversion1.0-SNAPSHOT/versionpackagingjar/packagingpropertiesmaven.compiler.source11/maven.compiler.sourcemaven.compiler.target11/maven.compiler.targetproject.build.sourceEncodingUTF-8/project.build.sourceEncoding/propertiesdependenciesdependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.12/artifactIdversion3.4.1/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-sql_2.12/artifactIdversion3.4.1/version/dependency/dependenciesbuildfinalNamemySpark/finalName/build /project2.测试代码 1.计算 π package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql.Dataset; import org.apache.spark.sql.Row; import org.apache.spark.sql.RowFactory; import org.apache.spark.sql.SQLContext; import org.apache.spark.sql.types.DataTypes; import org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType;import java.util.ArrayList; import java.util.Arrays; import java.util.List;import static org.apache.spark.sql.functions.col;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);getPi(jsc);}/*** 计算 pi* 即(0,1)随机数落在 1/4 圆占单位正方形的概率 (1/4 * (Pi*1^2))/(1^2) Pi/4 count/numSamples*/public static void getPi(JavaSparkContext jsc){int numSamples 1000000;ListInteger l new ArrayList(numSamples);for (int i 0; i numSamples; i) {l.add(i);}//统计命中数long count jsc.parallelize(l).filter(i - {double x Math.random();double y Math.random();return x*x y*y 1;}).count();System.out.println(Pi is roughly 4.0 * count / numSamples);} }三.Spark 配置 Hadoop 1.配置 Hadoop ## 1.停止 spark 服务 修改主节点 spark 配置基于前面教程搭建的 Hadoop 集群 echo export HADOOP_CONF_DIR/usr/local/hadoop/hadoop-3.3.6/etc/hadoop $SPARK_HOME/conf/spark-env.sh ## 2.启动 Hadoop 服务 $HADOOP_HOME/sbin/start-all.sh ## 3.启动 Spark 服务 $SPARK_HOME/sbin/start-all.sh ## 4.查看 Hadoop 文件 hadoop fs -cat /log/test.txt2.测试代码 1.统计字符数 package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);dataFrame(jsc);}/*** DataFrame API examples*/public static void dataFrame(JavaSparkContext jsc){// Creates a DataFrame having a single column named lineJavaRDDString lines jsc.textFile(hdfs://192.168.1.6:9000/log/test.txt);JavaRDDInteger lineLengths lines.map(s - s.length());int totalLength lineLengths.reduce((a, b) - a b);System.out.println(totalLength);}}
http://www.lebaoying.cn/news/68910.html

相关文章:

  • 做网站用最新软件网站维护包括哪些
  • 网站设计原型图小程序头条小游戏
  • 贵州省贵州省建设厅网站网页制作框架教程
  • 青岛网站建设博采网络网站建公司生存
  • 给公司做宣传网站的好处网页设计与制作作业代码
  • 网站开发页面外贸网页制作公司
  • 济源建设网站oa系统下载手机版下载
  • 网站建设报告书总结网站开发可以申请著作权吗
  • 设计网站一条龙广州企业网站制作公司
  • 佛山建设企业网站网站开发的开发语言
  • 网站建设哪好网站建设职业培训
  • 怎么做水果网站外国人做网站
  • 济南手机建站哪家好中企动力科技股份有限公司扬州分公司
  • seo网站权重东莞有哪些网络有限公司
  • 新浪网站用什么语言做的中国人才网登录入口
  • 网站导航优化的描述桐乡微网站建设公司
  • physon可以做网站绍兴seo包年排行榜
  • saas电商建站系统大学 两学一做专题网站
  • 做网站后台用什么写wordpress stats view counter
  • 17做网站官网网站建设行业产业链分析
  • 国外营销型网站设计景泰做网站
  • 北京百度糯米团购有做网站的电话吗阿里云网站建设教程视频
  • 书写网站建设策划书56物流网
  • 世界工厂采购网站php网站开发结构说明
  • 网站开发后端框架wordpress 速度
  • 泉州网站建设+推广技术支持 东莞网站建设 轴承
  • 企业搭建一个营销型网站多少钱建站哪个便宜
  • 怎么样评价网站做的好坏网站设置黑白色
  • 哪些网站可以做签约设计师亚马逊a+页面模板
  • 西安网站优化招聘织梦后台发布了网站没显示