spark-sql 写代码方式
1、idea里面将代码编写好打包上传到集群中运行,上线使用
spark-submit提交
2、spark shell (repl) 里面使用sqlContext 测试使用,简单任务使用
spark-shell --master yarn-client
不能使用yarn-cluster Driver必须再本地启动
3、spark-sql spark-sql --master yarn-client 不能使用yarn-cluster
可以整合hive 使用hive的元数据
开启hive元数据服务的目的是让spark sql 可以获取到hive的元数据
1、在hive的hive-site.xml修改一行配置,增加了这一行配置之后,以后在使用hive之前都需要先启动元数据服务 hive.metastore.uris thrift://master:9083
2、启动hive元数据服务
共有 0 条评论