
hadoop
文章平均质量分 63
王小禾
武汉理工大学
展开
-
[iceberg]3-spark调用iceberg入口分析
以sql调用来分析: [hadoop@10 ~]$ spark-sql --masterlocal\ --conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions \ --conf spark.sql.catalog.spark_catalog=org.apache.iceberg.spark.SparkSessionCatalog \ --co..原创 2021-10-09 16:21:53 · 926 阅读 · 0 评论 -
[iceberg]2-hivecatalog
spark-sql --master local \--driver-java-options "-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=5060" \--conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions \--conf spark.sql.catalog.my_catalog=org.原创 2021-09-28 11:07:02 · 766 阅读 · 0 评论 -
[iceberg]1-环境
环境hadoop客户端spark包hivemetastore(可选)使用spark时的两点配置:在$SPARK_HOME/conf/spark-env.sh中配置:HADOOP_HOME=/home/ec2-user/hadoop-currentHADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop/如果使用metastore,需要在$SPARK_HOME/conf/hive-site.xml中配置metastore的地址。...原创 2021-09-26 10:43:26 · 340 阅读 · 0 评论 -
gRPC测试
参考文献:示例及博客链接优先推荐:带pom的简单示例官网demoIntellij IDEA中使用Protobuf的正确姿势github: https://github.com/whbing/grpc-java/tree/v1.20.0/examples# 改动点master分支将pom中的改为<grpc.version>1.20.0</grpc.vers...原创 2019-11-22 15:03:51 · 948 阅读 · 0 评论 -
HDFS之RPC(3) 代码
1.客户端RPC.getProxy在IPC发生之前,客户端需要通过RPC.getProxy获得一个IPC接口实例,当不需要该接口实例时,必须通过RPC.stopProxy释放资源。client可以通过RPC提供的getProxy和waitForProxy两种方法得到,看下getProxy的具体实现。RPC.getProxy有3中重载方法,较复杂的方法中参数如下:protocolclie...原创 2019-05-31 11:40:59 · 349 阅读 · 0 评论 -
HDFS之RPC(2) 测试
Hadoop RPC测试用例原创 2019-05-30 18:25:53 · 267 阅读 · 0 评论 -
HDFS之RPC(1) 概述
本文介绍了RPC基本原理,RPC的java实现,以及分析了hadoopRPC的实现原理原创 2019-05-25 14:20:11 · 1850 阅读 · 0 评论 -
节点间scp写数据慢与close_wait关系的排查
close_wait是关闭连接过程中的正常状态,但是正常情况下close_wait的状态很快就会转换所以很难被捕捉到。所以如果你能发现大批量的close_wait基本可以确定是出问题了原创 2020-07-29 14:53:42 · 266 阅读 · 0 评论 -
NameNode与DataNode删除块逻辑分析
1.删除逻辑分析 1.删除文件NameNode入口 2.RedundancyMonitor监控线程 3.DataNode心跳及IBR 2.大量删除数据块的隐患及解决办法1.背景出现多次Unable to close file情况,具体如下。Client: Caused by: java.io.IOException: Unable to close file because the last block does not have enough number of...原创 2020-07-22 17:43:38 · 2983 阅读 · 1 评论 -
hadoop mvn test环境
hadoop mvn test的时候机器必须的环境有:* Unix System* JDK 1.8* Maven 3.3 or later* ProtocolBuffer 2.5.0* CMake 3.1 or newer (if compiling native code)其中 ProtocolBuffer 必须是2.5.0版本。必须root用户:cmake-install....原创 2020-03-15 14:24:39 · 258 阅读 · 0 评论 -
RECEIVED SIGNAL 15
DFSRouter: RECEIVED SIGNAL 15: SIGTERMERROR org.apache.hadoop.hdfs.server.namenode.NameNode: RECEIVED SIGNAL 15: SIGTERM二、分析1、signal 15含意是使用不带参数的kill命令时终止进程,初步判断,由于文件数据块的原因造成datanode失联,手动执行如下命令had...原创 2020-03-10 11:31:40 · 20935 阅读 · 1 评论 -
FileSystem、Path与Configure
1. FileSystem我们通过断点调试可知,当host一致时,返回的是同一个对象。fs1=new Path("hdfs://cluster-host1:9000/a/b/c",conf1);fs2=new Path("hdfs://cluster-host1:9000/x/y/z",conf2);返回的是同一个对象:fs1==fs2;...原创 2019-07-12 20:05:50 · 1641 阅读 · 0 评论 -
hadoop机架感知配置
HDFS采用一种称为机架感知(rack-aware)的策略来改进数据的可靠性、可用性和网络带宽的利用率。hadoop机架感知配置原创 2019-05-28 20:45:12 · 452 阅读 · 0 评论 -
hadoop Tool和ToolRunner
1. Tool / Configurable / Configured一个tool接口用于支持处理普通的命令行参数。hadoop ToolRunner使用示例Tool,代表的是任何抽象的Map-Reduce 工具/应用。Tool/application应该代表ToolRunner.run(Tool,String[])标准命令行的处理原创 2019-08-08 15:01:43 · 684 阅读 · 0 评论