분류 전체보기 48

HDFS safemode 설정

간혹 namenode 실행할 때, safemode 가 on 상태로 되어있어 namenode 가 실행되지 않는 경우가 있다. 이럴 땐 강제로 safemode 를 off 상태로 변경해주어야 한다.Safemode 끄기12345678910111213141516171819202122232425262728293031$ hdfs dfsadmin -safemode leave Usage: hdfs [--config confdir] [--loglevel loglevel] COMMANDUsage: hadoop [--config confdir] COMMANDwhere COMMAND is one of: namenode -format format the DFS filesystem secondarynamenode run the D..

Big Data/HDFS 2016.03.11

Apache Spark 설치

* Putty로 1번 서버로 접속할 시 SSH Tunnels 설정에 L8081 -> localhost:8081과 L4040 -> localhost:4040을 추가하여 저장 후 연결하도록 한다. ----- 1번, 2번, 3번 서버에서 동일하게 수행한다.------ 1. system에서 spark 계정을 만든 후 hdfs 계정으로 HDFS의 /user/spark 폴더를 만들고 $ chmod spark:hdfs로 해당 폴더에 spark 계정 권한 부여한다. root 계정에서 $ adduser spark -g hdfs 후 $ passwd spark 해서 passwd 설정 hdfs 계정에서 $ hadoop fs -mkdir /user/spark 후 $ hadoop fs -chmod spark:hdfs /user/..

Big Data/Spark 2014.10.01

HDP 2.1 설치

[ 설치 전 확인 사항 ] 1) Java process kill $ ps -ef | grep java 로 확인 2) putty 접속 설정 tunneling 으로 L8080 -> HOST:8080 추가 [ 설치 ] 1. VM클러스터 내 각 호스트에서 root계정으로 다음을 실시 * password-less 설정 - $ ssh-keygen 후 엔터키, 엔터키, 엔터키 - $ ssh-copy-id -i .ssh/id_rsa.pub 후 연결 확인 * iptables off - $ chkconfig iptables off or service iptables stop - $ /etc/init.d/iptables stop * selinux disable - $ setenforce 0 - $ vim /etc/yum/p..

Big Data/Amabari 2014.07.10

Oozie workflow 에서 mapred.job.priority 설정

Oozie workflow 에서 job 의 priority를 설정할 때, oozie.launcher.mapred.job.priority ${priority} mapred.job.priority ${priority} 구글링 해보면 위와 같이 property를 추가 하면 된다고 나온다. 하지만, mapreduce action에만 해당 되는 이야기인지 java action에서는 해당 property가 정상적으로 적용되지 않았다. oozie launcher까지는 property들이 잘 적용되지만 막상 mapreduce까지 내려가면 위 propety들이 전부 누락되어버린다. 그래서 java option 에 아래와 같이 직접 추가해주니 mapred.job.priority 정보가 mapreduce까지 잘 적용되는 것..

Big Data/Oozie 2014.06.19