메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


0. anaconda3가 이미 설치되어 있고 conda를 통하여 jupyterhub및 notebook를 설치완료된 상태이지만 python 3.6.5를 사용하지 못하고 RHEL 7.4에 default설치된 python 3.7.5를 사용하도록 PATH를 지정하는 경우 절대경로를 지정하지 않고 jupyterhub등을 실행하면 오류가 발생하고 특히 http://gooper.com:8000/에서 로그인 시도시 아래와 같은 오류가 발생하면서 로그인에 실패하면

config파일에 "c.Spawner.cmd = ['/usr/anaconda3/bin/jupyterhub-singleuser']"를 반드시 설정하고 기동해준다.(jupyterhub-singleuser가 있는 절대경로임)

--------------오류내용--------

 File "/usr/anaconda3/lib/python3.6/subprocess.py", line 1344, in _execute_child

        raise child_exception_type(errno_num, err_msg, err_filename)

    PermissionError: [Errno 13] Permission denied: 'jupyterhub-singleuser'


----------------설정방법(conda를 이용)------------

1. jupyterhub설치

  sudo /usr/anaconda3/bin/conda install -c conda-forge jupyterhub

2. jupyter설치

  sudo /usr/anaconda3/bin/conda install notebook

3. 설정파일이 저장될 위치 생성

  sudo mkdir /etc/jupyterhub

4. default 설정파일 생성 명령문

sudo /usr/anaconda3/bin/jupyterhub --generate-config -f /etc/jupyterhub/jupyterhub_config.py

5. 설정파일 수정(vi jupyterhub_config.py)후 저장

#  This is the address on which the proxy will bind. Sets protocol, ip, base_url

c.JupyterHub.bind_url = 'http://XXX.XXX.XXX.XXX:8000'


#  Some spawners allow shell-style expansion here, allowing you to use

#  environment variables. Most, including the default, do not. Consult the

#  documentation for your spawner to verify!

c.Spawner.cmd = ['/usr/anaconda3/bin/jupyterhub-singleuser']


5. 실행(debug모드로 실행)

  sudo /usr/anaconda3/bin/jupyterhub --debug


6. 확인(default는 PAM인증임)

https://localhost:8000


* jupyter는 jupyterhub를 통하면 자동으로 spawn되므로 따로 기동시킬 필요없음


번호 제목 날짜 조회 수
306 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 2019.06.14 2149
305 source, sink를 직접 구현하여 사용하는 예시 2019.05.30 2244
304 kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 2019.05.30 1908
303 hive테이블의 물리적인 위치인 HDFS에 여러개의 데이터 파일이 존재할때 한개의 파일로 merge하여 동일한 테이블에 입력하는 방법 2019.05.23 2289
302 하둡 클러스터 전체 노드를 다시 기동하면 invalidate metadata를 수행해야 데이터가 틀어지지 않는다. 2019.05.20 2228
301 Could not configure server becase SASL configuration did not allow the Zookeeper server to authenticate itself properly: javax.security.auth.login.LoginException: Checksum failed 2019.05.18 1385
300 json으로 존재하는 데이터 parsing하기 2019.03.25 2686
299 TransmitData() to failed: Network error: Recv() got EOF from remote (error 108) 오류 현상 2019.02.15 2083
298 [Oozie]Disk I/O error: Failed to open HDFS file dhfs://..../tb_aaa/....OPYING 2019.02.15 2040
297 kafka에서 메세지 중복 consume이 발생할 수 있는 상황 2018.10.23 1943
296 [sentry]role부여후 테이블명이 변경되어 오류가 발생할때 조치방법 2018.10.16 2066
295 hive metastore ERD file 2018.09.20 1935
294 Error: java.lang.RuntimeException: java.lang.OutOfMemoryError 오류가 발생하는 경우 2018.09.20 2144
293 physical memory used되면서 mapper가 kill되는 경우 오류 발생시 조치 2018.09.20 3018
292 impala,hive및 hdfs만 접근가능하고 파일을 이용한 테이블생성가능하도록 hue 권한설정설정 2018.09.17 1721
291 cloudera(python 2.7.5)에서 anaconda3로 설치한 외부 python(3.6.6)을 이용하여 pyspark를 사용하는 설정 2018.09.14 2655
290 oracle to hive data type정리표 2018.08.22 5981
289 postgresql-9.4에서 FATAL: remaining connection slots are reserved for non-replication superuser connections가 나올때 조치 2018.08.16 2495
288 sentry설정 방법및 활성화시 설정이 필요한 파일및 설정값, 계정생성 방법 2018.08.16 2276
287 컬럼및 라인의 구분자를 지정하여 sqoop으로 데이타를 가져오고 hive테이블을 생성하는 명령문 2018.08.03 2085
위로