Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
workflow 수행후 stdout등의 클릭했을때 Logs not available for 1. Aggregation may not to complete. 가 표시되며 정상적인 로그가 표시되지 않으면 /tmp/logs 폴더의 소유자및 권한을 확인해본다.
기본적으로 아래 형태의 소유권과 권한을 가져야 함.
-----------------
drwx-wx-wx hive supergroup /tmp/hive
drwxrwxrwxt mapred:hadoop /tmp/logs
-------------
drwxrwx--- hadoop:hadoop /tmp/logs/hadoop
drwxrwx--- hdfs:hadoop /tmp/logs/hdfs
댓글 0
번호 | 제목 | 날짜 | 조회 수 |
---|---|---|---|
7 | Error: java.lang.RuntimeException: java.lang.OutOfMemoryError 오류가 발생하는 경우 | 2018.09.20 | 654 |
6 | 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 | 2019.06.14 | 593 |
5 | A Cluster의 HDFS 디렉토리및 파일을 사용자및 권한 유지 하여 다운 받아서 B Cluster에 넣기 | 2020.05.06 | 603 |
» | W/F수행후 Logs not available for 1. Aggregation may not to complete. 표시되며 로그내용이 보이지 않은 경우 | 2020.05.08 | 2217 |
3 | missing block및 관련 파일명 찾는 명령어 | 2021.02.20 | 328 |
2 | hadoop nfs gateway설정 (Cloudera 6.3.4, CentOS 7.4 환경에서) | 2022.01.07 | 404 |
1 | [Hadoop Encryption] Encryption Zone에 생성된 table에 Hue에서 insert 수행시 User:hdfs not allowed to do 'DECRYPT_EEK' ON 'testkey' 오류 | 2023.11.01 | 121 |