메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


spark spark notebook 0.7.0설치및 설정

총관리자 2016.11.14 10:51 조회 수 : 753

*참고 : http://sungsoo.github.io/2015/04/24/sparknotebook.html

1. spark-notebook.io에서 다운로드 받아 압축을 푼다.
(Build: |  buildTime-Mon Oct 31 17:22:51 UTC 2016 | formattedShaVersion-0.7.0-c955e71d0204599035f603109527e679aa3bd570 | sbtVersion-0.13.8 | scalaVersion-2.11.8 | sparkNotebookVersion-0.7.0 | hadoopVersion-2.7.2 | jets3tVersion-0.7.1 | jlineDef-(jline,2.12) | sparkVersion-2.0.1 | withHive-true |.)

2. conf/밑에 있는 profiles을 아래와 같이 수정해준다.
(spark가 설치되어 있고 spark의 standalone모드로 사용하는 경우임)

3. ./bin/spark-notebook을 띄워준다.
4. http://localhost:9001로 접근하여 사용한다.

----------------------profiles
-bash-4.1$ vi profiles
{
  "local" : {
    "id" : "local",
    "name" : "Local",
    "template" : {
      "customLocalRepo" : null,
      "customRepos" : null,
      "customDeps" : null,
      "customImports" : null,
      "customSparkConf" : {
        "spark.app.name" : "Notebook",
        "spark.master" : "local[8]",
        "spark.executor.memory" : "1G"
      }
    }
  },
  "standalone" : {
    "id" : "standalone",
    "name" : "Standalone",
    "template" : {
      "customLocalRepo" : null,
      "customRepos" : null,
      "customDeps" : null,
      "customImports" : null,
      "customSparkConf" : {
        "spark.app.name" : "Notebook",
        "spark.master" : "spark://sda1:7077,sda2:7077",
        "spark.executor.memory" : "5G"
      }
    }
  },
  "mesos" : {
    "id" : "mesos",
    "name" : "Mesos",
    "template" : {
      "customLocalRepo" : null,
      "customRepos" : null,
      "customDeps" : null,
      "customImports" : null,
"profiles" 66L, 1712C                                                                                                                                                                                         1,1        꼭대기
{
  "local" : {
    "id" : "local",
    "name" : "Local",
    "template" : {
      "customLocalRepo" : null,
      "customRepos" : null,
      "customDeps" : null,
      "customImports" : null,
      "customSparkConf" : {
        "spark.app.name" : "Notebook",
        "spark.master" : "local[8]",
        "spark.executor.memory" : "1G"
      }
    }
  },
  "standalone" : {
    "id" : "standalone",
    "name" : "Standalone",
    "template" : {
      "customLocalRepo" : null,
      "customRepos" : null,
      "customDeps" : null,
      "customImports" : null,
      "customSparkConf" : {
        "spark.app.name" : "Notebook",
        "spark.master" : "spark://sda1:7077,sda2:7077",
        "spark.executor.memory" : "5G"
      }
    }
  },
  "mesos" : {
    "id" : "mesos",
    "name" : "Mesos",
    "template" : {
      "customLocalRepo" : null,
      "customRepos" : null,
      "customDeps" : null,
      "customImports" : null,
      "customSparkConf" : {
        "spark.app.name" : "Notebook",
        "spark.master" : "mesos://<master>:<port>",
        "spark.executor.memory" : "512m",
        "spark.executor.uri" : "hdfs://<spark>.tgz",
        "spark.driver.host" : "<host>",
        "spark.local.dir" : "<path>"
      }
    }
  },
  "yarn" : {
      "id" : "yarn-client",
                                                                                                                     
번호 제목 날짜 조회 수
63 It is indirectly referenced from required .class files 오류 발생시 조치방법 2017.03.09 873
62 spark2.0.0에서 hive 2.0.1 table을 읽어 출력하는 예제 소스(HiveContext, SparkSession, SQLContext) 2017.03.09 365
61 spark에서 hive table을 읽어 출력하는 예제 소스 2017.03.09 661
60 spark에서 hive table을 읽어 출력하는 예제 소스 2017.03.09 871
59 spark 2.0.0를 windows에서 실행시 로컬 파일을 읽을때 발생하는 오류 해결 방법 2017.01.12 568
» spark notebook 0.7.0설치및 설정 2016.11.14 753
57 참고할만한 spark예제를 설명하는 사이트 2016.11.11 576
56 How-to: Tune Your Apache Spark Jobs (Part 2) file 2016.10.31 457
55 VisualVM 1.3.9을 이용한 spark-submit JVM 모니터링을 위한 설정및 spark-submit실행 옵션 2016.10.28 2377
54 java.lang.OutOfMemoryError: unable to create new native thread오류 발생지 조치사항 2016.10.17 1113
53 AIX 7.1에서 hive실행시 "hive: line 86: readlink: command not found" 오류가 발생시 임시 조치사항 2016.09.25 964
52 hive기동시 Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D 오류 발생시 조치사항 2016.09.25 1041
51 schema설정없이 hive를 최초에 실행했을때 발생하는 오류메세지및 처리방법 2016.09.25 1362
50 파일끝에 붙는 ^M 일괄 지우기(linux, unix(AIX)) 혹은 파일내에 있는 ^M지우기 2016.09.24 236
49 start-all.sh로 spark데몬 기동시 "JAVA_HOME is not set"오류 발생시 조치사항 2016.08.01 1243
48 Apache Spark와 Drools를 이용한 CEP구현 테스트 2016.07.15 1111
47 kafka로 부터 메세지를 stream으로 받아 처리하는 spark샘플소스(spark의 producer와 consumer를 sbt로 컴파일 하고 서버에서 spark-submit하는 방법) 2016.07.13 787
46 spark-sql실행시 ERROR log: Got exception: java.lang.NumberFormatException For input string: "2000ms" 오류발생시 조치사항 2016.06.09 390
45 spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 2016.06.09 4759
44 spark-sql실행시 The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH오류 발생시 조치사항 2016.06.09 684
위로