메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. 테스트용 triple rdf 파일인 test.ttl파일을 준비한다.
2. HDFS에 저장한다 : hadoop fs -put test.ttl
3. spark-submit을 이용하여 Spark Application을 실행한다.
 : $HOME/spark/bin/spark-submit --master spark://sda1:7077,sda2:7077 --deploy-mode client --class ElephasTestBySpark --jars icbms-assembly-2.0.jar icbms-assembly-2.0.jar test.ttl



---------build.sbt(일부분) -----------
 //elephas
    ("org.apache.jena" % "jena-elephas-common" % "3.1.0"),
    ("org.apache.jena" % "jena-elephas-io" % "3.1.0"),
    ("org.apache.jena" % "jena-elephas-mapreduce" % "3.1.0"),
    
    // hadoop
    ("org.apache.hadoop" % "hadoop-common" % "2.7.2" % "provided"),    
    ("org.apache.hadoop" % "hadoop-mapreduce-client-common" % "2.7.2" % "provided")

-------------------------ElephasTestBySpark.scala---------------------
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.jena.hadoop.rdf.io.input.TriplesInputFormat
import org.apache.hadoop.io.LongWritable
import org.apache.jena.hadoop.rdf.types.TripleWritable
import org.apache.hadoop.conf.Configuration 

object ElephasTestBySpark{

  def main(args: Array[String]) = {

    val conf = new SparkConf()
      .setAppName("ElephasTestBySpark")

    val sc = new SparkContext(conf)

    val hadoopConf = new Configuration()

    val rdfTriples = sc.newAPIHadoopFile(args(0).toString(),
        classOf[TriplesInputFormat],
        classOf[LongWritable],
        classOf[TripleWritable],
        hadoopConf)

    System.out.println("take 10 start-------------------");
    rdfTriples.take(10).foreach(println)
    System.out.println("take 10 end-------------------");
    
    System.out.println("countByKey start-------------------");
    rdfTriples.countByKey().foreach(println)
    System.out.println("countByKey end-------------------");

  }

}
번호 제목 날짜 조회 수
262 외부 jar파일을 만들려고하는jar파일의 package로 포함하는 방법 2016.08.10 176
261 servlet-api를 jar형태로 build할때 포함하지 말고 java 설치 위치의 jre/lib/ext에 복사하여 사용하는것이 좋다. 2016.08.10 607
» [Elephas] Jena Elephas를 이용하여 Spark에서 rdfTriples의 RDD를 만들고 RDD관련 작업하는 샘플소스 2016.08.10 534
259 로컬의 라이브러리파일들을 dependency에 포함시키는 방법 2016.08.09 643
258 gradle을 이용하여 jar파일 생성시 provided속성을 지정할 수 있게 설정하는 방법 2016.08.09 613
257 [SBT] assembly시 "[error] deduplicate: different file contents found in the following:"오류 발생시 조치사항 2016.08.04 1086
256 [SBT] SBT 사용법 정리(링크) 2016.08.04 1040
255 [SBT] project.sbt에 libraryDependencies에 필요한 jar를 지정했으나 sbt compile할때 클래스를 못찾는 오류가 발생했을때 조치사항 2016.08.03 1213
254 build할때 unmappable character for encoding MS949 에러 발생시 조치사항 2016.08.03 911
253 kafkaWordCount.scala의 producer와 consumer 클래스를 이용하여 kafka를 이용한 word count 테스트 하기 2016.08.02 585
252 bin/start-hbase.sh실행시 org.apache.hadoop.hbase.util.FileSystemVersionException: HBase file layout needs to be upgraded오류가 발생하면 조치사항 2016.08.01 538
251 start-all.sh로 spark데몬 기동시 "JAVA_HOME is not set"오류 발생시 조치사항 2016.08.01 1243
250 hadoop클러스터를 구성하던 서버중 HA를 담당하는 서버의 hostname등이 변경되어 문제가 발생했을때 조치사항 2016.07.29 447
249 Journal Storage Directory /data/hadoop/journal/data/mycluster not formatted 오류시 조치사항 2016.07.29 1717
248 슬라이딩 윈도우 예제 2016.07.28 275
247 거침없이 배우는 Drools 책의 샘플소스 file 2016.07.22 1496
246 drools를 이용한 로그,rule matching등의 테스트 java프로그램 file 2016.07.21 294
245 ServerInfo객체파일 2016.07.21 1153
244 drools에서 drl관련 로그를 기록하기 위한 클래스 파일 2016.07.21 870
243 워킹 메모리에 대한 정보를 처리하는 클래스 파일 2016.07.21 954
위로