Spark 로컬 개발환경 세팅(윈도우 + Intellij + scala + sbt)
1. IntelliJ 설치
2. scala 플러그인 설치
3. 빌드 툴 SBT 설정
4. build.sbt 설정
name := "spark-test"
version := "1.0"
val sparkVersion = "2.4.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % sparkVersion,
"org.apache.spark" %% "spark-sql" % sparkVersion
)
5. winutils.exe 다운
하둡 버전에 맞는 winutils.exe를 다운 받는다.
6. winutils.exe 경로 지정
C:\winutils\bin\winutils.exe
7. 샘플 코드
import org.apache.spark.sql.SparkSession
object HelloScala {
def main(args: Array[String]){
System.setProperty("hadoop.home.dir", "C:\\winutils")
val spark = SparkSession.builder()
.config("spark.driver.host", "localhost")
.master("local[1]")
.appName("Spark Test")
.getOrCreate()
}
}