Cara Intall Apache Spark di Linux




 1. Install Java

     Memeriksa apakah java SDK (Standar Development Kit) dan JRE(Java Runtime Environment) sudah terinstall di OS kita
$ java -version


 Pada gambar diatas telihat versi java SDK yang digunakan ialah versi 1.8.0_131
serta versi JRE 1.8.0_131 serta telah terinstall.


Jika belum diinstall,kita bisa mendownload SDK dan JRE terlebih dahulu di
http://www.oracle.com/technetwork/java/javase/downloads/index.html
Setelah itu ekstrak filenya kemudian masukkan kedalam PATH Environment

2.  Install Scala


 - Download scala di http://www.scala-lang.org/download/
 - Ekstraks file scala
$ tar xvf scala-2.12.3.tgz
$ sudo -i
# cd /home/nisty/Downloads/
# mv scala-2.12.3 /usr/local/scala/
# exit
$ export PATH=$PATH:/usr/local/scala/bin
$ scala -version 
















3. Install Apache Spark

- Download Apache Spark di https://spark.apache.org/downloads.html
$ tar xvf spark-2.2.0-bin-hadoop2.7.tgz
$ sudo -i
# cd /home/nisty/Downloads/
# mv spark-2.2.0-bin-hadoop2.7 /usr/local/spark/
$ export PATH=$PATH:/usr/local/spark/bin
$ spark-shell


Untuk menjalankan di user interface web akses browser dengan alamat http://192.168.1.23:4040 terlihat pada gambar diatas itu adalah alamatnya .
Bisa jadi alamatnya berbeda, sesuaikan dengan alamat yg diberikan.



Share: