a Scala és a Spark futtatása a Jupyter notebookban

a Jupyter notebook az adattudományi projektek egyik leggyakrabban használt eszköze. Ez egy nagyszerű eszköz a python szoftverek fejlesztéséhez, és nagy támogatást nyújt ehhez. Azt is fel lehet használni a scala fejlesztés a spylon-kernel. Ez egy további kernel, amelyet külön kell telepíteni.

1.lépés: Telepítse a csomagot

pip install spylon-kernel

2. lépés: Hozzon létre egy kernel specifikációt

ez lehetővé teszi számunkra, hogy kiválasszuk a Scala kernelt a notebookban.

python -m spylon_kernel install

3. lépés: indítsa el a jupyter notebookot

ipython notebook

és a notebookban válassza a New -> spylon-kernel lehetőséget . Ez elindítja a scala kernelt.

4. lépés: a notebook tesztelése

írjunk néhány scala kódot:

val x = 2
val y = 3x+y

a kimenetnek hasonlónak kell lennie a bal oldali kép eredményével. Mint látható, ez is elindítja a szikra alkatrészek. Ehhez győződjön meg róla, hogy SPARK_HOME van beállítva.

most már tudjuk használni spark. Teszteljük egy adatkészlet létrehozásával:

val data = Seq((1,2,3), (4,5,6), (6,7,8), (9,19,10))
val ds = spark.createDataset(data)
ds.show()

ennek egy egyszerű adatkeretet kell kiadnia:

ebben a kernelben akár Pythont is használhatunk a következő paranccsal %python :

%%python
x=2
print(x)

további információkért látogasson el a spylon-kernel github oldalra. A fenti kóddal ellátott notebook itt érhető el.

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.