Komponen Jupyter opsional Dataproc

Anda dapat menginstal komponen tambahan seperti Jupyter saat membuat cluster Dataproc menggunakan fitur Komponen opsional. Halaman ini menjelaskan komponen Jupyter.

Komponen Jupyter adalah notebook pengguna tunggal berbasis Web untuk analisis data interaktif dan mendukung UI Web JupyterLab. UI Web Jupyter tersedia di port 8123 pada node master pertama cluster.

Luncurkan notebook untuk beberapa pengguna. Anda dapat membuat instance Vertex AI Workbench yang kompatibel dengan Dataproc atau menginstal plugin Dataproc JupyterLab di VM untuk menyajikan notebook kepada beberapa pengguna.

Konfigurasi Jupyter. Jupyter dapat dikonfigurasi dengan menyediakan dataproc:jupyter properti cluster. Untuk mengurangi risiko eksekusi kode jarak jauh melalui API server notebook yang tidak aman, setelan properti cluster dataproc:jupyter.listen.all.interfaces default adalah false, yang membatasi koneksi ke localhost (127.0.0.1) saat Gateway Komponen diaktifkan (aktivasi Gateway Komponen diperlukan saat menginstal komponen Jupyter).

Notebook Jupyter menyediakan kernel Python untuk menjalankan kode Spark, dan kernel PySpark. Secara default, notebook disimpan di Cloud Storage di bucket staging Dataproc, yang ditentukan oleh pengguna atau dibuat otomatis saat cluster dibuat. Lokasi dapat diubah pada saat pembuatan cluster menggunakan properti cluster dataproc:jupyter.notebook.gcs.dir.

Bekerja dengan file data. Anda dapat menggunakan notebook Jupyter untuk bekerja dengan file data yang telah diupload ke Cloud Storage. Karena konektor Cloud Storage telah diinstal sebelumnya di cluster Dataproc, Anda dapat mereferensikan file secara langsung di notebook Anda. Berikut adalah contoh yang mengakses file CSV di Cloud Storage:

df = spark.read.csv("gs://bucket/path/file.csv")
df.show()

Lihat Fungsi Pemuatan dan Penyimpanan Generik untuk contoh PySpark.

Menginstal Jupyter

Instal komponen saat Anda membuat cluster Dataproc. Komponen Jupyter memerlukan aktivasi Gateway Komponen Dataproc.

Konsol

  1. Aktifkan komponen.

gcloud CLI

Untuk membuat cluster Dataproc yang menyertakan komponen Jupyter, gunakan perintah gcloud dataproc clusters create cluster-name dengan flag --optional-components.

Contoh versi gambar default terbaru

Contoh berikut menginstal komponen Jupyter pada cluster yang menggunakan versi image default terbaru.

gcloud dataproc clusters create cluster-name \
    --optional-components=JUPYTER \
    --region=region \
    --enable-component-gateway \
    ... other flags

REST API

Komponen Jupyter dapat diinstal melalui Dataproc API menggunakan SoftwareConfig.Component sebagai bagian dari permintaan clusters.create.

Membuka UI Jupyter dan JupyterLab

Klik link Component Gateway konsolGoogle Cloud untuk membuka UI Jupyter notebook atau JupyterLab yang berjalan di node master cluster di browser lokal Anda.

Pilih "GCS" atau "Local Disk" untuk membuat Notebook Jupyter baru di salah satu lokasi.

Memasang GPU ke node master dan pekerja

Anda dapat menambahkan GPU ke node master dan pekerja cluster saat menggunakan notebook Jupyter untuk:

  1. Lakukan praproses data di Spark, lalu kumpulkan DataFrame ke master dan jalankan TensorFlow
  2. Menggunakan Spark untuk mengatur eksekusi TensorFlow secara paralel
  3. Menjalankan Tensorflow-on-YARN
  4. Gunakan dengan skenario machine learning lainnya yang menggunakan GPU