Video: Apache Hadoop Tutorial | Hadoop Tutorial For Beginners | Big Data Hadoop | Hadoop Training | Edureka 2024
Klien sarang pertama adalah antarmuka baris perintah Hive (CLI). Untuk menguasai poin-poin penting dari klien CLI Hive, ini mungkin bisa membantu untuk meninjau arsitektur Sarang yang tampak agak ramai.
Pada gambar kedua, arsitektur disederhanakan untuk fokus hanya pada komponen yang dibutuhkan saat menjalankan CLI.
Ini adalah komponen sarang yang dibutuhkan saat menjalankan CLI pada cluster Hadoop. Di sini, Anda menjalankan Hive dalam mode lokal, yang menggunakan penyimpanan lokal, bukan HDFS, untuk data Anda.
Untuk menjalankan CLI Hive, Anda menjalankan perintah sarang dan menentukan CLI sebagai layanan yang ingin Anda jalankan. Dalam daftar berikut, Anda dapat melihat perintah yang diperlukan serta beberapa pernyataan HiveQL pertama kami. (Anotasi langkah-langkah menggunakan model A-B-C disertakan dalam daftar untuk mengarahkan perhatian Anda ke perintah utama.)
(A) $ $ HIVE_HOME / bin sarang - melayani cli (B) sarang> tentukan sarang. cli. mencetak. arus. db = benar; (C) sarang (default)> CREATE DATABASE ourfirstdatabase; OK Waktu yang dibutuhkan: 3. 756 detik (D) sarang (default)> USE ourfirstdatabase; OK Waktu yang dibutuhkan: 0. 039 detik (E) sarang (ourfirstdatabase)> CREATE TABLE our_first_table (> FirstName STRING,> LastName STRING,> EmployeeId INT); OK Waktu yang dibutuhkan: 0. 043 detik sarang (ourfirstdatabase)> berhenti; (F) $ ls / home / biadmin / sarang / gudang / database kami. db our_first_table
Perintah pertama (lihat Langkah A) memulai CLI Hive menggunakan variabel lingkungan $ HIVE_HOME. The -service cli opsi baris perintah mengarahkan sistem Sarang untuk memulai antarmuka baris perintah, meskipun Anda bisa memilih server lain.
Selanjutnya, di Langkah B, Anda memberi tahu CLI Hive untuk mencetak database kerja Anda saat ini sehingga Anda tahu di mana Anda berada di ruang nama. (Pernyataan ini akan masuk akal setelah kami menjelaskan bagaimana cara menggunakan perintah berikutnya, jadi tahan ketat.)
Pada Langkah C Anda menggunakan bahasa definisi data HiveQL (DDL) untuk membuat database pertama Anda. (Ingatlah bahwa database di Hive hanyalah ruang nama dimana tabel tertentu berada; karena satu set tabel dapat dianggap sebagai database atau skema, Anda bisa menggunakan istilah SCHEMA menggantikan DATABASE untuk mencapai hasil yang sama.).
Lebih khusus lagi, Anda menggunakan DDL untuk memberi tahu sistem untuk membuat database yang disebut database kami dan kemudian membuat database ini menjadi default untuk perintah DDL HiveQL berikutnya menggunakan perintah USE di Langkah D. Pada Langkah E, Anda membuat yang pertama meja dan beri nama (cukup tepat) our_first_table.
(Sampai saat ini, Anda mungkin percaya bahwa itu terlihat sangat mirip SQL, mungkin ada beberapa perbedaan kecil dalam sintaks yang bergantung pada RDBMS yang Anda terbiasa - dan Anda pasti benar.) Perintah terakhir, dalam Langkah F, melakukan daftar direktori dari direktori gudang Hive yang Anda pilih sehingga Anda dapat melihat bahwa our_first_table sebenarnya telah tersimpan di disk.
Anda menetapkan sarangnya. metastore gudang. dir variabel untuk menunjuk ke direktori lokal / home / biadmin / Hive / gudang di mesin virtual Linux Anda daripada menggunakan HDFS seperti pada cluster Hadoop yang tepat.
Setelah membuat tabel, menarik untuk melihat metadata tabel. Di lingkungan produksi, Anda mungkin memiliki puluhan tabel atau lebih, jadi sangat membantu untuk dapat meninjau struktur tabel dari waktu ke waktu. Anda menggunakan perintah HiveQL untuk melakukan ini dengan menggunakan Hive CLI, namun Hive Web Interface (HWI) Server menyediakan antarmuka yang sangat membantu untuk jenis operasi ini. Menggunakan Server HWI dan bukan CLI juga bisa lebih aman. Pertimbangan hati-hati harus dilakukan saat menggunakan CLI di lingkungan produksi karena mesin yang menjalankan CLI harus memiliki akses ke keseluruhan cluster Hadoop. Oleh karena itu, administrator sistem biasanya memasang alat seperti secure shell (ssh) untuk memberikan akses yang terkontrol dan aman ke mesin yang menjalankan CLI dan juga untuk menyediakan enkripsi jaringan. Namun, ketika Server HWI digunakan, pengguna hanya dapat mengakses data Hive yang diizinkan oleh Server HWI melalui browser webnya.