Daftar Isi:
- Kerangka kerja RHive berfungsi sebagai jembatan antara bahasa R dan Sarang. RHive memberikan perpustakaan statistik kaya dan algoritma R ke data yang tersimpan di Hadoop dengan memperluas bahasa query Sual seperti HiveQL (HiveQL) dengan fungsi R-spesifik. Melalui fungsi RHive, Anda dapat menggunakan HiveQL untuk menerapkan model statistik R ke data di cluster Hadoop Anda yang telah Anda katalogkan dengan menggunakan Hive.
- Kerangka open source lain yang tersedia untuk pemrogram R adalah RHadoop, kumpulan paket yang dimaksudkan untuk membantu mengelola distribusi dan analisis data dengan Hadoop. Tiga paket catatan - rmr2, rhdfs, dan rhbase - menyediakan sebagian besar fungsionalitas RHadoop:
- Revolusi R (oleh Revolusi Analytics) adalah penawaran R komersial dengan dukungan untuk integrasi R pada sistem terdistribusi Hadoop. Revolution R berjanji untuk memberikan peningkatan kinerja, fungsi, dan kegunaan R on Hadoop. Untuk memberikan analisis mendalam seperti R, Revolution R memanfaatkan perpustakaan ScaleR perusahaan - kumpulan algoritma analisis statistik yang dikembangkan secara khusus untuk koleksi data besar skala enterprise.
- Akhirnya, skalabilitas mesin statistik Big R memungkinkan pengembang R memanfaatkan teknik statistik yang telah ditentukan sebelumnya, dan juga algoritma baru penulis.
Video: Rahmatri Mardiko - Spark Architecture dan Machine Learning di Bukalapak | BukaTalks 2024
Pada awalnya, data besar dan R bukan teman alami. Pemrograman R mengharuskan semua benda dimuat ke memori utama satu mesin. Keterbatasan arsitektur ini cepat terealisasi ketika data besar menjadi bagian dari persamaan. Sebaliknya, sistem file terdistribusi seperti Hadoop kehilangan teknik statistik yang kuat namun ideal untuk menskalakan operasi dan tugas yang kompleks. Solusi penskalaan vertikal - yang memerlukan investasi pada perangkat keras superkomputer mahal - seringkali tidak dapat bersaing dengan pengembalian biaya-nilai yang ditawarkan oleh kelompok perangkat keras komoditas terdistribusi.
Ini dicapai dengan menggunakan sistem pesan-passing dan paging. Teknik ini mampu mempermudah kerja kumpulan data yang terlalu besar untuk disimpan dalam memori utama secara simultan; Namun, pendekatan pemrograman tingkat rendahnya menyajikan kurva belajar yang curam bagi mereka yang tidak terbiasa dengan paradigma pemrograman paralel.
Pengembang terus mengeksplorasi berbagai strategi untuk memanfaatkan kemampuan komputasi terdistribusi MapReduce dan kapasitas penyimpanan HDFS yang hampir tak terbatas dengan cara yang dapat dimanfaatkan oleh R.
Integrasi Hadoop with R sedang berlangsung, dengan penawaran tersedia dari IBM (Big R sebagai bagian dari BigInsights) dan Revolution Analytics (Revolution R Enterprise). Solusi menjembatani yang mengintegrasikan pemrograman tingkat tinggi dan bahasa query dengan Hadoop, seperti RHive dan RHadoop, juga tersedia.
Pada dasarnya, setiap sistem bertujuan untuk memberikan kemampuan analisis mendalam bahasa R ke kumpulan data yang jauh lebih besar.
RHive
Kerangka kerja RHive berfungsi sebagai jembatan antara bahasa R dan Sarang. RHive memberikan perpustakaan statistik kaya dan algoritma R ke data yang tersimpan di Hadoop dengan memperluas bahasa query Sual seperti HiveQL (HiveQL) dengan fungsi R-spesifik. Melalui fungsi RHive, Anda dapat menggunakan HiveQL untuk menerapkan model statistik R ke data di cluster Hadoop Anda yang telah Anda katalogkan dengan menggunakan Hive.
RHadoop
Kerangka open source lain yang tersedia untuk pemrogram R adalah RHadoop, kumpulan paket yang dimaksudkan untuk membantu mengelola distribusi dan analisis data dengan Hadoop. Tiga paket catatan - rmr2, rhdfs, dan rhbase - menyediakan sebagian besar fungsionalitas RHadoop:
rmr2:
-
Paket rmr2 mendukung terjemahan bahasa R ke dalam pekerjaan MapReduce yang sesuai dengan Hadoop (menghasilkan kode MapReduce tingkat rendah yang efisien dari kode R tingkat yang lebih tinggi). rhdfs:
-
Paket rhdfs menyediakan API bahasa R untuk pengelolaan file melalui toko HDFS. Dengan menggunakan rhdfs, pengguna dapat membaca dari toko HDFS ke frame data R (matriks), dan juga menulis data dari matriks R ini kembali ke penyimpanan HDFS. rhbase:
-
paket rhbase menyediakan API bahasa R juga, namun tujuan mereka dalam hidup adalah menangani pengelolaan database untuk toko HBase, bukan file HDFS. Revolusi R
Revolusi R (oleh Revolusi Analytics) adalah penawaran R komersial dengan dukungan untuk integrasi R pada sistem terdistribusi Hadoop. Revolution R berjanji untuk memberikan peningkatan kinerja, fungsi, dan kegunaan R on Hadoop. Untuk memberikan analisis mendalam seperti R, Revolution R memanfaatkan perpustakaan ScaleR perusahaan - kumpulan algoritma analisis statistik yang dikembangkan secara khusus untuk koleksi data besar skala enterprise.
ScaleR bertujuan untuk memberikan eksekusi cepat kode program R pada cluster Hadoop, yang memungkinkan pengembang R untuk fokus secara eksklusif pada algoritma statistik mereka dan bukan pada MapReduce. Selanjutnya, ia menangani banyak tugas analisis, seperti persiapan data, visualisasi, dan uji statistik. Big R menawarkan integrasi end-to-end antara R dan penawaran Hadoop IBM, BigInsights, yang memungkinkan pengembang R untuk menganalisis data Hadoop. Tujuannya adalah untuk mengeksploitasi sintaks pemrograman dan pengkodean pemrograman R, sekaligus memastikan agar data tetap beroperasi di HDFS. R datatypes berfungsi sebagai proxy untuk penyimpanan data ini, yang berarti pengembang R tidak perlu memikirkan konstruksi MapReduce tingkat rendah atau bahasa scripting Hadoop tertentu (seperti Babi).
Teknologi BigInsights Big R mendukung beberapa sumber data - termasuk file flat, HBase, dan format penyimpanan Sarang - sambil memberikan eksekusi kode R yang paralel dan terpisah di cluster Hadoop. Ini menyembunyikan banyak kerumitan kerangka kerja HDFS dan MapReduce yang mendasari, memungkinkan Big R berfungsi untuk melakukan analisis data komprehensif - baik pada data terstruktur maupun tidak terstruktur.