Video: hadoop yarn architecture 2024
Bagian dari Big Data For Dummies Cheat Sheet
Hadoop, kerangka perangkat lunak open-source, menggunakan HDFS (Hadoop Distributed File System) dan MapReduce untuk menganalisis data besar pada kelompok komoditas Perangkat keras-yaitu, dalam lingkungan komputasi terdistribusi.
The Hadoop Distributed File System (HDFS) dikembangkan untuk memungkinkan perusahaan lebih mudah mengatur volume data yang besar dengan cara yang sederhana dan pragmatis. Hadoop memungkinkan masalah besar didekomposisi menjadi elemen yang lebih kecil sehingga analisis dapat dilakukan dengan cepat dan efektif biaya. HDFS adalah pendekatan serbaguna, tangguh, berkerumun untuk mengelola file di lingkungan data yang besar.
HDFS bukan tujuan akhir untuk file. Melainkan adalah "layanan" data yang menawarkan seperangkat kemampuan unik yang dibutuhkan saat volume data dan kecepatan tinggi.
MapReduce adalah kerangka kerja perangkat lunak yang memungkinkan pengembang menulis program yang dapat memproses sejumlah besar data tidak terstruktur secara paralel di seluruh kelompok prosesor terdistribusi. MapReduce dirancang oleh Google sebagai cara untuk secara efisien melaksanakan seperangkat fungsi terhadap sejumlah besar data dalam mode batch.