Framework Apache Hadoop tersusun dari 4 model berikut:
• Hadoop common: Hadoop common ialah utiliti yang yang diperlukan oleh model Hadoop yang lain.
• Hadoop distributed file system (HDFS): Distribusi sistem fail yang menyediakan akses kepada software.
• Hadoop Yarn: Sebuah platform pengurusan sumber yang bertanggungjawab untuk mengelola
sumber dalam penjadualan.
• Hadoop MapReduce: Sebuah model programming untuk pengelolaan data skala besar.
Hadoop diperkenalkan oleh Doug Cutting pada tahun 2005. Terdapat banyak perusahaan besar yang menggunakan Hadoop seperti Yahoo, Facebook dan lain-lain. Pada tahun 2005, lebih 25% telah menggunakan Hadoop untuk menguruskan data mereka, dan pada tahun 2010, peratus telah meningkat sebanyak 10%. Gambar rajah di bawah ialah industri yang menggunakan Hadoop;
Kenapa memilih Hadoop?
Kos rendah
- Hadoop mempunyai kelebihan dari segi ekonomi kerana ia tidak berbayar dan mampu untuk menyimpan data yang banyak.
Fleksibiliti
- Bebas untuk memproses data, memilih jenis data, dan ia juga kompleks.
Skalabiliti
- Penambahan server dan sumber yang baru tidak menganggu rangkaian kerja analisis dan aplikasi.
Fault tolerance
- Ketika nod gagal untuk berfungsi, sistem akan terus dikendalikan tanpa sebarang masalah.
Computing power
- Dapat memproses data yang besar dengan lebih cepat dengan menggunakan nod komputer lebih banyak.
- Hadoop mempunyai kelebihan dari segi ekonomi kerana ia tidak berbayar dan mampu untuk menyimpan data yang banyak.
Fleksibiliti
- Bebas untuk memproses data, memilih jenis data, dan ia juga kompleks.
Skalabiliti
- Penambahan server dan sumber yang baru tidak menganggu rangkaian kerja analisis dan aplikasi.
Fault tolerance
- Ketika nod gagal untuk berfungsi, sistem akan terus dikendalikan tanpa sebarang masalah.
Computing power
- Dapat memproses data yang besar dengan lebih cepat dengan menggunakan nod komputer lebih banyak.
0 comments:
Post a Comment