สารบัญ:
- คำจำกัดความ - Hadoop Distributed File System (HDFS) หมายถึงอะไร
- Techopedia อธิบายระบบไฟล์กระจาย Hadoop (HDFS)
คำจำกัดความ - Hadoop Distributed File System (HDFS) หมายถึงอะไร
Hadoop Distributed File System (HDFS) เป็นระบบไฟล์แบบกระจายที่ทำงานบนฮาร์ดแวร์มาตรฐานหรือฮาร์ดแวร์ระดับล่าง พัฒนาโดย Apache Hadoop, HDFS ทำงานเหมือนระบบไฟล์มาตรฐานแบบกระจาย แต่ให้ปริมาณข้อมูลและการเข้าถึงที่ดีขึ้นผ่านอัลกอริทึม MapReduce, การยอมรับข้อบกพร่องสูงและสนับสนุนชุดข้อมูลขนาดใหญ่
Techopedia อธิบายระบบไฟล์กระจาย Hadoop (HDFS)
HDFS เก็บข้อมูลจำนวนมากไว้ในเครื่องหลายเครื่องโดยทั่วไปแล้วในโหนดที่เชื่อมต่อพร้อมกันหลายร้อยและหลายพันและให้ความน่าเชื่อถือของข้อมูลโดยการทำซ้ำแต่ละอินสแตนซ์ข้อมูลเป็นสำเนาที่แตกต่างกันสามชุด - สองในหนึ่งกลุ่ม สำเนาเหล่านี้อาจถูกแทนที่ในกรณีที่เกิดความล้มเหลว
สถาปัตยกรรม HDFS ประกอบด้วยกลุ่มซึ่งแต่ละรายการสามารถเข้าถึงได้ผ่านเครื่องมือซอฟต์แวร์ NameNode เดียวที่ติดตั้งบนเครื่องแยกต่างหากเพื่อตรวจสอบและจัดการระบบไฟล์ของคลัสเตอร์และกลไกการเข้าถึงของผู้ใช้ อีกเครื่องหนึ่งติดตั้งอินสแตนซ์หนึ่งของ DataNode เพื่อจัดการที่เก็บข้อมูลของคลัสเตอร์
เนื่องจาก HDFS เขียนขึ้นใน Java จึงมีการสนับสนุนดั้งเดิมสำหรับ Java application programming interfaces (API) สำหรับการรวมแอพพลิเคชั่นและการเข้าถึง นอกจากนี้ยังสามารถเข้าถึงได้ผ่านเว็บเบราว์เซอร์มาตรฐาน
