บ้าน ฐานข้อมูล ระบบไฟล์แบบกระจาย hadoop (hdfs) คืออะไร? - คำจำกัดความจาก techopedia

ระบบไฟล์แบบกระจาย hadoop (hdfs) คืออะไร? - คำจำกัดความจาก techopedia

สารบัญ:

Anonim

คำจำกัดความ - Hadoop Distributed File System (HDFS) หมายถึงอะไร

Hadoop Distributed File System (HDFS) เป็นระบบไฟล์แบบกระจายที่ทำงานบนฮาร์ดแวร์มาตรฐานหรือฮาร์ดแวร์ระดับล่าง พัฒนาโดย Apache Hadoop, HDFS ทำงานเหมือนระบบไฟล์มาตรฐานแบบกระจาย แต่ให้ปริมาณข้อมูลและการเข้าถึงที่ดีขึ้นผ่านอัลกอริทึม MapReduce, การยอมรับข้อบกพร่องสูงและสนับสนุนชุดข้อมูลขนาดใหญ่

Techopedia อธิบายระบบไฟล์กระจาย Hadoop (HDFS)

HDFS เก็บข้อมูลจำนวนมากไว้ในเครื่องหลายเครื่องโดยทั่วไปแล้วในโหนดที่เชื่อมต่อพร้อมกันหลายร้อยและหลายพันและให้ความน่าเชื่อถือของข้อมูลโดยการทำซ้ำแต่ละอินสแตนซ์ข้อมูลเป็นสำเนาที่แตกต่างกันสามชุด - สองในหนึ่งกลุ่ม สำเนาเหล่านี้อาจถูกแทนที่ในกรณีที่เกิดความล้มเหลว

สถาปัตยกรรม HDFS ประกอบด้วยกลุ่มซึ่งแต่ละรายการสามารถเข้าถึงได้ผ่านเครื่องมือซอฟต์แวร์ NameNode เดียวที่ติดตั้งบนเครื่องแยกต่างหากเพื่อตรวจสอบและจัดการระบบไฟล์ของคลัสเตอร์และกลไกการเข้าถึงของผู้ใช้ อีกเครื่องหนึ่งติดตั้งอินสแตนซ์หนึ่งของ DataNode เพื่อจัดการที่เก็บข้อมูลของคลัสเตอร์

เนื่องจาก HDFS เขียนขึ้นใน Java จึงมีการสนับสนุนดั้งเดิมสำหรับ Java application programming interfaces (API) สำหรับการรวมแอพพลิเคชั่นและการเข้าถึง นอกจากนี้ยังสามารถเข้าถึงได้ผ่านเว็บเบราว์เซอร์มาตรฐาน

ระบบไฟล์แบบกระจาย hadoop (hdfs) คืออะไร? - คำจำกัดความจาก techopedia