สารบัญ:
ข้อมูลขนาดใหญ่ชื่อที่น่าจับตามองสำหรับข้อมูลจำนวนมากที่มีโครงสร้างไม่มีโครงสร้างหรือกึ่งโครงสร้างนั้นยากที่จะรวบรวมจัดเก็บจัดการแบ่งปันวิเคราะห์และมองเห็นได้อย่างน้อยที่สุดก็ใช้ฐานข้อมูลแบบดั้งเดิมและซอฟต์แวร์ซอฟต์แวร์ นั่นเป็นเหตุผลที่เทคโนโลยีข้อมูลขนาดใหญ่มีศักยภาพในการจัดการและประมวลผลข้อมูลจำนวนมหาศาลอย่างมีประสิทธิภาพและประสิทธิผล และมันก็เป็น Apache Hadoop ที่ให้กรอบและเทคโนโลยีที่เกี่ยวข้องในการประมวลผลชุดข้อมูลขนาดใหญ่ข้ามกลุ่มคอมพิวเตอร์ในลักษณะกระจาย ดังนั้นเพื่อที่จะเข้าใจข้อมูลขนาดใหญ่จริงๆคุณต้องเข้าใจเกี่ยวกับ Hadoop เล็กน้อย ที่นี่เราจะมาดูคำศัพท์ยอดนิยมที่คุณจะได้ยินเกี่ยวกับ Hadoop - และสิ่งที่พวกเขาหมายถึง
การสัมมนาผ่านเว็บ: บิ๊กเหล็กพบกับบิ๊กดาต้า: ปลดปล่อยข้อมูลเมนเฟรมด้วย Hadoop & Spark ลงทะเบียนที่นี่ |
แต่ก่อนอื่นมาดูว่า Hadoop ทำงานอย่างไร
ก่อนเข้าสู่ระบบนิเวศ Hadoop คุณต้องเข้าใจสองสิ่งพื้นฐานอย่างชัดเจน วิธีแรกคือการจัดเก็บไฟล์ใน Hadoop ที่สองคือวิธีการประมวลผลข้อมูลที่เก็บไว้ เทคโนโลยีที่เกี่ยวข้องกับ Hadoop ส่วนใหญ่ทำงานในสองส่วนนี้และทำให้ใช้งานง่ายขึ้น (รับพื้นฐานของการทำงานของ Hadoop ในวิธีที่ Hadoop ช่วยแก้ปัญหาข้อมูลขนาดใหญ่)
ตอนนี้ไปตามข้อกำหนด