Q:
เหตุใดนักวิทยาศาสตร์ด้านข้อมูลจึงต้องการความโปร่งใส
A:ความโปร่งใสมีความสำคัญอย่างยิ่งในโครงการข้อมูลวิทยาศาสตร์และโปรแกรมการเรียนรู้ของเครื่องจักรส่วนหนึ่งเป็นเพราะความซับซ้อนและความซับซ้อนที่ผลักดันพวกเขา - เพราะโปรแกรมเหล่านี้คือ "การเรียนรู้" (สร้างผลลัพธ์ความน่าจะเป็น) แทนที่จะทำตามคำแนะนำเชิงเส้น มันอาจเป็นเรื่องยากที่จะเข้าใจว่าเทคโนโลยีได้ข้อสรุปอย่างไร ปัญหา“ กล่องดำ” ของอัลกอริทึมการเรียนรู้ของเครื่องที่ไม่สามารถอธิบายได้อย่างเต็มที่กับผู้มีอำนาจตัดสินใจของมนุษย์นั้นเป็นปัญหาใหญ่ในสาขานี้
เมื่อคำนึงถึงความสามารถในการเรียนรู้ของเครื่องที่สามารถอธิบายได้หรือ "AI ที่สามารถอธิบายได้" จะเป็นจุดสนใจหลักในการที่ บริษัท ต่างๆแสวงหาความสามารถสำหรับนักวิทยาศาสตร์ด้านข้อมูล DARPA ซึ่งเป็นสถาบันที่นำอินเทอร์เน็ตมาให้เรานั้นกำลังให้ทุนสนับสนุนการศึกษามูลค่าหลายล้านดอลลาร์ใน AI ที่สามารถอธิบายได้พยายามที่จะส่งเสริมทักษะและทรัพยากรที่จำเป็นในการสร้างการเรียนรู้ของเครื่องและเทคโนโลยีปัญญาประดิษฐ์ที่โปร่งใสต่อมนุษย์
วิธีหนึ่งที่จะคิดเกี่ยวกับเรื่องนี้ก็คือมักจะมี“ ขั้นตอนการรู้หนังสือ” ของการพัฒนาความสามารถและ“ ขั้นตอนการไฮเปอร์ลิเคชั่น” สำหรับนักวิทยาศาสตร์ด้านข้อมูลขั้นตอนการรู้หนังสือแบบดั้งเดิมจะเป็นความรู้เกี่ยวกับ อัลกอริทึมที่มีภาษาเช่น Python; วิธีการสร้างโครงข่ายประสาทเทียมและทำงานกับพวกเขา ขั้นตอนการไฮเปอร์ลิเคชันจะเป็นความสามารถในการอธิบาย AI หลักในการให้ความโปร่งใสในการใช้อัลกอริทึมการเรียนรู้ของเครื่องและเพื่อรักษาความโปร่งใสในขณะที่โปรแกรมเหล่านี้ทำงานไปสู่เป้าหมายและเป้าหมายของผู้จัดการ
อีกวิธีหนึ่งในการอธิบายถึงความสำคัญของความโปร่งใสในศาสตร์ข้อมูลคือชุดข้อมูลที่ใช้งานอยู่มีความซับซ้อนมากขึ้นและอาจรบกวนชีวิตของผู้คนมากขึ้น โปรแกรมควบคุมที่สำคัญอีกประการหนึ่งของการเรียนรู้ของเครื่องและวิทยาศาสตร์ข้อมูลที่สามารถอธิบายได้ก็คือกฎระเบียบด้านการป้องกันข้อมูลทั่วไปของยุโรปซึ่งเพิ่งนำมาใช้เพื่อพยายามลดการใช้ข้อมูลส่วนบุคคลอย่างผิดจรรยาบรรณ การใช้ GDPR เป็นกรณีทดสอบผู้เชี่ยวชาญสามารถดูว่าจำเป็นต้องอธิบายโครงงานวิทยาศาสตร์ข้อมูลอย่างไรในเรื่องความเป็นส่วนตัวและความปลอดภัยเช่นเดียวกับจริยธรรมทางธุรกิจ