AI Governance: คู่มือการกำกับดูแล AI เพื่อความสำเร็จองค์กร
- ดร.นิพนธ์ นาชิน, CISSP, CISA, CISM, GPEN, QSA, CCISO, CDMP
- 2 วันที่ผ่านมา
- ยาว 3 นาที

การกำกับดูแล AI (AI Governance) กุญแจสำคัญสู่ความสำเร็จในการประยุกต์ใช้ AI ในองค์กร
ในยุคที่เทคโนโลยี AI กำลังเปลี่ยนแปลงโลกธุรกิจอย่างรวดเร็ว การกำกับดูแล AI ที่มีประสิทธิภาพไม่เพียงแต่เป็นเรื่องของการปฏิบัติตามข้อกำหนด แต่ยังเป็นปัจจัยสำคัญที่จะช่วยให้องค์กรสามารถใช้ประโยชน์จาก AI ได้อย่างเต็มประสิทธิภาพและปลอดภัย บทความนี้จะอธิบายเกี่ยวกับการกำกับดูแล AI รวมถึงแนวทางปฏิบัติที่ดีที่สุดสำหรับองค์กรที่ต้องการนำ AI มาใช้อย่างมีประสิทธิภาพและรับผิดชอบ
ความสำคัญของการกำกับดูแล AI (AI Governance)
การกำกับดูแล AI (AI Governance) หมายถึงกระบวนการ มาตรฐาน และการควบคุมที่ช่วยให้มั่นใจว่าโซลูชัน AI มีความปลอดภัยและเป็นไปตามหลักจริยธรรม เช่นเดียวกับเทคโนโลยีใหม่ๆ AI ต้องการโปรแกรมการกำกับดูแลที่เข้มแข็งเพื่อให้มั่นใจว่ามีการดำเนินการและการกำกับดูแลที่เหมาะสม
องค์กรมักผสมผสานการกำกับดูแล AI และการจัดการโปรแกรมเข้ากับฟังก์ชันการกำกับดูแลด้านไอทีที่มีอยู่แล้ว แม้ว่าวิธีปฏิบัตินี้อาจเหมาะสมสำหรับองค์กรส่วนใหญ่ แต่ก็มีลักษณะเฉพาะของโซลูชัน AI ที่อาจท้าทายประสิทธิผลของโปรแกรมการกำกับดูแลไอทีแบบดั้งเดิม
การกำกับดูแล AI เริ่มต้นด้วยการกำหนดกลยุทธ์ บทบาท และความรับผิดชอบโดยรวมขององค์กร จากนั้นจึงนำไปสู่นโยบายและขั้นตอนอย่างเป็นทางการที่ต้องมอบหมายให้ผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้องผ่านการฝึกอบรมและการสร้างความตระหนักรู้ สุดท้าย โปรแกรมการกำกับดูแลต้องสามารถวัดผลได้ผ่านเกณฑ์วัดประสิทธิภาพของโปรแกรม ซึ่งจะรายงานต่อหน่วยงานกำกับดูแลที่เหมาะสม
กลยุทธ์ AI (AI Strategy)
กลยุทธ์ AI หมายถึงแนวทางขององค์กรในการนำ พัฒนา และกำกับดูแลโซลูชัน AI กลยุทธ์ AI ที่มีประสิทธิภาพช่วยให้องค์กรสามารถรับรู้ถึงประโยชน์ของการนำ AI มาใช้ในเชิงรุก ขณะที่จัดการความเสี่ยงที่เกิดจากเทคโนโลยี AI ที่กำลังพัฒนาอย่างเป็นระบบ
กลยุทธ์สำหรับ AI สามารถนำมาใช้โดยหน่วยงานต่างๆ ขององค์กรตามความจำเป็นที่รับรู้ได้เพื่อให้คำแนะนำแก่ผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้อง รัฐบาลอาจกำหนดกลยุทธ์ AI เพื่อมุ่งเน้นการให้ข้อพิจารณาทางจริยธรรมที่สอดคล้องกับค่านิยมของสังคม ในขณะที่บริษัทอาจมุ่งเน้นการระบุความได้เปรียบในการแข่งขันที่อาจเกิดขึ้นเหนือคู่แข่งผ่านการนำ AI มาใช้
ตัวอย่างกลยุทธ์ AI ที่พบบ่อยแบ่งได้เป็น 3 ประเภทหลัก:
กลยุทธ์ระดับประเทศ
การปรับจริยธรรมให้สอดคล้องกับค่านิยมของประเทศ
การกำหนดแนวทางกฎหมายและข้อบังคับ
การส่งเสริมความมั่นคงของประเทศ
กลยุทธ์ระดับอุตสาหกรรม
การส่งเสริมนวัตกรรมในอุตสาหกรรม
การกำหนดมาตรฐานและแนวปฏิบัติที่ดีที่สุด
การตีความข้อบังคับและแนวทาง AI
กลยุทธ์ระดับองค์กร
การระบุโอกาสสำหรับความได้เปรียบในการแข่งขัน
การสร้างความสอดคล้องกับข้อกำหนดที่เกี่ยวข้อง
กลยุทธ์ AI ควรสร้างขึ้นจากแนวปฏิบัติที่ดีที่ได้รับการยอมรับ หลักการชี้นำสำหรับ AI มีให้โดยองค์กรที่มีชื่อเสียงหลายแห่ง แต่โดยทั่วไปแล้วจะมุ่งเน้นแนวคิดทั่วไปของจริยธรรม AI เช่น ความสามารถในการอธิบาย ความเป็นธรรม ความโปร่งใส และการให้มนุษย์เป็นศูนย์กลาง
การฝึกอบรมและการสร้างความตระหนักรู้เกี่ยวกับ AI
การฝึกอบรมและการสร้างความตระหนักรู้เกี่ยวกับ AI มีความสำคัญอย่างยิ่งในการสร้างความมั่นใจว่าการนำ AI มาใช้ภายในฐานผู้ใช้จะประสบความสำเร็จ หากไม่มีการฝึกอบรมและการสร้างความตระหนักรู้เกี่ยวกับกลยุทธ์ AI ขององค์กรที่เหมาะสม อาจเกิดความสับสนที่นำไปสู่ความไม่ไว้วางใจในการนำโซลูชัน AI มาใช้ ในหลายกรณี บุคคลในกำลังแรงงานกลัวว่า AI จะแทนที่งานของพวกเขา ซึ่งอาจนำไปสู่ความกังขาและการปฏิเสธโซลูชัน AI โดยสิ้นเชิง
จากการศึกษาในปี 2023 โดย World Economic Forum นายจ้างคาดการณ์ถึงการหยุดชะงักจาก AI ที่ส่งผลกระทบต่องาน 23% (ประมาณ 83 ล้านตำแหน่ง) ภายในปี 2027 ผู้ตอบแบบสอบถามคาดว่าจะมีผลกระทบสูงกว่าค่าเฉลี่ยในห่วงโซ่อุปทาน การขนส่ง สื่อ ความบันเทิง และอุตสาหกรรมกีฬา และผลกระทบต่ำกว่าค่าเฉลี่ยในการผลิต ค้าปลีก และค้าส่ง
อย่างไรก็ตาม การศึกษาเดียวกันพบว่าจากตำแหน่งงาน 673 ล้านตำแหน่งที่แสดงในชุดข้อมูล ผู้ตอบแบบสอบถามคาดว่าจะมีการเติบโตของงาน 69 ล้านตำแหน่ง หรือการลดลงสุทธิ 2% ในการจ้างงานปัจจุบันภายในปี 2027 แม้ว่านี่จะยังคงเป็นการลดลงของตำแหน่งที่คาดหวัง แต่งานส่วนใหญ่คาดว่าจะเปลี่ยนไปสู่โอกาสอื่น ในขณะเดียวกัน บทบาทใหม่จะยังคงเกิดขึ้นและหวังว่าจะมีส่วนช่วยในการเติบโตของโอกาสงานโดยรวม
เพื่อจัดการกับความกังวลและเน้นย้ำโอกาสใหม่ที่ AI จะให้ องค์กรต้องตรวจสอบให้แน่ใจว่าพวกเขาจัดการกับการจัดการความสามารถของ AI เชิงรุกเพื่อให้แน่ใจว่ากำลังแรงงานของพวกเขามีทักษะ ความรู้ และความสามารถที่จะเจริญรุ่งเรืองในอนาคต
การจัดการความสามารถ (Talent Management)
องค์กรที่นำโซลูชัน AI มาใช้จะต้องตรวจสอบให้แน่ใจว่าพวกเขากำลังพิจารณาผลกระทบสุทธิที่จะมีต่อกำลังแรงงานของพวกเขา เพื่อจัดการกับความกังวลนี้ รัฐบาลและกลุ่มสนับสนุนหลายแห่งได้ให้แนวทางในการออกแบบงานใหม่สำหรับ AI ตัวอย่างหนึ่งคือ "คู่มือการออกแบบงานใหม่ในยุค AI" ของรัฐบาลสิงคโปร์ ซึ่งเน้นสี่ด้านของการออกแบบงานใหม่:
การเปลี่ยนแปลงงาน — ประเมินผลกระทบของ AI ต่องาน รวมถึงว่างานแต่ละงานสามารถทำให้เป็นอัตโนมัติหรือเสริมด้วย AI หรือต้องยังคงอยู่ในมือมนุษย์หรือไม่ และตัดสินใจว่างานใดสามารถเปลี่ยนแปลงได้ภายในกรอบเวลาที่เหมาะสม
การวางแผนเส้นทางที่ชัดเจนระหว่างงาน — วางแผนเส้นทางของงานระหว่างตำแหน่งงานภายในองค์กรและระบุงานที่พนักงานจำเป็นต้องเรียนรู้เพื่อเปลี่ยนจากงานหนึ่งไปอีกงานหนึ่ง
การขจัดอุปสรรคต่อการเปลี่ยนแปลงทางดิจิทัล — แนะนำวิธีการจัดการกับความท้าทายที่อาจเกิดขึ้นและสนับสนุนพนักงานเมื่อนำ AI มาใช้
การสร้างการสื่อสารที่มีประสิทธิภาพระหว่างนายจ้างและพนักงาน — สร้างความเข้าใจร่วมกันภายในองค์กรเกี่ยวกับเหตุผล สิ่งที่ และวิธีที่ AI จะเสริมความสามารถของมนุษย์และเพิ่มอำนาจให้พนักงานในอาชีพของพวกเขา
โดยทั่วไปแล้ว การนำโซลูชัน AI มาใช้ภายในองค์กรควรถูกมองว่าเป็นโอกาสในการปรับปรุงประสบการณ์ของกำลังแรงงานโดยรวม การรวมผู้เชี่ยวชาญด้านทรัพยากรบุคคลและผู้เชี่ยวชาญด้านการฝึกอบรมในกลยุทธ์ AI ขององค์กรมีความสำคัญในการสร้างความมั่นใจว่าความกังวลของกำลังแรงงานได้รับการจัดการตลอดวงจรชีวิตของโซลูชัน AI
ทักษะ ความรู้ และความสามารถ
องค์กรที่นำโซลูชัน AI มาใช้ต้องตรวจสอบให้แน่ใจว่าพนักงานของพวกเขามีทักษะ ความรู้ และความสามารถที่เหมาะสมเพื่อเข้าใจและใช้ประโยชน์จากเทคโนโลยีเหล่านั้นอย่างมีประสิทธิภาพในการทำงานที่มีอยู่หรือได้รับการออกแบบใหม่ ข้อควรพิจารณาแรกสำหรับการสร้างความตระหนักรู้ควรเป็นการรับรู้เชิงลบหรือข้อมูลที่ผิดพลาดที่พนักงานอาจมีเกี่ยวกับ AI
ข้อควรพิจารณาและโซลูชั่นที่อาจเกิดขึ้นสำหรับการรับรู้เชิงลบเกี่ยวกับโซลูชัน AI มีดังนี้:
ข้อควรพิจารณา | โซลูชั่นที่อาจเกิดขึ้น |
ขาดความตระหนักถึงวิธีที่เทคโนโลยี AI สามารถเสริมการทำงาน | ให้ความรู้พนักงานเกี่ยวกับโอกาสและบทบาทงานที่ได้รับการเสริม |
การต่อต้านการเปลี่ยนแปลง | เสนอชื่อผู้สนับสนุนนวัตกรรมเพื่อระบุจุดที่ปวดและโอกาส |
ศักยภาพสำหรับการออกแบบงานใหม่และการฝึกอบรมที่จะขัดขวางการไหลของธุรกิจที่มีอยู่ | การนำมาใช้เป็นเฟส และทำให้แน่ใจว่าธุรกิจยังคงดำเนินไปตามปกติด้วยการฝึกอบรมเป็นกลุ่มเล็กๆ |
การฝึกอบรมไม่ได้รับการออกแบบเพื่อให้ทักษะและความสามารถใหม่ที่จำเป็นสำหรับงานใหม่ และระดับความสามารถที่แตกต่างกันสำหรับการฝึกอบรม | จัดให้มีการฝึกอบรมและการเรียนรู้สำหรับงานที่ต้องการความแม่นยำ และทำให้แน่ใจว่าการฝึกอบรมสามารถใช้ได้และมีในรูปแบบที่เข้าถึงได้ |
ความไม่แน่นอนของผลลัพธ์สำหรับพนักงานหลังการฝึกอบรมและการออกแบบงานใหม่ และการรับรู้ว่าการออกแบบงานใหม่เท่ากับงานมากขึ้น | ทบทวนค่าตอบแทนและเกณฑ์วัดประสิทธิภาพของพนักงานสำหรับบทบาทที่ได้รับการเสริม |
การสื่อสารที่มีประสิทธิภาพเกี่ยวกับการรับรู้เชิงลบที่อาจเกิดขึ้นเหล่านี้มีความสำคัญในการสร้างความมั่นใจในการยอมรับของพนักงานสำหรับการเรียนรู้ความสามารถที่จำเป็นเพื่อทำหน้าที่งานใหม่ การสื่อสารนี้ควรถูกกำหนดขึ้นก่อน ระหว่าง และหลังการนำโซลูชัน AI มาใช้
เพื่อช่วยในการนำมาใช้ องค์กรอาจพิจารณาการระบุแชมเปี้ยน (บางครั้งเรียกว่า "ผู้ใช้ที่มีอำนาจ") ภายในแต่ละหน่วยขององค์กร ผู้นำเหล่านี้สามารถช่วยเหลือผู้ที่รับผิดชอบในการนำโซลูชัน AI ทรัพยากรบุคคล และเจ้าหน้าที่ฝึกอบรม บุคคลเหล่านี้โดยทั่วไปควรมีพื้นฐานของการรู้เท่าทัน AI ประโยชน์ของการใช้แชมเปี้ยนหน่วยงานขององค์กร นอกเหนือจากการให้การบรรเทาสำหรับเจ้าหน้าที่ฝึกอบรมที่ทุ่มเท คือศักยภาพสำหรับการสนับสนุนเชิงบวกสำหรับโซลูชันใหม่ในหมู่เพื่อนร่วมงานที่ช่างสงสัย
ทักษะ ความรู้ และความสามารถที่เกี่ยวข้องกับ AI ทั่วไปที่พนักงานอาจจำเป็นต้องได้รับระหว่างการนำโซลูชัน AI มาใช้ ได้แก่:
นโยบายการใช้ AI ที่ยอมรับได้ — พนักงานควรได้รับการฝึกอบรมเกี่ยวกับนโยบายที่เกี่ยวข้องกับ AI ขององค์กรและขั้นตอนต่างๆ
พื้นฐานของ AI — พนักงานควรมีความเข้าใจพื้นฐานเกี่ยวกับ AI คืออะไรและศัพท์ทั่วไป
การตระหนักถึงจริยธรรม — พนักงานควรเข้าใจหลักการจริยธรรมพื้นฐานของ AI เช่น ความสามารถในการอธิบายและอคติ
ข้อพิจารณาเฉพาะโซลูชัน — พนักงานควรได้รับการฝึกอบรมเกี่ยวกับข้อพิจารณาเฉพาะโซลูชัน ตัวอย่างเช่น หากองค์กรกำลังใช้แพลตฟอร์ม GenAI ผู้ใช้ควรได้รับการฝึกอบรมเกี่ยวกับการสร้าง prompt ที่มีประสิทธิภาพ
บทบาทและความรับผิดชอบที่เกี่ยวข้องกับ AI
การเข้าใจบทบาทและความรับผิดชอบที่เกี่ยวข้องกับ AI มีความสำคัญสำหรับองค์กรใดๆ ที่พัฒนาและ/หรือนำโซลูชัน AI มาใช้ บทบาทและความรับผิดชอบที่เกี่ยวข้องจะแตกต่างกันไปตามขนาดขององค์กรและกลยุทธ์การนำ AI มาใช้ ตัวอย่างเช่น หากองค์กรกำลังนำโซลูชัน AI ของบุคคลที่สามมาใช้ แผนกไอทีอาจไม่มีบทบาทที่เกี่ยวข้องกับการพัฒนาหรือการดำเนินงานที่เกี่ยวข้องกับ AI
หมวดหมู่ทั่วไปของบทบาท AI และความรับผิดชอบที่เกี่ยวข้องประกอบด้วย:
1. ผู้นำและกลยุทธ์
บทบาทกลยุทธ์ AI มุ่งเน้นที่การกำหนดวิสัยทัศน์ วัตถุประสงค์ และแผนการนำมาใช้สำหรับการนำโซลูชัน AI มาใช้ภายในองค์กร
ผู้บริหาร รับผิดชอบในการกำหนดโทนจากระดับสูงและลงนามในกลยุทธ์ AI ฝ่ายบริหารรับผิดชอบสูงสุดสำหรับผลกระทบของโซลูชัน AI ต่อองค์กรและผู้มีส่วนได้ส่วนเสีย
หัวหน้าเจ้าหน้าที่ AI รับผิดชอบในการนำ AI มาใช้โดยรวมภายในองค์กรและรายงานต่อผู้บริหาร นี่อาจเป็นบทบาทแยกต่างหาก หรือความรับผิดชอบที่เกี่ยวข้องอาจถูกรวมเข้ากับบทบาทปัจจุบันและสมดุล
คณะกรรมการกำกับดูแล AI เป็นกลุ่มข้ามหน้าที่ของบุคคลจากสาขาวิชาที่แตกต่างกันที่รับผิดชอบในการให้ข้อมูลเชิงลึกเกี่ยวกับกลยุทธ์ AI ที่เกี่ยวข้องกับผลกระทบของ AI ต่อหน่วยองค์กรของพวกเขา คณะกรรมการนี้บางครั้งจะรวมเข้ากับคณะกรรมการที่มีอยู่แล้วบนพื้นฐานของไอที เช่น คณะกรรมการกำกับดูแลไอทีหรือคณะกรรมการนวัตกรรม
2. การพัฒนาและการดำเนินงาน
บทบาทการพัฒนาและการดำเนินงาน AI โดยทั่วไปอยู่ในกลุ่มไอทีขององค์กรและรับผิดชอบในการสร้าง การนำมาใช้ และการบำรุงรักษาโซลูชัน AI
การพัฒนาไอที รับผิดชอบในการสร้างโซลูชัน AI เพื่อตอบสนองความต้องการทางธุรกิจที่กำหนดไว้ รวมถึงนักวิทยาศาสตร์ข้อมูล วิศวกร นักวิจัย และเจ้าหน้าที่พัฒนา
การดำเนินงานด้านไอที รับผิดชอบในการนำมาใช้และบำรุงรักษาโซลูชัน AI และโครงสร้างพื้นฐานสนับสนุน
การจัดการผลิตภัณฑ์ รับผิดชอบในการเชื่อมช่องว่างระหว่างเจ้าหน้าที่เทคนิคด้านไอทีและผู้ใช้ปลายทางเพื่อให้แน่ใจว่าโซลูชัน AI สามารถใช้งานได้
3. ผู้ใช้
บทบาทที่เกี่ยวข้องกับผู้ใช้ AI โดยทั่วไปนำไปใช้กับผู้ใช้จริงของโซลูชัน AI และบทบาทสนับสนุนของพวกเขา
ผู้ใช้ปลายทาง รวมถึงพนักงานหรือผู้บริโภค
ทรัพยากรบุคคล สนับสนุนพนักงานผู้ใช้ปลายทางของโซลูชัน AI ผ่านการจัดประเภทงานและการฝึกอบรมงานที่เกี่ยวข้อง
ฝ่ายบริการลูกค้า ให้การสนับสนุนแก่ผู้ใช้ปลายทางที่เป็นลูกค้าของโซลูชัน AI
4. การกำกับดูแลและการควบคุม
บทบาทการกำกับดูแล AI มุ่งเน้นการตรวจสอบให้แน่ใจว่ามีการปฏิบัติตามหลักจริยธรรมของโซลูชัน AI เพื่อตอบสนองหลักการและข้อกำหนดการปฏิบัติตามกฎระเบียบขององค์กร
คณะกรรมการกำกับดูแล รับผิดชอบในการดูแลโปรแกรมการกำกับดูแล AI และนโยบาย และการรายงานเกี่ยวกับเกณฑ์วัดของโปรแกรม
การจัดการความเสี่ยง รับผิดชอบในการผสมผสาน AI เข้ากับกระบวนการวางแผนการจัดการความเสี่ยงขององค์กร
ความปลอดภัยและความเป็นส่วนตัวด้านสารสนเทศ รับผิดชอบในด้านข้อมูลและความปลอดภัยของระบบสารสนเทศและการเป็นส่วนตัวที่เกี่ยวข้องระหว่างวงจรชีวิตของโซลูชัน AI
การตรวจสอบภายใน รับผิดชอบในการประเมินความเสี่ยงที่เกี่ยวข้องกับ AI ในฐานะส่วนหนึ่งของแผนการตรวจสอบ
นโยบายและขั้นตอนที่เกี่ยวข้องกับ AI
นโยบายและขั้นตอนที่เกี่ยวข้องกับการใช้ AI ภายในองค์กรควรถูกสร้างขึ้นเพื่อให้แน่ใจว่าสอดคล้องกับกลยุทธ์ AI ขององค์กร การนำนโยบายและขั้นตอน AI มาใช้จะแตกต่างกันจากองค์กรหนึ่งไปยังอีกองค์กรหนึ่ง องค์กรบางแห่งอาจเลือกสร้างนโยบายแยกต่างหาก ในขณะที่องค์กรอื่นๆ อาจผสมผสานแนวคิด AI เข้ากับนโยบาย มาตรฐาน และขั้นตอนปัจจุบันของพวกเขา ก่อนเขียนชุดนโยบายใหม่ องค์กรควรตรวจสอบนโยบาย IT และความปลอดภัยด้านสารสนเทศที่มีอยู่สำหรับการผสมผสานที่อาจเกิดขึ้น
อย่างน้อยที่สุด จุดยืนขององค์กรเกี่ยวกับ AI ควรถูกบันทึกไว้ในนโยบายที่เป็นทางการและเป็นที่รู้จักของผู้มีส่วนได้ส่วนเสียทั้งหมดที่เกี่ยวข้อง นโยบาย AI ควรกำหนดการใช้ที่ได้รับอนุญาตและต้องห้ามของ AI ภายในองค์กรและให้ความคาดหวังสำหรับการกำกับดูแลโซลูชันที่นำมาใช้ นโยบาย AI ควรใช้แนวทางที่มีอยู่ เช่น กรอบงานที่ได้รับการยอมรับทั่วไป
การอัปเดตมาตรฐาน แผน หรือขั้นตอนที่เกี่ยวข้องอาจเป็นผลมาจากการนำนโยบายเฉพาะ AI มาใช้ ตัวอย่างเช่น แผนการฝึกอบรมและการสร้างความตระหนักรู้อาจต้องได้รับการอัปเดตเพื่อให้แน่ใจว่ามีความเข้าใจในระดับองค์กรเกี่ยวกับโซลูชัน AI ที่จะนำมาใช้
สุดท้าย นโยบายการใช้ AI ควรถูกร่างขึ้นเพื่อเสริมนโยบาย AI คล้ายกับนโยบาย AI นโยบายการใช้ AI อาจผสมผสานเข้ากับนโยบายการใช้ที่ยอมรับได้โดยทั่วไปของระบบสารสนเทศขององค์กร
นโยบายการใช้
นโยบายการใช้ AI ที่ยอมรับได้ (AUP) ให้กรอบงานสำหรับการนำ AI มาใช้อย่างมีจริยธรรมและมีความรับผิดชอบ เนื่องจากความก้าวหน้าอย่างรวดเร็วใน GenAI องค์กรควรให้แนวทางที่ชัดเจนเกี่ยวกับการใช้ AI ที่พิจารณาการวิเคราะห์ความเสี่ยงและผลประโยชน์
นโยบาย AUP ที่มีประสิทธิภาพควรเป็นเรื่องง่ายที่จะเข้าใจสำหรับผู้ใช้ทั่วไป โซลูชัน AI ที่ได้รับการอนุมัติควรถูกระบุ และองค์กรควรให้คำแนะนำแก่ผู้ใช้ปลายทางเกี่ยวกับการใช้ที่ยอมรับได้ของข้อมูลขององค์กรภายในโซลูชันเหล่านั้น การฝึกอบรมควรจัดให้แก่ผู้ใช้ของโซลูชัน AI เพื่อให้แน่ใจว่าพวกเขาเข้าใจ AUP ของ AI
การใช้ AI ในองค์กร
องค์กรที่นำ AI มาใช้จำเป็นต้องมีวิสัยทัศน์ AI ที่ชัดเจนเพื่อให้เห็นทิศทางที่ต้องการ วิสัยทัศน์ AI ขององค์กรให้ข้อมูลแก่ผู้มีส่วนได้ส่วนเสียทั้งภายในและภายนอกเกี่ยวกับความตั้งใจขององค์กรในการนำมา พัฒนา และใช้โซลูชัน AI เพื่อส่งเสริมพันธกิจขององค์กร
ตัวอย่างเช่น สหภาพยุโรปได้ระบุวิสัยทัศน์สำหรับการใช้ประโยชน์จาก AI ไว้ดังนี้:
การส่งเสริมความเป็นเลิศใน AI จะเสริมสร้างศักยภาพของยุโรปในการแข่งขันในระดับโลก
สหภาพยุโรปจะบรรลุเป้าหมายนี้โดย:
การช่วยให้เกิดการพัฒนาและการใช้ AI ในสหภาพยุโรป
การเป็นสถานที่ที่ AI เติบโตจากห้องแล็บไปสู่ตลาด
การทำให้แน่ใจว่า AI ทำงานเพื่อผู้คนและเป็นแรงผลักดันเพื่อสิ่งที่ดีในสังคม
การสร้างความเป็นผู้นำเชิงกลยุทธ์ในภาคส่วนที่มีผลกระทบสูง
การผสมผสานค่านิยม AI
ตามที่ World Economic Forum ระบุไว้ การผสมผสานค่านิยม AI หมายถึงการออกแบบระบบ AI ที่ทำงานในลักษณะที่สอดคล้องกับค่านิยมของมนุษย์และหลักการทางจริยธรรม การผสมผสานค่านิยมจะแตกต่างกันจากองค์กรหนึ่งไปยังอีกองค์กรหนึ่งและจากประเทศหนึ่งไปยังอีกประเทศหนึ่ง ผู้พัฒนา AI ควรพิจารณาประเภทผู้ใช้ที่ตั้งใจไว้และค่านิยมที่เกี่ยวข้อง
องค์ประกอบทั่วไปในการผสมผสานค่านิยม AI รวมถึง:
ชุมชน - มุ่งเน้นที่การแก้ปัญหาในโลกจริง ปรับกลยุทธ์ AI ตามเวลาด้วยข้อเสนอแนะจากชุมชน และเสริมความร่วมมือระหว่างสาขาวิชาเพื่อเข้าใจความแตกต่างทางวัฒนธรรม
พื้นฐานทางจริยธรรม - ปรับให้สอดคล้องกับปฏิญญาสากลว่าด้วยสิทธิมนุษยชนและเป้าหมายการพัฒนาที่ยั่งยืน พิจารณาอิทธิพลจากประเทศ วัฒนธรรม และประเพณีทางจริยธรรมที่แตกต่างกัน และตั้งจริยธรรม AI บนการศึกษาและแนวทางทางปรัชญาที่ครอบคลุม
การปฏิบัติตามกฎหมาย - ปฏิบัติตามกฎหมายเฉพาะของประเทศหรือภูมิภาค เช่น GDPR และกฎหมายว่าด้วยบุคคลอันตราย เคารพค่านิยมของมนุษย์สากล และตรวจสอบให้แน่ใจว่าระบบ AI ไม่ได้ผลิตหรือเผยแพร่ข้อมูลที่ผิดพลาด
กลยุทธ์การดำเนินงาน - มีส่วนร่วมกับผู้มีส่วนได้ส่วนเสียในการออกแบบและการประเมินความเสี่ยง ตรวจสอบและปรับปรุงระบบ AI อย่างต่อเนื่องตามข้อเสนอแนะจากโลกแห่งความเป็นจริง และรวมความยั่งยืนและความเป็นธรรมเป็นตัวบ่งชี้ประสิทธิภาพที่สำคัญ
การผสมผสานค่านิยมถูกขับเคลื่อนโดยกลยุทธ์ AI ขององค์กรและต้องได้รับการประเมินตลอดวงจรชีวิตของ AI สิ่งนี้สามารถทำได้ผ่านกระบวนการกำกับดูแล AI ที่เข้มแข็ง ตามที่ World Economic Forum ระบุไว้ มีตัวเอื้ออำนวยต่างๆ สำหรับการผสมผสานค่านิยม AI รวมถึง:
กรอบงานและแนวทาง - องค์ประกอบพื้นฐานเพื่อแนะนำการพัฒนา การนำมาใช้ และการจัดการโซลูชัน AI
การมีส่วนร่วมของมนุษย์ - จำเป็นต่อการปรับปรุงและเสริมสร้างโซลูชัน AI อย่างต่อเนื่อง
การเปลี่ยนแปลงองค์กร - กลยุทธ์ที่จำเป็นเพื่อให้แน่ใจว่ามีความสอดคล้องกับวัฒนธรรมองค์กร
การตรวจสอบและการประเมินผล - เพื่อให้แน่ใจว่าโซลูชัน AI มีประสิทธิภาพในการรักษาความยึดมั่นในค่านิยมทางจริยธรรมและแนวปฏิบัติที่ดีที่สุด
เกณฑ์วัดของโปรแกรม
โปรแกรมการกำกับดูแล AI ต้องมีเกณฑ์วัดของโปรแกรมที่กำหนดไว้เพื่อตรวจสอบและประเมินประสิทธิผลของกระบวนการออกแบบ พัฒนา และนำโซลูชัน AI มาใช้ เกณฑ์วัดของโปรแกรมโดยทั่วไปสอดคล้องกับหลักการจริยธรรม AI เช่น อคติ ความเป็นธรรม ความโปร่งใส และความสามารถในการอธิบาย
ในปัจจุบัน ยังขาดความเห็นพ้องเกี่ยวกับวิธีการวัดที่มีความแข็งแกร่งและพิสูจน์ได้สำหรับความเสี่ยงและความน่าเชื่อถือและการประยุกต์ใช้กับกรณีการใช้ AI ที่แตกต่างกัน สิ่งนี้เกิดจากปัจจัยหลายอย่าง รวมถึง:
ขาดความเห็นพ้องหรือแนวทางมาตรฐานในปัจจุบัน
ความแปรปรวนของโซลูชัน AI และอัตราการเปลี่ยนแปลงที่รวดเร็ว
การทำให้วิธีการวัดง่ายเกินไป
ข้อกังวลด้านจริยธรรมของสถาบัน
เมื่อพิจารณาการสร้างเกณฑ์วัดของโปรแกรม องค์กรควรตรวจสอบให้แน่ใจว่ามีการพิจารณาอันตรายที่อาจเกิดขึ้นต่อมนุษย์จากการนำโซลูชัน AI มาใช้เป็นอันดับแรกและสำคัญที่สุด นอกจากนี้ องค์กรควรพิจารณาปัจจัยที่เกี่ยวข้องกับธุรกิจ เช่น ข้อกังวลที่เกี่ยวข้องกับพนักงาน ประสบการณ์ของลูกค้า และการตระหนักถึงประโยชน์ที่คาดหวังที่ระบุไว้ในกรณีการใช้ทางธุรกิจสำหรับโซลูชัน AI
OECD.AI Policy Observatory รักษารายการเกณฑ์วัดทางเทคนิคที่องค์กรสามารถใช้ประโยชน์ได้เมื่อสร้างเกณฑ์วัดโดยรวม เกณฑ์วัดที่ให้มามักถูกแสดงผ่านสูตรทางคณิตศาสตร์ที่ประเมินข้อกำหนดทางเทคนิคสำหรับการบรรลุ AI ที่น่าเชื่อถือในบริบทเฉพาะ พวกเขาสามารถช่วยให้มั่นใจว่าระบบมีความเป็นธรรม แม่นยำ อธิบายได้ โปร่งใส มีความแข็งแกร่ง ปลอดภัย และมั่นคง
วัตถุประสงค์และเกณฑ์วัดทั่วไปสำหรับระบบ AI ประกอบด้วย:
วัตถุประสงค์ | คำจำกัดความ |
ความรับผิดชอบ | ระบบ AI ควรได้รับการออกแบบ นำมาใช้ และดำเนินการในลักษณะที่รับประกันความรับผิดชอบและความรับผิด |
ความเป็นธรรม | ระบบ AI ควรได้รับการออกแบบและใช้เพื่อหลีกเลี่ยงอคติและรับประกันผลลัพธ์ที่เท่าเทียมกัน |
ความเป็นอยู่ที่ดีของมนุษย์ | AI ควรเสริมสร้างความเป็นอยู่ที่ดีของแต่ละบุคคลและสังคมในขณะที่เคารพสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน |
ประสิทธิภาพ | ระบบ AI ควรบรรลุวัตถุประสงค์ที่ตั้งใจไว้อย่างมีประสิทธิภาพและประสิทธิผล |
ความเป็นส่วนตัวและการกำกับดูแลข้อมูล | ระบบ AI ควรเคารพสิทธิความเป็นส่วนตัวและรับประกันการจัดการข้อมูลที่ปลอดภัยและมีจริยธรรม |
ความแข็งแกร่งและความปลอดภัยทางดิจิทัล | ระบบ AI ควรมีความยืดหยุ่นและปลอดภัยจากภัยคุกคามและข้อผิดพลาดจากผู้ไม่ประสงค์ดี |
ความปลอดภัย | ระบบ AI ควรทำงานอย่างปลอดภัยและลดความเสี่ยงต่อผู้คน ทรัพย์สิน และสิ่งแวดล้อมให้น้อยที่สุด |
ความโปร่งใสและความสามารถในการอธิบาย | กลไกการทำงานของระบบ AI และเหตุผลเบื้องหลังการตัดสินใจควรเข้าใจได้และเข้าถึงได้ |
เกณฑ์วัดของโปรแกรมควรถูกใช้โดยองค์กรเพื่อปรับปรุงอย่างต่อเนื่องในขณะที่รักษามาตรฐานการดำเนินงานที่สูง
สรุป
การกำกับดูแล AI เป็นส่วนสำคัญของการนำ AI มาใช้ในองค์กรอย่างมีประสิทธิภาพและยั่งยืน โดยครอบคลุมทุกด้านตั้งแต่กลยุทธ์และนโยบายไปจนถึงบทบาท ความรับผิดชอบ และเกณฑ์วัดประสิทธิภาพ การกำกับดูแล AI ที่มีประสิทธิภาพไม่เพียงแต่ช่วยจัดการความเสี่ยงและความท้าทายที่เกี่ยวข้องกับ AI แต่ยังช่วยให้องค์กรสามารถใช้ประโยชน์จากโอกาสที่ AI นำเสนอได้อย่างเต็มที่
ด้วยการจัดตั้งโครงสร้างการกำกับดูแลที่เหมาะสม พัฒนากลยุทธ์ AI ที่ชัดเจน และดำเนินการตามการฝึกอบรมและโปรแกรมการสร้างความตระหนักรู้ องค์กรสามารถนำทางความท้าทายของการเปลี่ยนแปลงงานและความกังวลของพนักงาน ในขณะเดียวกันก็ส่งเสริมวัฒนธรรมแห่งนวัตกรรมและการปรับตัว
แม้ว่าจะไม่มีวิธีการเดียวที่เหมาะกับทุกองค์กร แต่หลักการและเครื่องมือที่อธิบายไว้ในบทความนี้สามารถช่วยให้องค์กรพัฒนาแนวทางการกำกับดูแล AI ที่เหมาะสมกับความต้องการและสภาพแวดล้อมเฉพาะของตน
การกำกับดูแล AI ไม่ใช่เป็นเพียงการปฏิบัติตามข้อกำหนด แต่เป็นส่วนสำคัญของกลยุทธ์ธุรกิจที่มองไปข้างหน้า ซึ่งช่วยให้องค์กรสามารถใช้ประโยชน์จากศักยภาพของ AI ในขณะที่ดำเนินการอย่างมีความรับผิดชอบและยั่งยืน เมื่อเทคโนโลยี AI ยังคงพัฒนาและแพร่หลายมากขึ้น โครงสร้างการกำกับดูแลที่แข็งแกร่งจะกลายเป็นปัจจัยสำคัญในการแข่งขันและความสำเร็จของธุรกิจในยุคดิจิทัล