top of page

AI Governance: คู่มือการกำกับดูแล AI เพื่อความสำเร็จองค์กร


AI Governance: คู่มือการกำกับดูแล AI เพื่อความสำเร็จองค์กร
AI Governance: คู่มือการกำกับดูแล AI เพื่อความสำเร็จองค์กร

การกำกับดูแล AI (AI Governance) กุญแจสำคัญสู่ความสำเร็จในการประยุกต์ใช้ AI ในองค์กร

ในยุคที่เทคโนโลยี AI กำลังเปลี่ยนแปลงโลกธุรกิจอย่างรวดเร็ว การกำกับดูแล AI ที่มีประสิทธิภาพไม่เพียงแต่เป็นเรื่องของการปฏิบัติตามข้อกำหนด แต่ยังเป็นปัจจัยสำคัญที่จะช่วยให้องค์กรสามารถใช้ประโยชน์จาก AI ได้อย่างเต็มประสิทธิภาพและปลอดภัย บทความนี้จะอธิบายเกี่ยวกับการกำกับดูแล AI รวมถึงแนวทางปฏิบัติที่ดีที่สุดสำหรับองค์กรที่ต้องการนำ AI มาใช้อย่างมีประสิทธิภาพและรับผิดชอบ


ความสำคัญของการกำกับดูแล AI (AI Governance)

การกำกับดูแล AI (AI Governance) หมายถึงกระบวนการ มาตรฐาน และการควบคุมที่ช่วยให้มั่นใจว่าโซลูชัน AI มีความปลอดภัยและเป็นไปตามหลักจริยธรรม เช่นเดียวกับเทคโนโลยีใหม่ๆ AI ต้องการโปรแกรมการกำกับดูแลที่เข้มแข็งเพื่อให้มั่นใจว่ามีการดำเนินการและการกำกับดูแลที่เหมาะสม


องค์กรมักผสมผสานการกำกับดูแล AI และการจัดการโปรแกรมเข้ากับฟังก์ชันการกำกับดูแลด้านไอทีที่มีอยู่แล้ว แม้ว่าวิธีปฏิบัตินี้อาจเหมาะสมสำหรับองค์กรส่วนใหญ่ แต่ก็มีลักษณะเฉพาะของโซลูชัน AI ที่อาจท้าทายประสิทธิผลของโปรแกรมการกำกับดูแลไอทีแบบดั้งเดิม


การกำกับดูแล AI เริ่มต้นด้วยการกำหนดกลยุทธ์ บทบาท และความรับผิดชอบโดยรวมขององค์กร จากนั้นจึงนำไปสู่นโยบายและขั้นตอนอย่างเป็นทางการที่ต้องมอบหมายให้ผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้องผ่านการฝึกอบรมและการสร้างความตระหนักรู้ สุดท้าย โปรแกรมการกำกับดูแลต้องสามารถวัดผลได้ผ่านเกณฑ์วัดประสิทธิภาพของโปรแกรม ซึ่งจะรายงานต่อหน่วยงานกำกับดูแลที่เหมาะสม


กลยุทธ์ AI (AI Strategy)

กลยุทธ์ AI หมายถึงแนวทางขององค์กรในการนำ พัฒนา และกำกับดูแลโซลูชัน AI กลยุทธ์ AI ที่มีประสิทธิภาพช่วยให้องค์กรสามารถรับรู้ถึงประโยชน์ของการนำ AI มาใช้ในเชิงรุก ขณะที่จัดการความเสี่ยงที่เกิดจากเทคโนโลยี AI ที่กำลังพัฒนาอย่างเป็นระบบ


กลยุทธ์สำหรับ AI สามารถนำมาใช้โดยหน่วยงานต่างๆ ขององค์กรตามความจำเป็นที่รับรู้ได้เพื่อให้คำแนะนำแก่ผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้อง รัฐบาลอาจกำหนดกลยุทธ์ AI เพื่อมุ่งเน้นการให้ข้อพิจารณาทางจริยธรรมที่สอดคล้องกับค่านิยมของสังคม ในขณะที่บริษัทอาจมุ่งเน้นการระบุความได้เปรียบในการแข่งขันที่อาจเกิดขึ้นเหนือคู่แข่งผ่านการนำ AI มาใช้

ตัวอย่างกลยุทธ์ AI ที่พบบ่อยแบ่งได้เป็น 3 ประเภทหลัก:

  1. กลยุทธ์ระดับประเทศ

    • การปรับจริยธรรมให้สอดคล้องกับค่านิยมของประเทศ

    • การกำหนดแนวทางกฎหมายและข้อบังคับ

    • การส่งเสริมความมั่นคงของประเทศ

  2. กลยุทธ์ระดับอุตสาหกรรม

    • การส่งเสริมนวัตกรรมในอุตสาหกรรม

    • การกำหนดมาตรฐานและแนวปฏิบัติที่ดีที่สุด

    • การตีความข้อบังคับและแนวทาง AI

  3. กลยุทธ์ระดับองค์กร

    • การระบุโอกาสสำหรับความได้เปรียบในการแข่งขัน

    • การสร้างความสอดคล้องกับข้อกำหนดที่เกี่ยวข้อง


กลยุทธ์ AI ควรสร้างขึ้นจากแนวปฏิบัติที่ดีที่ได้รับการยอมรับ หลักการชี้นำสำหรับ AI มีให้โดยองค์กรที่มีชื่อเสียงหลายแห่ง แต่โดยทั่วไปแล้วจะมุ่งเน้นแนวคิดทั่วไปของจริยธรรม AI เช่น ความสามารถในการอธิบาย ความเป็นธรรม ความโปร่งใส และการให้มนุษย์เป็นศูนย์กลาง


การฝึกอบรมและการสร้างความตระหนักรู้เกี่ยวกับ AI

การฝึกอบรมและการสร้างความตระหนักรู้เกี่ยวกับ AI มีความสำคัญอย่างยิ่งในการสร้างความมั่นใจว่าการนำ AI มาใช้ภายในฐานผู้ใช้จะประสบความสำเร็จ หากไม่มีการฝึกอบรมและการสร้างความตระหนักรู้เกี่ยวกับกลยุทธ์ AI ขององค์กรที่เหมาะสม อาจเกิดความสับสนที่นำไปสู่ความไม่ไว้วางใจในการนำโซลูชัน AI มาใช้ ในหลายกรณี บุคคลในกำลังแรงงานกลัวว่า AI จะแทนที่งานของพวกเขา ซึ่งอาจนำไปสู่ความกังขาและการปฏิเสธโซลูชัน AI โดยสิ้นเชิง


จากการศึกษาในปี 2023 โดย World Economic Forum นายจ้างคาดการณ์ถึงการหยุดชะงักจาก AI ที่ส่งผลกระทบต่องาน 23% (ประมาณ 83 ล้านตำแหน่ง) ภายในปี 2027 ผู้ตอบแบบสอบถามคาดว่าจะมีผลกระทบสูงกว่าค่าเฉลี่ยในห่วงโซ่อุปทาน การขนส่ง สื่อ ความบันเทิง และอุตสาหกรรมกีฬา และผลกระทบต่ำกว่าค่าเฉลี่ยในการผลิต ค้าปลีก และค้าส่ง


อย่างไรก็ตาม การศึกษาเดียวกันพบว่าจากตำแหน่งงาน 673 ล้านตำแหน่งที่แสดงในชุดข้อมูล ผู้ตอบแบบสอบถามคาดว่าจะมีการเติบโตของงาน 69 ล้านตำแหน่ง หรือการลดลงสุทธิ 2% ในการจ้างงานปัจจุบันภายในปี 2027 แม้ว่านี่จะยังคงเป็นการลดลงของตำแหน่งที่คาดหวัง แต่งานส่วนใหญ่คาดว่าจะเปลี่ยนไปสู่โอกาสอื่น ในขณะเดียวกัน บทบาทใหม่จะยังคงเกิดขึ้นและหวังว่าจะมีส่วนช่วยในการเติบโตของโอกาสงานโดยรวม


เพื่อจัดการกับความกังวลและเน้นย้ำโอกาสใหม่ที่ AI จะให้ องค์กรต้องตรวจสอบให้แน่ใจว่าพวกเขาจัดการกับการจัดการความสามารถของ AI เชิงรุกเพื่อให้แน่ใจว่ากำลังแรงงานของพวกเขามีทักษะ ความรู้ และความสามารถที่จะเจริญรุ่งเรืองในอนาคต


การจัดการความสามารถ (Talent Management)

องค์กรที่นำโซลูชัน AI มาใช้จะต้องตรวจสอบให้แน่ใจว่าพวกเขากำลังพิจารณาผลกระทบสุทธิที่จะมีต่อกำลังแรงงานของพวกเขา เพื่อจัดการกับความกังวลนี้ รัฐบาลและกลุ่มสนับสนุนหลายแห่งได้ให้แนวทางในการออกแบบงานใหม่สำหรับ AI ตัวอย่างหนึ่งคือ "คู่มือการออกแบบงานใหม่ในยุค AI" ของรัฐบาลสิงคโปร์ ซึ่งเน้นสี่ด้านของการออกแบบงานใหม่:

  • การเปลี่ยนแปลงงาน — ประเมินผลกระทบของ AI ต่องาน รวมถึงว่างานแต่ละงานสามารถทำให้เป็นอัตโนมัติหรือเสริมด้วย AI หรือต้องยังคงอยู่ในมือมนุษย์หรือไม่ และตัดสินใจว่างานใดสามารถเปลี่ยนแปลงได้ภายในกรอบเวลาที่เหมาะสม

  • การวางแผนเส้นทางที่ชัดเจนระหว่างงาน — วางแผนเส้นทางของงานระหว่างตำแหน่งงานภายในองค์กรและระบุงานที่พนักงานจำเป็นต้องเรียนรู้เพื่อเปลี่ยนจากงานหนึ่งไปอีกงานหนึ่ง

  • การขจัดอุปสรรคต่อการเปลี่ยนแปลงทางดิจิทัล — แนะนำวิธีการจัดการกับความท้าทายที่อาจเกิดขึ้นและสนับสนุนพนักงานเมื่อนำ AI มาใช้

  • การสร้างการสื่อสารที่มีประสิทธิภาพระหว่างนายจ้างและพนักงาน — สร้างความเข้าใจร่วมกันภายในองค์กรเกี่ยวกับเหตุผล สิ่งที่ และวิธีที่ AI จะเสริมความสามารถของมนุษย์และเพิ่มอำนาจให้พนักงานในอาชีพของพวกเขา


โดยทั่วไปแล้ว การนำโซลูชัน AI มาใช้ภายในองค์กรควรถูกมองว่าเป็นโอกาสในการปรับปรุงประสบการณ์ของกำลังแรงงานโดยรวม การรวมผู้เชี่ยวชาญด้านทรัพยากรบุคคลและผู้เชี่ยวชาญด้านการฝึกอบรมในกลยุทธ์ AI ขององค์กรมีความสำคัญในการสร้างความมั่นใจว่าความกังวลของกำลังแรงงานได้รับการจัดการตลอดวงจรชีวิตของโซลูชัน AI


ทักษะ ความรู้ และความสามารถ

องค์กรที่นำโซลูชัน AI มาใช้ต้องตรวจสอบให้แน่ใจว่าพนักงานของพวกเขามีทักษะ ความรู้ และความสามารถที่เหมาะสมเพื่อเข้าใจและใช้ประโยชน์จากเทคโนโลยีเหล่านั้นอย่างมีประสิทธิภาพในการทำงานที่มีอยู่หรือได้รับการออกแบบใหม่ ข้อควรพิจารณาแรกสำหรับการสร้างความตระหนักรู้ควรเป็นการรับรู้เชิงลบหรือข้อมูลที่ผิดพลาดที่พนักงานอาจมีเกี่ยวกับ AI

ข้อควรพิจารณาและโซลูชั่นที่อาจเกิดขึ้นสำหรับการรับรู้เชิงลบเกี่ยวกับโซลูชัน AI มีดังนี้:

ข้อควรพิจารณา

โซลูชั่นที่อาจเกิดขึ้น

ขาดความตระหนักถึงวิธีที่เทคโนโลยี AI สามารถเสริมการทำงาน

ให้ความรู้พนักงานเกี่ยวกับโอกาสและบทบาทงานที่ได้รับการเสริม

การต่อต้านการเปลี่ยนแปลง

เสนอชื่อผู้สนับสนุนนวัตกรรมเพื่อระบุจุดที่ปวดและโอกาส

ศักยภาพสำหรับการออกแบบงานใหม่และการฝึกอบรมที่จะขัดขวางการไหลของธุรกิจที่มีอยู่

การนำมาใช้เป็นเฟส และทำให้แน่ใจว่าธุรกิจยังคงดำเนินไปตามปกติด้วยการฝึกอบรมเป็นกลุ่มเล็กๆ

การฝึกอบรมไม่ได้รับการออกแบบเพื่อให้ทักษะและความสามารถใหม่ที่จำเป็นสำหรับงานใหม่ และระดับความสามารถที่แตกต่างกันสำหรับการฝึกอบรม

จัดให้มีการฝึกอบรมและการเรียนรู้สำหรับงานที่ต้องการความแม่นยำ และทำให้แน่ใจว่าการฝึกอบรมสามารถใช้ได้และมีในรูปแบบที่เข้าถึงได้

ความไม่แน่นอนของผลลัพธ์สำหรับพนักงานหลังการฝึกอบรมและการออกแบบงานใหม่ และการรับรู้ว่าการออกแบบงานใหม่เท่ากับงานมากขึ้น

ทบทวนค่าตอบแทนและเกณฑ์วัดประสิทธิภาพของพนักงานสำหรับบทบาทที่ได้รับการเสริม

การสื่อสารที่มีประสิทธิภาพเกี่ยวกับการรับรู้เชิงลบที่อาจเกิดขึ้นเหล่านี้มีความสำคัญในการสร้างความมั่นใจในการยอมรับของพนักงานสำหรับการเรียนรู้ความสามารถที่จำเป็นเพื่อทำหน้าที่งานใหม่ การสื่อสารนี้ควรถูกกำหนดขึ้นก่อน ระหว่าง และหลังการนำโซลูชัน AI มาใช้


เพื่อช่วยในการนำมาใช้ องค์กรอาจพิจารณาการระบุแชมเปี้ยน (บางครั้งเรียกว่า "ผู้ใช้ที่มีอำนาจ") ภายในแต่ละหน่วยขององค์กร ผู้นำเหล่านี้สามารถช่วยเหลือผู้ที่รับผิดชอบในการนำโซลูชัน AI ทรัพยากรบุคคล และเจ้าหน้าที่ฝึกอบรม บุคคลเหล่านี้โดยทั่วไปควรมีพื้นฐานของการรู้เท่าทัน AI ประโยชน์ของการใช้แชมเปี้ยนหน่วยงานขององค์กร นอกเหนือจากการให้การบรรเทาสำหรับเจ้าหน้าที่ฝึกอบรมที่ทุ่มเท คือศักยภาพสำหรับการสนับสนุนเชิงบวกสำหรับโซลูชันใหม่ในหมู่เพื่อนร่วมงานที่ช่างสงสัย


ทักษะ ความรู้ และความสามารถที่เกี่ยวข้องกับ AI ทั่วไปที่พนักงานอาจจำเป็นต้องได้รับระหว่างการนำโซลูชัน AI มาใช้ ได้แก่:

  • นโยบายการใช้ AI ที่ยอมรับได้ — พนักงานควรได้รับการฝึกอบรมเกี่ยวกับนโยบายที่เกี่ยวข้องกับ AI ขององค์กรและขั้นตอนต่างๆ

  • พื้นฐานของ AI — พนักงานควรมีความเข้าใจพื้นฐานเกี่ยวกับ AI คืออะไรและศัพท์ทั่วไป

  • การตระหนักถึงจริยธรรม — พนักงานควรเข้าใจหลักการจริยธรรมพื้นฐานของ AI เช่น ความสามารถในการอธิบายและอคติ

  • ข้อพิจารณาเฉพาะโซลูชัน — พนักงานควรได้รับการฝึกอบรมเกี่ยวกับข้อพิจารณาเฉพาะโซลูชัน ตัวอย่างเช่น หากองค์กรกำลังใช้แพลตฟอร์ม GenAI ผู้ใช้ควรได้รับการฝึกอบรมเกี่ยวกับการสร้าง prompt ที่มีประสิทธิภาพ


บทบาทและความรับผิดชอบที่เกี่ยวข้องกับ AI

การเข้าใจบทบาทและความรับผิดชอบที่เกี่ยวข้องกับ AI มีความสำคัญสำหรับองค์กรใดๆ ที่พัฒนาและ/หรือนำโซลูชัน AI มาใช้ บทบาทและความรับผิดชอบที่เกี่ยวข้องจะแตกต่างกันไปตามขนาดขององค์กรและกลยุทธ์การนำ AI มาใช้ ตัวอย่างเช่น หากองค์กรกำลังนำโซลูชัน AI ของบุคคลที่สามมาใช้ แผนกไอทีอาจไม่มีบทบาทที่เกี่ยวข้องกับการพัฒนาหรือการดำเนินงานที่เกี่ยวข้องกับ AI


หมวดหมู่ทั่วไปของบทบาท AI และความรับผิดชอบที่เกี่ยวข้องประกอบด้วย:

1. ผู้นำและกลยุทธ์

บทบาทกลยุทธ์ AI มุ่งเน้นที่การกำหนดวิสัยทัศน์ วัตถุประสงค์ และแผนการนำมาใช้สำหรับการนำโซลูชัน AI มาใช้ภายในองค์กร

  • ผู้บริหาร รับผิดชอบในการกำหนดโทนจากระดับสูงและลงนามในกลยุทธ์ AI ฝ่ายบริหารรับผิดชอบสูงสุดสำหรับผลกระทบของโซลูชัน AI ต่อองค์กรและผู้มีส่วนได้ส่วนเสีย

  • หัวหน้าเจ้าหน้าที่ AI รับผิดชอบในการนำ AI มาใช้โดยรวมภายในองค์กรและรายงานต่อผู้บริหาร นี่อาจเป็นบทบาทแยกต่างหาก หรือความรับผิดชอบที่เกี่ยวข้องอาจถูกรวมเข้ากับบทบาทปัจจุบันและสมดุล

  • คณะกรรมการกำกับดูแล AI เป็นกลุ่มข้ามหน้าที่ของบุคคลจากสาขาวิชาที่แตกต่างกันที่รับผิดชอบในการให้ข้อมูลเชิงลึกเกี่ยวกับกลยุทธ์ AI ที่เกี่ยวข้องกับผลกระทบของ AI ต่อหน่วยองค์กรของพวกเขา คณะกรรมการนี้บางครั้งจะรวมเข้ากับคณะกรรมการที่มีอยู่แล้วบนพื้นฐานของไอที เช่น คณะกรรมการกำกับดูแลไอทีหรือคณะกรรมการนวัตกรรม

2. การพัฒนาและการดำเนินงาน

บทบาทการพัฒนาและการดำเนินงาน AI โดยทั่วไปอยู่ในกลุ่มไอทีขององค์กรและรับผิดชอบในการสร้าง การนำมาใช้ และการบำรุงรักษาโซลูชัน AI

  • การพัฒนาไอที รับผิดชอบในการสร้างโซลูชัน AI เพื่อตอบสนองความต้องการทางธุรกิจที่กำหนดไว้ รวมถึงนักวิทยาศาสตร์ข้อมูล วิศวกร นักวิจัย และเจ้าหน้าที่พัฒนา

  • การดำเนินงานด้านไอที รับผิดชอบในการนำมาใช้และบำรุงรักษาโซลูชัน AI และโครงสร้างพื้นฐานสนับสนุน

  • การจัดการผลิตภัณฑ์ รับผิดชอบในการเชื่อมช่องว่างระหว่างเจ้าหน้าที่เทคนิคด้านไอทีและผู้ใช้ปลายทางเพื่อให้แน่ใจว่าโซลูชัน AI สามารถใช้งานได้

3. ผู้ใช้

บทบาทที่เกี่ยวข้องกับผู้ใช้ AI โดยทั่วไปนำไปใช้กับผู้ใช้จริงของโซลูชัน AI และบทบาทสนับสนุนของพวกเขา

  • ผู้ใช้ปลายทาง รวมถึงพนักงานหรือผู้บริโภค

  • ทรัพยากรบุคคล สนับสนุนพนักงานผู้ใช้ปลายทางของโซลูชัน AI ผ่านการจัดประเภทงานและการฝึกอบรมงานที่เกี่ยวข้อง

  • ฝ่ายบริการลูกค้า ให้การสนับสนุนแก่ผู้ใช้ปลายทางที่เป็นลูกค้าของโซลูชัน AI

4. การกำกับดูแลและการควบคุม

บทบาทการกำกับดูแล AI มุ่งเน้นการตรวจสอบให้แน่ใจว่ามีการปฏิบัติตามหลักจริยธรรมของโซลูชัน AI เพื่อตอบสนองหลักการและข้อกำหนดการปฏิบัติตามกฎระเบียบขององค์กร

  • คณะกรรมการกำกับดูแล รับผิดชอบในการดูแลโปรแกรมการกำกับดูแล AI และนโยบาย และการรายงานเกี่ยวกับเกณฑ์วัดของโปรแกรม

  • การจัดการความเสี่ยง รับผิดชอบในการผสมผสาน AI เข้ากับกระบวนการวางแผนการจัดการความเสี่ยงขององค์กร

  • ความปลอดภัยและความเป็นส่วนตัวด้านสารสนเทศ รับผิดชอบในด้านข้อมูลและความปลอดภัยของระบบสารสนเทศและการเป็นส่วนตัวที่เกี่ยวข้องระหว่างวงจรชีวิตของโซลูชัน AI

  • การตรวจสอบภายใน รับผิดชอบในการประเมินความเสี่ยงที่เกี่ยวข้องกับ AI ในฐานะส่วนหนึ่งของแผนการตรวจสอบ


นโยบายและขั้นตอนที่เกี่ยวข้องกับ AI

นโยบายและขั้นตอนที่เกี่ยวข้องกับการใช้ AI ภายในองค์กรควรถูกสร้างขึ้นเพื่อให้แน่ใจว่าสอดคล้องกับกลยุทธ์ AI ขององค์กร การนำนโยบายและขั้นตอน AI มาใช้จะแตกต่างกันจากองค์กรหนึ่งไปยังอีกองค์กรหนึ่ง องค์กรบางแห่งอาจเลือกสร้างนโยบายแยกต่างหาก ในขณะที่องค์กรอื่นๆ อาจผสมผสานแนวคิด AI เข้ากับนโยบาย มาตรฐาน และขั้นตอนปัจจุบันของพวกเขา ก่อนเขียนชุดนโยบายใหม่ องค์กรควรตรวจสอบนโยบาย IT และความปลอดภัยด้านสารสนเทศที่มีอยู่สำหรับการผสมผสานที่อาจเกิดขึ้น


อย่างน้อยที่สุด จุดยืนขององค์กรเกี่ยวกับ AI ควรถูกบันทึกไว้ในนโยบายที่เป็นทางการและเป็นที่รู้จักของผู้มีส่วนได้ส่วนเสียทั้งหมดที่เกี่ยวข้อง นโยบาย AI ควรกำหนดการใช้ที่ได้รับอนุญาตและต้องห้ามของ AI ภายในองค์กรและให้ความคาดหวังสำหรับการกำกับดูแลโซลูชันที่นำมาใช้ นโยบาย AI ควรใช้แนวทางที่มีอยู่ เช่น กรอบงานที่ได้รับการยอมรับทั่วไป

การอัปเดตมาตรฐาน แผน หรือขั้นตอนที่เกี่ยวข้องอาจเป็นผลมาจากการนำนโยบายเฉพาะ AI มาใช้ ตัวอย่างเช่น แผนการฝึกอบรมและการสร้างความตระหนักรู้อาจต้องได้รับการอัปเดตเพื่อให้แน่ใจว่ามีความเข้าใจในระดับองค์กรเกี่ยวกับโซลูชัน AI ที่จะนำมาใช้


สุดท้าย นโยบายการใช้ AI ควรถูกร่างขึ้นเพื่อเสริมนโยบาย AI คล้ายกับนโยบาย AI นโยบายการใช้ AI อาจผสมผสานเข้ากับนโยบายการใช้ที่ยอมรับได้โดยทั่วไปของระบบสารสนเทศขององค์กร


นโยบายการใช้

นโยบายการใช้ AI ที่ยอมรับได้ (AUP) ให้กรอบงานสำหรับการนำ AI มาใช้อย่างมีจริยธรรมและมีความรับผิดชอบ เนื่องจากความก้าวหน้าอย่างรวดเร็วใน GenAI องค์กรควรให้แนวทางที่ชัดเจนเกี่ยวกับการใช้ AI ที่พิจารณาการวิเคราะห์ความเสี่ยงและผลประโยชน์


นโยบาย AUP ที่มีประสิทธิภาพควรเป็นเรื่องง่ายที่จะเข้าใจสำหรับผู้ใช้ทั่วไป โซลูชัน AI ที่ได้รับการอนุมัติควรถูกระบุ และองค์กรควรให้คำแนะนำแก่ผู้ใช้ปลายทางเกี่ยวกับการใช้ที่ยอมรับได้ของข้อมูลขององค์กรภายในโซลูชันเหล่านั้น การฝึกอบรมควรจัดให้แก่ผู้ใช้ของโซลูชัน AI เพื่อให้แน่ใจว่าพวกเขาเข้าใจ AUP ของ AI


การใช้ AI ในองค์กร

องค์กรที่นำ AI มาใช้จำเป็นต้องมีวิสัยทัศน์ AI ที่ชัดเจนเพื่อให้เห็นทิศทางที่ต้องการ วิสัยทัศน์ AI ขององค์กรให้ข้อมูลแก่ผู้มีส่วนได้ส่วนเสียทั้งภายในและภายนอกเกี่ยวกับความตั้งใจขององค์กรในการนำมา พัฒนา และใช้โซลูชัน AI เพื่อส่งเสริมพันธกิจขององค์กร

ตัวอย่างเช่น สหภาพยุโรปได้ระบุวิสัยทัศน์สำหรับการใช้ประโยชน์จาก AI ไว้ดังนี้:

การส่งเสริมความเป็นเลิศใน AI จะเสริมสร้างศักยภาพของยุโรปในการแข่งขันในระดับโลก

สหภาพยุโรปจะบรรลุเป้าหมายนี้โดย:

  1. การช่วยให้เกิดการพัฒนาและการใช้ AI ในสหภาพยุโรป

  2. การเป็นสถานที่ที่ AI เติบโตจากห้องแล็บไปสู่ตลาด

  3. การทำให้แน่ใจว่า AI ทำงานเพื่อผู้คนและเป็นแรงผลักดันเพื่อสิ่งที่ดีในสังคม

  4. การสร้างความเป็นผู้นำเชิงกลยุทธ์ในภาคส่วนที่มีผลกระทบสูง


การผสมผสานค่านิยม AI

ตามที่ World Economic Forum ระบุไว้ การผสมผสานค่านิยม AI หมายถึงการออกแบบระบบ AI ที่ทำงานในลักษณะที่สอดคล้องกับค่านิยมของมนุษย์และหลักการทางจริยธรรม การผสมผสานค่านิยมจะแตกต่างกันจากองค์กรหนึ่งไปยังอีกองค์กรหนึ่งและจากประเทศหนึ่งไปยังอีกประเทศหนึ่ง ผู้พัฒนา AI ควรพิจารณาประเภทผู้ใช้ที่ตั้งใจไว้และค่านิยมที่เกี่ยวข้อง


องค์ประกอบทั่วไปในการผสมผสานค่านิยม AI รวมถึง:

  • ชุมชน - มุ่งเน้นที่การแก้ปัญหาในโลกจริง ปรับกลยุทธ์ AI ตามเวลาด้วยข้อเสนอแนะจากชุมชน และเสริมความร่วมมือระหว่างสาขาวิชาเพื่อเข้าใจความแตกต่างทางวัฒนธรรม

  • พื้นฐานทางจริยธรรม - ปรับให้สอดคล้องกับปฏิญญาสากลว่าด้วยสิทธิมนุษยชนและเป้าหมายการพัฒนาที่ยั่งยืน พิจารณาอิทธิพลจากประเทศ วัฒนธรรม และประเพณีทางจริยธรรมที่แตกต่างกัน และตั้งจริยธรรม AI บนการศึกษาและแนวทางทางปรัชญาที่ครอบคลุม

  • การปฏิบัติตามกฎหมาย - ปฏิบัติตามกฎหมายเฉพาะของประเทศหรือภูมิภาค เช่น GDPR และกฎหมายว่าด้วยบุคคลอันตราย เคารพค่านิยมของมนุษย์สากล และตรวจสอบให้แน่ใจว่าระบบ AI ไม่ได้ผลิตหรือเผยแพร่ข้อมูลที่ผิดพลาด

  • กลยุทธ์การดำเนินงาน - มีส่วนร่วมกับผู้มีส่วนได้ส่วนเสียในการออกแบบและการประเมินความเสี่ยง ตรวจสอบและปรับปรุงระบบ AI อย่างต่อเนื่องตามข้อเสนอแนะจากโลกแห่งความเป็นจริง และรวมความยั่งยืนและความเป็นธรรมเป็นตัวบ่งชี้ประสิทธิภาพที่สำคัญ


การผสมผสานค่านิยมถูกขับเคลื่อนโดยกลยุทธ์ AI ขององค์กรและต้องได้รับการประเมินตลอดวงจรชีวิตของ AI สิ่งนี้สามารถทำได้ผ่านกระบวนการกำกับดูแล AI ที่เข้มแข็ง ตามที่ World Economic Forum ระบุไว้ มีตัวเอื้ออำนวยต่างๆ สำหรับการผสมผสานค่านิยม AI รวมถึง:

  • กรอบงานและแนวทาง - องค์ประกอบพื้นฐานเพื่อแนะนำการพัฒนา การนำมาใช้ และการจัดการโซลูชัน AI

  • การมีส่วนร่วมของมนุษย์ - จำเป็นต่อการปรับปรุงและเสริมสร้างโซลูชัน AI อย่างต่อเนื่อง

  • การเปลี่ยนแปลงองค์กร - กลยุทธ์ที่จำเป็นเพื่อให้แน่ใจว่ามีความสอดคล้องกับวัฒนธรรมองค์กร

  • การตรวจสอบและการประเมินผล - เพื่อให้แน่ใจว่าโซลูชัน AI มีประสิทธิภาพในการรักษาความยึดมั่นในค่านิยมทางจริยธรรมและแนวปฏิบัติที่ดีที่สุด


เกณฑ์วัดของโปรแกรม

โปรแกรมการกำกับดูแล AI ต้องมีเกณฑ์วัดของโปรแกรมที่กำหนดไว้เพื่อตรวจสอบและประเมินประสิทธิผลของกระบวนการออกแบบ พัฒนา และนำโซลูชัน AI มาใช้ เกณฑ์วัดของโปรแกรมโดยทั่วไปสอดคล้องกับหลักการจริยธรรม AI เช่น อคติ ความเป็นธรรม ความโปร่งใส และความสามารถในการอธิบาย

ในปัจจุบัน ยังขาดความเห็นพ้องเกี่ยวกับวิธีการวัดที่มีความแข็งแกร่งและพิสูจน์ได้สำหรับความเสี่ยงและความน่าเชื่อถือและการประยุกต์ใช้กับกรณีการใช้ AI ที่แตกต่างกัน สิ่งนี้เกิดจากปัจจัยหลายอย่าง รวมถึง:

  • ขาดความเห็นพ้องหรือแนวทางมาตรฐานในปัจจุบัน

  • ความแปรปรวนของโซลูชัน AI และอัตราการเปลี่ยนแปลงที่รวดเร็ว

  • การทำให้วิธีการวัดง่ายเกินไป

  • ข้อกังวลด้านจริยธรรมของสถาบัน


เมื่อพิจารณาการสร้างเกณฑ์วัดของโปรแกรม องค์กรควรตรวจสอบให้แน่ใจว่ามีการพิจารณาอันตรายที่อาจเกิดขึ้นต่อมนุษย์จากการนำโซลูชัน AI มาใช้เป็นอันดับแรกและสำคัญที่สุด นอกจากนี้ องค์กรควรพิจารณาปัจจัยที่เกี่ยวข้องกับธุรกิจ เช่น ข้อกังวลที่เกี่ยวข้องกับพนักงาน ประสบการณ์ของลูกค้า และการตระหนักถึงประโยชน์ที่คาดหวังที่ระบุไว้ในกรณีการใช้ทางธุรกิจสำหรับโซลูชัน AI


OECD.AI Policy Observatory รักษารายการเกณฑ์วัดทางเทคนิคที่องค์กรสามารถใช้ประโยชน์ได้เมื่อสร้างเกณฑ์วัดโดยรวม เกณฑ์วัดที่ให้มามักถูกแสดงผ่านสูตรทางคณิตศาสตร์ที่ประเมินข้อกำหนดทางเทคนิคสำหรับการบรรลุ AI ที่น่าเชื่อถือในบริบทเฉพาะ พวกเขาสามารถช่วยให้มั่นใจว่าระบบมีความเป็นธรรม แม่นยำ อธิบายได้ โปร่งใส มีความแข็งแกร่ง ปลอดภัย และมั่นคง

วัตถุประสงค์และเกณฑ์วัดทั่วไปสำหรับระบบ AI ประกอบด้วย:

วัตถุประสงค์

คำจำกัดความ

ความรับผิดชอบ

ระบบ AI ควรได้รับการออกแบบ นำมาใช้ และดำเนินการในลักษณะที่รับประกันความรับผิดชอบและความรับผิด

ความเป็นธรรม

ระบบ AI ควรได้รับการออกแบบและใช้เพื่อหลีกเลี่ยงอคติและรับประกันผลลัพธ์ที่เท่าเทียมกัน

ความเป็นอยู่ที่ดีของมนุษย์

AI ควรเสริมสร้างความเป็นอยู่ที่ดีของแต่ละบุคคลและสังคมในขณะที่เคารพสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน

ประสิทธิภาพ

ระบบ AI ควรบรรลุวัตถุประสงค์ที่ตั้งใจไว้อย่างมีประสิทธิภาพและประสิทธิผล

ความเป็นส่วนตัวและการกำกับดูแลข้อมูล

ระบบ AI ควรเคารพสิทธิความเป็นส่วนตัวและรับประกันการจัดการข้อมูลที่ปลอดภัยและมีจริยธรรม

ความแข็งแกร่งและความปลอดภัยทางดิจิทัล

ระบบ AI ควรมีความยืดหยุ่นและปลอดภัยจากภัยคุกคามและข้อผิดพลาดจากผู้ไม่ประสงค์ดี

ความปลอดภัย

ระบบ AI ควรทำงานอย่างปลอดภัยและลดความเสี่ยงต่อผู้คน ทรัพย์สิน และสิ่งแวดล้อมให้น้อยที่สุด

ความโปร่งใสและความสามารถในการอธิบาย

กลไกการทำงานของระบบ AI และเหตุผลเบื้องหลังการตัดสินใจควรเข้าใจได้และเข้าถึงได้

เกณฑ์วัดของโปรแกรมควรถูกใช้โดยองค์กรเพื่อปรับปรุงอย่างต่อเนื่องในขณะที่รักษามาตรฐานการดำเนินงานที่สูง


สรุป

การกำกับดูแล AI เป็นส่วนสำคัญของการนำ AI มาใช้ในองค์กรอย่างมีประสิทธิภาพและยั่งยืน โดยครอบคลุมทุกด้านตั้งแต่กลยุทธ์และนโยบายไปจนถึงบทบาท ความรับผิดชอบ และเกณฑ์วัดประสิทธิภาพ การกำกับดูแล AI ที่มีประสิทธิภาพไม่เพียงแต่ช่วยจัดการความเสี่ยงและความท้าทายที่เกี่ยวข้องกับ AI แต่ยังช่วยให้องค์กรสามารถใช้ประโยชน์จากโอกาสที่ AI นำเสนอได้อย่างเต็มที่


ด้วยการจัดตั้งโครงสร้างการกำกับดูแลที่เหมาะสม พัฒนากลยุทธ์ AI ที่ชัดเจน และดำเนินการตามการฝึกอบรมและโปรแกรมการสร้างความตระหนักรู้ องค์กรสามารถนำทางความท้าทายของการเปลี่ยนแปลงงานและความกังวลของพนักงาน ในขณะเดียวกันก็ส่งเสริมวัฒนธรรมแห่งนวัตกรรมและการปรับตัว


แม้ว่าจะไม่มีวิธีการเดียวที่เหมาะกับทุกองค์กร แต่หลักการและเครื่องมือที่อธิบายไว้ในบทความนี้สามารถช่วยให้องค์กรพัฒนาแนวทางการกำกับดูแล AI ที่เหมาะสมกับความต้องการและสภาพแวดล้อมเฉพาะของตน

การกำกับดูแล AI ไม่ใช่เป็นเพียงการปฏิบัติตามข้อกำหนด แต่เป็นส่วนสำคัญของกลยุทธ์ธุรกิจที่มองไปข้างหน้า ซึ่งช่วยให้องค์กรสามารถใช้ประโยชน์จากศักยภาพของ AI ในขณะที่ดำเนินการอย่างมีความรับผิดชอบและยั่งยืน เมื่อเทคโนโลยี AI ยังคงพัฒนาและแพร่หลายมากขึ้น โครงสร้างการกำกับดูแลที่แข็งแกร่งจะกลายเป็นปัจจัยสำคัญในการแข่งขันและความสำเร็จของธุรกิจในยุคดิจิทัล


 
 
bottom of page