ขณะที่ทั่วโลกต่างกำลังหาวิธีรับมือเพื่อกำกับดูแลการใช้งานเทคโนโลยีปัญญาประดิษฐ์ (AI) ซึ่งมีความสามารถมากขึ้นเรื่อย ๆ และมีบทบาททั้งต่อชีวิตประจำวันของผู้คน องค์กร อุตสาหกรรม กระทั่งถึงระดับที่มีผลต่อการเพิ่มขีดความสามารถในการแข่งขันทางเศรษฐกิจของประเทศ ประเทศไทยซึ่งได้รับการประเมินดัชนีความพร้อมด้าน AI1 ปี 2023 ในลำดับที่ 37 แม้ว่าในช่วงเวลาที่เผยแพร่บทความนี้ (มิถุนายน 2567) จะยังอยู่ในช่วงการร่างกฎหมายที่จำเป็น ก็ต้องได้รับการเตรียมความพร้อมในทุกภาคส่วนอย่างเป็นระบบ ภายใต้แนวปฏิบัติทั้งจากภายในและต่างประเทศ รวมถึงแนวปฏิบัติตามมาตรฐานสากล
OPEN-TEC ศูนย์รวมองค์ความรู้ด้านเทคโนโลยี (Tech Knowledge Sharing Platform) ภายใต้การดูแลของ TCC TECHNOLOGY GROUP จึงร่วมเป็นหนึ่งช่องทางในการเพิ่มการตระหนักถึงความสำคัญของ AI ต่อธุรกิจ โดยนำเสนอแนวทางการกำกับดูแลการใช้ AI บนหลักการด้านจริยธรรมและธรรมาภิบาลสำหรับผู้บริหารองค์กร (AI Governance) ที่จำเป็นต้องสร้างความสมดุลและยั่งยืนทั้งในแง่การป้องกันและการสร้างสรรค์นวัตกรรม และเนื้อหาที่เป็นประโยชน์บางส่วนจากการบรรยายของ ดร. ศักดิ์ เสกขุนทด2 ที่ปรึกษาอาวุโส และผู้ทรงคุณวุฒิด้าน Digital Transformation สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ในหัวข้อ AI Governance – Thailand’s Approach ในงาน TMA Digital Dialogue 2024
เสาที่ 1: AI Governance Structure
เตรียมความพร้อมองค์กรด้วยการวางโครงสร้างรากฐานสำหรับการกำกับดูแลการประยุกต์ใช้ AI ภายในองค์กร ประกอบด้วยขั้นตอนต่าง ๆ ได้แก่
- กำหนด/แต่งตั้งคณะทำงาน AI Governance ภายใต้บริบทของแต่ละองค์กร ซึ่งควรประกอบด้วยผู้บริหารจากหลากหลายแผนก เช่น ฝ่ายไอที ฝ่ายธุรกิจ ฝ่ายกฎหมาย และฝ่ายกำกับดูแลการปฏิบัติงาน (Compliance) เป็นต้น เพื่อร่วมกันรับผิดชอบการกำกับดูแล การพัฒนา และการดำเนินงานตามกรอบการกำกับดูแล AI มีหน้าที่ความรับผิดชอบ เช่น
- การกำหนดทิศทางการดำเนินการ คณะทำงานฯ ควรเป็นผู้กำหนดทิศทางสำหรับกลยุทธ์ AI ขององค์กร จัดการความเสี่ยงที่เกี่ยวข้องกับ AI รวมถึงการกำหนดนโยบายและขั้นตอนที่เกี่ยวข้อง
- การเฝ้าติดตาม คณะทำงานฯ ควรหมั่นติดตามประสิทธิภาพจากการประยุกต์ใช้ AI เทียบกับกรอบการกำกับดูแล AI ขององค์กร
- การประเมินผล คณะทำงานฯ ควรประเมินประสิทธิภาพโดยรวม ผลกระทบ และความยั่งยืนของการประยุกต์ใช้ AI ขององค์กร ซึ่งรวมถึงประสิทธิผลของกลไ
- การกำกับดูแล (AI Mechanism) โอกาสและความเสี่ยงที่อาจเกิดขึ้น
- กำหนดบทบาทและความรับผิดชอบ กำหนดบทบาทและความรับผิดชอบอย่างชัดเจนสำหรับผู้มีส่วนได้ส่วนเสียทั้งหมดที่เกี่ยวข้องกับการพัฒนาและการประยุกต์ใช้ AI เพิ่มทักษะและความสามารถ เสริมสร้างความมั่นใจว่าพนักงานในองค์กรแผนกที่ใช้งาน AI จะมีความรู้และทักษะที่จำเป็นในการพัฒนาและจัดการระบบ AI อย่างมีความรับผิดชอบ
เสาที่ 2: AI Strategy
การกำหนดกลยุทธ์การประยุกต์ใช้ AI เริ่มตั้งแต่การตัดสินใจเลือก use case ที่เหมาะสมจะใช้งาน AI การพิจารณาจัดซื้อจัดจ้างแพลตฟอร์ม AI (เช่น ซื้อหรือเช่า) การบริหารจัดการความเสี่ยง และการวาง Roadmap การใช้งาน AI ประกอบด้วยขั้นตอนต่าง ๆ ได้แก่
กำหนดกลยุทธ์การประยุกต์ใช้ AI อย่างมีความรับผิดชอบ (Responsible AI Strategy) ให้มีความชัดเจนและสอดคล้องกับเป้าหมายและค่านิยมองค์กร โดยเริ่มจากมองหาโอกาสในการใช้งาน กำหนดเป้าหมายตามลำดับความสำคัญและความพร้อม กำหนดกลยุทธ์การบริหารจัดการข้อมูลเพื่อสนับสนุนการประยุกต์ใช้ AI และจัดทำเป็นแผน Roadmap หรือ Prototype
ระบุและประเมินความเสี่ยง (Identifying & Assessing AI-related risks) ที่อาจเกิดขึ้นที่เกี่ยวข้องกับการพัฒนาและการประยุกต์ใช้ AI ในเชิงรุก เช่น คุณภาพของข้อมูล (Data Quality) การอยู่นอกเหนือความสามารถในการกำกับดูแล (Non-compliance) ช่องโหว่ด้านความปลอดภัย (Cyber Attack) ความเสี่ยงเหล่านี้อาจรวมถึงอคติ (Bias) การเลือกปฏิบัติ (Discrimination) และการละเมิดความเป็นส่วนตัว (Privacy) พัฒนา/ปรับใช้แผนบริหารความเสี่ยง (AI Risk Management Framework) สร้างแผนหรือปรับใช้แผนมาตรฐานสากลเพื่อลดความเสี่ยง AI แผนนี้อาจเกี่ยวข้องกับการควบคุมการนำไปใช้ เช่น อัลกอริธึมการตรวจจับอคติและมาตรการรักษาความปลอดภัยข้อมูล พิจารณาระดับการมีส่วนร่วมของมนุษย์ (Level of Human Involvement) เมื่อประยุกต์ใช้ระบบ AI ให้พิจารณาระดับการมีส่วนร่วมของมนุษย์ที่เหมาะสมตลอดทั้ง AI lifecycle ซึ่งอาจเกี่ยวข้องกับ
- แนวทางแบบ human-in-the-loop ที่มนุษย์มีส่วนร่วมในการตัดสินใจ เช่น AI ทางการแพทย์
- แนวทางแบบ human-over-the-loop ที่มนุษย์มีอำนาจในการควบคุมดูแล เช่น AI ตรวจวัดคุณภาพ
- แนวทางแบบ human-out-the-loop ที่มนุษย์อยู่นอกกรอบที่ AI ทำงานอัตโนมัติ (แต่มีการตรวจสอบอย่างรอบคอบ) เช่น AI Chatbot
ทั้งนี้ ระดับการมีส่วนร่วมของมนุษย์ควรขึ้นอยู่กับลักษณะของความเสี่ยงของระบบ AI และผลกระทบจากข้อผิดพลาด
เสาที่ 3: AI Operation
ขั้นตอนการดำเนินการหลังการประยุกต์ใช้ AI แล้วว่าจะติดตาม ตรวจตรา และเฝ้าสังเกต (Monitoring) ได้อย่างไร ประกอบด้วย
- การจัดการวงจรชีวิต AI (AI Lifecycle) สร้างกระบวนการสำหรับจัดการวงจรชีวิตทั้งหมดของระบบ AI ตั้งแต่การออกแบบและการพัฒนาไปจนถึงการใช้งานและการตรวจสอบ ซึ่งควรรวมถึงการพิจารณาระดับการควบคุมดูแลของมนุษย์ที่จำเป็นในแต่ละขั้นตอน
- การจัดการบริการ AI (AI Service) เพื่อให้มั่นใจว่าการประยุกต์ใช้ AI จะได้รับการส่งมอบบริการจากผู้พัฒนาแพลตฟอร์มอย่างราบรื่นตาม Service Level Agreement (SLA) มีความน่าเชื่อถือ และความปลอดภัย ภายใต้การจัดการอย่างมีความรับผิดชอบ ซึ่งรวมถึงการปฏิบัติตามข้อกำหนดการควบคุมดูแลของมนุษย์ที่กำหนดไว้ในแผนการจัดการวงจรชีวิต มีการประกาศนโยบายและให้ข้อมูลการกำกับดูแล AI ขององค์กรอย่างชัดเจน ซึ่งจะช่วยให้พนักงานในองค์กรเข้าใจบทบาทของตนในการพัฒนาและใช้งาน AI อย่างมีความรับผิดชอบ
รายละเอียดต่าง ๆ ภายใน AI Governance Framework อาจมีความแตกต่าง และได้รับการปรับปรุงให้เหมาะสมขึ้นอยู่กับขนาด ประเภทอุตสาหกรรม และลักษณะ/รูปแบบความเสี่ยงที่ป้องกันได้ขององค์กร การติดตาม AI Governance Guideline ฉบับปรับปรุงล่าสุดจากหน่วยงานภาครัฐที่รับผิดชอบเป็นสิ่งจำเป็น เพื่อเอื้อให้เกิดการปรับกรอบการทำงานขององค์กรที่เหมาะสมอย่างต่อเนื่อง ควรหมั่นตรวจสอบและประเมินกรอบการกำกับดูแลการประยุกต์ใช้ AI เป็นประจำเพื่อให้แน่ใจว่าบริบทต่าง ๆ ที่กำกับดูแล AI ที่องค์กรใช้งาน จะยังคงมีประสิทธิภาพ
การปฏิบัติตามแนวทางข้างต้น สามารถผลักดันให้เกิดการสร้างกรอบการกำกับดูแล AI ที่มีประสิทธิภาพ ผู้นำองค์กรจะรู้สึกมั่นใจได้ว่าองค์กรกำลังพัฒนาและประยุกต์ใช้ AI อย่างมีความรับผิดชอบ ช่วยลดความเสี่ยง สร้างความไว้วางใจกับผู้มีส่วนได้ส่วนเสีย และปลดล็อกศักยภาพสูงสุดของ AI เพื่อความยั่งยืนทางธุรกิจ
ทั้งหมดนี้เป็นส่วนหนึ่งของเนื้อหาที่ OPEN-TEC ได้รวบรวมไว้จากงานสัมมนา “TMA Digital Dialogue 2024” ที่จัดโดย สมาคมการจัดการธุรกิจแห่งประเทศไทย (TMA) โดยกลุ่ม Digital Technology Management Group ร่วมกับ สำนักงานส่งเสริมเศรษฐกิจดิจิทัล (depa)