KM02/2569 GRC ธรรมาภิบาลการใช้ปัญญาประดิษฐ์ (AI Governance)
Governing the Future: AI, Trust, and Accountability
(ธรรมาภิบาลแห่งอนาคต: AI, ความเชื่อมั่น, และความรับผิดชอบ)
► อบรมวันที่ 22 พฤศจิกายน 2568
► บรรยายโดยทีมผู้เชี่ยวชาญจากสมาคมผู้ตรวจสอบภายในแห่งประเทศไทย (สตท.)
สรุปธรรมาภิบาลการใช้ปัญญาประดิษฐ์ (AI Governance)
1. อนาคตของ AI: ทางแยก (The Future of AI)
► อนาคตของ AI กำลังอยู่บนทางแยกใหญ่ 2 ทาง คือ
|
ยูโทเปีย (Utopia) |
ดิสโทเปีย (Dystopia) |
|
แบบ Star Trek AI เป็นผู้ช่วยที่สร้างสรรค์และยกระดับมนุษย์ |
แบบ WALL-E มนุษย์ไร้ความสามารถ เพราะพึ่งพา AI มากเกินไป |
2. ความท้าทายหลักของ Gen-AI
► Gen-AI ก่อให้เกิดความเสี่ยงและความท้าทายที่สำคัญต่อสังคมและองค์กร ดังนี้
|
ความท้าทาย |
แนวคิด/ตัวอย่าง |
|
1. การว่างงานและการแทนที่แรงงาน Job Displacement) |
Gen AI สามารถทำงานที่ซับซ้อน (Cognitive Labor) เช่น การวิเคราะห์, การเขียนบทความ, หรือโค้ดพื้นฐาน ทำให้หลายอาชีพตกอยู่ในความเสี่ยง |
|
2. การแพร่กระจายข้อมูลเท็จและความวุ่นวาย (Disinformation & Deepfake) |
AI สร้างข้อมูลเท็จ (Deepfake) ที่สมจริงอย่างรวดเร็วและราคาถูก ก่อให้เกิดความวุ่นวาย เช่น การปั่นป่วนตลาดหุ้นหรือการเลือกตั้ง |
|
3. อคติที่ถูกขยายผล |
AI เรียนรู้จากข้อมูลที่มีอคติเดิมในสังคม (Data Bias) ทำให้ผลลัพธ์ของ AI ตอกย้ำและขยายอคตินั้นออกไป (เช่น AI คัดเลือกงานปฏิเสธคนบางกลุ่ม) |
|
4. การสูญเสียทักษะการคิดเชิงวิพากษ์ (Atrophy of Critical Skills) |
การพึ่งพา AI มากเกินไปอาจทำให้มนุษย์สูญเสียทักษะการคิดวิเคราะห์และแก้ปัญหาในระยะยาว นำไปสู่อาการ “Brain Rot” (สมองฝ่อทางความคิด) |
|
5. ภัยคุกคามทางไซเบอร์ที่ซับซ้อน |
ผู้ไม่หวังดีใช้ Gen AI สร้างเครื่องมือโจมตีที่มีประสิทธิภาพสูงขึ้น เช่น อีเมลหลอกลวง (Spear Phishing) ที่แนบเนียน หรือการหาช่องโหว่ในระบบเร็วขึ้น |
|
6. ปัญหาลิขสิทธิ์/ทรัพย์สินทางปัญญา |
เกิดคำถามว่า "ใครคือเจ้าของ" ผลงานที่ AI สร้าง และ AI ละเมิดลิขสิทธิ์ของผลงานที่ใช้ในการฝึกฝนหรือไม่ |
|
7. การละเมิดความเป็นส่วนตัว |
AI ต้องการข้อมูลมหาศาล ซึ่งอาจรวมถึงข้อมูลส่วนบุคคลที่ละเอียดอ่อน หากพนักงานป้อนข้อมูลความลับบริษัทเข้าสู่ AI สาธารณะ ข้อมูลนั้นอาจรั่วไหลได้ |
|
8. การถ่างช่องว่างทางเศรษฐกิจ |
บริษัทขนาดใหญ่มีข้อได้เปรียบสูงในการเข้าถึง AI ทรงพลัง ทำให้ธุรกิจขนาดเล็กตามไม่ทัน และประเทศยากจนจะเสียเปรียบในการแข่งขัน/เสี่ยงว่างงานสูงกว่า |
|
9. การขาดความรับผิดชอบ |
เมื่อ Gen AI ทำงานผิดพลาดและก่อให้เกิดความเสียหาย ใครคือผู้รับผิดชอบ? เช่น หาก AI ที่ช่วยแพทย์วินิจฉัยโรคให้คำแนะนำที่ผิดพลาด จนทำให้ผู้ป่วยเสียชีวิต ใครคือผู้รับผิดชอบ? (แพทย์, โรงพยาบาล, บริษัทผู้พัฒนา AI, หรือตัว AI เอง?) |
|
10. การสูญเสีย "ความเป็นมนุษย์" |
เมื่อโลกเต็มไปด้วยเนื้อหา, ศิลปะ, และการสื่อสารที่สร้างโดย AI อาจทำให้ให้ความสัมพันธ์ระหว่างมนุษย์ลดความหมายลง |
3. ความรับผิดชอบต่อสิ่งที่ AI ทำ (Accountability & Liability)
► ในทางกฎหมาย AI ยังไม่ถือเป็นนิติบุคคล ผู้รับผิดชอบมักเป็นมนุษย์หรือองค์กรที่อยู่เบื้องหลัง
- ผู้ใช้งาน (User/Operator): รับผิดชอบหากใช้ AI ในทางที่ผิด หรือไม่ตรวจสอบผลลัพธ์ด้วยตนเอง (Human-in-the-loop)
- ผู้พัฒนา (Developer/Manufacturer): รับผิดชอบหากความผิดพลาดเกิดจากข้อบกพร่องในการออกแบบ หรือข้อมูลที่ใช้ฝึกอบรมไม่ถูกต้อง
- เจ้าของ/ผู้นำไปใช้ในเชิงพาณิชย์ (Deployer/Commercialize): รับผิดชอบภายใต้กฎหมายความรับผิดต่อผลิตภัณฑ์ที่ไม่ปลอดภัย
- ช่องว่างความรับผิด (Accountability gap): ในบางกรณี กฎหมายปัจจุบันยังไม่ชัดเจนหรือครอบคลุม ทำให้ไม่สามารถระบุผู้รับผิดชอบได้อย่างสมบูรณ์
4. สถานการณ์ในประเทศไทย: ปัญหาหลักฐานเท็จ
- กฎหมายยังไม่เฉพาะเจาะจง: กฎหมายไทยยังไม่มีบทบัญญัติที่กล่าวถึง "AI" หรือ "Deepfake" โดยตรง
- ขาดความเชี่ยวชาญ: เจ้าหน้าที่ยังขาดเครื่องมือและทักษะในการตรวจสอบ Deepfake ทำให้พิสูจน์ได้ยาก
5. บทบาทของผู้ตรวจสอบภายใน (Internal Audit - IA) ต่อ AI
► ผู้ตรวจสอบภายในมีบทบาทสำคัญในการรับมือกับเทคโนโลยี AI
- IA Governance : IA ต้องเตรียมพร้อมและมีทักษะ/มุมมองใหม่ๆ
- Risk & Control : บทบาทของ IA คือการประเมินความเสี่ยงและควบคุมภายในที่เกี่ยวข้องกับการใช้งาน AI
- Trust, Validation, & Data Security : ต้องเน้นตรวจสอบความน่าเชื่อถือของ AI, ความถูกต้องของผลลัพธ์ (Data Integrity) และความมั่นคงปลอดภัยของข้อมูล
