top of page

AI Governance สร้างสมดุลระหว่างนวัตกรรม และความปลอดภัยในยุค Generative AI

อัปเดตเมื่อ 28 ก.พ.



ในปัจจุบันเทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence: AI) ได้เข้ามามีบทบาทสำคัญในชีวิตประจำวันอย่างหลีกเลี่ยงไม่ได้ ระบบ AI ถูกนำมาใช้เพื่อช่วยในการตัดสินใจ และเพิ่มประสิทธิภาพการทำงานในหลายภาคส่วน ไม่ว่าจะเป็นการวิเคราะห์ข้อมูล การพยากรณ์แนวโน้มต่าง ๆ หรือแม้กระทั่งการให้บริการลูกค้าอย่างรวดเร็ว มีประสิทธิภาพ เทคโนโลยีนี้จึงสร้างโอกาสใหม่ ๆ ที่สามารถยกระดับธุรกิจและบริการต่าง ๆ อย่างมากมาย


แต่ท่ามกลางการพัฒนาและการใช้งานอย่างกว้างขวางของ AI ทำให้เกิดคำถามที่ต้องพิจารณาอย่างถี่ถ้วนเกี่ยวกับความโปร่งใสในการใช้งาน และผลกระทบที่อาจเกิดขึ้นต่อสังคม โดยเฉพาะเมื่อ AI เริ่มเข้ามามีอิทธิพลในกระบวนการตัดสินใจที่สำคัญ ซึ่งบางครั้งอาจก่อให้เกิดความไม่เป็นธรรม หรือแม้กระทั่งการละเมิดสิทธิของบุคคล ด้วยเหตุนี้ การกำกับดูแล AI หรือ AI Governance จึงกลายเป็นประเด็นที่สำคัญและได้รับความสนใจจากทั่วโลก



Generative AI โอกาสทางธุรกิจที่มาพร้อมกับความเสี่ยงที่ต้องบริหาร

Generative AI (Gen AI) เป็นหนึ่งในเทคโนโลยีที่กำลังพลิกโฉมอุตสาหกรรม ด้วยความสามารถในการสร้างเนื้อหาทั้งข้อความ รูปภาพ เสียง และวิดีโอที่สมจริง เทคโนโลยีนี้ช่วยเพิ่มประสิทธิภาพทางธุรกิจและเปิดโอกาสใหม่ ๆ ให้แก่นวัตกรรม อย่างไรก็ตาม องค์กรต้องตระหนักถึงความเสี่ยงที่อาจเกิดขึ้นและบริหารจัดการอย่างรอบคอบ โดยจากรายงาน "Expanded ASEAN Guide on AI Governance and Ethics – Generative AI"  ซึ่งจัดทำโดย ASEAN (สมาคมประชาชาติแห่งเอเชียตะวันออกเฉียงใต้) และมีการศึกษาร่วมกับผู้เชี่ยวชาญในด้านเทคโนโลยีและจริยธรรมได้ระบุข้อมูลที่น่าสนใจสำหรับความเสี่ยงของการใช้ Gen AI ที่องค์กร หรือธุรกิจต้องเผชิญได้แก่:


  • ข้อมูลผิดพลาดและการบิดเบือนข้อเท็จจริง ในปี 2023 มีรายงานว่า AI chatbot บางตัวให้ข้อมูลทางการแพทย์ที่ผิดพลาด หรือสร้างข้อมูลอ้างอิงที่ไม่มีอยู่จริง ทำให้ผู้ใช้เข้าใจผิดและอาจตัดสินใจผิดพลาด

  • Deepfakes และการปลอมแปลงตัวตน มีกรณีที่แฮกเกอร์ใช้เทคโนโลยี Deepfake ปลอมเสียง CEO เพื่อสั่งให้พนักงานโอนเงินไปยังบัญชีของมิจฉาชีพ ซึ่งสร้างความเสียหายทางการเงินมหาศาล

  • การละเมิดทรัพย์สินทางปัญญามีกรณีที่ศิลปินฟ้องร้องบริษัท AI เนื่องจากโมเดล AI ได้เรียนรู้จากภาพทมีลิขสิทธิ์โดยไม่ได้รับอนุญาต และสร้างภาพที่เลียนแบบสไตล์ของศิลปินเหล่านั้น  


          ถึงแม้ว่า GenAI จะสามารถสร้างประโยชน์มากมายและช่วยพัฒนาหลาย ๆ ด้าน แต่ถ้าไม่มีกฎเกณฑ์ในการควบคุมที่ดีพอ อาจจะส่งผลเสียทั้งในระดับบุคคล องค์กร และสังคม การมีแนวทางการกำกับดูแลที่ชัดเจนจึงเป็นเรื่องสำคัญ เพื่อให้การใช้ AI เป็นไปอย่างปลอดภัย มีความรับผิดชอบ และสามารถสร้างคุณค่าได้อย่างยั่งยืน




แนวทางนโยบายการกำกับดูแล AI สำหรับอนาคตที่ยั่งยืน

การกำกับดูแล AI ไม่ได้หมายถึงการออกกฎหมายเพียงอย่างเดียว แต่ยังต้องการความร่วมมือจากทุกฝ่ายเพื่อสร้างมาตรฐานการใช้งานที่มีความรับผิดชอบและมีความโปร่งใส ซึ่งจะช่วยผลักดันให้เกิดการใช้งาน AI ที่ปลอดภัยและคุ้มค่า ทั้งในระดับบุคคล องค์กร และสังคม โดยเฉพาะในภูมิภาคอาเซียน ซึ่งเป็นพื้นที่ที่มีโอกาสและความเสี่ยงในการพัฒนาและใช้งาน Generative AI (Gen AI) สมาคมประชาชาติแห่งเอเชียตะวันออกเฉียงใต้จึงมุ่งมั่นแนะนำแนวทางการดำเนินการตามนโยบายต่าง ๆ ที่จะส่งเสริมการใช้งาน AI อย่างมีความรับผิดชอบและสร้างสรรค์


การแนะนำนี้เน้นความสำคัญของการใช้ประโยชน์จาก Gen AI ควบคู่ไปกับการดำเนินมาตรการที่รอบคอบและเหมาะสม รวมถึงการทำงานร่วมกันในระดับภูมิภาค เพื่อรับประกันการใช้งานที่ปลอดภัยและเป็นธรรม นอกจากนี้ คู่มือการกำกับดูแล AI ยังเสนอข้อเสนอแนะด้านนโยบาย 9 ข้อที่สำคัญ ซึ่งจะช่วยเสริมสร้างกรอบการใช้งานที่โปร่งใสและเป็นธรรมสำหรับทุกประเทศในภูมิภาคอาเซียน ดังนี้:


  1. ความรับผิดชอบ (Accountability) ควรกำหนดบทบาทหน้าที่ที่ชัดเจนระหว่างผู้พัฒนา ผู้ให้บริการ และผู้ใช้งาน AI เพื่อสร้างความโปร่งใสและเพิ่มความเชื่อมั่นในระบบ

  2. การจัดการข้อมูล (Data Management) ส่งเสริมการเข้าถึงข้อมูลที่มีคุณภาพสูงโดยเฉพาะในภาษาท้องถิ่น เช่น ภาษาไทย หรือเวียดนาม พร้อมทั้งพัฒนากฎเกณฑ์เพื่อปกป้องข้อมูลส่วนบุคคลในภูมิภาค

  3. การพัฒนาและใช้งาน AI อย่างมีความน่าเชื่อถือ (Trusted AI Development & Deployment) อาเซียนควรส่งเสริมการพัฒนา AI อย่างปลอดภัยและมีจริยธรรม โดยเน้นการพัฒนาความปลอดภัยของระบบ AI และการเปิดเผยข้อมูลที่ชัดเจนเพื่อสร้างความไว้วางใจจากผู้ใช้

  4. การรายงานเหตุการณ์ (Incident Reporting) การจัดตั้งกรอบการรายงานเหตุการณ์เกี่ยวกับ AI ที่เป็นระบบและโปร่งใสจะช่วยให้องค์กรสามารถติดตามและบรรเทาผลกระทบจากปัญหาที่เกิดขึ้น

  5. การทดสอบและการประเมินผล (Testing & Assurance) ควรมีการพัฒนาเครื่องมือและมาตรฐานการทดสอบที่เหมาะสมกับบริบทของอาเซียน เพื่อการประเมินความปลอดภัย ความเป็นธรรม และประสิทธิภาพของ AI

  6. ความปลอดภัย (Security) การพัฒนามาตรการรักษาความปลอดภัยที่เข้มงวดเป็นสิ่งสำคัญ เช่น การป้องกันการโจมตีผ่านการฉีดคำสั่ง (prompt injection) หรือการทำลายข้อมูล (data poisoning)

  7. การระบุแหล่งที่มาของเนื้อหา (Content Provenance) การพัฒนาเทคโนโลยีระบุแหล่งที่มาของเนื้อหาที่สร้างด้วย AI เช่น การใช้เทคนิค watermarking หรือ cryptographic provenance จะช่วยให้ข้อมูลโปร่งใสและน่าเชื่อถือ

  8. การวิจัยด้านความปลอดภัยของ AI (AI Safety & Alignment Research) อาเซียนควรสนับสนุนการวิจัยที่เน้นการศึกษาเกี่ยวกับความปลอดภัยและผลกระทบทางสังคมของ AI โดยการสร้างแพลตฟอร์มความร่วมมือระหว่างสถาบันวิจัยในภูมิภาค

  9. AI เพื่อประโยชน์สาธารณะ (AI for Public Good) ช่วยภาครัฐพัฒนาการให้บริการสาธารณะและเสริมสร้าง ความรู้ทางดิจิทัล (Digital Literacy) ให้ประชาชนใช้งาน AI ได้อย่างปลอดภัย การอบรมและกิจกรรมให้ความรู้จะช่วยให้ผู้คนแยกแยะเนื้อหาที่สร้างโดย AI และใช้ระบบยืนยันแหล่งที่มาของข้อมูลได้ ลดความเสี่ยงจากข้อมูลผิดพลาด โดยเฉพาะในกลุ่มที่เข้าถึงข้อมูลได้น้อย


สรุป

ในยุคที่เทคโนโลยีพัฒนาไปอย่างรวดเร็วและข้อมูลที่ไหลเข้ามาตลอดเวลา การรู้เท่าทันเทคโนโลยีจึงไม่ใช่แค่เรื่องของการใช้เครื่องมือให้เป็น แต่เป็นเรื่องของการเข้าใจถึงความเสี่ยงที่อาจเกิดขึ้นจากข้อมูลที่ไม่ถูกต้อง หรือแม้กระทั่งการหลอกลวงผ่านเทคโนโลยีใหม่ ๆ อย่าง Deepfake ที่ทำให้ภาพและวิดีโอดูเหมือนจริงเกินกว่าจะรู้เท่าทัน การมี Digital Literacy หรือความรู้ทางดิจิทัลจึงเป็นสิ่งสำคัญ การรู้เท่าทันไม่เพียงแค่การตรวจสอบข้อมูลที่มาจากแหล่งที่มาที่เชื่อถือได้ แต่ยังรวมถึงการเข้าใจถึงความเสี่ยงจากข้อมูลที่อาจถูกบิดเบือนหรือเผยแพร่ด้วยเจตนาไม่ดี ซึ่งอาจส่งผลกระทบต่อการตัดสินใจในชีวิตประจำวัน โดยเฉพาะอย่างยิ่งในกลุ่มที่ยังมีข้อจำกัดในการเข้าถึงข้อมูลที่ถูกต้อง


ดังนั้น การมีความรู้และทักษะในการใช้เทคโนโลยีดิจิทัลอย่างมีประสิทธิภาพ (Digital Literacy) ถือเป็นรากฐานสำคัญในการขับเคลื่อนองค์กรให้สามารถแข่งขันและเติบโตได้อย่างยั่งยืน TIME Consulting มุ่งมั่นในการส่งเสริม Digital Literacy เพื่อสร้างวัฒนธรรมการใช้เทคโนโลยีอย่างรับผิดชอบและปลอดภัยในองค์กรผ่านบริการ Digital Literacy Assessment ซึ่งเป็นจุดเริ่มต้นสำคัญในการประเมินความพร้อมของบุคลากรในการก้าวเข้าสู่โลกดิจิทัลอย่างมั่นใจ

 

แหล่งที่มา

 

 

 

 

 

 

bottom of page