
ทำไม Ethical AI และ Responsible AI จึงเป็นหัวข้อสำคัญที่องค์กรควรตระหนัก
ปัญญาประดิษฐ์ (AI) ได้เข้ามามีบทบาทสำคัญในการยกระดับประสิทธิภาพของธุรกิจ และการบริการในยุคดิจิทัล แต่ในขณะเดียวกัน การใช้งาน AI อย่างแพร่หลายได้ก่อให้เกิดความกังวลเกี่ยวกับผลกระทบด้านจริยธรรมและความรับผิดชอบ ความสำคัญของ Ethical AI และ Responsible AI จึงกลายเป็นหัวข้อที่ได้รับความสนใจอย่างมาก โดยเฉพาะเมื่อมีกรณีศึกษาหลายกรณีที่สะท้อนให้เห็นถึงความเสี่ยงจากการใช้งาน AI ที่ขาดความโปร่งใสและความเป็นธรรม เช่น ปัญหาอคติ (Bias) ในระบบ Chatbot และการเลือกปฏิบัติ (Discrimination) ในระบบจดจำใบหน้า (Facial Recognition) ที่มีความแม่นยำน้อยลงเมื่อใช้กับกลุ่มคนบางเชื้อชาติหรือเพศ
จากผลสำรวจของ Qualtrics แสดงให้เห็นว่า 56% ของผู้บริโภคไทยรู้สึกสบายใจในการมีส่วนร่วมกับบริการและการสื่อสารที่ขับเคลื่อนด้วย AI ซึ่งแสดงให้เห็นว่าผู้บริโภคเริ่มเปิดรับเทคโนโลยีนี้มากขึ้น โดยมองว่า AI ช่วยเพิ่มความสะดวกสบายและการเข้าถึงบริการ อย่างไรก็ตาม ยังมีความกังวลด้านคุณภาพของการโต้ตอบถึง 46% เนื่องจากระบบ AI ในปัจจุบันยังไม่สามารถทำความเข้าใจความต้องการของผู้ใช้ในเชิงลึกได้ดีเท่ากับมนุษย์ และกว่า 44% ของผู้บริโภคกังวลเกี่ยวกับการขาดความสัมพันธ์กับมนุษย์ โดยเฉพาะในงานบริการที่ต้องการการปฏิสัมพันธ์ทางอารมณ์ เช่น การให้คำปรึกษาหรือการดูแลลูกค้า อีกหนึ่งประเด็นสำคัญคือ ความเป็นส่วนตัวของข้อมูล ซึ่ง 35% ของผู้บริโภคกังวลว่าองค์กรอาจนำข้อมูลส่วนบุคคลไปใช้โดยไม่ได้รับความยินยอม หรือมีความเสี่ยงในการรั่วไหลของข้อมูล การจัดการข้อมูลอย่างโปร่งใสและการมีมาตรการปกป้องข้อมูลส่วนบุคคลจึงเป็นสิ่งสำคัญที่องค์กรต้องให้ความสำคัญ เพื่อสร้างความไว้วางใจให้กับผู้บริโภค ซึ่งถือเป็นหนึ่งในการแสดงออกถึงการใช้ข้อมูลและเทคโนโลยีปัญญาประดิษฐ์อย่างมีความรับผิดชอบ

Ethical AI & Responsible AI แตกต่างกันอย่างไร?
เทคโนโลยีปัญญาประดิษฐ์ (AI) มีบทบาทสำคัญต่อธุรกิจ ทำให้ในปี 2568 หลาย ๆ องค์กรได้เล็งเห็นถึงการนำ AI มาใช้งานอย่างมีความรับผิดชอบ ซึ่งกลายเป็นประเด็นที่ได้รับความสนใจมากขึ้น คำว่า Ethical AI และ Responsible AI จึงถูกหยิบยกขึ้นมาเพื่อเป็นแนวทางในการออกแบบ พัฒนา และใช้งาน AI อย่างรอบคอบและปลอดภัย แม้ทั้งสองแนวคิดจะมีความเกี่ยวข้องกัน แต่วัตถุประสงค์ของแต่ละแนวคิดนั้นมีความแตกต่างกันอย่างชัดเจน
โดย Ethical AI คือแนวคิดการพัฒนา AI โดยยึดหลักจริยธรรมและค่านิยมทางสังคมเป็นศูนย์กลาง หลักการสำคัญจะมุ่งไปที่การสร้างระบบ AI ที่เคารพสิทธิมนุษยชน มีความเป็นธรรม (Fairness) โปร่งใส (Transparency) และไม่เลือกปฏิบัติ (Non-Discrimination) ในขณะที่ Responsible AI มุ่งเน้นไปที่การนำหลักจริยธรรมเหล่านั้นมาปฏิบัติจริงผ่านระบบการกำกับดูแล (Governance) และการจัดการความเสี่ยง (Risk Management) ซึ่งเป็นแนวทางปฏิบัติที่ช่วยให้องค์กรสามารถตรวจสอบ ควบคุม และลดความเสี่ยงของ AI ได้อย่างเป็นรูปธรรม ตัวอย่างเช่น การจัดตั้งคณะกรรมการตรวจสอบโมเดล AI หรือการใช้เครื่องมือวิเคราะห์ Bias และความโปร่งใสของอัลกอริทึม
ทั้งนี้ การสร้างวัฒนธรรมการใช้ AI อย่างมีความรับผิดชอบจำเป็นต้องอาศัยการผสมผสานระหว่างทั้ง Ethical AI และ Responsible AI โดยมองว่า Ethical AI เป็นเป้าหมายปลายทาง ส่วน Responsible AI เป็นเครื่องมือ และกระบวนการที่ช่วยให้บรรลุเป้าหมายดังกล่าว การสร้าง AI Literacy ภายในองค์กรเพื่อเสริมสร้างความเข้าใจในแนวคิดเหล่านี้จะช่วยให้ธุรกิจสามารถพัฒนา AI ที่ทั้งมีประสิทธิภาพและสอดคล้องกับหลักจริยธรรม
“ยุโรปเคลื่อนไหวของข้อกฎหมาย AI Act”
แนวโน้มการเติบโตของเทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังสร้างการเปลี่ยนแปลงครั้งใหญ่ในหลายภาคส่วนของสังคม แต่ในขณะเดียวกันก็ได้ก่อให้เกิดความกังวลเกี่ยวกับผลกระทบที่อาจเกิดขึ้น หากไม่มีการกำกับดูแลหรือกฎหมายที่ชัดเจนในการควบคุมการใช้งาน AI ประเด็นนี้ได้กลายเป็นแรงขับเคลื่อนสำคัญที่ผลักดันให้หลายประเทศและองค์กรระดับนานาชาติ เริ่มพัฒนาแนวทางการกำกับดูแล AI อย่างจริงจัง หนึ่งในความเคลื่อนไหวที่คือ กฎหมาย AI Act หรือ Artificial Intelligence Act ของสหภาพยุโรป ซึ่งเป็นกฎหมายฉบับแรกของโลกที่มุ่งเน้นการควบคุมและกำกับการใช้งาน AI อย่างเป็นระบบ โดยมีเป้าหมายเพื่อป้องกันผลกระทบที่อาจเกิดขึ้นต่อความเป็นส่วนตัว ความปลอดภัย และความยุติธรรมของผู้ใช้งาน
โดยได้กำหนดกรอบการกำกับดูแลการใช้งาน AI ตามระดับความเสี่ยงที่เทคโนโลยีอาจส่งผลกระทบต่อผู้คน แบ่งออกเป็น 4 ระดับหลัก ได้แก่:
ความเสี่ยงสูงสุด (Unacceptable Risk): ระบบ AI ที่ละเมิดสิทธิมนุษยชนหรือเสี่ยงต่อความปลอดภัย เช่น ระบบ Social Scoring หรือระบบจดจำใบหน้าแบบ Real-time ในพื้นที่สาธารณะโดยไม่ได้รับอนุญาต
ความเสี่ยงสูง (High Risk): ระบบ AI ที่ใช้ในงานสำคัญ เช่น การคัดกรองผู้สมัครงาน การประเมินสินเชื่อ หรือระบบที่มีผลกระทบต่อสุขภาพและความปลอดภัยของประชาชน
ความเสี่ยงต่ำ (Limited Risk): ระบบ AI ที่มีผลกระทบน้อย เช่น Chatbot หรือระบบแนะนำสินค้าออนไลน์ ซึ่งจำเป็นต้องมีการแจ้งเตือนผู้ใช้งานก่อน
ความเสี่ยงน้อยมาก (Minimal Risk): ระบบ AI ทั่วไป เช่น แอปพลิเคชันเกม หรือระบบช่วยสะกดคำ ที่ไม่ก่อให้เกิดผลกระทบต่อสิทธิของผู้ใช้งาน
การออกกฎหมายนี้สะท้อนให้เห็นถึงความพยายามในการสร้างสมดุลระหว่างการส่งเสริมการพัฒนาเทคโนโลยี AI กับการปกป้องสิทธิและความปลอดภัยของประชาชน อีกทั้งยังเป็นแนวทางสำคัญในการสร้างวัฒนธรรมของ AI ที่มีความรับผิดชอบ (Responsible AI) ซึ่งเป็นพื้นฐานในการพัฒนาเทคโนโลยีอย่างยั่งยืน ความเคลื่อนไหวนี้กำลังส่งผลให้หลายองค์กรทั่วโลกเริ่มตระหนักถึงความสำคัญของ AI Governance และ AI Literacy ในการสร้างความโปร่งใสและความเชื่อมั่นในการใช้ AI อย่างมีจริยธรรมและรับผิดชอบต่อสังคม

ประเทศไทยมีความเคลื่อนไหวอย่างไรต่อ Ethical AI & Responsible AI
ในช่วงที่ผ่านมา ประเทศไทยมีความตื่นตัวในการนำเทคโนโลยีปัญญาประดิษฐ์ (AI) มาประยุกต์ใช้ในภาคธุรกิจและองค์กรต่าง ๆ อย่างต่อเนื่อง โดยรายงาน AI Readiness Measurement 2024 ที่จัดทำโดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ) (ETDA) ระบุว่า ในปี 2567 องค์กรในประเทศไทยมีการใช้งาน AI สูงถึง 73.3% เพิ่มขึ้นเกือบ 20% จากปีก่อนหน้า ซึ่งสะท้อนถึงความพร้อมและความสนใจขององค์กรไทยในการนำ AI มาใช้ในการดำเนินงานอย่างเป็นรูปธรรม
อย่างไรก็ตาม การใช้งาน AI ไม่ได้เน้นเพียงแค่การพัฒนาเทคโนโลยี แต่ยังให้ความสำคัญกับการใช้งาน AI อย่างมีจริยธรรมและความรับผิดชอบ (Ethical AI & Responsible AI) เพื่อป้องกันผลกระทบเชิงลบที่อาจเกิดขึ้นต่อสังคมและความเป็นส่วนตัวของข้อมูล โดยหน่วยงานที่เกี่ยวข้อง เช่น สำนักงานคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ (สกมช.) และ สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ได้ออกแนวทางกำกับดูแลและคู่มือการใช้งาน AI อย่างมีธรรมาภิบาล เพื่อเป็นกรอบแนวทางให้องค์กรนำไปประยุกต์ใช้ได้อย่างมีความรับผิดชอบ การกำหนดแนวทางเหล่านี้ถือเป็นรากฐานสำคัญในการส่งเสริมการใช้ AI ที่โปร่งใส เป็นธรรม และคำนึงถึงสิทธิมนุษยชน พร้อมทั้งช่วยสร้างความเชื่อมั่นให้กับสังคมและภาคธุรกิจในการประยุกต์ใช้เทคโนโลยี AI อย่างยั่งยืน

นอกจากนี้ ในปี 2568 ประเทศไทยกำลังเข้าสู่บทบาทสำคัญในเวทีระดับโลกด้วยการเป็นเจ้าภาพจัดงานประชุม “The 3rd UNESCO Global Forum on the Ethics of AI 2025” ระหว่างวันที่ 24-27 มิถุนายน 2568 ณ กรุงเทพมหานคร ซึ่งถือเป็นครั้งแรกที่งานประชุมด้านจริยธรรม AI ระดับนานาชาติของ UNESCO จัดขึ้นในภูมิภาคเอเชียแปซิฟิก งานนี้นับเป็นโอกาสสำคัญที่ประเทศไทยจะได้แสดงศักยภาพในการขับเคลื่อนแนวทางด้านจริยธรรมและธรรมาภิบาล AI ให้สอดคล้องกับมาตรฐานสากล โดยความร่วมมือระหว่าง กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (ดีอีเอส), กระทรวงการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม (อว.), กระทรวงศึกษาธิการ (ศธ.) และ UNESCO ได้มีการนำกรอบการประเมินความพร้อมด้านปัญญาประดิษฐ์ (AI) หรือ Readiness Assessment Methodology (RAM) มาใช้เป็นแนวทางในการวางกลยุทธ์และกำหนดนโยบายด้าน AI ของประเทศ
แหล่งที่มา