กำกับดูแล AI อย่างเข้าใจ

Last updated: 7 ก.ย. 2568  |  9 จำนวนผู้เข้าชม  | 

 กำกับดูแล AI อย่างเข้าใจ

 

กำกับดูแล AI อย่างเข้าใจ     

ศาสตราจารย์กิตติคุณ ดร.พิรงรอง รามสูต
กรรมการกิจการกระจายเสียง กิจการโทรทัศน์ และกิจการโทรคมนาคมแห่งชาติ (กสทช.)
ด้านกิจการโทรทัศน์



          เมื่อปี พ.ศ. 2527 ภาพยนตร์เรื่อง The Terminator หรือ ฅนเหล็ก 2029 ได้เล่าเรื่องราวการต่อสู้ระหว่างเผ่าพันธุ์มนุษย์กับคอมพิวเตอร์และหุ่นยนต์ที่มีความคิดเป็นของตัวเอง อันสะท้อนภาพของเทคโนโลยีที่เป็นอิสระจาการควบคุมของมนุษย์ ภาพยนตร์เรื่องนี้ประสบความสำเร็จเป็นอย่างมาก และเมื่อปี ค.ศ. 2008 (พ.ศ. 2551) ได้รับคัดเลือกเข้าบรรจุในหอทะเบียนภาพยนตร์แห่งชาติ (National Film Registry) ซึ่งเป็นส่วนหนึ่งของห้องสมุดรัฐสภาของสหรัฐอเมริกา

          ณ วันนี้ ในปี 2025 ปัญญาประดิษฐ์ (Artificial Intelligence: AI) ได้รับการพัฒนาไปอย่างก้าวกระโดด ระบบคอมพิวเตอร์ไม่เพียงแต่จะเรียนรู้ ประมวลผล และแก้ปัญหาตามการตั้งโจทย์ของมนุษย์ได้เท่านั้น แต่ยังเป็นปัญญาประดิษฐ์ที่สามารถคิด วิเคราะห์และตัดสินใจต่อเนื่องเป็นขั้นตอนจนกระทั่งทำงานได้บรรลุเป้าหมายโดยอัตโนมัติอย่างที่เรียกว่า Agentic AI ไปแล้วด้วย ซึ่งปัจจุบัน ในประเทศไทยและในอีกหลาย ๆ ที่ในโลกยังมีคำถามว่า ควรมีการกำกับดูแลหรือไม่ หากควร ควรกำกับกันอย่างไร ขณะเดียวกัน วาทกรรมที่มักพบบ่อยเกี่ยวกับ AI และสื่อก็รวมไปถึงในช่วงเวลาที่ Generative AI เข้ามาช่วยเพิ่มผลิตภาพและเสริมศักยภาพให้อุตสาหกรรมสื่อ ศิลปินและผู้ผลิตเนื้อหาก็ต้องใช้ศักยภาพและความคิดสร้างสรรค์มากขึ้น


          - ผู้บริหารสื่อต้องพัฒนาทักษะของทีมอย่างมีกลยุทธ์เพื่อทำให้การนำ AI มาใช้งานนั้นสร้างมูลค่าทางธุรกิจที่จับต้องได้
          - แพลตฟอร์มดิจิตอลและผู้เล่นในอุตสาหกรรมต้องแสวงหาแนวทางร่วมมือกันแก้ปัญหาการละเมิดทรัพย์สินทางปัญญา และผลกระทบในทางลบอื่น ๆ จาก AI ได้
          - บุคคลที่มีทักษะทางเทคโนโลยี AI จะกลายมาเป็นผู้เล่นหลักที่ขับเคลื่อนอุตสาหกรรมสื่อและบันเทิง และการส่งเสริมการทำงานร่วมกัน 
          - การพัฒนาทักษะ AI และนวัตกรรมที่เกี่ยวข้องคือทางรอดของอุตสาหกรรมสื่อ

          ในฐานะ กสทช. ซึ่งกำกับดูแลกิจการโทรทัศน์ ทำให้มีความเข้าใจดีถึงความท้าทายในการสร้างและรักษาสมดุลระหว่างการพัฒนาอุตสาหกรรมให้ก้าวหน้าขึ้นไปเรื่อย ๆ กับการกำกับดูแลให้เกิดความเป็นธรรมและจำกัดผลกระทบในทางลบที่จะเกิดขึ้น ความท้าทายเช่นนี้ก็สามารถเทียบเคียงกับเรื่องของ AI ได้เช่นกัน

ก่อนอื่น เราลองมาดูบทบาทของ AI ที่มีต่ออุตสาหกรรมโทรทัศน์ ทั้งในด้านบวกคือโอกาส และในด้านลบคือความเสี่ยง

โอกาส
          ปัจจุบัน AI ถูกใช้งานในขั้นตอนต่าง ๆ ของอุตสาหกรรมสื่อและความบันเทิง เช่น การสร้างสรรค์เนื้อหา ตั้งแต่การเขียนบท แต่งเพลง และเอฟเฟ็กต์ต่าง ๆ ทำให้สิ่งที่อยู่ในจินตนาการเกิดเป็นภาพ เสียง และความเคลื่อนไหวได้ตามที่ต้องการการตัดต่อเนื้อหาโดยอัตโนมัติ สามารถใช้ตกแต่งสี เสียงได้อย่างรวดเร็ว ประหยัดเวลา และต้นทุนของการผลิต
การทำคำแปล คำบรรยายแทนเสียง และเสียงบรรยายภาพแบบ Real-time ช่วยประหยัดเวลาและแรงงาน การปรับเปลี่ยนการเล่าเรื่อง (storytelling) ไปตามความต้องการของผู้ชม-ผู้ใช้งานได้ การเผยแพร่เนื้อหาที่มีประสิทธิภาพ สามารถเผยแพร่เนื้อหาผ่านทางแพลตฟอร์มต่าง ๆ โดยกำหนดเนื้อหาที่จะส่งถึงผู้ชมตามสถานที่ต่าง ๆ ในเวลาที่เหมาะสม การ personalize ประสบการณ์ของผู้ใช้สตรีมมิ่งแพลตฟอร์ม วิเคราะห์พฤติกรรมและความนิยมของผู้ใช้ ทำให้สามารถแนะนำเนื้อหาและโฆษณาที่ตรงกับกลุ่มเป้าหมาย พร้อม ๆ กับการดึงดูดให้ผู้ใช้มีปฏิสัมพันธ์หรือติดตามเนื้อหาต่อไปเรื่อย ๆ ได้

ความเสี่ยง
          ในขณะเดียวกัน การใช้ AI ก็นำมาซึ่งความเสี่ยงด้วยเช่นกัน เช่น การพึ่งพิง AI มากเกินไปจะทำให้มีเพียงผลงานซ้ำ ๆ ในระดับทั่วไป ทั้งชิ้นงานและมนุษย์เองอาจมีความถดถอยในด้านความคิดสร้างสรรค์ รวมถึงลดโอกาสในการเสาะแสวงหาข้อมูลใหม่ ๆ ที่ทันสมัยจากแหล่งข้อมูลตัวจริง การสร้างผลงานที่อ้างอิงจาก
ฉากทัศน์ต่าง ๆ ที่เคยมีคนสร้างแล้ว อาจนำไปสู่การละเมิดสิทธิในทรัพย์สินทางปัญญา นอกจากนี้ การใช้ AI แทนมนุษย์อาจนำไปสู่การละเมิดสิทธิส่วนบุคคลหรือละเมิดจริยธรรมในด้านอื่น ๆ ได้อีกด้วย เช่นการเก็บข้อมูลส่วนบุคคลเพื่อใช้ในทางการตลาดรวมถึงการแนะนำเนื้อหาให้กับผู้ชม

          ความเสี่ยงที่สำคัญประการหนึ่งอันจะมีผลต่อสาธารณะอย่างชัดเจนก็คือการเผยแพร่ข่าวและข้อมูลเท็จ (fake news หรือ disinformation) ตลอดจนข้อมูลบิดเบือน หรือข้อมูลที่มีอคติ ซึ่งด้วยความสามารถของ AI จะยิ่งทำให้ข้อมูลดูน่าเชื่อถือและแพร่กระจายได้รวดเร็วขึ้น ตัวอย่าง เช่น เมื่อไม่นานมานี้ มีสำนักข่าวที่ใช้ AI ในการสืบค้นข้อมูล และได้เผยแพร่คำสัมภาษณ์ของนักวิชาการต่อประเด็นข่าวลงในสื่อออนไลน์ ก่อนที่จะลบเนื้อหานั้นออกไปเพราะเป็นที่ทราบกันอย่างแพร่หลายว่านักวิชาการที่ถูกอ้างอิงนั้นได้เสียชีวิตไปแล้ว[1]

          นอกจากนี้ เราต้องไม่ลืมว่าระบบ AI เป็นระบบที่ตัดสินใจเกี่ยวกับปัจจุบันและอนาคตโดยจำแนกข้อมูลและพัฒนารูปแบบจากข้อมูลในอดีตจึงมีส่วนสร้างหรือผลิตซ้ำความคิดที่พ้นสมัย โดยเฉพาะความไม่เท่าเทียมทางเพศ เชื้อชาติ ชนชั้น หรือความเป็นพลเมือง

          การที่ AI สร้างผลลัพธ์ออกมาซ้ำ ๆ ย่อมหมายถึงการผลิตซ้ำความไม่เท่าเทียมทางโครงสร้างอำนาจซึ่งแฝงฝังไว้ด้วยความเหลื่อมล้ำทั้งในระดับประเทศและระดับโลก AI จึงอาจส่งผลให้เกิดความรุนแรงอย่างช้า ๆ ทั้งต่อกลุ่มเปราะบางและกลุ่มที่ถูกละเลยเดิม

 


มิติในการศึกษาประเด็นจริยธรรม AI
          อย่างไรก็ตาม หากมองถึงมิติในการศึกษาประเด็นจริยธรรมเป็นสองมิติ คือ AI ในฐานะ object เมื่อ AI เป็นเพียงเครื่องมือที่ถูกมนุษย์พัฒนาและควบคุมให้ทำหน้าที่อย่างใดอย่างหนึ่ง และ AI ในฐานะ subject เมื่อ AI สามารถทำงานหรือกำหนดความเป็นไปต่าง ๆ ในระบบโดยเป็นอิสระจากการควบคุมของมนุษย์

มิติที่มอง AI ในฐานะ object จะศึกษาการทำงานของระบบ AI เพื่อนำเสนอแนวทางในเชิงหลักการ (principled approach) ในการป้องกันและบรรเทาปัญหาทางจริยธรรมอันเกิดจากการใช้ AI ในกิจการหรือกิจกรรมต่าง ๆ

ส่วนมิติที่มอง AI ในฐานะ subject จะแสวงหาคำตอบว่า AI ควรจะถูกพัฒนาให้อยู่บนบรรทัดฐานทางจริยธรรมได้อย่างไร สถานะทางศีลธรรมของ AI จะประดิษฐ์ขึ้นมาได้หรือไม่อย่างไรและระบบ AI สามารถรับผิดชอบต่อการกระทำและการตัดสินใจของตนเองได้หรือไม่

 
การธรรมาภิบาลข้อมูล (data governance) ลิขสิทธิ์ และการคุ้มครองข้อมูลส่วนบุคคล
          ประเด็นใหญ่ระดับโลกอีกประการหนึ่งเกี่ยวกับการพัฒนาและใช้งาน AI ก็คือเรื่องของการธรรมาภิบาลข้อมูล (data governance) ลิขสิทธิ์ และการคุ้มครองข้อมูลส่วนบุคคล

          ในยุคปัจจุบัน ข้อมูลถือเป็นทรัพย์สินซึ่งทั้งมีมูลค่าในเชิงเศรษฐกิจและเป็นสิทธิขั้นพื้นฐานของมนุษย์ แต่ในการเสริมสร้างความฉลาดเฉลียวให้กับ AI นั้นต้องใช้ข้อมูลจำนวนมากในการสอน ซึ่งผู้พัฒนา AI ก็ใช้การกวาดข้อมูลที่สามารถเข้าถึงได้แบบสาธารณะในการสอน AI ด้วย และข้อมูลเหล่านี้ย่อมรวมถึงข้อมูลส่วนบุคคลของผู้คนจำนวนมากด้วยเช่นกัน จะเป็นอย่างไรหากผู้ใช้งาน AI สามารถเข้าถึงข้อมูลส่วนบุคคลหรือแม้กระทั่งบทสนทนาของบุคคลอื่นที่คุยกับ AI

          ในช่วงที่ผ่านมา มีคดีฟ้องร้องระหว่างผู้เป็นเจ้าของข้อมูลกับผู้พัฒนา AI คดีที่เป็นคดีใหญ่และอาจเป็นหมุดหมายทางประวัติศาสตร์คือคดีที่ The New York Times สื่อใหญ่ของสหรัฐอเมริกาฟ้องร้องบริษัท OpenAI ผู้พัฒนา ChatGPT และ Microsoft (ผู้ถือหุ้นใหญ่ของ OpenAI) ในปี พ.ศ. 2566 ซึ่งเป็นปีที่ ChatGPT มีการเติบโตอย่างก้าวกระโดด ว่านำข้อมูลของ The New York Times ไปใช้สอน AI โดยไม่ได้รับความยินยอม นับว่าเป็นการละเมิดลิขสิทธิ์ เรื่องราวยังซับซ้อนขึ้นไปอีก เมื่อในปีนี้ (2568) ระหว่างที่คดียังไม่สิ้นสุด ศาลได้มีคำสั่งให้ OpenAI เก็บข้อมูลที่รวมถึงการสนทนาของผู้ใช้เอาไว้ให้หมด เพื่อให้เป็นประโยชน์ในการไต่สวนคดี หลังจากที่ The New York Times ร้องต่อศาลว่าคู่กรณีอาจมีการทำลายหลักฐานด้วยการลบข้อมูลออกไป ทาง OpenAI พยายามทักท้วงต่อคำสั่งนี้แต่ยังไม่เป็นผล จึงไม่สามารถลบข้อมูลออกไปตามวงรอบ ยังคงต้องเก็บข้อมูลและการสนทนาของผู้ใช้งานเอาไว้ในระบบอย่างไม่มีกำหนด แม้ว่าตัวผู้ใช้งานเองจะเลือกลบข้อมูลออกไปแล้วก็ตาม

คำสั่งดังกล่าวสร้างแรงสั่นสะเทือนทั้งต่อผู้พัฒนา AI และบุคคลธรรมดาทั่วโลกผู้ใช้งาน ChatGPT และถือเป็นเจ้าของข้อมูลส่วนบุคคลตามกฎหมาย[2]

          ล่าสุดในอีกกรณีหนึ่ง OpenAI ก็แจ้งว่าได้ลบฟีเจอร์ที่อนุญาตให้ผู้ใช้แชร์บทสนทนาสู่สาธารณะได้ หลังจากถูกเปิดเผยว่าบุคคลอื่นอาจสืบค้นและพบบทสนทนาเหล่านั้นได้ด้วยการใช้เครื่องมือสืบค้น
เช่น Google[3] จะเห็นได้ว่า การใช้ข้อมูลของ AI มีความสุ่มเสี่ยงในการละเมิดทั้งลิขสิทธิ์ ข้อมูลส่วนบุคคล ไปจนถึงสิทธิที่จะถูกลืม (right to be forgotten)[4] ด้วย

         ดังนั้น ทั้งหน่วยงานภาครัฐและผู้เกี่ยวข้องทุกฝ่ายจำเป็นต้องให้ความสำคัญกับเรื่องของ “การธรรมาภิบาลข้อมูล”หรือ “Data Governance” ซึ่งหมายถึงการกำหนดสิทธิ หน้าที่ และความรับผิดชอบในการบริหารจัดการข้อมูล ตั้งแต่การจัดทำ การจัดเก็บ การจำแนกหมวดหมู่ การประมวลผลหรือใช้ข้อมูล การเปิดเผย การตรวจสอบ รวมถึงการทำลายข้อมูล พร้อมกับการกำหนดมาตรการในการควบคุมและพัฒนาคุณภาพของข้อมูลให้มีความถูกต้อง พร้อมใช้ และทำให้ข้อมูลเป็นปัจจุบัน ทั้งกฎเกณฑ์ต่าง ๆ ในการอนุญาตให้เข้าถึงและใช้ประโยชน์จากข้อมูลที่ชัดเจนมีมาตรการความมั่นคงปลอดภัย และไม่ให้มีข้อมูลส่วนบุคคลถูกละเมิดเกิดขึ้น[5]

 



การกำกับดูแลการพัฒนาและการใช้งาน AI ในต่างประเทศ
ในระดับนานาชาติ การประชุม AI Seoul Summit 2024 ในปี 2567 ได้ขับเคลื่อนความก้าวหน้าในความร่วมมือทั้งในระดับประเทศและองค์กร ทั้งภาครัฐและเอกชนเกี่ยวกับ AI โดยเน้นที่ความปลอดภัย นวัตกรรม และความครอบคลุมคำนึงถึงคนทุกกลุ่มโดยไม่ทิ้งใครไว้ข้างหลัง (safety, innovation and inclusion) จะเห็นได้ว่า จุดเน้นทั้ง 3 ข้อนี้เป็นเรื่องที่นานาชาติเห็นพ้องต้องกัน [6]

ส่วน AI Governance Alliance ของ World Economic Forum มองว่า การพัฒนา AI จะต้องอยู่บนหลักการของความเป็นธรรม โปร่งใส และรับผิดชอบ[7]

หากจะพูดถึงกรอบแนวทางการกำกับดูแลการพัฒนาและใช้ AI ในต่างประเทศแล้ว Principles for Trustworthy AI ของ OECD เป็นหลักการที่มีการอ้างถึงเป็นอย่างมาก โดยเป็นหลักการที่ตั้งบนพื้นฐานของคุณค่า (Value-based principles) ได้แก่

         - การเติบโตที่คำนึงถึงทุกคน การพัฒนาที่ยั่งยืน และความเป็นอยู่ที่ดี (inclusive growth and well-being)

          - เคารพหลักสิทธิมนุษยชน และค่านิยมตามหลักประชาธิปไตย รวมถึงความเป็นธรรมและความเป็นส่วนตัว (human rights and democratic values, including fairness and privacy)

          - ความโปร่งใสและสามารถอธิบายได้ (transparency and explainability)

          -  ความแข็งแรง ความมั่นคงและความปลอดภัย (robustness, security and safety)

          - ความรับผิดชอบต่อผลของการกระทำและสอบทานได้ (accountability)

          ทั้งนี้ OECD ก็มีข้อแนะนำสำหรับฝ่ายนโยบาย ว่า ให้ส่งเสริมการลงทุนในการวิจัยและพัฒนาเกี่ยวกับ AI โอบรับระบบนิเวศที่สามารถใช้ AI เข้ามาร่วมด้วยได้ อำนวยให้เกิดการกำกับดูแลและสภาพแวดล้อมทางนโยบายด้านปัญญาประดิษฐ์สำหรับการทำงานร่วมกัน สร้างเสริมความสามารถของมนุษย์ และตระเตรียมมนุษย์สำหรับความเปลี่ยนแปลงในตลาดแรงงาน รวมทั้งให้มีความร่วมมือระหว่างประเทศในการเสริมสร้าง AI ที่เชื่อถือได้[8]

ในแง่ของกฎหมาย สหภาพยุโรป (EU) เป็นผู้นำในการออกกฎหมายมากำกับดูแลการพัฒนาและใช้ AI ด้วย EU AI Act ซึ่งวางแนวทางการกำหนดความเข้มงวดตามระดับของความเสี่ยง โดยแบ่งเป็นกลุ่มต่าง ๆ ดังนี้

          - AI ที่มีความเสี่ยงในระดับที่รับไม่ได้ เพราะฝ่าฝืนต่อสิทธิขั้นพื้นฐานหรือขัดกับค่านิยมของ EU เช่น มีการสอดแนมมวลชน (mass surveillance) มีการจัดระดับชั้นของผู้คน (social scoring) หรือมีการครอบงำพฤติกรรม (manipulation of behavior) ซึ่งก่อให้เกิดอันตราย เป็นต้น จะเป็น AI ที่ห้ามใช้อย่างเด็ดขาด

          - AI ในกลุ่มที่มีความเสี่ยงสูง เช่น กลุ่มที่เข้าถึงข้อมูลการจ้างงาน การศึกษา บริการสาธารณะ ความปลอดภัยของยานพาหนะ การบังคับใช้กฎหมาย เป็นต้น จะเป็นกลุ่มที่มีข้อกำหนดและการประเมินอย่างเข้มงวด ต้องมีการตรวจสอบและรับรองจึงจะใช้งานได้

          - AI ในกลุ่มที่มีความเสี่ยงจำกัด เช่น AI ที่ทำงานเลียนแบบมนุษย์ เช่น แชตบอต AI ที่ตรวจจับอารมณ์ (emotion recognition) การจัดกลุ่มข้อมูล biometric และ deepfake เป็นต้น จะเป็นกลุ่มที่มีข้อกำหนดด้านความโปร่งใส

          - AI ในกลุ่มที่มีความเสี่ยงน้อย คือ AI อื่น ๆ ยังไม่มีข้อกำหนดใด ๆ[9]

          จะเห็นได้ว่า EU มีกฎหมายที่กำกับดูแลการพัฒนาและใช้งาน AI อย่างครอบคลุม โดยมีหน่วยงานกำกับดูแลโดยเฉพาะ แต่ในประเทศอื่น ๆ นอก EU เช่น สหรัฐอเมริกาและจีนนั้น การกำกับดูแล AI ผ่านกฎหมายยังเป็นการกำกับดูแลผ่านกฎหมายอื่น ๆ โดยหน่วยงานที่มีอยู่แล้ว หรือมีกฎหมายย่อยและกำกับดูแลเฉพาะส่วน เฉพาะเรื่องไป


แล้วองค์กรกำกับดูแลกิจการโทรทัศน์ในต่างประเทศ มีแนวทางการกำกับดูแล AI อย่างไร

          ขอยกตัวอย่าง Ofcom ซึ่งเป็นองค์กรกำกับดูแลของสหราชอาณาจักร มีการออกรายงาน Plan of Work 2024/25 & Our Strategic Approach to AI ซึ่งมีเนื้อหาครอบคลุม 4 ด้าน คือ ความปลอดภัยออนไลน์ กิจการกระจายเสียงและกิจการโทรทัศน์ กิจการโทรคมนาคม และโครงการความร่วมมือต่าง ๆ จากนั้นในฉบับล่าสุด Plan of Work 2025/26 Ofcom เน้นย้ำว่าได้มีการทำงานกับหน่วยงานอื่น ๆ ที่เกี่ยวข้องอย่างต่อเนื่อง ระบุถึงความเข้าใจที่มากขึ้นและการใช้งาน AI ในกิจการต่าง ๆ เช่น บริการออนไลน์ ใช้ AI ในการกำกับดูแลเนื้อหาเพื่อปรับปรุงการดูแลความปลอดภัยโดยสามารถตรวจจับและระงับเนื้อหาที่เป็นภัย (harmful content) ในจำนวนมากได้อย่างรวดเร็ว ในกิจการแพร่ภาพกระจายเสียง สามารถใช้ AI ในการจัดทำคำบรรยาย คำแปลในภาษาต่าง ๆ ได้แบบ real-time และยังใช้พากย์เสียงโดยอัตโนมัติได้อีกด้วย ในกิจการโทรคมนาคม AI เข้ามาช่วยในการรักษาความเสถียรและความปลอดภัยของระบบ และในอนาคตอาจมาช่วยบริหารจัดการโครงข่ายด้วย

          ทั้งนี้ ในส่วนของกิจการกระจายเสียงและกิจการโทรทัศน์ (broadcasting) Ofcom ได้มีแนวทางในการออกแนวทาง (guidance) เกี่ยวกับความรับผิดชอบและเชื่อถือได้ของ AI ในกิจการกระจายเสียงและกิจการโทรทัศน์ มีการประเมินผลกระทบของ GenAI ต่อต้นทุนการผลิตและความหลากหลายของสื่อ และตรวจสอบการทำงานของระบบแนะนำเนื้อหาซึ่งใช้ AI (AI-driven recommender systems) และผลของระบบเหล่านี้ต่อสื่อสาธารณะ[10]

ความท้าทายในการกำกับดูแล AI
          AI มีพลังที่จะนำมาช่วยขับเคลื่อนอุตสาหกรรมสื่อไปข้างหน้าได้ ในขณะเดียวกันก็ทั้งมีประโยชน์และอาจก่อให้เกิดโทษได้เช่นกัน และในบริบทของประเทศไทยที่มีความซับซ้อนไม่แพ้ประเทศอื่น การกำกับดูแล AI ควรคำนึงถึงความท้าทายดังต่อไปนี้

          1. การสร้างสมดุลในการบังคับใช้กฎหมายและกำหนดขอบเขตการกำกับดูแล โดยที่ยังเอื้อต่อการพัฒนา AI อย่างต่อเนื่องต่อไป

          2. การกำหนดหน่วยงานและบทบาทของผู้รับผิดชอบในการกำกับดูแล

          3. ความรู้ในเชิงเทคนิคและเชิงวิพากษ์ (critical) ในการสร้างเครื่องมือและสารัตถะของการ
กำกับดูแล

          4. การปรับปรุงแนวทางการกำกับดูแลให้เท่าทันเทคโนโลยีที่เปลี่ยนแปลงและมิติแห่งอำนาจ

          5. การสร้างความตระหนักรู้และส่งเสริมการมีส่วนร่วมของทุกภาคส่วนในสังคมในทั้ง 2 มิติของจริยธรรม AI (AI ในฐานะของ object และ AI ในฐานะของ subject)



แนวทางการกำหนดนโยบาย AI สำหรับสื่อไทย
          เรื่องของ AI ไม่ใช่เรื่องที่ กสทช. จะกำหนดได้เองโดยลำพัง อย่างไรก็ตาม มีข้อเสนอแนวทางในการกำหนดนโยบายสำหรับสื่อไทย ดังนี้

          1. สร้างแนวทางการอภิบาลการใช้ AI  พร้อมสร้างระบบความรับผิดชอบร่วมกันของหน่วยงานภาครัฐที่เกี่ยวข้อง เช่น กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) สำนักงาน กสทช. สำนักงานพัฒนารัฐบาลดิจิทัล (DGA) สำนักงานคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล และธนาคารแห่งประเทศไทย เป็นต้น

          2. พัฒนากรอบด้านข้อมูลพื้นฐานที่รัดกุมและมีพลวัต เพื่อออกแบบนโยบายและประเมินผลกระทบ

          3. พัฒนาวิสัยทัศน์ระยะยาวสำหรับการใช้ AI ในอุตสาหกรรมสื่อและกำหนดแผนและกิจกรรมเพื่อไปสู่เป้าหมายร่วมกัน

          4. สร้างพื้นที่ความร่วมมือที่ยั่งยืนและมีโครงสร้างชัดเจนระหว่างผู้มีส่วนได้ส่วนเสียทั้งในภาครัฐและเอกชนตลอดจนการสร้างอำนาจต่อรองร่วมกับภาคีประเทศในเวทีสากล

ทั้งนี้ มีความจำเป็นที่จะต้องสร้างสภาพแวดล้อมที่เอื้อต่อการกำกับดูแล AI ในสื่อไทย ได้แก่

          1. การสร้างแรงจูงใจเพื่อส่งเสริมการเรียนรู้และใช้ทักษะเกี่ยวกับ AI มาปรับปรุงคุณภาพเนื้อหาเพื่อพัฒนานิเวศสื่อให้ไปสู่ทิศทางที่เป็นประโยชน์ต่อสาธารณะ

          2. การสนับสนุนการลงทุนสร้างแหล่งทุนหรือกองทุนเชิงโครงสร้างเพื่อลดช่องว่างทางความเชี่ยวชาญและการรู้เท่าทัน AI

          3. การกำกับดูแลกำหนดกรอบกฎหมายระเบียบที่ชัดเจนเพื่อจัดการกับ disinformation ปกป้องนักวิชาชีพสื่อและคุ้มครองทรัพย์สินทางปัญญาโดยส่งเสริมการแสดงความรับผิดชอบในการใช้ AI ไปพร้อมกัน

          จากปัจจุบันสู่อนาคต ความสามารถของ AI จะยิ่งพัฒนาไปได้กว้างไกลและด้วยความเร็วที่มากขึ้นเรื่อย ๆ ผลกระทบที่จะเกิดขึ้นอาจเป็นไปได้ทั้งในทางบวกและทางลบ มนุษย์จะต้องรู้จัก รู้ใช้ รู้ทัน และมีความรู้รอบเกี่ยวกับ AI อยู่เสมอ ให้ความสำคัญทั้งในด้านนวัตกรรม ความปลอดภัย และไม่ทิ้งใครไว้ข้างหลังดังที่กล่าวมาแล้ว ทั้งนี้ สิ่งที่ไม่อาจหลงลืมหรือลดทอนคุณค่าลงไปได้ก็คือคุณธรรม จริยธรรม ที่จะรักษาและดำรงความเป็นมนุษย์เอาไว้ไม่ให้ถูกทำลาย ในขณะเดียวกัน องค์กรภาครัฐที่เกี่ยวข้องและเป็นตัวแทนโดยชอบของประชาชนก็พึงจะต้องทำหน้าที่ทั้งในการกำกับดูแล การส่งเสริมและการศึกษาวิจัยด้วยความรับผิดชอบเพื่อรังสรรค์ให้ AI พัฒนาไปพร้อม ๆ กับมนุษยชาติอย่างยั่งยืน

 




 

 

 

 

 

 

 

 


[1] แถลงการณ์ชี้แจงจากกองบรรณาธิการ SPRiNG ในการนำเสนอบทความเรื่อง "วิกฤตการสื่อสาร ที่รัฐบาลสอบตก ปมขัดแย้งชายแดนไทย-กัมพูชา", เพจ SpringNews (31 กรกฎาคม 2568) เข้าถึงได้ที่ https://www.facebook.com/share/p
/1Dz3DGqgJ4/?mibextid=wwXIfr
[2] From Copyright Case to AI Data Crisis: How The New York Times v. OpenAI Reshapes Companies’ Data Governance and eDiscovery Strategy, Nelson Mullins (10 July 2025), available at https://www.nelsonmullins.com/insights/blogs/corporate-governance-insights/all/from-copyright-case-to-ai-data-crisis-how-the-new-york-times-v-openai-reshapes-companies-data-governance-and-ediscovery-strategy
[3] OpenAI pulls ChatGPT feature that let user chats appear in Google Search results, Mashable SE Asia (2 August 2025), available at https://sea.mashable.com/tech/38864/openai-pulls-chatgpt-feature-that-let-user-chats-appear-in-google-search-results
[4] สิทธิที่จะถูกลืม หมายถึง สิทธิที่บุคคลสามารถขอให้ลบข้อมูลส่วนบุคคลของตนเองออกจากผลการค้นหาออนไลน์ หรือจากแหล่งข้อมูลอื่นๆ ภายใต้เงื่อนไขที่กำหนด แนวคิดนี้เกิดขึ้นจากความต้องการของบุคคลที่จะไม่ถูกจองจำด้วยข้อมูลในอดีต และสามารถใช้ชีวิตได้อย่างเป็นอิสระ โดยไม่ต้องถูกตีตราจากสิ่งที่เคยทำมา ดูเพิ่มเติมจาก https://www.chula.ac.th/cuinside/2509/
[5] Data governance ง่ายนิดเดียว, สำนักงานพัฒนารัฐบาลดิจิทัล (องค์การมหาชน), available at https://standard.dga.or.th/article/2217/
[6] Seoul Declaration for Safe, Innovative and Inclusive AI by participants attending the leaders’session of the AI Seoul Summit, AI Seoul Summit (21 May 2024), available at https://aiseoulsummit.kr/aigf/press/?uid=46&
mod=document
[7] Balancing innovation and governance in the age of AI, World Economic Forum (1 November 2024), available at https://www.weforum.org/stories/2024/11/balancing-innovation-and-governance-in-the-age-of-ai/
[8] AI Principles, OECD, available at https://www.oecd.org/en/topics/sub-issues/ai-principles.html
[9]  The EU Artificial Intelligence Act Up-to-date developments and analyses of the EU AI Act , European Union, available at https://artificialintelligenceact.eu/)
[10] Ofcom’s strategic approach to AI, Ofcom (13 June 2025), available at https://www.ofcom.org.uk/about-ofcom/annual-reports-and-plans/ofcoms-strategic-approach-to-ai

 

Powered by MakeWebEasy.com
เว็บไซต์นี้มีการใช้งานคุกกี้ เพื่อเพิ่มประสิทธิภาพและประสบการณ์ที่ดีในการใช้งานเว็บไซต์ของท่าน ท่านสามารถอ่านรายละเอียดเพิ่มเติมได้ที่ นโยบายความเป็นส่วนตัว  และ  นโยบายคุกกี้