ในเวลานี้คงปฏิเสธไม่ได้เลยว่า “ChatGPT” กำลังเป็นหัวข้อมาแรงที่ทำให้ผู้คนหันมาให้ความสนใจกับปัญญาประดิษฐ์ (Artificial Intelligence: AI) มากขึ้น อีกทั้งยังเป็นประเด็นถกเถียงถึงข้อดีและความเสี่ยงของการที่ AI จะเข้ามาเปลี่ยนวิถีชีวิตในการทำงานร่วมกับเครื่องจักร และการสื่อสารระหว่างกันของพวกเราอีกด้วย
ดร.ศักดิ์ เสกขุนทด ที่ปรึกษาอาวุโส สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) เปิดเผยว่า ความสามารถของ ChatGPT ทำให้หลายคนเริ่มกังวลเรื่องความเสี่ยง และเริ่มตื่นตัวกับเรื่องจริยธรรม AI มากขึ้น สำหรับประเทศไทยนั้นมุ่งเน้นเรื่องธรรมภิบาลปัญญาประดิษฐ์ หรือ ความโปร่งใส AI ซึ่งมีจริยธรรม AI เป็นส่วนหนึ่งของธรรมภิบาลปัญญาประดิษฐ์ ขณะที่ภายในปีนี้ ETDA กำลังยกร่างกฎหมาย AI โดยกฎหมายดังกล่าวมุ่งเน้นการส่งเสริมพัฒนา AI ไม่ได้มุ่งเน้นการออกกฎหมายมาควบคุม AI คาดว่าร่างกฎหมายดราฟแรกจะออกมาเปิดรับฟังความคิดเห็นได้ราว 1-2 เดือนข้างหน้า โดยมุ่งปลดล็อกข้อจำกัดต่างๆ รวมถึงความเข้าใจของผู้ใช้งานที่ยังไม่ดีพอ ซึ่งกฎหมายดังกล่าวเป็นการเตรียมความพร้อมของไทย เพื่อรองรับการเติบโตของ AI
ด้าน ดร. ชัย วุฒิวิวัฒน์ชัย ผู้อำนวยการ ศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ หรือ เนคเทค กล่าวว่า ตามแผนปฏิบัติการด้านปัญญาประดิษฐ์แห่งชาติเพื่อการพัฒนาประเทศไทย ยุทธศาสตร์ที่ 1 นั้นต้องเตรียมความพร้อมของประเทศในด้านสังคม จริยธรรม กฎหมาย และกฎระเบียบสำหรับการประยุกต์ใช้ปัญญาประดิษฐ์ โดยขณะนี้เนคเทค ได้เริ่มนำมาตรฐาน ISO จากต่างประเทศที่เหมาะสม มาประยุกต์ เพื่อกำหนดกฎเกณฑ์ เพื่อสร้างมาตรฐาน AI ของไทยขึ้นมา
นอกจากนี้มีแผนร่วมมือกับหน่วยงานรัฐ และเอกชน จัดตั้งศูนย์ทดสอบ (Testing Lab) เพื่อตรวจสอบว่าผลิตภัณฑ์ปัญญาประดิษฐ์ AI เป็นไปตามมาตรฐานหรือไม่ รวมถึงเพื่อให้เกิดความมั่นใจในผลิตภัณฑ์ส่งเสริมให้ผู้ประกอบการมีความเป็นสากลมากขึ้น รวมถึงให้คำปรึกษาแนะนำในการตรวจสอบทั้งภาคเอกชน ผู้ประกอบการ และบุคคลทั่วไป
“ที่ผ่านมากระทรวงดิจิทัล เพื่อเศรษฐกิจและสังคม ได้ออกแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand Artificial Intelligence Ethics Guideline) มา แต่ไม่มีคนสนใจ แต่ภายหลังจากเกิดกระแส ChatGPT ที่สามารถนำไปใช้เขียนคำร้องฟ้องศาล วาดภาพประกวด ทำให้คนเริ่มกังวลมากขึ้น บางประเทศถึงกับแบน ChatGPT เช่น ในอินเดีย ขณะที่เอกชน ที่มีแผนนำมาใช้ประโยชน์ทางธุรกิจ เริ่มให้ความสนใจ เรื่องจริยธรรม และมาตรฐาน AI มากขึ้น เพราะไม่อยากให้ธุรกิจตกอยู่ในความเสี่ยง และขายของไม่ได้”
ส่วนแหล่งข่าวจากวงการผู้พัฒนา AI รายหนึ่ง กล่าวว่าในมุมนักพัฒนา ไม่เห็นด้วยกับการออกกฎหมายมาควบคุม เนื่องจาก AI เป็นเพียงเทคโนโลยีที่นำไปประยุกต์ใช้ในแต่ละธุรกิจเท่านั้น หากพิจารณาแล้วแต่ละสายอาชีพมีจริยธรรม เช่น สื่อมวลชน มีจริยธรรมสื่อ หรือ แพทย์ มีหลักจริยธรรมทางการแพทย์ เป็นกรอบปฎิบัติอยู่แล้ว
ด้านนางสาวเอวิวา ลิทาน รองประธานฝ่ายวิจัย การ์ทเนอร์ กล่าวว่าความก้าวหน้าอย่างรวดเร็วของนวัตกรรมปัญญาประดิษฐ์เอไอแบบรู้สร้าง หรือ Generative AI ทำให้เกิดความวิตกด้านความปลอดภัยและความเสี่ยงเพิ่มมากขึ้นตามมา มีนักกฎหมายบางรายเสนอกฎระเบียบและข้อบังคับใหม่เพื่อกำกับดูแลเครื่องมือปัญญาประดิษฐ์ต่าง ๆ และผู้นำธุรกิจและเทคโนโลยีบางคนออกมาแนะนำให้ระงับการฝึก AI ชั่วคราวเพื่อเป็นการประเมินด้านความปลอดภัยของตน
Generative AI ก่อให้เกิดความเสี่ยงใหม่ๆ หลายประการ ประการแรกคือ “ล่อลวงด้วยภาพลวงตา (Hallucinations)” และการปลอมแปลง อาทิ ข้อมูลที่ผิดแปลกไปจากข้อเท็จจริง ซึ่งเป็นปัญหายอดนิยมที่สุด ความเสี่ยงต่อมา คือ Deepfakes เมื่อ Generative AI ถูกนำไปใช้สร้างเนื้อหาที่มีเจตนามุ่งร้าย เช่น รูปภาพปลอม วิดีโอปลอม รวมถึงการบันทึกเสียงปลอม ที่มักถูกใช้เพื่อโจมตีเหล่าคนดัง
ความเป็นส่วนตัวของข้อมูล (Data privacy) น่ากังวลใจไม่ใช่น้อย โดยเฉพาะเมื่อองค์กรให้สิทธิ์พนักงานสามารถเปิดเผยข้อมูลที่ละเอียดอ่อนและเป็นกรรมสิทธิ์ขององค์กร ต่อมาคือ ปัญหาด้านลิขสิทธิ์ (Copyright Issues) แชทบอท Generative AI ได้รับการฝึกอบรมด้านข้อมูลอินเตอร์เน็ตจำนวนมาก ซึ่งอาจรวมถึงเนื้อหาที่มีลิขสิทธิ์ โดยอาจมีผลลัพธ์บางอย่างละเมิดการคุ้มครองลิขสิทธิ์หรือทรัพย์สินทางปัญญา (IP) สุดท้าย คือ ข้อกังวลด้านความปลอดภัยทางไซเบอร์ (Cybersecurity Concerns) โดยผู้โจมตีสามารถใช้เครื่องมือเหล่านี้สร้างโค้ดอันตราย (Malicious Code) ได้ง่ายขึ้น