ปัญญาประดิษฐ์ (AI) จะใช้อัลกอริธึมที่สามารถประสานการพัฒนาเศรษฐกิจกับความก้าวหน้าทางเทคโนโลยี โดยในภาคการเงินนั้น อัลกอริธึม AI กำลังเปลี่ยนแปลงภูมิทัศน์ทางการเงินในปัจจุบันด้วยการปลดล็อกประสิทธิภาพ การคาดการณ์แนวโน้ม และปรับแต่งประสบการณ์ทางการเงินในแบบของผู้ใช้งาน จากการต่อสู้กับการฉ้อโกงไปจนถึงความคล่องตัวในการทำธุรกรรมต่างๆ
ศักยภาพของ AI ในการปรับปรุงตลาดการเงินมีอยู่หลากหลาย ซึ่งระบบของ AI จะใช้ศักยภาพแท้จริงที่มีในการทำงาน จึงเกิดคำถามทางกฎหมายที่สำคัญ ว่าเราจะเชื่อในสิ่งที่เรามองไม่เห็นได้จริงหรือไม่ ทำให้เกิดความท้าทายสำหรับอุตสาหกรรมบริการทางการเงิน ซึ่งความโปร่งใสเป็นสิ่งสำคัญ
AI ต้องสามารถอธิบายการทำงานของระบบภายในได้อย่างตรงไปตรงมา
จากรายงานของสำนักข่าวรอยเตอร์ (Reuters) ระบุว่า Jamie Dimon จาก JPMorgan บริษัทให้บริการทางการเงินและการลงทุนยักษ์ใหญ่ของโลกในอเมริกา ได้เน้นย้ำถึงความจำเป็นที่ระบบ AI จะต้องสามารถอธิบายได้ ซึ่งหมายความว่าระบบเหล่านี้ไม่เพียงแต่ควรตัดสินใจได้เท่านั้น แต่ยังต้องให้เหตุผลอย่างชัดเจนด้วย ยกตัวอย่างเช่น AI ที่สามารถอธิบายการให้คะแนนเครดิตและสามารถสรุปเหตุผลในการอนุมัติหรือปฏิเสธสินเชื่อได้อย่างโปร่งใส
การเงินกับความโปร่งใสเป็นสิ่งสำคัญ การสร้างกฎระเบียบคุ้มครองจึงเป็นเรื่องจำเป็น
การรวม AI เข้ากับภาคการเงินนำมาซึ่งความซับซ้อนที่สำคัญ โดยมีความท้าทายทางกฎหมายและกฎระเบียบในระดับแนวหน้า รวมถึงมีข้อกังวลด้านการกำกับดูแลข้อมูล เช่น ความเป็นส่วนตัว กระแสข้อมูลข้ามพรมแดน และการปฏิบัติตามกฎระเบียบ อาทิ กฎระเบียบคุ้มครองข้อมูลทั่วไป (GDPR) ที่มีความสำคัญอย่างมาก โดยกฎเหล่านี้มีอิทธิพลต่อการพัฒนาและการใช้งาน AI ในด้านการเงิน การกำหนดวิธีจัดการข้อมูล และการทำให้มั่นใจว่าระบบเคารพความเป็นส่วนตัวและอธิปไตยด้านข้อมูล
การสร้างสมดุลระหว่างประสิทธิภาพของ AI และความโปร่งใสยังเป็นเรื่องท้าทาย
การมุ่งเน้นที่ความชัดเจนนี้เน้นย้ำถึงความสำคัญของการกำกับดูแลข้อมูลใน AI ซึ่งเกี่ยวข้องกับกรอบงานการออกใบอนุญาตต่างๆ แต่การสร้างสมดุลระหว่างประสิทธิภาพของ AI และความโปร่งใสยังคงเป็นเรื่องท้าทาย โดยหน่วยวิจัยด้านเทคโนโลยีชั้นนำของโลก MIT Media Lab กำลังผลักดันการใช้ข้อมูลอย่างมีจริยธรรม ซึ่งเป็นการแสดงภาพการสร้างข้อมูล AI ทั่วโลก พร้อมการทำให้เป็นมาตรฐานทางภาษาเพื่อการเปรียบเทียบที่ยุติธรรม และมีการแสดงค่าด้วยแถบสี
ในส่วนที่ระบุสีเข้มกว่าจะบ่งบอกถึงชุดข้อมูลที่มากขึ้น อันกำหนดโดยนโยบายและกฎหมายความเป็นส่วนตัว ซึ่งสะท้อนถึงผลกระทบทางกฎหมายและจริยธรรมสำหรับนวัตกรรม AI และการไม่แบ่งแยก ซึ่งการกระจัดกระจายของค่าสีดังกล่าว เน้นย้ำถึงความสำคัญของการเข้าถึงข้อมูลที่เท่าเทียมกันในการกำหนดอนาคตของ AI และความเป็นธรรม
AI เสี่ยงที่จะถูกพัฒนาเป็น "Black Box" เข้าใจยากและซับซ้อน
การพัฒนา AI มีความเสี่ยงที่จะกลายเป็นกล่องดำ หรือพื้นที่ความคิดที่ยากจะคาดเดา ซึ่งไม่ชัดเจนและไม่สามารถเข้าถึงได้จากการตรวจสอบจากภายนอก การขาดความโปร่งใสนี้อาจทำให้เนื้อหาซ่อนเร้นในอัลกอริธึม AI รุนแรงขึ้น ทำให้ยากต่อการควบคุม ซึ่งสถานการณ์ดังกล่าวเน้นให้เห็นจุดเชื่อมต่อที่สำคัญในการพัฒนา AI เนื่องจากระบบ AI ที่ไม่สามารถอธิบายได้อาจส่งผลกระทบในวงกว้างต่อสังคมในภาพรวม
AI สามารถกระตุ้นให้เกิดความผันผวนของตลาด จากการตัดสินใจเพียงครั้งเดียว
อัลกอริธึม AI และความไม่สมดุลของข้อมูลทำให้เกิดอุปสรรคที่อาจบดบังการตัดสินใจและมีอคติที่ยืดเยื้อ ตัวอย่างเช่น อัลกอริธึมการซื้อขายที่ขับเคลื่อนด้วย AI สามารถกระตุ้นให้เกิดความผันผวนของตลาดได้ด้วยการตัดสินใจที่ไม่ชัดเจนเพียงครั้งเดียว ซึ่งท้าทายหน่วยงานกำกับดูแลในการรักษาความรับผิดชอบและการใช้กลยุทธ์การป้องกันความไม่โปร่งใส
ลู่ทางในการแก้ปัญหาและการสร้างกฎหมายกำกับดูแลการพัฒนาของ AI
กรอบกฎหมายและข้อบังคับแบบดั้งเดิมสร้างขึ้นจากการตัดสินใจของมนุษย์ เมื่อต้องเผชิญกับความท้าทายจาก AI ที่อธิบายไม่ได้ ส่งผลให้การมอบหมายความรับผิดชอบเกิดความซับซ้อน โดยเฉพาะเมื่อการตัดสินใจดังกล่าวนำไปสู่ผลลัพธ์ที่ไม่พึงประสงค์หรือความเสี่ยงเชิงระบบ โดยกฎหมายและแนวปฏิบัติด้าน AI ทั่วโลกกำลังมุ่งเน้นไปที่แง่มุมที่สำคัญมากขึ้น เช่น ความโปร่งใส อคติ ความรับผิดชอบ และความเสี่ยงเชิงระบบ เพื่อสร้างระบบนิเวศทางการเงินที่ยืดหยุ่น
ทั้งนี้ จะมีการใช้ประโยชน์จากศักยภาพของ AI ในขณะที่จัดการกับความท้าทายที่อาจเกิดขึ้น ตามพระราชบัญญัติ AI ของสหภาพยุโรป ที่มีวัตถุประสงค์เพื่อควบคุมความทึบของระบบ AI โดยเฉพาะในภาคการเงิน ซึ่งคาดว่าจะได้รับการอนุมัติจากรัฐสภาขั้นสุดท้ายในเดือนเมษายนปี 2567 นี้
โดยจะกำหนดมาตรฐานทางกฎหมายที่ครอบคลุมสำหรับการจัดการความเสี่ยงที่เกี่ยวข้องกับแอปพลิเคชัน AI ที่มีเดิมพันสูง เพื่อส่งเสริมแนวทางปฏิบัติด้าน AI ที่มีจริยธรรมและเพิ่มความโปร่งใส โดยจะมุ่งเน้นไปที่การจำแนกประเภทตามความเสี่ยง ข้อกำหนดด้านความโปร่งใสที่เข้มงวด และการแทรกแซงของมนุษย์ เพื่อรักษาความรับผิดชอบของระบบ AI และเพื่อทำให้กระบวนการตัดสินใจของ AI เข้าใจง่ายขึ้น รวมถึงทำให้มั่นใจว่าความก้าวหน้าใน AI จะสอดคล้องกับคุณค่าทางสังคม
ขอบคุณที่มา : สำนักข่าวรอยเตอร์ (Reuters)