ยิ่งข้อมูลมาก AI ยิ่งฉลาด กลายเป็นแนวทางหลักของอุตสาหกรรม เทคโนโลยี AI ที่ใช้ข้อมูลมหาศาลสามารถวิเคราะห์แนวโน้ม พยากรณ์พฤติกรรม และสร้างโมเดลที่สามารถตัดสินใจแทนมนุษย์ได้อย่างแม่นยำ
อย่างไรก็ตาม แนวโน้มในปี 2568 สะท้อนภาพที่แตกต่างออกไป องค์กรเริ่มตระหนักว่า Big Data ไม่ใช่คำตอบเดียวเสมอไป และการใช้ข้อมูลจำนวนมากเกินไปกลับกลายเป็นปัญหา ทั้งในแง่ของต้นทุน การจัดการ และประสิทธิภาพ สิ่งนี้นำไปสู่แนวคิดใหม่ที่เรียกว่า Small Data ซึ่งกำลังเข้ามามีบทบาทสำคัญในการพัฒนา AI ที่แม่นยำ ยั่งยืน และใช้ทรัพยากรได้อย่างมีประสิทธิภาพมากขึ้น
ในอดีต AI เติบโตขึ้นจากการพึ่งพาข้อมูลมหาศาล หรือ Big Data บริษัทเทคโนโลยีชั้นนำแข่งกันสะสมข้อมูลจากทุกแหล่ง ตั้งแต่โซเชียลมีเดีย เว็บไซต์ ไปจนถึงฐานข้อมูลภาครัฐ และภาคธุรกิจ เพื่อฝึกฝนโมเดลให้สามารถเรียนรู้และตัดสินใจได้อย่างแม่นยำ แต่สิ่งที่หลายองค์กรเริ่มค้นพบคือข้อมูลจำนวนมากไม่ได้แปลว่าผลลัพธ์จะดีเสมอไป ปริมาณข้อมูลที่มากขึ้นมาพร้อมกับต้นทุนมหาศาล ไม่ว่าจะเป็นค่าประมวลผล ค่าเซิร์ฟเวอร์ และค่าบำรุงรักษาโครงสร้างพื้นฐาน คลาวด์คอมพิวติ้งที่รองรับ Big Data ต้องการพลังงานสูง และสร้างภาระทางการเงินให้กับองค์กร
นอกจากนี้ ข้อมูลที่สะสมจำนวนมากอาจเต็มไปด้วย “Noise” หรือสัญญาณรบกวน ข้อมูลซ้ำซ้อน หรือข้อมูลที่ไม่มีคุณภาพ ส่งผลให้โมเดล AI ใช้ทรัพยากรอย่างสิ้นเปลืองในการแยกแยะข้อมูลที่เป็นประโยชน์ออกจากข้อมูลที่ไม่เกี่ยวข้อง อีกทั้งยังมีข้อจำกัดด้านกฎหมายและความเป็นส่วนตัว เช่น กฎหมาย GDPR ของสหภาพยุโรป และ PDPA ของประเทศไทย ที่กำหนดให้บริษัทต้องจัดการข้อมูลผู้ใช้ด้วยความระมัดระวังมากขึ้น สิ่งเหล่านี้ทำให้การพึ่งพา Big Data แบบเดิมเริ่มมีข้อจำกัดมากขึ้น
เมื่อปริมาณข้อมูลไม่ใช่คำตอบเพียงอย่างเดียว แนวทางที่เกิดขึ้นคือการใช้ข้อมูลที่มีคุณภาพสูงและเกี่ยวข้องกับเป้าหมายโดยตรง แนวคิด Small Data กำลังเปลี่ยนโฉม AI จากการใช้ข้อมูลจำนวนมากไปสู่การเลือกใช้ข้อมูลที่มีคุณค่าจริงๆ ธุรกิจบางแห่งเริ่มหันมาให้ความสำคัญกับการคัดกรองข้อมูลที่จำเป็น และลดการพึ่งพาข้อมูลจำนวนมหาศาล ยกตัวอย่างเช่น ในอุตสาหกรรมการแพทย์ แทนที่จะใช้ข้อมูลผู้ป่วยนับล้านเพื่อตรวจหาโรค AI อาจเลือกใช้ข้อมูลจากกลุ่มตัวอย่างที่มีอาการใกล้เคียงกันเพื่อเพิ่มความแม่นยำ ในแวดวงธุรกิจค้าปลีก แทนที่จะวิเคราะห์พฤติกรรมผู้บริโภคทั้งหมด ธุรกิจสามารถใช้ Small Data เพื่อโฟกัสไปที่ลูกค้ากลุ่มเป้าหมายที่สร้างรายได้สูงสุด
เทคโนโลยีใหม่หลายอย่างช่วยเสริมศักยภาพของ Small Data ทำให้ AI สามารถทำงานได้โดยไม่ต้องใช้ข้อมูลจำนวนมาก เช่น Synthetic Data หรือข้อมูลจำลองที่สร้างขึ้นมาแทนข้อมูลจริง เพื่อให้ AI ฝึกฝนโดยไม่ต้องใช้ข้อมูลจากผู้ใช้จริง
อีกเทคนิคที่กำลังมาแรงคือ Self-learning AI ซึ่งเป็นแนวทางที่ทำให้ AI สามารถเรียนรู้จากตัวเองโดยไม่ต้องอาศัยข้อมูลจากภายนอก ตัวอย่างของเทคนิคนี้คือ AlphaGo ของ DeepMind ที่สามารถเล่นหมากล้อมและพัฒนาตัวเองให้เก่งขึ้นโดยไม่ต้องใช้ข้อมูลจากมนุษย์เลย
นอกจากนี้ เทคโนโลยี Edge AI กำลังได้รับความนิยมมากขึ้น เนื่องจากช่วยให้ AI ทำงานได้โดยไม่ต้องพึ่งพาคลาวด์มากนัก ข้อมูลสามารถประมวลผลได้ในอุปกรณ์ปลายทาง เช่น สมาร์ทโฟน หรือ IoT ทำให้ลดการใช้พลังงานและเพิ่มความเป็นส่วนตัว
อนาคตของ AI ไม่ได้อยู่ที่การสะสมข้อมูลมหาศาลอีกต่อไป แต่เป็นการใช้ข้อมูลที่มีคุณภาพสูง ควบคู่ไปกับเทคนิคที่ช่วยลดการพึ่งพาข้อมูลจำนวนมาก Small Data ทำให้ AI ทำงานได้รวดเร็วขึ้น ตัดสินใจได้อย่างมีประสิทธิภาพมากขึ้น ลดต้นทุน และลดผลกระทบต่อสิ่งแวดล้อม การมุ่งไปสู่ AI ที่ใช้ข้อมูลน้อยแต่มีประสิทธิภาพสูงจะช่วยให้องค์กรสามารถแข่งขันได้ดีขึ้น และพัฒนาเทคโนโลยี AI ได้อย่างยั่งยืน องค์กรที่ต้องการเป็นผู้นำในการแข่งขันด้าน AI ควรปรับแนวคิดจากการสะสมข้อมูลจำนวนมากไปสู่การใช้ข้อมูลที่มีคุณภาพ และลงทุนในเทคโนโลยีที่ช่วยให้ AI เรียนรู้และตัดสินใจได้แม่นยำขึ้นโดยไม่ต้องใช้ข้อมูลที่มากเกินความจำเป็น
การเปลี่ยนผ่านจาก Big Data สู่ Small Data เป็นสัญญาณสำคัญว่าอุตสาหกรรม AI กำลังเข้าสู่ยุคใหม่ องค์กรที่สามารถปรับตัวและใช้แนวทาง Small Data ได้ดีจะมีความได้เปรียบอย่างมาก เพราะสามารถตัดสินใจได้รวดเร็ว แม่นยำ และไม่ต้องแบกรับภาระข้อมูลที่มากเกินไป เทคโนโลยีใหม่ๆ กำลังเปลี่ยนแปลงวิธีการเรียนรู้ของ AI และกำหนดทิศทางของปัญญาประดิษฐ์ในอนาคต Big Data อาจเคยเป็นคำตอบสำคัญในอดีต แต่วันนี้อนาคตของ AI ขึ้นอยู่กับ “คุณภาพของข้อมูล” ไม่ใช่แค่ปริมาณเพียงอย่างเดียว
วิเคราะห์ หน้า 8 หนังสือพิมพ์ฐานเศรษฐกิจ ฉบับที่ 4,079 วันที่ 16 - 19 มีนาคม พ.ศ. 2568