ถ้า Retrieval คือรากฐาน แล้วเรารู้จักมันดีพอหรือยัง
ทำไมหลายโปรเจกต์ที่ใช้ RAG ถึงไม่เวิร์ก แม้จะมี LLM ที่ดีอยู่แล้ว
คำถามนี้เริ่มได้ยินบ่อยขึ้นเรื่อย ๆ ในวงสนทนาเรื่อง AI ที่ไม่ใช่แค่ระดับ prototype แต่กำลังจะ scale จริง
เทคโนโลยี Retrieval-Augmented Generation (RAG) กลายเป็นโครงสร้างยอดนิยมของแอปพลิเคชันที่ใช้ LLM ในช่วงหลัง แต่สิ่งที่เริ่มเห็นคือ หลาย use case ไม่ได้ผลลัพธ์อย่างที่คาดไว้ บ้างตอบผิด บ้างตอบขาด หรือแย่กว่านั้น: ไม่ตอบเลย
ต้นเหตุหนึ่งอาจเป็นเรื่องของ model หรือ data—but อีกส่วนที่ถูกมองข้ามคือ เราเข้าใจ Retrieval แค่ผิวเผิน และใช้มันแบบคนที่ไม่เคยคลุกฝุ่นกับการ query ข้อมูลจริง ๆ
RAG ไม่ใช่เวทมนตร์ที่จะพลิกโฉมความรู้จากเอกสารให้กลายเป็นคำตอบอัจฉริยะ มันคือวิธีเชื่อมโยง LLM กับความรู้ผ่าน retrieval ที่ต้องแม่นและเหมาะสมในแต่ละ context
เพื่อให้เข้าใจ RAG จริง ๆ เราต้องแกะมันออกมาเป็น 2 ส่วน: retrieval กับ generation
ส่วนที่มักเข้าใจกันคือ generation: เราให้ context ไป แล้ว LLM ตอบกลับมา
แต่ retrieval คือจุดตัดสินว่า context ที่ให้ไปนั้น ตรงกับคำถามมากพอหรือไม่ ถ้า retrieval พลาด ทุกอย่างพังทันที
ประเด็นอยู่ที่ retrieval ไม่ใช่แค่ “search ให้เจอ” แต่คือ การตั้งคำถามว่าอะไรคือสิ่งที่ควรถูก retrieve และ retrieve อย่างไรให้ LLM เข้าใจได้
หลายระบบใช้ embedding search โดยไม่เข้าใจว่าความหมายของ query อาจไม่ได้ align ตรงกับ structure ของข้อมูลที่ index ไว้เลย
ตัวอย่างหนึ่งคือระบบช่วยตอบคำถามจาก policy document ขององค์กร ที่เนื้อหาซับซ้อน มีข้อยกเว้น มีโครงสร้างซ้อนกันหลายชั้น
หากแค่ split document เป็น chunk แล้วใช้ embedding เทียบความคล้าย อาจพลาด context ที่สำคัญ เช่น กรณีที่เงื่อนไขต้องอ่านรวมกันข้ามหน้า
อีกกรณีคือ retrieval จากฐานความรู้ที่มีภาษาเฉพาะ domain เช่น กฎหมายหรือการแพทย์ ถ้า embedding model ไม่ถูกฝึกกับคำเฉพาะเหล่านั้น ค่าความคล้ายอาจไม่สะท้อนความสัมพันธ์เชิงความหมายจริง
สิ่งที่ต้องถามคือ retrieval strategy ของเราเข้าใจภาษาของข้อมูลหรือยัง
หรือแค่หวังให้ embedding model ทำหน้าที่แทนทั้งหมด
สิ่งที่เริ่มเห็นในระบบที่ประสบความสำเร็จคือ การ hybrid retrieval ผสม keyword, semantic และ rule-based เข้าด้วยกัน เพื่อให้ผลลัพธ์แม่นขึ้น
แต่การจะทำ hybrid retrieval ได้ ต้องเข้าใจ retrieval ลึกพอจะรู้ว่าแต่ละ method ดี-เสียยังไง และต้องเข้าใจข้อมูลจริงที่ระบบใช้
ท้ายที่สุด RAG ไม่ใช่ “magic wrapper” ของ LLM แต่คือสนามที่วัดว่า เรามีวินัยพอที่จะเข้าใจข้อมูล และออกแบบ retrieval ให้สอดคล้องกับ logic ของมันหรือไม่
ถ้ายังใช้ retrieval แบบ copy-paste คนอื่น โดยไม่เคยดูข้อมูลของตัวเองให้ลึก
คำตอบที่ได้ก็จะผิวเผินเท่ากับความเข้าใจที่เรามีต่อ retrieval เท่านั้น