AI-Generated Video Summary by NoteTube

RAG is Dead - Introduction to Vectorless RAG
Piyush Garg
Overview
यह वीडियो पारंपरिक रिट्रीवल ऑगमेंटेड जनरेशन (RAG) सिस्टम की समस्याओं को समझाता है, खासकर वेक्टर-आधारित RAG में आने वाली चुनौतियों पर प्रकाश डालता है। इसमें चंकिंग की समस्याएं, कॉन्टेक्स्ट का खोना, और यूजर की क्वेरी पर अत्यधिक निर्भरता जैसी दिक्कतें शामिल हैं। फिर, यह वेक्टरलेस RAG, जिसे पेज इंडेक्स भी कहा जाता है, का परिचय देता है। यह विधि वेक्टर एंबेडिंग का उपयोग करने के बजाय LLM की रीजनिंग क्षमताओं पर निर्भर करती है। वीडियो बताता है कि कैसे पेज इंडेक्स एक हायरार्किकल टेबल ऑफ कॉन्टेंट ट्री बनाकर और फिर उस ट्री पर नेविगेट करके सटीक उत्तर प्राप्त करता है, जो इंसानों के पढ़ने के तरीके से प्रेरित है। अंत में, यह वेक्टरलेस RAG के फायदे और नुकसान (जैसे सटीकता के लिए समय का ट्रेड-ऑफ) पर चर्चा करता है।
This summary expires in 30 days. Save it permanently with flashcards, quizzes & AI chat.
Chapters
- •LLM की सीमित कॉन्टेक्स्ट विंडो के कारण बड़े डॉक्यूमेंट्स को सीधे इंजेस्ट करने में समस्या।
- •बहुत अधिक कॉन्टेक्स्ट होने पर LLM का हेलुसिनेट करना और आउटपुट की क्वालिटी का कम होना।
- •टोकन की लागत के कारण बड़े डॉक्यूमेंट्स को हर क्वेरी में इंजेस्ट करने की उच्च लागत।
- •इंडेक्सिंग फेज: डॉक्यूमेंट्स को चंक्स में तोड़ना (जैसे पेज-बाय-पेज, पैराग्राफ-बाय-पैराग्राफ, या फिक्स्ड विंडो चंकिंग)।
- •चंक्स को वेक्टर एंबेडिंग मॉडल का उपयोग करके वेक्टर्स में बदलना।
- •वेक्टर्स को वेक्टर डेटाबेस (जैसे Pinecone, ChromaDB) में स्टोर करना।
- •क्वेरी फेज: यूजर की क्वेरी को वेक्टर में बदलना और वेक्टर सिमिलरिटी सर्च का उपयोग करके रेलेवेंट चंक्स खोजना।
- •रेलेवेंट चंक्स और यूजर की क्वेरी को LLM में भेजकर फाइनल आंसर जनरेट करना।
- •चंकिंग की समस्या: फिक्स्ड साइज़ या पैराग्राफ-आधारित चंकिंग से कॉन्टेक्स्ट का खोना या अधूरा रहना।
- •रेफरेंस की समस्या: लीगल डॉक्यूमेंट्स जैसे में एक पेज पर दूसरे पेज का रेफरेंस होने पर भी उसे ठीक से हैंडल न कर पाना।
- •यूजर की क्वेरी पर निर्भरता: यदि यूजर की क्वेरी अस्पष्ट या ओरिजिनल डॉक्यूमेंट के कीवर्ड से मेल नहीं खाती है, तो रेलेवेंट चंक्स नहीं मिलते।
- •यह विधि वेक्टर एंबेडिंग का उपयोग नहीं करती है।
- •यह LLM की रीजनिंग क्षमताओं पर बहुत अधिक निर्भर करती है।
- •इसे पेज इंडेक्स के नाम से भी जाना जाता है।
- •वेक्टर या चंकिंग के बजाय, यह एक हायरार्किकल टेबल ऑफ कॉन्टेंट (TOC) ट्री बनाता है।
- •LLM का उपयोग करके डॉक्यूमेंट के स्ट्रक्चर (जैसे सीन हेडिंग्स, कैरेक्टर्स, एक्ट ब्रेक्स) को पहचाना जाता है।
- •यह ट्री डेटा स्ट्रक्चर (जैसे रूट, नोड्स, चाइल्ड नोड्स) के रूप में डॉक्यूमेंट की संरचना को दर्शाता है।
- •यूजर की क्वेरी का उपयोग करके LLM ट्री पर नेविगेट करता है (जैसे विड्थ-फर्स्ट ट्रैवर्सल)।
- •यह रेलेवेंट नोड्स को उनकी समरी या आईडी के आधार पर पहचानता है।
- •पहचानी गई नोड्स से ओरिजिनल डॉक्यूमेंट के चंक्स को फेच किया जाता है और LLM को फाइनल आंसर जनरेट करने के लिए दिया जाता है।
- •फायदे: चंकिंग की समस्याओं से बचाव, रेफरेंस हैंडलिंग में सुधार, और LLM की रीजनिंग पर आधारित अधिक सटीक रिट्रीवल।
- •नुकसान: रीजनिंग मॉडल महंगे हो सकते हैं और ट्री ट्रैवर्सल के कारण स्पीड थोड़ी कम हो सकती है (सटीकता के लिए समय का ट्रेड-ऑफ)।
- •यह इंसानों के पढ़ने के तरीके से प्रेरित है।
Key Takeaways
- 1पारंपरिक RAG में चंकिंग और वेक्टर सिमिलरिटी सर्च की अपनी सीमाएँ हैं, जो कॉन्टेक्स्ट लॉस और गलत रिट्रीवल का कारण बन सकती हैं।
- 2वेक्टरलेस RAG (पेज इंडेक्स) वेक्टर एंबेडिंग के बिना LLM की रीजनिंग का उपयोग करके डॉक्यूमेंट्स को इंडेक्स और रिट्रीव करता है।
- 3पेज इंडेक्स डॉक्यूमेंट की एक हायरार्किकल ट्री संरचना बनाता है, जो इंसानों के पढ़ने के तरीके से प्रेरित है।
- 4यह विधि लीगल डॉक्यूमेंट्स या जटिल संरचना वाले टेक्स्ट के लिए विशेष रूप से उपयोगी हो सकती है जहाँ रेफरेंस और स्ट्रक्चर महत्वपूर्ण होते हैं।
- 5वेक्टरलेस RAG में सटीकता बढ़ाने के लिए समय और लागत का ट्रेड-ऑफ हो सकता है।
- 6LLM की बढ़ती रीजनिंग क्षमताएं वेक्टरलेस RAG जैसी नई तकनीकों को संभव बना रही हैं।
- 7यह तकनीक डॉक्यूमेंट रिट्रीवल के लिए एक नया और शक्तिशाली दृष्टिकोण प्रदान करती है।