Intervista e serisë AI 8: Çfarë është RAG? Pse u mendua për projektin RAG?
Çfarë është RAG?
RAG qëndron për Retrieval-Augmented Generation, në shqip Gjenerim i Përforcuar nga Kërkimi.
Thjesht, është një teknologji që i jep modelit të madh gjuhësor "një libër referimi që mund ta hapë në çdo kohë".
Mendoni modelin e madh gjuhësor si një "nxënës super të shkëlqyer" me memorie të jashtëzakonshme dhe njohuri të gjëra. Por ky nxënës ka dy "defekte" të natyrshme:
- Data e skadimit të njohurive: Njohuritë e tij përfundojnë në datën e trajnimit. Ai nuk di asgjë për ngjarjet pas vitit 2023.
- Mund të "shpikë": Kur ndeshet me një pyetje që nuk e di, ai nuk thotë "Nuk e di", por "shpik" një përgjigje që tingëllon e arsyeshme (kjo është halucinacioni i AI).
RAG vjen për të zgjidhur këto dy probleme. Puna e tij është e thjeshtë, në tre hapa:
- Kërkim: Kur ju bëni një pyetje, sistemi shkon në një "bazë njohurish të jashtme" (siç janë të gjithë dokumentet e kompanisë suaj, Wikipedia më e re, ose një grup ligjesh) dhe kërkon shpejt pjesët më relevante. Kjo është si të kërkoni në libra për pyetjen.
- Përforcim: Sistemi paketon "pyetjen tuaj" dhe "paragrafët e gjetur" së bashku, duke formuar një nxitje të përforcuar. Kjo është si t'i jepni nxënësit një material referimi.
- Gjenerim: Modeli i madh gjuhësor gjeneron përgjigjen përfundimtare bazuar në këtë nxitje të përforcuar. Ai nuk mbështetet më vetëm në njohuritë e vjetra në "kujtesën" e tij, por referohet kryesisht në "materialin referues" që keni dhënë. Kjo është si nxënësi që përgjigjet duke parë librin, jo duke imagjinuar.
Një analogji e thjeshtë:
- LLM tradicional: "Si ta riparoj biçikletën time model XX?" → Modeli përgjigjet nga kujtesa, mund të jetë i vjetëruar ose i gabuar.
- RAG: "Si ta riparoj biçikletën time model XX?" → Kërkon fillimisht manualin më të ri zyrtar të riparimit → Pastaj gjeneron: "Sipas manualit të riparimit 2024, kapitulli 3, duhet së pari..."
Pse u mendua për projektin RAG?
Projekti RAG bëhet në thelb për të shfrytëzuar pikat e forta dhe për të shmangur dobësitë, duke çliruar potencialin e vërtetë të modeleve të mëdha gjuhësore. Ka disa shtysa kryesore:
- Zgjidhja e problemeve të "njohurive të vjetëruara" dhe "halucinacioneve"
- Motivimi: Të bëjmë LLM të përgjigjet për ngjarjet më të fundit, të dhënat e brendshme, dokumentet private, duke siguruar që përgjigjet janë të verifikueshme.
-
Vlera: Një sistem mjekësor që përdor RAG mund të citojë revista mjekësore të fundit për të përgjigjur "simptomat e variantit më të ri të COVID-19", në vend të informacioneve të vjetruara të vitit 2021, dhe të bashkëngjitë burimet, duke ulur rrezikun e "gënjeshtrës".
-
Lejimi i AI të përpunojë "të dhëna private", duke garantuar sigurinë
- Motivimi: Çdo kompani ka bazën e vet të njohurive (kontrata, kod, shënime të shërbimit ndaj klientit, etj.). Këto të dhëna nuk mund të përdoren për të ri-trajnuar ose përshtatur modelin (kosto e lartë, vështirësi teknike, rrezik rrjedhje të dhënash).
-
Vlera: Përmes RAG, ju mund të ndërtoni një "asistent pyetjesh" të brendshëm për kompaninë. Kur punonjësit pyesin, AI kërkon informacionin përkatës nga dokumentet private të brendshme dhe përgjigjet. Të dhënat private mbeten gjithmonë brenda kompanisë, nuk dërgohen te prodhuesi i modelit për trajnim, duke shfrytëzuar aftësinë kuptuese të LLM dhe duke garantuar sigurinë e të dhënave.
-
Ulja e kostove, rritja e efikasitetit
- Motivimi: Ri-trajnimi ose përshtatja e një modeli të madh për të absorbuar njohuri të reja është si të mësosh përsëri të gjithë bibliotekën, duke kërkuar kosto të mëdha llogaritëse.
-
Vlera: RAG pothuajse nuk kërkon trajnim, vetëm ndërtimin e një sistemi kërkimi. Kostoja mund të jetë 1% ose edhe më e ulët e përshtatjes. Për më tepër, kur baza e njohurive përditësohet, rezultatet e kërkimit përditësohen automatikisht, pa nevojën e ri-trajnimit të modelit, duke arritur "përditësim në kohë reale".
-
Bërja e AI të dijë "diçka di, diçka nuk di"
- Motivimi: Dëshirojmë që modeli të ketë një ndërgjegje të qartë për kufijtë e njohurive të tij.
- Vlera: Sistemi RAG mund të vendosë një rregull: nëse nuk gjenden dokumente përkatëse, përgjigjuni drejtpërdrejt "Më vjen keq, nuk gjeta informacion përkatës në bazën e njohurive. Ju lutemi konfirmoni pyetjen." Ky mekanizëm i "dështimit të citimit" e bën funksionimin e AI më të besueshëm dhe transparent.
Përmbledhje:
Projekti RAG u konceptua sepse duam si aftësinë e fuqishme të kuptimit dhe gjenerimit të modeleve të mëdha gjuhësore, ashtu edhe t'i bëjmë ato të ndershme, të besueshme, në hap me kohën dhe të kuptojnë biznesin privat. Është si t'i vendosësh një timon të saktë dhe një hartë navigimi në kohë reale (sistemi i kërkimit) një motori super (LLM), dhe është një nga rrugët më efektive dhe më të zakonshme për të sjellë LLM në fusha serioze si biznesi, mjekësia, ligji, financa, etj.
评论
暂无已展示的评论。
发表评论(匿名)