Ink & Signal logoSignal & Soul

Psychology, philosophy, romance, poetry, and AI under one personal roof.

HomeTopicsAbout
PsychologyPhilosophyRomancePoetryAI Systems
Back

အန်ကယ် , စစ်နဲ့ငြိမ်းချမ်းရေး , LLM နဲ့ RAG Chatbot တွေ .

Mentorship နဲ့ AI engineering ဆိုတာ ထင်ထားတာထက် ပိုတူပါတယ်။ ဆရာတစ်ယောက်က တပည့်ကို လိုအပ်တဲ့ နောက်ခံဗဟုသုတတွေ ဖြည့်ဆည်းပေးသလိုမျိုးပဲ၊ RAG system ဆိုတာလည်း model အတွက် လိုအပ်တဲ့ အချက်အလက်တွေကို အချိန်ကိုက် ထောက်ပံ့ပေးရတာပါ။ သိသမျှအကုန် ပြောပြဖို့ထက် ဘယ်အရာက အခုလက်ရှိအတွက် အရေးကြီးသလဲဆိုတာ သိဖို့က ပိုအရေးကြီးပါတယ်။

၂၀၂၆ ဖေဖော်ဝါရီ ၅3 မိနစ် ဖတ်ရန်
RAGAIUncleLife
war and peace

အန်ကယ်၊ စစ်နဲ့ငြိမ်းချမ်းရေး၊ LLM နဲ့ RAG Chatbot တွေ။

အသက် ၁၈ နှစ်လောက်တုန်းက ကျွန်တော့်ကို အန်ကယ် (ကျွန်တော့်ရဲ့ Mentor) က War and Peace စာအုပ်ကို ပိုက်ဆံပေးပြီး ဖတ်ခိုင်းခဲ့တယ်။ သူက English လို မဖတ်တတ်လို့လည်းမဟုတ်သလို၊ မဖတ်ဖူးလို့လည်း မဟုတ်ပါဘူး။ ဒီစာအုပ်ကို ဖတ်ပြီး ကျွန်တော် ဘယ်လိုကောက်ချက်ချမလဲဆိုတာကို သိချင်ရုံသက်သက်ပါ။

တခါတလေ စာပိုဒ်တစ်ပိုဒ်ဖတ်ပြီးတိုင်း၊ ဥပမာပေးတဲ့ စာကြောင်းတွေ ပါလာတိုင်း ကျွန်တော့်ကို မေးခွန်းတွေ မေးတယ်။ ‘ဒီနားလေးကို တခေါက်ပြန်ဖတ်ကြည့်ဦး။ Tolstoy ရေးထားတဲ့ လွတ်မြောက်ခြင်းဆိုတာ ဘာကိုပြောချင်တာ ဖြစ်မလဲ’

ကျွန်တော် မဖြေနိုင်ဘူး။ စာထဲမှာရေးထားတဲ့ ဥပမာတွေကိုလည်း နားမလည်တော့ ဖြေမိဖြေရာ ဖြေတာပေါ့။ အဲ့ဒီမှာ အမှားတွေ ပါလာရော။ အဲ့ဒီအချိန်မှာ အန်ကယ်က နောက်ခံသမိုင်းကြောင်းတွေကို ပြောပြတယ်။ သမိုင်းကြောင်းတွေ၊ Philosophy တွေ၊ သူ့ရဲ့ Professional ဘဝနဲ့ ရပ်တည်ခဲ့တဲ့ အတွေ့အကြုံတွေကို ပြောပြတယ်။ အဲ့ဒါတွေကို နားထောင်ပြီးမှ ကျွန်တော် နောက်တခေါက် ထပ်ဖတ်ပြီး ဖြေကြည့်တယ်။ အဲ့ဒီအခါ အများကြီး ပိုနားလည်သွားသလို ကျွန်တော့်ရဲ့ အဖြေတွေကလည်း အဆင်ပြေလာခဲ့တယ်။

RAG (Retrieval-Augmented Generation) ရဲ့ အလုပ်လုပ်ပုံကလည်း ဒီလိုပါပဲ။

LLM တွေက မေးခွန်းတစ်ခု မေးလာတဲ့အခါ သူ့ရဲ့ ရှိပြီးသား Knowledge ကိုပဲ သုံးပြီးဖြေမယ်ဆိုရင် မတိကျတာတွေ၊ မမှန်တာတွေ အများကြီးရှိနိုင်တယ်။ User မေးလိုက်တဲ့ မေးခွန်းနဲ့ ဆက်စပ်တဲ့ အကြောင်းအရာတွေကို အပြင်ကနေ ဆွဲထုတ်ပြီး ဖြည့်စွက်ပေးမှသာ အဆင်ပြေမှာပါ။

ဒါပေမယ့် Context တွေကို Embedding Database ထဲကပဲ ဆွဲထုတ်လိုက်ရုံနဲ့လည်း မရပြန်ဘူး။ User တွေ မေးလိုက်တဲ့ မေးခွန်းတွေဟာ နားလည်ရလွယ်ပြီး ပြည့်စုံနေတယ်လို့ အမြဲတမ်း ယူဆလို့မရဘူး။ User တွေကို ဘယ်တော့မှ "မေးခွန်းသေချာမေးလိမ့်မယ်" လို့ ယုံကြည်လို့မရဘူး။ ဒီမှာ ကျွန်တော်တို့က Chat History ထဲက ဆက်စပ်တာတွေကို Context အနေနဲ့ ထပ်ပြီး ထည့်ပေးရပြန်တယ်။

History တစ်ခုလုံး၊ Conversation အားလုံးကို ပစ်ထည့်လိုက်ရင်လည်း Model အနေနဲ့ မတူတဲ့ Topic တွေကို ပိုပြီး Confuse ဖြစ်သွားပြန်ရော။ ဒီတော့ လိုအပ်တဲ့ Guard တွေ၊ Topic Switch Flag စတာတွေကို သုံးပြီး Context ကို မေးခွန်းနဲ့ သက်ဆိုင်အောင် လုပ်ပေးရပြန်တယ်။

အန်ကယ်က ကျွန်တော့်ရဲ့ RAG System ပါပဲ။ ကျွန်တော်က LLM ဆိုရင် အန်ကယ်က Retrieval Layer တစ်ခုအနေနဲ့ ကျွန်တော့်ကို ကူညီပေးခဲ့တာ။ သူသိသမျှ Knowledge တွေ အကုန်လုံးကို ကျွန်တော့်ကို ပုံအောပြီး ပြောပြလိုက်တာမျိုး မဟုတ်ဘူး။ War and Peace ဆိုလို့ စစ်နဲ့ပတ်သက်တာတွေ အကုန်လုံးကို ပြောပြလိုက်တာမျိုး မဟုတ်ဘူး။ ကျွန်တော် ဖတ်နေတဲ့ စာပိုဒ်နဲ့ အကိုက်ညီဆုံး၊ အသက်ဆိုင်ဆုံး အရာတွေကိုပဲ Context အနေနဲ့ ကျွန်တော့်ဆီ ထည့်ပေးလိုက်တာပါ။

အဲ့တော့ ဆိုလိုရင်းက— RAG Chatbot တွေကို တည်ဆောက်ကြတဲ့အခါ Retrieval အပိုင်းကို အာရုံစိုက်ကြတယ်။ ဟုတ်တယ်၊ စိုက်လည်း စိုက်ရမှာပေါ့။

  • ပိုကောင်းတဲ့ Embedding Model
  • ပိုမြန်တဲ့ Vector Search
  • ပိုတိကျတဲ့ Chunk ခွဲနည်းတွေ...

ဒါပေမယ့် အန်ကယ့်ကိုပဲ ကျွန်တော် တွေးမိနေတယ်။ ကျွန်တော့်ရဲ့ စာဖတ်တဲ့ပုံစံ၊ ကျွန်တော် နားလည်ပြီးသားအရာတွေ၊ သက်ဆိုင်တဲ့ အကြောင်းအရာတွေ... ဒါတွေကို ကြည့်ပြီးပဲ အန်ကယ်က ကျွန်တော့်ကို ပြောပြပေးခဲ့တာ။

"The retrieval doesn't matter if you don't know WHAT to retrieve and provide bad context."

Context ဆိုတာ Retrieval အပိုင်းမှာ အရေးကြီးဆုံးအရာ တစ်ခုဖြစ်တယ်။ ကျွန်တော့်ကို LLM Model တစ်ခုလို့ ယူဆရင်၊ အဲ့ဒီအချိန်တုန်းက ကျွန်တော်မှမဟုတ်ဘူး Genius Level ရှိတဲ့သူကိုတောင် ဘာ Context မှမပါဘဲ၊ ဒါမှမဟုတ် မလိုတဲ့ Context တွေ တသီတတန်းကြီး ထည့်ပေးလိုက်ရင်လည်း သူလည်း ဖြေနိုင်မှာ မဟုတ်ဘူးမလား။

အန်ကယ်နဲ့ ရှိခဲ့တဲ့အချိန်တွေက ဒီအကြောင်းကို ပိုနားလည်စေခဲ့တယ်လို့ ပြောရင် အန်ကယ် ပြုံးပဲနေမလား မသိဘူး။

  1. Model နဲ့ လိုအပ်ချက်တွေက ဘာလဲဆိုတာကို နားလည်ရမယ်။
  2. သက်ဆိုင်တဲ့ Context ကို စနစ်တကျ ထည့်ပေးရမယ်။
  3. Model အနေနဲ့ ဒီ Context ကို နားလည်စေရမယ်။

ဒါဟာ RAG ပဲ။ ဒါဟာ သင်ကြားပြသခြင်း (Teaching) ပဲ။ ဒါဟာ ကျွန်တော့်ရဲ့ အန်ကယ်ပါပဲ။