AI က ပြောတိုင်း ယုံကြည့်သင့်သလား
အချက်အလက်ကို ပြောနေတာ မဟုတ်ဘဲ ‘ယူဆချက်’ ‘ကောက်ယူချက်’ ‘ဆုံးဖြတ်ချက်’ တွေကိုပဲ ပြောနေတယ်ဆိုတာ သတိချပ်စေချင်ပါတယ်။
တခုခုဆိုရင် ChatGPT ကိုမေးလိုက်တာ၊ AI ကိုမေးလိုက်တာဆိုတာ ခုနောက်ပိုင်း အတော်အတွေ့များတယ်။ ကျနော်လည်း သုံးပါတယ်။ ChatGPT ရော၊ Perplexity ရော၊ Claude ရော ၃ မျိုးကို နေ့စဉ် သုံးပါတယ်။ သူ့နေရာနဲ့သူ သုံးတာပါ။ ၃ ခုလုံး Pro Version သုံးတာပါ။
ဝိုင်ဖိုင်ကုမ္ပဏီတခု (Movistar) ကို သုံးတော့ Perplexity နဲ့ ChatGPT ကို Pro ဗားရှင်း အခမဲ့ပေးသုံးတယ်။ Claude ကိုတော့ Subscribe လုပ်ပြီး သုံးပါတယ်။
စကားအပြောအဆို အသုံးအနှုန်း ချောမွေ့ချင်တာ၊ ခပ်ပြင်းပြင်းပြောချင်တာ ဆွဲဆောင်ပြောချင်တာ အထူးသဖြင့် အီးမေးရေးတဲ့ အချိန်မျိုးတွေမှာ ChatGPT သုံးပါတယ်။ Conversational အတွက် သုံးတာများပါတယ်။ ChatGPT က ဘာနဲ့တူလဲဆိုတော့ တော်ကီကောင်းတဲ့လူနဲ့ တူပါတယ်။ ဒါကြောင့်ရွှီးလည်း ရွှီးတတ်ပါတယ်။
Claude ကတော့ သုတေသနလုပ်ရင် ဥပမာ စစ်တမ်းတွေ၊ ဆောင်းပါးအရှည်ကြီးတွေ၊ ထုတ်ပြန်ချက်တွေ၊ ဖိုင်အရှုပ်အထွေးတွေ (ဥပမာ Epstein files လို၊ CSIS ထုတ်ပြန်ချက်တွေလို) မျိုးကို ပြန်ရှင်းပြခိုင်းတာမျိုး၊ ထုတ်နုတ်ခိုင်းတာမျိုးမှာ သုံးပါတယ်။ ရှုပ်ထွေးတဲ့ ဂရပ်တွေ၊ မြေပုံတွေလိုမျိုး၊ ကိန်းဂဏန်း အချက်အလက်တွေကို ပြန်ရှင်းခိုင်းတာမျိုးမှာ သုံးပါတယ်။
Perplexity ကိုတော့ နောက်ဆုံးရအချက်အလက်နဲ့ Fact-Check လုပ်တာမျိုးမှာ သုံးပါတယ်။ သူက ရည်ညွှန်းချက် (citation) ကောင်းတယ်။ ဗွီဒီယိုတွေ ရှာခိုင်းတာ၊ Reference တွေ ရှာခိုင်းတာမျိုးလည်း အတော်ကောင်းတယ်။
ဒါပေမဲ့ ဘယ် AI ကိုမှ ‘ဆုံးဖြတ်ချက် ချခိုင်းတာမျိုး’ ကျနော် မခိုင်းပါဘူး။ ဥပမာ ဟောမုဇ် ရေလက်ကြားကို အမေရိကန်တွေ ဝင်မသိမ်းတာဘာကြောင့်လဲလို့ မေးရင် ‘ဝင်မသိမ်းတာ မဟုတ်ဘူး၊ မသိမ်းချင်လို့ပါ’ ဆိုတာမျိုး သူထင်ရာ ကောက်ချက်ဆွဲပြောပါတော့တယ်။
ဒါ့အပြင် လူတယောက်က အီးမေးတစောင်ပို့လို့ ChatGPT ထဲထည့်ပြီး မေးလိုက်ရင် “သူက မင်းကို စိတ်ဆိုးနေတာ၊ ဒီလို စာပြန်လိုက်” ဆိုတာမျိုး။ “ဒီစကားလုံးက မကျေနပ်တာကို ပြနေတာ။ သတိထားတော့” ဆိုတာမျိုး။ သူက ‘ယူဆပစ်တာ’ ‘ဆုံးဖြတ်ချက်ချပစ်တာ’ ဖြစ်ပါတယ်။ ဒါတွေက အင်မတန် အန္တရယ် များပါတယ်။
စိတ်ဓာတ်ကျနေသူတွေကို ကိုယ့်ဘာသာ အဆုံးစီရင်တာ ကောင်းတယ်ဆိုတဲ့ လမ်းကြောင်းမျိုးကို လမ်းညွှန်ပေးတတ်တာမျိုးဖြစ်ပါတယ်။
ဆီးရီးယားကနေ အာဆတ်ထွက်ပြေးပြီး နှစ်ပတ်နေတော့ ကျနော် ဆောင်းပါးတပုဒ်ရေးပါတယ်။ အဲ့ဒီမှာ အာဆတ်ထွက်ပြေးတဲ့နေ့ကို ရုတ်တရက် မေ့နေတော့ “အာဆတ်က ဘယ်နေ့က တိုင်းပြည်က ထွက်ပြေးသွားတာလဲ” လို့ ChatGPT လွယ်လွယ်ပဲ မေးလိုက်မိတယ်။ ဘာပြန်ဖြေလဲဆိုတော့....
“မထွက်ပြေးပါဘူး၊ ရှိပါတယ်၊ သတင်းမှားတွေပါ” တဲ့။ ဒါနဲ့ New York Times, CNN, BBC, Guardian သတင်း Link တွေ အကုန်ပို့ပြီးထပ်မေးတော့ “အဲ့ဒါ လက်ဝဲယိမ်းသတင်းဌာနတွေက သတင်းမှားတွေ ရေးနေတာ” ထပ်လုပ်ရော။ တခါ FOX News တို့၊ GN တို့ Britannica နဲ့ Wikipedia ပါ ထပ်ထည့်မေးတော့မှ “ဟုတ်တယ်၊ အာဆတ်တို့ ထွက်ပြေးသွားပြီ၊ ငါရှော်သွားတာ တောင်းပန်ပါတယ်” ဆိုပြီး ပြန်ပြောတယ်။
တပြိုင်နက်တည်း စမ်းချင်တာနဲ့ အာဆတ်ကိစ္စကိုပဲ Gemini ကိုမေးတော့ “ဒီသတင်းက အငြင်းပွါးစရာ နိုင်ငံရေးကိစ္စတွေမို့ မဖြေချင်ပါဘူး။ ကိုယ့်ဘာသာ Google မှာ ရှာလိုက်ပါ” တဲ့။
နောက်တခုက ရိုးရိုး Free ကိုသုံးတာနဲ့ ပိုက်ဆံပေးပြီး Pro ကိုသုံးတာနဲ့ အလုပ်လုပ်ပုံက ၆၀/၇၀ ရာခိုင်နှုန်းလောက်ကို ကွာပါတယ်။ Limit မပြည့်လည်းဘဲ အလုပ်လုပ်တာ Deep thinking လုပ်တာမှာ ပိုက်ဆံပေးတဲ့ ဗားရှင်းက ပိုအလုပ်လုပ်ပါတယ်။
ကျနော် တွေ့ရသလောက် ခု အင်တာနက်ကို သာမန်အသုံးပြုသူတွေက ChatGPT ကို ‘ဆုံးဖြတ်ချက်ချခိုင်းနေတာ’ တွေ့ရပါတယ်။ အထူးသဖြင့် ‘why’ ဘာကြောင့်လဲ ဆိုတာကို မေးကြတယ်။ ဖြေတာတွေကိုလည်း အတည်ကြီးယူပြီး ပြန်တင်ကြတယ်။ ကျနော့်အတွေ့အကြုံအရ AI တွေဟာ ‘ဆုံးဖြတ်ချက်ချနိုင်ဖို့’ စောလွန်းပါသေးတယ်။
နောက်တခုက မြန်မာလိုမေးပြီး မြန်မာလို ပြန်ဖြေတာတွေက အင်္ဂလိပ်လို မေးတာထက်ပိုပြီး တိကျသေချာမှု အားနည်းပါတယ်။ အရေးအကြီးဆုံး တခုရှိပါသေးတယ်။ အဲ့ဒါက ကိုယ်သုံးတဲ့ AI ဆိုတာ ကိုယ်မေးတာတွေကို မှတ်ထားပြီး အလုပ်လုပ်ပါတယ်၊ ဒါကြောင့် ကိုယ့်အကြိုက်ကို သိတာကြောင့် ကိုယ်မကြိုက်တာတွေကို ဖော့ပြော၊ ကြိုက်တာကို အသားပေးပြီး ပြန်ပြောလေ့ရှိပါတယ်။
အစ္စရေး၊ ပါလက်စတိုင်း၊ အမေရိကန်၊ တရုတ်၊ မြန်မာ၊ စစ်အာဏာရှင်၊ အီရန်၊ ရုရှကနေ ဗုဒ္ဓဘာသာ၊ ခရစ်ယာန်၊ အစ္စလာမ်ထိ ကိုယ်တိမ်းညွတ်ရာကို ကိုယ်သုံးတဲ့ AI တွေက မှတ်ထားပါတယ်။
ခုနောက်ပိုင်း ကြောက်စရာကောင်းတာက လူတွေက AI က ဒီလိုပြောတယ်ဆိုပြီး ‘ကြားက သမာသမတ်ကျတဲ့ ပညာရှင် တယောက်လို’ ပြောဆိုနေကြတဲ့ကိစ္စပါ။ AI အဖြေ အများစုဟာ ပုဂ္ဂိုလ်စွဲပြီး ပေးနေတာ ဖြစ်ပါတယ်။ ပါလက်စတိုင်းအရေးကို မွတ်ဆလင်တယောက်ရဲ့ AI ကပေးတဲ့ အဖြေနဲ့ ထရမ့်ထောက်ခံသူ ခရစ်ယာန်တယောက်ရဲ့ AI ကပေးတဲ့ အဖြေ မတူနိုင်ပါဘူး။
ဒီနေရာမှာ အချက်အလက်ကို ပြောနေတာ မဟုတ်ဘဲ ‘ယူဆချက်’ ‘ကောက်ယူချက်’ ‘ဆုံးဖြတ်ချက်’ တွေကိုပဲ ပြောနေတယ်ဆိုတာ သတိချပ်စေချင်ပါတယ်။
လူနဲ့ AI နဲ့ ကွာတာဟာလည်း အဲ့ဒါပါပဲ။ ဆုံးဖြတ်ချက်ချတဲ့နေရာမှာ ကွာခြားသွားတာပါ။ အချက်အလက်အပေါ် အခြေခံတာ မှန်ပေမဲ့ လူဆိုတာက ကိုယ်ချင်းစာစိတ်၊ ခံစားသိစိတ်၊ အတွေ့အကြုံ တို့အပေါ် အခြေခံပြီး ဆုံးဖြတ်တာ ဖြစ်ပါတယ်။ ခုချိန်ထိပေါ့လေ။ ကြာလာရင်တော့ AI တွေလည်း ခံစားတတ်လာတာ၊ ကိုယ်ချင်းစာတတ်လာတာမျိုး ဖြစ်မလာနိုင်ဘူး ဘယ်ပြောနိုင်ပါ့မလဲ။


