bap-logo
digital media literacy

အခမဲ့ AI တွေရဲ့ နောက်ကွယ်က အန္တရာယ် (Risks of Free AI)

Bnnbd1rV97xJ1keNMXcfu-image

လွန်ခဲ့သော တစ်လ က

(ဒစ်ဂျစ်တယ်နှင့် မီဒီယာ နားလည်ကျွမ်းဝင်မှု အစီအစဥ်)

BAP၊ ဇန်နဝါရီ ၁၇။

အခုခေတ်မှာ အခမဲ့သုံးလို့ရတဲ့ AI ဟာ နေ့စဉ်ဘဝရဲ့ အစိတ်အပိုင်းတစ်ခု ဖြစ်လာပါပြီ။ လူတွေဟာ စာရေးဖို့၊ ဓာတ်ပုံပြင်ဖို့၊ ဗီဒီယိုဖန်တီးဖို့၊ ဘာသာပြန်ဖို့ ဒါမှမဟုတ် မေးခွန်းတွေမေးဖို့အတွက် AI ကို အသုံးပြုကြပါတယ်။ 

 

AI ဟာ အသုံးတည့်ပြီး အန္တရာယ်ကင်းတယ်လို့ ထင်ရပေမဲ့ "အခမဲ့ဆိုတဲ့ AI တွေရဲ့နောက်မှာ အသုံးပြု သူအတော်များများ သတိမထားမိတဲ့ အန္တရာယ်တွေ ရှိနေပါတယ်။ ဒီအန္တရာယ်တွေကို နားလည်ပြီး ဘယ်လိုလျှော့ချမလဲဆိုတာကို သိရှိဖို့ လိုအပ်လာပါတယ်။

 

၂၀၂၃ ခုနှစ်က Bloomberg သတင်းတစ်ပုဒ်ရဲ့ ဖော်ပြချက်အရ Samsung Electronics ကုမ္ပဏီဟာ ဝန်ထမ်းတွေက အရေးကြီးတဲ့ ကုဒ် (code) တွေကို AI ပလက်ဖောင်းပေါ် တင်လိုက်တာကို စုံစမ်းသိရှိ ပြီးတဲ့နောက်မှာ ChatGPT လို လူသုံးများတဲ့ Generative AI ကိရိယာတွေကို အသုံးမပြုဖို့ ပိတ်ပင် လိုက်ပါတယ်။

 

တရုတ်နိုင်ငံဟာ မျက်နှာသွင်ပြင် မှတ်သားခြင်းစနစ်၊ ပြစ်မှုကျူးလွန်နိုင်ခြေကို ကြိုတင်ခန့်မှန်းတဲ့ ရဲလုပ်ငန်းသုံး ပလက်ဖောင်းတွေနဲ့ တခြားသော "စမတ်စီးတီး" (smart city) နည်းပညာတွေ အပါ အဝင် AI အခြေခံ စောင့်ကြည့်ထောက်လှမ်းရေးစနစ်တွေကို ကမ္ဘာအနှံ့ တင်ပို့နေတဲ့ အဓိကနိုင်ငံကြီး ဖြစ်ပါတယ်

 

Baidu’s Ernie DeepSeek နဲ့ တခြား တရုတ်နိုင်ငံရဲ့ အခမဲ့ AI model တွေနဲ့ platform တွေဟာ တရုတ်နိုင်ငံရဲ့ နယ်နိမိတ်ပြင်ပမှာပါ အလွဲသုံးစားလုပ်တာ၊ လွှမ်းမိုးချုပ်ကိုင်တာ ဒါမှမဟုတ် တရုတ်အစိုးရရဲ့ အလိုကျ ဝါဒဖြန့်ချိရေး ဇာတ်လမ်းတွေကို ပုံဖော်တာတွေမှာ အသုံးပြုနေတယ်ဆိုတဲ့ ခိုင်လုံတဲ့ အထောက်အထားတွေ ရှိနေပါတယ်။

 

တရုတ်နိုင်ငံဟာ မျက်နှာသွင်ပြင် မှတ်သားခြင်းစနစ်၊ ပြစ်မှုကျူးလွန်နိုင်ခြေကို ကြိုတင်ခန့်မှန်းတဲ့ ရဲလုပ်ငန်းသုံး ပလက်ဖောင်းတွေနဲ့ တခြားသော "စမတ်စီးတီး" (smart city) နည်းပညာတွေ အပါ အဝင် AI အခြေခံ စောင့်ကြည့်ထောက်လှမ်းရေးစနစ်တွေကို ကမ္ဘာအနှံ့ တင်ပို့နေတဲ့ အဓိကနိုင်ငံကြီး ဖြစ်ပါတယ်။

 

၂၀၂၂ ခုနှစ် Guardian ရဲ့ သတင်းတင်ပြချက်အရ Clearview AI ဟာ လူမှုကွန်ရက်စာမျက်နှာ တွေပေါ်ကနေ ဓာတ်ပုံပေါင်း ဘီလီယံနဲ့ချီပြီး ကာယကံရှင်ရဲ့ သဘောတူညီချက်မပါဘဲ ခိုးယူစုဆောင်း ခဲ့ပါတယ်။ ပြီးတော့ အဲ့ဒီပုံတွေကို အသုံးပြုပြီး မျက်နှာသွင်ပြင်မှတ်မိခြင်းဆိုင်ရာ နည်းပညာ (facial-recognition tools) တွေအဖြစ် ဖန်တီးကာ ရဲတပ်ဖွဲ့နဲ့ ဥပဒေစိုးမိုးရေး အဖွဲ့အစည်းတွေဆီ ပြန်လည်ရောင်းချခဲ့ပါတယ်။

 

Guardian သတင်းဌာနရဲ့ စုံစမ်းစစ်ဆေးမှုအရ Google ရဲ့ AI summaries (အလိုအလျောက် အနှစ်ချုပ် ဖော်ပြချက်တွေမှာ မှားယွင်းပြီး လမ်းမှားရောက်စေနိုင်တဲ့ ကျန်းမာရေးဆိုင်ရာ အချက်အလက်တွေ ပါဝင်နေတာကြောင့် လူတွေအတွက် အန္တရာယ်ဖြစ်စေနိုင်တဲ့ အခြေအနေမှာ ရှိနေတယ်လို့ ၂၀၂၆ ခုနှစ် ဇန်နဝါရီလ ၂ ရက်နေ့က ဖော်ပြထားပါတယ်။

 

ပထမဆုံးအနေနဲ့ အချက်အလက်ဆိုင်ရာ လုံခြုံရေးအကြောင်း ပြောရရင် အခမဲ့ AI အတော်များများဟာ သင်ရိုက်ထည့်လိုက်တဲ့အရာ၊ တင်လိုက်တဲ့အရာ ဒါမှမဟုတ် ပြောလိုက်တဲ့အရာတွေကို စုဆောင်း ထားတတ်ပါတယ်။ ဒီအချက်အလက်တွေကို နောင်တစ်ချိန်မှာ AI စနစ်တွေကို လေ့ကျင့်ပေးဖို့အတွက် သိမ်းဆည်းတာ ဒါမှမဟုတ် ခွဲခြမ်းစိတ်ဖြာတာမျိုးတွေ လုပ်နိုင်ပါတယ်။ ဒါကြောင့် ကိုယ့်ကိုယ်ကိုယ် ကာကွယ်ဖို့အတွက် စကားဝှက်တွေ၊ မှတ်ပုံတင်နံပါတ်တွေ၊ ငွေရေးကြေးရေး အချက်အလက်တွေနဲ့ အရေးကြီးတဲ့ ပုဂ္ဂိုလ်ရေးဆိုင်ရာတွေကို ဒီ AI တွေထဲ ဘယ်တော့မှ မထည့်သင့်ပါဘူး။

 

နောက်တစ်ခုကတော့ မှားယွင်းတဲ့ သတင်းအချက်အလက်တွေ ဖြစ်ပါတယ်။ AI ဟာ လူတွေလို အချက်အလက်တွေကို နားလည်တာမဟုတ်ဘဲ ပုံစံတူတွေကို ခန့်မှန်းပြီး ဖြေကြားတာဖြစ်တဲ့အတွက် ယုံကြည်မှုအပြည့်နဲ့ မှားယွင်းတဲ့အဖြေတွေကို ပေးတတ်ပါတယ်။ ဒါကြောင့် AI ရဲ့ အဖြေတွေကို နောက်ဆုံးအတည်ပြုချက်အဖြစ် မယူဆဘဲ တခြားခိုင်လုံတဲ့ အရင်းအမြစ်တွေနဲ့ ပြန်လည်စစ်ဆေးဖို့ လိုပါတယ်။ အထူးသဖြင့် ဆေးဘက်ဆိုင်ရာ ဒါမှမဟုတ် ဥပဒေရေးရာ ဆုံးဖြတ်ချက်တွေ အတွက် AI တစ်ခုတည်းကိုပဲ အားမကိုးသင့်ပါဘူး။

 

၀၂၅ ခုနှစ်က အစ္စရေးစစ်တပ်က AI စနစ်တစ်ခုဖန်တီးပြီး ဆက်သွယ် ရေး ကြားဖြတ်မှုတွေ လုပ်ခဲ့တယ်လို့ The Guardian က ဖော်ပြထားပါတယ်

 

AI ထဲမှာ ပါဝင်နေတဲ့ ဘက်လိုက်မှုနဲ့ ခွဲခြားဆက်ဆံမှုတွေကလည်း နောက်ထပ် စိုးရိမ်စရာ တစ်ခုပါ။ AI စနစ်တွေဟာ ရှိပြီးသား အချက်အလက်တွေပေါ်မှာ အခြေခံပြီး လေ့လာတာဖြစ်လို့ လူ့အဖွဲ့အစည်းမှာရှိတဲ့ မညီမျှမှုတွေက AI ထဲကို ပါလာတတ်ပါတယ်။

 

ဥပမာ ဝန်ထမ်းခေါ်ယူရေးစနစ်တွေနဲ့ မျက်နှာပြင် သိရှိမှတ်သားတဲ့ စနစ်တွေမှာ အမျိုးသမီးတွေနဲ့ အသားအရောင် ရင့်သူတွေအပေါ် မှားယွင်းပြီး မတရားတဲ့ ဆုံးဖြတ်ချက်တွေ ပေးတာမျိုးတွေ ရှိခဲ့ပါ တယ်။ ဒါကြောင့် လူတွေရဲ့ ဘဝအပေါ် သက်ရောက်မှုရှိတဲ့ ဆုံးဖြတ်ချက်တွေမှာ AI ကို အသုံးပြုတဲ့အခါ သတိထားဖို့ လိုသလို လူသားတွေရဲ့ ကြီးကြပ်မှုကိုလည်း အမြဲတမ်း ရှိနေစေသင့်ပါတယ်။

 

ဒစ်ဂျစ်တယ်နည်းပညာနဲ့ လိမ်လည်လှည့်ဖြားတဲ့ Deepfakes ကိစ္စတွေကလည်း ပိုပြီး လွယ်ကူလာ ပါတယ်။ အခမဲ့ AI တွေကို သုံးပြီး လူတစ်ယောက်ရဲ့ ပုံရိပ်၊ ဗီဒီယိုနဲ့ အသံတွေကို အစစ်နဲ့ ခွဲမရအောင် ဖန်တီးလာနိုင်ပါတယ်။ ဒါတွေကို နိုင်ငံရေးသမားတွေကို ပုံဖျက်ဖို့ ဒါမှမဟုတ် ငွေကြေးလိမ်လည် ဖို့အတွက် အသုံးပြုလာကြတဲ့အတွက် အွန်လိုင်းမှာ မြင်သမျှ ကြားသမျှကို အလွယ်တကူ မယုံကြည်ဖို့နဲ့ အရင်းအမြစ်တွေကို သေချာစစ်ဆေးဖို့ လိုအပ်ပါတယ်။

 

ဒါ့အပြင် AI ကို အသုံးပြုပြီး စောင့်ကြည့်ထောက်လှမ်းတာတွေနဲ့ ပုဂ္ဂိုလ်ရေး လွတ်လပ်ခွင့် ဆုံးရှုံး တာတွေလည်း ရှိလာနိုင်ပါတယ်။ ၂၀၂၅ ခုနှစ်က အစ္စရေးစစ်တပ်က AI စနစ်တစ်ခုဖန်တီးပြီး ဆက်သွယ် ရေး ကြားဖြတ်မှုတွေ လုပ်ခဲ့တယ်လို့ The Guardian က ဖော်ပြထားပါတယ်။ နိုင်ငံအချို့မှာ AI ကို သုံးပြီး လူထုဆန္ဒပြပွဲတွေကို စောင့်ကြည့်တာ ဒါမှမဟုတ် တက်ကြွလှုပ်ရှားသူတွေကို ခြေရာခံတာ မျိုးတွေ လုပ်ဆောင်နေတာကြောင့် ကိုယ့်ရဲ့ အချက်အလက်တွေကို မလိုအပ်ဘဲ ဝေမျှတာမျိုးတွေကို ဆင်ခြင်သင့်ပါတယ်။

 

နောက်ဆုံးအနေနဲ့ AI အပေါ် အလွန်အမင်း အားကိုးမိတာကလည်း အန္တရာယ်တစ်ခုပါပဲ။ အခမဲ့သုံးလို့ ရတဲ့ ကိရိယာတွေဟာ အချိန်မရွေး ပျောက်ကွယ်သွားနိုင်သလို စည်းကမ်းချက်တွေလည်း ပြောင်းလဲ သွားနိုင်တာကြောင့် လုပ်ငန်းခွင်မှာ AI တစ်ခုတည်းကိုပဲ ပုံအောပြီး အားကိုးမနေဖို့ အရေးကြီးပါတယ်။

 

AI ဝန်ဆောင်မှုတွေရဲ့ တာဝန်ယူမှု၊ တာဝန်ခံမှု

 

AI ဝန်ဆောင်မှုတွေရဲ့ တာဝန်ယူမှု၊ တာဝန်ခံမှုကို ဒီအချက်တွေနဲ့ တိုင်းတာ စစ်ဆေးပါ။

 

၁။ အသုံးပြုသူတွေရဲ့ ဘယ်လိုအချက်အလက်တွေကို ရယူ စုဆောင်းမှု ပြုမလဲ။ ဘယ်လောက် ကြာအောင် သိမ်းဆည်းထားမှာလဲ။ AI model တွေကို လေ့ကျင့်ရာမှာ အသုံးပြုမလား။ အသုံးပြုသူ တွေရဲ့ အချက်အလက်တွေကို ဘယ်သူတွေကို ပြန်ပြီး မျှဝေမှာလဲ။

၂။ ဘေးကင်းလုံခြုံမှု

 

အလိမ်အညာ၊ အမုန်းပွားမှု၊ ဆေးပညာဆိုင်ရာ အမှားအယွင်းတွေ စတာတွေပါဝင်တဲ့ AI ရလဒ်တွေကို လျော့ချပေးနိုင်တယ်လို့ တာဝန်ယူနိုင်လား။ အမှားအယွင်းတွေကြောင့် ထိခိုက်မှုတွေ ရှိလာရင် ဘယ်လိုတာဝန်ယူမလဲ။

 

၃။ မှန်ကန်တိကျမှုနှင့် အကန့်အသတ်များ

 

AI က မှားနိုင်တယ်ဆိုတာ ရှင်းရှင်းလင်းလင်း ဖော်ပြထားရဲ့လား။ ကျွမ်းကျင်ပညာရှင် လူသား တစ်ယောက်မဟုတ်ဘူးဆိုတာ ဖော်ပြထားရဲ့လား။ AI ရဲ့ ဆေးပညာ၊ ဥပ‌ဒေဆိုင်ရာ၊ အသက်တွေ၊ ဘဝ တွေနဲ့ သက်ဆိုင်တဲ့အရေးကြီးဆုံးဖြတ်ချက်တွေအပေါ်မှာ မှီခိုအားထားခြင်း မပြုဖို့ သတိပေးထား ရဲ့လား။

 

၄။ ဘက်လိုက်မှုကင်းရှင်းရေး

 

AI ကို အသားအရောင်၊ လိင်ခွဲခြားမှု၊ လူမျိုး၊ ဘာသာ စတာတွေအပေါ်ဘက်လိုက်မှု ကင်းအောင် စီစဥ်ထားသလား။

 

ခွဲခြားဆက်ဆံမှုတွေပါတဲ့ ရလဒ်တွေကို သတင်းပို့တိုင်ကြားနိုင်အောင် စီစဥ်ထားရဲ့လား။

 

၅။ အလွဲသုံးစားပြုမှု

 

AI ကို အသုံးပြုပြီး Deepfake၊ အယောင်ဆောင်ခြင်း၊ နှောက်ယှက်ထိပါးခြင်းတွေရှိလာရင် စုံစမ်း စစ်ဆေးမှုတွေ လုပ်ပေးနိုင်မလား။ ဥပဒေအရ ပူးပေါင်းဆောင်ရွက်ပေးနိုင်မလား

 

၆။ အသုံးပြုသူများအတွက် ပညာပေးအစီအစဥ်

 

ဘေးကင်းပြီး တာဝန်ယူမှုရှိရှိ အသုံးပြုနိုင်အောင် ပညာပေးတဲ့ အစီအစဉ်တွေ၊ ဖြစ်ပေါ်လာနိုင်တဲ့ အန္တရာယ်တွေ၊ မျက်စိမှိတ်ယုံကြည်မှုကို ရှောင်ရှားနိုင်အောင် ဒစ်ဂျစ်တယ် နားလည်တတ်မြောက်မှု အစီအစဥ်တွေ စီစဥ်ထားသလား။

 

၇။ အခမဲ့အသုံးပြုစေခြင်းနဲ့ တာဝန်ယူမှု

 

AI ဝန်ဆောင်မှုတွေက အခမဲ့ အသုံးပြုပေးထားပေမယ့် အချက်အလက်၊ ကြော်ငြာ၊ ထင်ရှားကျော် ကြားမှု၊ ဈေးကွက်လွှမ်းမိုးမှုတွေကနေ အကျိုးအမြတ် ရရှိနိုင်တဲ့အတွက် တာဝန်ယူမှု ရှိရပါမယ်။ ကျင့်ဝတ်နဲ့ ဥပဒေလိုက်နာမှုတွေ ကင်းလွတ်လို့ မရပါ။

 

အခမဲ့ AI တွေဟာ အင်မတန် အစွမ်းထက်ပြီး အထောက်အကူဖြစ်ပေမဲ့ အန္တရာယ်ကင်းတာတော့ မဟုတ်ပါဘူး။ တကယ့်ပေးဆပ်ရတဲ့ တန်ဖိုးကတော့ ပုဂ္ဂိုလ်ရေး လုံခြုံမှု ဆုံးရှုံးတာ၊ သတင်းအမှားတွေ ရရှိတာနဲ့ တခြားအန္တရာယ်တွေပဲ ဖြစ်ပါတယ်။ အခုခေတ်မှာ ဒစ်ဂျစ်တယ် ဗဟုသုတ ရှိတယ်ဆိုတာ AI ကို ဘယ်အချိန်မှာ သုံးရမလဲ၊ ဘယ်အချိန်မှာ ပြန်မေးခွန်းထုတ်ရမလဲနဲ့ ဘယ်အချိန်မှာ လုံးဝမယုံကြည်သင့်ဘူးလဲဆိုတာကို သိထားခြင်းပဲ ဖြစ်ပါတယ်။

 

Burma Associated Press

 

 

ChatGPT
AI
တရုတ်
အစ္စရေး

Share With
bap-logo