မူဝါဒချမှတ်သူများသည် စစ်မှန်သော AI စိန်ခေါ်မှုများကို ကိုင်တွယ်ဖြေရှင်းရန် လိုအပ်သည်။

AI မှ မျိုးသုဉ်းမည့် အန္တရာယ်ကို အာရုံစိုက်ခြင်းသည် အန္တရာယ်ရှိသော အာရုံထွေပြားမှုတစ်ခုဖြစ်သည်။

ပြီးခဲ့သည့်အပတ်က ဆီလီကွန်တောင်ကြားမှ ရန်ပုံငွေထောက်ပံ့သည့်အဖွဲ့တစ်ဖွဲ့သည် AI Safety Center ဟုခေါ်သော စာကြောင်းတစ်ကြောင်းကို ထုတ်ပြန်ခဲ့သည်- "AI မှ မျိုးသုဉ်းမည့်အန္တရာယ်ကို လျှော့ချခြင်းသည် ကပ်ရောဂါနှင့် နျူကလီးယားစစ်ပွဲကဲ့သို့သော အခြားသောလူမှုရေးဆိုင်ရာအန္တရာယ်များနှင့်အတူ ကမ္ဘာလုံးဆိုင်ရာဦးစားပေးဖြစ်သင့်သည်။" ၎င်းကို လုပ်ငန်းခေါင်းဆောင်များစွာနှင့် လေးစားရသော AI သုတေသီများက လက်မှတ်ရေးထိုးခဲ့ပြီး စာနယ်ဇင်းများတွင် ကျယ်ကျယ်ပြန့်ပြန့် သတင်းယူခွင့်ရရှိခဲ့သည်။

ထုတ်ပြန်ချက်အပေါ် ပိုမိုကျယ်ပြန့်သော တုံ့ပြန်မှုသည် ပြင်းထန်သည်။ အောက်စဖို့ဒ်တက္ကသိုလ်မှ ပါမောက္ခ Sandra Wachter က ၎င်းသည် လူသိရှင်ကြား စတန့်တစ်ခုမျှသာဖြစ်ကြောင်း ပြောကြားခဲ့သည်။ လုံခြုံရေးကျွမ်းကျင်သူ Bruce Schneier ကဲ့သို့သော ပိုမိုနားလည်သဘောပေါက်သော လက်မှတ်ရေးထိုးသူအချို့က လက်မှတ်ထိုးသူများကို နောင်တရကြောင်း အလျင်အမြန်ထုတ်ဖော်ခဲ့သည်။ Schneier က “AI ဟာ လူသားတွေ မျိုးသုဉ်းဖို့ အန္တရာယ်ရှိတယ်လို့ မထင်ပါဘူး။

အခြားသူများကမူ အဆိုပါထုတ်ပြန်ချက်သည် အမှန်တကယ် ရန်ပုံငွေရှာဖွေမှုပုံစံတစ်ခုဟု ထင်မြင်ကြသည်။ Duke University မှ Sociology ပါမောက္ခ Kieren Healy က “ကျွန်ုပ်တို့ပြောနေတဲ့ ဒီအရာနဲ့ဆက်စပ်နေတဲ့ ပကတိမျိုးစိတ်အဆင့် ဖြစ်တည်မှုဆိုင်ရာ ခြိမ်းခြောက်မှုတွေကို လျော့ပါးသက်သာစေဖို့ ကျွန်တော့်သူငယ်ချင်းတွေနဲ့ ကျွန်တော်ဟာ ထောက်ပံ့ကြေးငွေ လုံးဝလိုအပ်ပါတယ်။”

စတန်းဖို့ဒ်တက္ကသိုလ်၏ Cyber ​​Policy Center မှ EU ပါလီမန်အမတ်ဟောင်း Marietje Schaake က ကြေငြာချက်၏ အခြေခံအချက်မှာ မူဝါဒချမှတ်သူများသည် ဖြစ်တည်မှုအန္တရာယ်ကို ကိုင်တွယ်ဖြေရှင်းသင့်ကြောင်း အကြံပြုခဲ့ပြီး စီးပွားရေးအမှုဆောင်များသည် AI အသုံးပြုမှုအတွက် အမှန်တကယ် စည်းမျဉ်းများကို သတ်မှတ်ပေးထားကြောင်း အကြံပြုခဲ့သည်။ AI သည် အသစ်အဆန်းဖြစ်နိုင်သော်လည်း၊ AI လုပ်ငန်းခေါင်းဆောင်များသည် "သူတို့ထုတ်လုပ်သော နည်းပညာများကို ထိန်းညှိရန် အကောင်းဆုံးနေရာဖြစ်သည်" ဟူသော သွယ်ဝိုက်သောအငြင်းအခုံသည် ဆိုရှယ်မီဒီယာနှင့် cryptocurrencies အငြင်းပွားမှုများတွင် ၎င်းတို့၏ယခင်အသုံးပြုမှုမှ ပြန်လည်အသုံးပြုထားသည့် စကားပြောဆိုချက်များထက် ဘာမှမပိုပါ။

ကျွန်ုပ်၏ခံယူချက်မှာ အသိစိတ်နှင့် အမှီအခိုကင်းသော AI မှ ရရှိလာသည့် သတိပေးချက်များသည် တရားဥပဒေဆိုင်ရာ ကွာဟချက်များအား ကိုင်တွယ်ဖြေရှင်းရန် ပြန်လည်ပြင်ဆင်မှုများကို ထည့်သွင်းစဉ်းစားရန် စည်းကမ်းထိန်းသိမ်းရေးမှူးများ တိုးမြှင့်လုပ်ဆောင်ရန် လိုအပ်သည့် AI စိန်ခေါ်မှုများမှ အာရုံပြောင်းသွားခြင်းပင်ဖြစ်သည်။

Federal Trade Commission Chair Lina Khan က ပြောကြားခဲ့သလို AI ကို အသုံးပြုပြီး လိမ်လည်မှုဟာ တရားမဝင်ပါဘူး။ ဗီဒီယိုနှင့် ဖုန်းအလိမ်အညာများကို ကျူးလွန်ရန် လူများကို အယောင်ဆောင်ရန် AI အသုံးပြုမှုနှင့်ပတ်သက်၍ အေဂျင်စီက သတိပေးထားပြီးဖြစ်သည်။ တရုတ်နိုင်ငံသည် အလားတူအချက်ကို သတိပြုမိပြီး AI စနစ်ဖြင့် လှည့်စားမှုများကို နှိမ်နင်းလျက်ရှိသည်။ ဤနေရာတွင် တရားရေးဆိုင်ရာ ပြဿနာအသစ်များ ရှိနေသည်ကို ရှင်းရှင်းလင်းလင်း မသိရသေးသော်လည်း ယခုလာမည့် AI လိမ်လည်မှု လွှမ်းမိုးမှုကို ထိန်းချုပ်ရန် ကြီးမားသော တွန်းအားပေးမှု ကြိုးပမ်းမှုများ လိုအပ်မည်ဖြစ်သည်။ အေဂျင်စီ၏ ဘတ်ဂျက်တောင်းခံမှု ဒေါ်လာ သန်း ၅၉၀ ကို အပြည့်အ၀ ထောက်ပံ့ပေးခြင်းသည် AI ၏ ဖြစ်တည်မှုအန္တရာယ်များကို လေ့လာခြင်းထက် အများသူငှာငွေကို ပိုမိုအကျိုးရှိစွာ အသုံးပြုခြင်းဖြစ်လိမ့်မည်။

မကြာသေးမီက 'Fake Putin' ကြေငြာချက်ကဲ့သို့သော AI မှ ဖန်တီးထားသော သတင်းမှားများအတွက် ရုရှားက တိုက်ခိုက်ခံနေရသည်ဟု လူတိုင်းက မှန်ကန်စွာ စိုးရိမ်နေကြသည်။ တံဆိပ်တပ်ခြင်းသည် ဤအန္တရာယ်များကို လျှော့ချရန် ခရီးရှည်သွားနိုင်သည်။ Biden ၏ သမ္မတလောင်းအဖြစ် ကြေငြာချက်ကို လိုက်နာသော ရီပတ်ဘလီကန် အမျိုးသား ကော်မတီမှ ကူးသန်းရောင်းဝယ်ရေး သည် AI ကို အသုံးပြုပြီး Biden သမ္မတသစ် လက်ထက်တွင် ဖြစ်လာနိုင်သည့် ပုံရိပ်များကို ဖန်တီးပေးခဲ့သော်လည်း ယင်းကဲ့သို့ တံဆိပ်တပ်ခံရပြီး သတင်းမှားများ ဖြစ်နိုင်ခြေကို လျှော့ချပေးခဲ့သည်။

AI အတွက် ပွင့်လင်းမြင်သာမှုသည် အချို့သောပုံပေါက်နေသကဲ့သို့ မူဝါဒချမှတ်သူများ ဆုပ်ကိုင်သင့်သော မူဝါဒ အသီးအပွင့်ဖြစ်သည်။ ယခုသီတင်းပတ်အတွင်း ဥရောပကော်မရှင် ဒုတိယဥက္ကဋ္ဌ Vera Jourova က နည်းပညာကုမ္ပဏီများကို ဉာဏ်ရည်တုဖြင့် ထုတ်လုပ်သည့် အကြောင်းအရာကို တံဆိပ်တပ်ရန် တိုက်တွန်းခဲ့သည်။ US တွင် Rep. Ritchie Torres (DN.Y.) သည် ၎င်း၏ output ကို "ဥာဏ်ရည်တုဖြင့် ထုတ်လုပ်ထားသည်" ကို ထုတ်ဖော်ရန် ChatGPT ကဲ့သို့သော ဝန်ဆောင်မှုများ လိုအပ်မည့် ဥပဒေများကို မကြာမီ မိတ်ဆက်တော့မည်ဖြစ်သည်။

မူပိုင်ခွင့်နှင့် AI သည် နောက်ထပ်စိန်ခေါ်မှုတစ်ခုဖြစ်သည်။ AI သင်တန်းအတွက် ၎င်းတို့၏ပစ္စည်းအသုံးပြုမှုအတွက် မူပိုင်ခွင့်ပိုင်ရှင်များကို လျော်ကြေးပေးခြင်းနှင့်ပတ်သက်၍ ရှင်းလင်းပြတ်သားမှုအချို့ လိုအပ်ပါသည်။ ဖေဖော်ဝါရီလတွင် Getty သည် AI ကုမ္ပဏီသည် ၎င်း၏ Stable Diffusion AI ရုပ်ပုံမျိုးဆက်ဆော့ဖ်ဝဲကို လေ့ကျင့်သင်ကြားရန် ခွင့်ပြုချက်မရှိဘဲ Getty ပုံ 12 သန်းကို ကူးယူခဲ့သည်ဟု US ရှိ Stability AI အား တရားစွဲဆိုခဲ့သည်။ AI ကုမ္ပဏီသည် ၎င်း၏စနစ်အား လေ့ကျင့်သင်ကြားရာတွင် Getty ၏ မူပိုင်ခွင့်ကို ချိုးဖောက်ခဲ့ခြင်းကြောင့် ဗြိတိန်ရှိ Stability AI ကို ပိတ်ဆို့ရန် လန်ဒန်တရားရုံးကို ပြီးခဲ့သည့်အပတ်က တောင်းဆိုခဲ့သည်။

ဒီအမှုတွေကို တရားရုံးမှာ ရှင်းပစ်မယ်။ သို့သော် မူပိုင်ခွင့်ကိုင်ဆောင်သူများသည် တရားမျှတစွာအသုံးပြုခြင်းကြောင့် သို့မဟုတ် AI သင်တန်းအတွက် အကာအကွယ်မရှိသော အချက်အလက်များနှင့် အကြံဉာဏ်များကိုသာ ထုတ်ယူထားသောကြောင့် လျော်ကြေးပေးရန် လုံးဝမလိုအပ်ကြောင်း ကျိုးကြောင်းဆီလျော်သော အကြောင်းပြချက်တစ်ခုရှိပါသည်။ ထို့အပြင်၊ ဥရောပသမဂ္ဂ၏ 2019 မူပိုင်ခွင့်တွင် ဒစ်ဂျစ်တယ်တစ်ခုတည်းစျေးကွက် ညွှန်ကြားချက်တွင် မူပိုင်ခွင့်ပိုင်ရှင်သည် စကင်န်ဖတ်ခြင်းကို ကာကွယ်ရန် ခေါင်းစီးပိတ်ဆို့ခြင်းကဲ့သို့သော နည်းပညာဆိုင်ရာ အကာအကွယ်များကို အသုံးပြုခြင်းဖြင့် မူပိုင်ခွင့်ပိုင်ရှင်မှ ဖယ်မပေးပါက စာသားနှင့် ဒေတာကို အွန်လိုင်း မူပိုင်ခွင့်ရထားသော ပစ္စည်းကို တူးဖော်ခွင့်ပြုသည့် ခြွင်းချက်တစ်ခုပါရှိသည်။ ၎င်းသည် AI လေ့ကျင့်ရေးဒေတာကို အကျုံးဝင်စေနိုင်သည်။

ဥရောပသမဂ္ဂ၏ Artificial Intelligence Act ၏ လက်ရှိမူကြမ်းသည် AI စနစ်များကို လေ့ကျင့်သင်ကြားရာတွင် အသုံးပြုသည့် မူပိုင်ခွင့်ရထားသော လက်ရာများကို ထုတ်ဖော်ရန် လိုအပ်ပါသည်။ ၎င်းသည် AI သင်တန်းအတွက် စာသားနှင့် ဒေတာတူးဖော်ခြင်းမှ ဖယ်ထုတ်ရန် မူပိုင်ခွင့်ပိုင်ရှင်များကို ခွင့်ပြုရန် ရည်ရွယ်ပုံရသည်။ ဒါပေမယ့် ဒါဟာ နောက်ထပ် တစ်ခုခုကို လှမ်းဖို့ ခြေလှမ်းတစ်ခုလည်း ဖြစ်နိုင်ပါတယ်။ မူပိုင်ခွင့်ကိုင်ဆောင်သူများသည် AI သင်တန်းများကို ပိတ်ပင်တားဆီးမည့် မသင်မနေရလိုင်စင်စနစ်သို့ ဦးတည်သွားစေနိုင်သော်လည်း ၎င်းတို့၏ဉာဏပစ္စည်းပိုင်ဆိုင်မှုအသုံးပြုမှုအတွက် လျော်ကြေးငွေအချို့ကို ပေးဆောင်နိုင်ပါသည်။ ဤမူပိုင်ခွင့်ပြဿနာများကို ခွဲခြမ်းစိတ်ဖြာရန် မူဝါဒချမှတ်သူများထံမှ အာရုံစိုက်မှု လိုအပ်မည်ဖြစ်သည်။

EU ၏ AI အက်ဥပဒေတွင်လည်း အန္တရာယ်များကို လုံလောက်စွာ အကဲဖြတ်ပြီး ကျိုးကြောင်းဆီလျော်စွာ လျော့ပါးသက်သာစေရေး အစီအမံများကို ချမှတ်ထားကြောင်း အာမခံရန်အတွက် ရည်ရွယ်သည့် အသိအမှတ်ပြုခြင်းလုပ်ငန်းစဉ်ကို ဆောင်ရွက်ရန်အတွက် အန္တရာယ်ရှိသော AI စနစ်များ လိုအပ်ပါသည်။ လက်ရှိမူကြမ်းသည် ChatGPT ကဲ့သို့ အခြေခံမော်ဒယ်များကို အသိအမှတ်ပြုခြင်းခံရနိုင်သည့် အန္တရာယ်ရှိသော စနစ်များအဖြစ် လက်ခံထားပြီး၊ ၎င်းကို မလိုက်နာပါက ဥရောပမှ ChatGPT ကို ရုပ်သိမ်းမည်ဟု Open AI အကြီးအကဲ Sam Altman က တွန်းအားပေးခဲ့သည့် အလားအလာရှိသော ဝန်ထုပ်ဝန်ပိုးတစ်ခုဖြစ်သည်။ ထွက်သွားဖို့ အစီအစဉ်မရှိဘူးလို့ ပြောပြီး အဲဒီခြိမ်းခြောက်မှုကို နောက်ကြောင်းပြန်လှည့်ခဲ့ပါတယ်။

ဒါတောင် သူ့မှာ အချက်တစ်ခုရှိတယ်။ မူဝါဒချမှတ်သူများသည် အန္တရာယ်များစွာကို လက်တွေ့တွင် ကျင့်သုံးသည်နှင့်အမျှ အန္တရာယ်များစွာ ထွက်ပေါ်လာသည့်အခါတွင် ChatGPT ကဲ့သို့သော ယေဘုယျရည်ရွယ်ချက် AI စနစ်အား မည်ကဲ့သို့ အသိအမှတ်ပြုနိုင်သည်ကို မူဝါဒချမှတ်သူများသည် ၎င်းတို့ကိုယ်မိမိ မေးသင့်သည်။

ဤအရာများသည် မူဝါဒချမှတ်သူများနှင့် သက်ဆိုင်သင့်သော အဓိက AI ပြဿနာများသာဖြစ်သည်။ အခြားအရာများတွင် ယခင်ကထက် ပိုမိုစွမ်းဆောင်နိုင်သော AI စနစ်များ၏ အလုပ်အကိုင်ဆိုင်ရာ အကျိုးသက်ရောက်မှုများ၊ လေ့ကျင့်ရေးဒေတာတွင် ကိုယ်ရေးကိုယ်တာအချက်အလက်များ ပါဝင်သည့်အခါ ကိုယ်ရေးကိုယ်တာစိန်ခေါ်မှုများ၊ ကြီးမားသောကုန်ကျစရိတ်များနှင့် လေ့ကျင့်ရေး AI ဆော့ဖ်ဝဲလ်၏ ကွန်ရက်အကျိုးသက်ရောက်မှုများကြောင့် ဖန်တီးထားသော အာရုံစူးစိုက်မှုအပေါ် သဘောထား၊ ပုဒ်မ 230 တာဝန်ခံမှုစည်းမျဉ်းများ အသုံးချခြင်းနှင့် ကျင့်သုံးခြင်းတို့ကို ပါဝင်သည်။ AI သည် အရည်အချင်းပြည့်မီမှု အကဲဖြတ်ခြင်းကို တွန်းအားပေးသည့်အခါ ချေးငွေ၊ အိမ်ရာနှင့် အလုပ်အကိုင်များတွင် ဘက်လိုက်မှုဆန့်ကျင်သည့် ဥပဒေများ။

မူဝါဒချမှတ်သူများသည် ကိုယ်ပိုင်အုပ်ချုပ်ခွင့်ရ AI ပရိုဂရမ်များ ထိန်းချုပ်မှုမှ ရုန်းထွက်ပြီး လူသား၏ရှင်သန်မှုကို ခြိမ်းခြောက်နေသည့် အုံ့ဆိုင်းနေသော နယ်ပယ်များသို့ လှည့်မလည်သင့်ပေ။ သူတို့သည် လက်တွေ့ကမ္ဘာတွင် AI ၏စိန်ခေါ်မှုများစွာကို ရင်ဆိုင်ရန် လုပ်ဆောင်ရမည့်အလုပ်များစွာရှိသည်။

အရင်းအမြစ်- https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/