រូបភាពដែលមានលក្ខណៈពិសេស a76d8fb2 9f26 4531 83c3 70dc2787f425

AI និង​ច្បាប់​ព្រហ្មទណ្ឌ​៖ ​តើ​នរណា​ជា​អ្នក​ទទួលខុសត្រូវ​នៅពេល​ម៉ាស៊ីន​ប្រព្រឹត្ត​ឧក្រិដ្ឋកម្ម​?

នៅពេលដែលប្រព័ន្ធ AI ចាប់បាននៅក្នុងឧក្រិដ្ឋកម្ម ច្បាប់មិនចង្អុលទៅម៉ាស៊ីននោះទេ។ ផ្ទុយទៅវិញ ទំនួលខុសត្រូវផ្នែកព្រហ្មទណ្ឌត្រូវបានតាមដានត្រឡប់ទៅលើតួអង្គមនុស្ស— មិន​ថា​ជា​អ្នក​ប្រើ អ្នក​សរសេរ​កម្មវិធី ឬ​អ្នក​ផលិត—ដែល​បាន​គ្រប់​គ្រង​លើ​សកម្មភាព​របស់ AI ឬ​បរាជ័យ​ក្នុង​ការ​ការពារ​គ្រោះថ្នាក់​ដែល​វា​បង្ក​ឡើង។

ដោះ​ស្រាយ​បញ្ហា AI និង​ការ​ទទួល​ខុស​ត្រូវ​ព្រហ្មទណ្ឌ

ដង្កៀប​ដាក់​លើ​ក្ដារចុច ដែល​តំណាង​ឲ្យ​ចំណុច​ប្រសព្វ​នៃ​ច្បាប់ និង​បច្ចេកវិទ្យា។
AI និង​ច្បាប់​ព្រហ្មទណ្ឌ​៖ ​តើ​នរណា​ជា​អ្នក​ទទួលខុសត្រូវ​នៅពេល​ម៉ាស៊ីន​ប្រព្រឹត្ត​ឧក្រិដ្ឋកម្ម​? ២

រូបភាពនេះ៖ យន្តហោះគ្មានមនុស្សបើកដឹកជញ្ជូនដែលដំណើរការដោយ AI ដំណើរការខុសប្រក្រតី ងាកចេញពីផ្លូវដែលបានកំណត់កម្មវិធីរបស់វា ហើយបណ្តាលឱ្យមានគ្រោះថ្នាក់ធ្ងន់ធ្ងរ។ ការចោទប្រកាន់ព្រហ្មទណ្ឌគឺនៅលើតុ។ ប៉ុន្តែ​តើ​អ្នក​ណា​ជា​អ្នក​ទទួល​ខុស​ត្រូវ​ពិត​ប្រាកដ?

តុលាការ​មិន​អាច​កាត់ទោស​យន្តហោះ​ដ្រូន​បាន​ពិតប្រាកដ​ទេ។ ប្រព័ន្ធច្បាប់ទាំងមូលរបស់យើងត្រូវបានបង្កើតឡើងជុំវិញចេតនា និងសកម្មភាពរបស់មនុស្ស។ បញ្ហាជាមូលដ្ឋាននេះបង្ខំយើងឱ្យបកស្រទាប់នៃក្បួនដោះស្រាយឡើងវិញ ហើយស្វែងរកបុគ្គលដែលការសម្រេចចិត្ត—ឬការធ្វេសប្រហែស—នាំទៅរកលទ្ធផលដ៏គ្រោះថ្នាក់។

សសរស្តម្ភកណ្តាលនៃឧក្រិដ្ឋជន ច្បាប់ គឺជាគំនិតនៃ rea mensឬ "ចិត្តដែលមានកំហុស" ។ ដើម្បី​ត្រូវ​បាន​រក​ឃើញ​ថា​មាន​ពិរុទ្ធ​នៃ​បទ​ឧក្រិដ្ឋ​មួយ បុគ្គល​ត្រូវ​តែ​មាន​ស្ថានភាព​នៃ​ការ​ប្រព្រឹត្ត​មិន​ថា​វា​ជា​ចេតនា, មិន​ប្រុងប្រយ័ត្ន, ឬ​ការ​ធ្វេសប្រហែស​។ AI មិនថាទំនើបប៉ុណ្ណានោះទេ គ្រាន់តែមិនមានមនសិការ អារម្មណ៍ ឬសមត្ថភាពសម្រាប់ចេតនាពិតប្រាកដនោះទេ។ វាដំណើរការលើកូដ និងទិន្នន័យ មិនមែនជាត្រីវិស័យសីលធម៌ទេ។

ដោយសារតែ AI មិនអាចបង្កើត "ចិត្តដែលមានកំហុស" វាមិនអាចត្រូវទទួលខុសត្រូវព្រហ្មទណ្ឌក្រោមក្របខ័ណ្ឌច្បាប់ដែលមានស្រាប់នោះទេ។ ការផ្តោតអារម្មណ៍ប្រែប្រួលពីឧបករណ៍ (AI) ទៅជាអ្នកប្រើប្រាស់ ឬអ្នកបង្កើតឧបករណ៍។

ចំណុចសំខាន់នេះបំភ្លឺការយកចិត្តទុកដាក់ផ្នែកច្បាប់ចំពោះមនុស្សពាក់ព័ន្ធនឹងវដ្តជីវិតរបស់ AI ។ ដើម្បីស្រាយបញ្ហា AI និងទំនួលខុសត្រូវព្រហ្មទណ្ឌឱ្យបានត្រឹមត្រូវ វាជារឿងសំខាន់ក្នុងការយល់ដឹងពីរបៀបដែលមនុស្សដឹកនាំប្រព័ន្ធទាំងនេះ រួមទាំងអ្វីៗដូចជា ភាពស្មុគស្មាញនៃវិស្វកម្មភ្លាមៗ.

កំណត់អត្តសញ្ញាណមនុស្សនៅពីក្រោយម៉ាស៊ីន

នៅពេលដែលតុលាការជីកកកាយទៅលើឧក្រិដ្ឋកម្មដែលទាក់ទងនឹង AI ការងារដំបូងរបស់វាគឺត្រូវអនុវត្តតាមខ្សែសង្វាក់នៃភ្នាក់ងារមនុស្ស និងកំណត់កន្លែងដែលការទទួលខុសត្រូវពិតប្រាកដស្ថិតនៅ។ អាស្រ័យលើលក្ខណៈជាក់លាក់នៃករណីនេះ ភាគីផ្សេងៗអាចរកឃើញថាខ្លួនទទួលខុសត្រូវ។

ដើម្បីជួយបញ្ជាក់ពីកន្លែងដែលទំនួលខុសត្រូវអាចធ្លាក់ចុះ តារាងខាងក្រោមបង្ហាញអំពីតួអង្គសំខាន់ៗរបស់មនុស្ស និងហេតុផលផ្លូវច្បាប់សម្រាប់ការធ្វើឱ្យពួកគេទទួលខុសត្រូវ។

ការគូសផែនទីគណនេយ្យភាពរបស់មនុស្សសម្រាប់សកម្មភាព AI

ភាគីទទួលខុសត្រូវមានសក្តានុពល មូលដ្ឋានសម្រាប់ការទទួលខុសត្រូវផ្នែកច្បាប់ សេណារីយ៉ូរូបភាព
អ្នកប្រើប្រាស់/ប្រតិបត្តិករ ការប្រើប្រាស់ AI ដោយផ្ទាល់ជាឧបករណ៍មួយដើម្បីប្រព្រឹត្តបទឧក្រិដ្ឋ។ ចេតនាឧក្រិដ្ឋកម្មច្បាស់លាស់។ បុគ្គលម្នាក់ប្រើឧបករណ៍ AI ដើម្បីបង្កើតអ៊ីមែលបន្លំដែលគួរឱ្យជឿជាក់ និងដាក់ពង្រាយការបោកប្រាស់ទ្រង់ទ្រាយធំ។
អ្នកសរសេរកម្មវិធី/អ្នកអភិវឌ្ឍន៍ ការធ្វេសប្រហែសទាំងស្រុងក្នុងការរចនា ឬចេតនាបង្កើតសមត្ថភាពព្យាបាទ។ អ្នកអភិវឌ្ឍន៍បង្កើត bot ជួញដូរស្វយ័តជាមួយនឹងការមិនយកចិត្តទុកដាក់ចំពោះច្បាប់នៃការគ្រប់គ្រងទីផ្សារ ដែលនាំឱ្យមានការគាំង។
ក្រុមហ៊ុនផលិត/ក្រុមហ៊ុន ការធ្វេសប្រហែសរបស់ក្រុមហ៊ុន; លក់ផលិតផលដែលមានកំហុសដោយចេតនា ដោយគ្មានការការពារត្រឹមត្រូវ។ ក្រុមហ៊ុនបច្ចេកវិទ្យាមួយធ្វើទីផ្សាររថយន្តដែលបើកបរដោយខ្លួនឯង បើទោះបីជាដឹងថាកម្មវិធីរបស់ខ្លួនមានកំហុសឆ្គងដែលមិនអាចជួសជុលបានដែលអាចបង្កគ្រោះថ្នាក់។
ម្ចាស់ បរាជ័យក្នុងការថែរក្សា គ្រប់គ្រង ឬធានាប្រព័ន្ធ AI ឱ្យបានត្រឹមត្រូវ។ ម្ចាស់យន្តហោះគ្មានមនុស្សបើកសុវត្ថិភាពស្វយ័ត បរាជ័យក្នុងការដំឡើងការអាប់ដេតសុវត្ថិភាពដែលត្រូវការ ហើយវាធ្វើឱ្យអ្នកឈរមើលរងរបួសដោយសារដំណើរការខុសប្រក្រតី។

ដូចដែលអ្នកអាចឃើញបេក្ខជនសម្រាប់ការទទួលខុសត្រូវជាទូទៅធ្លាក់ចូលទៅក្នុងប្រភេទសំខាន់ៗមួយចំនួន។ ខណៈពេលដែលបច្ចេកវិទ្យាគឺថ្មី គោលការណ៍ច្បាប់ជាញឹកញាប់ត្រូវបានបង្កើតឡើងយ៉ាងល្អ។

ទីបំផុត ច្បាប់កំពុងព្យាយាមឆ្លើយសំណួរសាមញ្ញមួយ៖ តើមនុស្សមួយណាមានអំណាច និងឱកាសក្នុងការទប់ស្កាត់ឧក្រិដ្ឋកម្មមិនឲ្យកើតឡើង? តាមរយៈការកំណត់អត្តសញ្ញាណបុគ្គលនោះ ប្រព័ន្ធច្បាប់អាចអនុវត្តគោលការណ៍ដែលបានបង្កើតឡើងនៃទំនួលខុសត្រូវព្រហ្មទណ្ឌ ទោះបីជាករណីនេះពាក់ព័ន្ធនឹងបច្ចេកវិទ្យាដ៏ស្មុគស្មាញបំផុតនាពេលបច្ចុប្បន្ននេះក៏ដោយ។

ការអនុវត្តច្បាប់ប្រពៃណីចំពោះឧក្រិដ្ឋកម្ម AI ទំនើប

នៅពេលដែលបច្ចេកវិទ្យាថ្មីស្រឡាងដូចជា AI ជាប់ពាក់ព័ន្ធក្នុងឧក្រិដ្ឋកម្ម អ្នកប្រហែលជាគិតថាប្រព័ន្ធច្បាប់ដែលមានអាយុកាលរាប់សតវត្សរបស់យើងមិនទាន់បានរៀបចំរួចរាល់ទាំងស្រុងនោះទេ។ ប៉ុន្តែតាមពិត តុលាការមិនចាប់ផ្តើមពីដំបូងឡើយ។ ពួកគេកំពុងសម្របតាមគោលលទ្ធិច្បាប់ដែលមានស្រាប់ ដើម្បីរកឱ្យឃើញថាតើនរណាជាអ្នកទទួលខុសត្រូវ នៅពេលដែលម៉ាស៊ីនប្រព្រឹត្តបទឧក្រិដ្ឋ ដោយស្វែងរក "មនុស្សនៅពីក្រោយវាំងនន" ប្រកបដោយប្រសិទ្ធភាព។

វិធីសាស្រ្តនេះមានន័យថា ការបំពាក់ជ្រុងការ៉េនៃ AI ចូលទៅក្នុងរន្ធជុំនៃច្បាប់ព្រហ្មទណ្ឌប្រពៃណី។ ជាជាងបង្កើតច្បាប់ថ្មីទាំងស្រុងសម្រាប់ AI ប្រព័ន្ធច្បាប់អនុវត្តគោលការណ៍ទទួលខុសត្រូវដែលបានបង្កើតឡើងចំពោះមនុស្សដែលបង្កើត ប្រើប្រាស់ និងគ្រប់គ្រងប្រព័ន្ធឆ្លាតវៃទាំងនេះ។ ការផ្តោតសំខាន់គឺស្ថិតនៅលើភ្នាក់ងាររបស់មនុស្ស សូម្បីតែនៅពេលដែលក្បួនដោះស្រាយអនុវត្តសកម្មភាពក៏ដោយ។

គោលលទ្ធិនៃការប្រព្រឹត្តិកម្មមុខងារ

គោលគំនិតសំខាន់ដែលប្រើដើម្បីភ្ជាប់គម្លាតនេះ ជាពិសេសនៅក្នុងយុត្តាធិការដូចជាប្រទេសហូឡង់ ការបំពានមុខងារ. គិត​បែប​នេះ បើ​អ្នក​ណា​ប្រើ​ញញួរ​ដើម្បី​ប្រព្រឹត្ត​បទឧក្រិដ្ឋ យើង​កាន់​អ្នក​ទទួល​ខុស​ត្រូវ មិន​មែន​ញញួរ​ទេ។ ការបំពានមុខងារគ្រាន់តែពង្រីកតក្កវិជ្ជានេះទៅឧបករណ៍កម្រិតខ្ពស់ រួមទាំង AI ផងដែរ។

នៅក្រោមគោលលទ្ធិនេះ មនុស្សម្នាក់អាចត្រូវបានគេមើលឃើញថាជា "ជនល្មើសដែលមានមុខងារ" នៃឧក្រិដ្ឋកម្មដែលប្រព្រឹត្តដោយ AI ប្រសិនបើពួកគេមានអំណាចដើម្បីកំណត់ការប្រព្រឹត្តរបស់ម៉ាស៊ីន និងទទួលយកហានិភ័យដែលឧក្រិដ្ឋកម្មអាចកើតឡើង។ ក្របខណ្ឌនេះមានសារៈសំខាន់ណាស់ ពីព្រោះក្នុងករណីជាច្រើន ច្បាប់របស់ប្រទេសហូឡង់មិនមានបទប្បញ្ញត្តិការទទួលខុសត្រូវព្រហ្មទណ្ឌជាក់លាក់សម្រាប់ប្រព័ន្ធ AI ទេ។ ផ្ទុយទៅវិញ ក្របខ័ណ្ឌទូទៅត្រូវបានប្រើប្រាស់ដើម្បីដោះស្រាយទំនួលខុសត្រូវដែលទាក់ទងនឹង AI ជាមួយនឹងការប្រព្រឹត្តិកម្មមុខងារជាឧបករណ៍ចម្បងសម្រាប់ផ្តល់ការទទួលខុសត្រូវដល់មនុស្ស។

នេះមានន័យថា ច្បាប់ស្វែងរកធាតុសំខាន់ពីរ៖

  1. ថាមពល: តើបុគ្គលនោះមានសិទ្ធិអំណាច ឬសមត្ថភាពក្នុងការគ្រប់គ្រង ឬបញ្ឈប់សកម្មភាពរបស់ AI ដែរឬទេ?
  2. ការទទួលយក: តើពួកគេបានទទួលយកហានិភ័យដែលថាអាកប្បកិរិយារបស់ AI អាចនាំឱ្យមានលទ្ធផលព្រហ្មទណ្ឌដែរឬទេ?

ប្រសិនបើអ្នកអាចឆ្លើយថា "បាទ / ចាស" ចំពោះអ្នកទាំងពីរ អ្នកដែលនៅពីក្រោយ AI អាចនឹងត្រូវទទួលបន្ទុកព្រហ្មទណ្ឌ ដូចជាប្រសិនបើពួកគេបានប្រព្រឹត្តទង្វើនេះដោយខ្លួនឯង។

ការទទួលខុសត្រូវព្រហ្មទណ្ឌសាជីវកម្ម

ការស្វែងរកទំនួលខុសត្រូវមិនឈប់ជាមួយបុគ្គលនោះទេ។ នៅពេលដែលប្រព័ន្ធ AI ដែលដាក់ពង្រាយដោយក្រុមហ៊ុនបង្កគ្រោះថ្នាក់ អង្គភាពទាំងមូលអាចទទួលខុសត្រូវក្រោមគោលការណ៍ ការទទួលខុសត្រូវព្រហ្មទណ្ឌរបស់ក្រុមហ៊ុន.

រឿងនេះកើតឡើងនៅពេលដែលឧក្រិដ្ឋកម្មអាចត្រូវបានសន្មតថាជាវប្បធម៌ គោលនយោបាយ ឬការធ្វេសប្រហែសរបស់ក្រុមហ៊ុន។ ជាឧទាហរណ៍ ប្រសិនបើក្រុមហ៊ុនមួយប្រញាប់ប្រញាល់នូវ bot ជួញដូរហិរញ្ញវត្ថុដែលដំណើរការដោយ AI ទៅកាន់ទីផ្សារជាមួយនឹងការធ្វើតេស្តសុវត្ថិភាពដ៏អាក្រក់ ហើយវានឹងបញ្ចប់ដោយការក្លែងបន្លំទីផ្សារនោះ ក្រុមហ៊ុនខ្លួនឯងអាចប្រឈមនឹងការចោទប្រកាន់ព្រហ្មទណ្ឌ។

ហេតុផលផ្លូវច្បាប់នៅទីនេះគឺថា សកម្មភាពរបស់ AI ឆ្លុះបញ្ចាំងពីការសម្រេចចិត្តរួម និងអាទិភាពរបស់អង្គការ។ ការខកខានក្នុងការអនុវត្តការត្រួតពិនិត្យត្រឹមត្រូវ ឬវប្បធម៌សាជីវកម្មដែលដាក់ប្រាក់ចំណេញលើសពីសុវត្ថិភាពអាចជាហេតុផលគ្រប់គ្រាន់សម្រាប់ការទទួលខុសត្រូវ។

នេះធានាថាក្រុមហ៊ុនមិនអាចគ្រាន់តែលាក់នៅពីក្រោយក្បួនដោះស្រាយរបស់ពួកគេដើម្បីគេចចេញពីការទទួលខុសត្រូវចំពោះគ្រោះថ្នាក់ដែលអាចមើលឃើញទុកជាមុននោះទេ។ ក្របខ័ណ្ឌច្បាប់ជុំវិញឧក្រិដ្ឋកម្មកុំព្យូទ័រ និងអ៊ីនធឺណិតនៅក្នុងប្រទេសហូឡង់ ផ្តល់នូវការពិនិត្យមើលកាន់តែស៊ីជម្រៅអំពីរបៀបដែលអង្គការត្រូវទទួលខុសត្រូវចំពោះបទល្មើសឌីជីថល។

ទំនួលខុសត្រូវផលិតផលនៅក្នុងច្បាប់ព្រហ្មទណ្ឌ

ផ្លូវ​ច្បាប់​មួយ​ទៀត​ដែល​បាន​បង្កើត​ឡើង​យ៉ាង​ល្អ​គឺ​ ការទទួលខុសត្រូវផលិតផល. ខណៈពេលដែលជាធម្មតាយើងភ្ជាប់រឿងនេះជាមួយសំណុំរឿងរដ្ឋប្បវេណី - ដូចជាម៉ាស៊ីនដុតនំប៉័ងដែលមានកំហុសបណ្តាលឱ្យមានអគ្គីភ័យ - គោលការណ៍របស់វាអាចត្រូវបានអនុវត្តយ៉ាងពិតប្រាកដនៅក្នុងបរិបទឧក្រិដ្ឋកម្ម។

ប្រសិនបើអ្នកផលិតដោយចេតនា ឬការធ្វេសប្រហែសបញ្ចេញផលិតផល AI ជាមួយនឹងកំហុសដ៏គ្រោះថ្នាក់ ហើយកំហុសនោះនាំទៅរកឧក្រិដ្ឋកម្មដោយផ្ទាល់ ពួកគេអាចត្រូវទទួលខុសត្រូវព្រហ្មទណ្ឌ។ ស្រមៃមើលយន្តហោះគ្មានមនុស្សបើកសុវត្ថិភាពស្វយ័តដែលត្រូវបានរចនាឡើងជាមួយនឹងក្បួនដោះស្រាយ "ការស្វែងរក" ដ៏ឈ្លានពាន ដែលមិនអាចបែងចែករវាងការគំរាមកំហែងពិតប្រាកដ និងអ្នកដែលឈរមើលគ្មានកំហុស។

ប្រសិនបើអ្នកផលិតបានដឹងអំពីពិការភាពនេះ ប៉ុន្តែបានលក់ផលិតផលយ៉ាងណាក៏ដោយ ហើយ Drone ធ្វើឱ្យនរណាម្នាក់រងរបួស ពួកគេអាចប្រឈមមុខនឹងការចោទប្រកាន់ពីបទឧក្រិដ្ឋសម្រាប់ការធ្វេសប្រហែស ឬការធ្វេសប្រហែស។ នេះធ្វើឱ្យក្រុមហ៊ុនផលិតនូវស្តង់ដារខ្ពស់ ដោយបង្ខំឱ្យពួកគេធានាថាប្រព័ន្ធ AI របស់ពួកគេមិនត្រឹមតែមានមុខងារប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងមានសុវត្ថិភាពសមហេតុផលសម្រាប់ការប្រើប្រាស់ដែលបានគ្រោងទុក និងការប្រើប្រាស់ខុសដែលអាចមើលឃើញទុកជាមុន។ ជាស្នូលរបស់វា ច្បាប់សួរថាតើលទ្ធផលព្រហ្មទណ្ឌគឺជាផលវិបាកដែលអាចព្យាករណ៍បាននៃការរចនាផលិតផល។

នៅពេលដែលប្រព័ន្ធ AI បង្កឱ្យមានគ្រោះថ្នាក់ដល់ពិភពលោកពិតប្រាកដ

អគាររដ្ឋាភិបាលដ៏ឧឡារិកមួយនៅក្រោមមេឃពណ៌ប្រផេះ ដែលឆ្លុះបញ្ចាំងពីលក្ខណៈធ្ងន់ធ្ងរនៃរឿងអាស្រូវអត្ថប្រយោជន៍ការថែទាំកុមាររបស់ប្រទេសហូឡង់។
AI និង​ច្បាប់​ព្រហ្មទណ្ឌ​៖ ​តើ​នរណា​ជា​អ្នក​ទទួលខុសត្រូវ​នៅពេល​ម៉ាស៊ីន​ប្រព្រឹត្ត​ឧក្រិដ្ឋកម្ម​? ២

គោលលទ្ធិច្បាប់អាចមានអារម្មណ៍អរូបី រហូតដល់វាធ្លាក់ចូលទៅក្នុងការពិត។ នៅពេលដែលប្រព័ន្ធ AI ធ្វើខុស ការធ្លាក់ចេញមិនមែនគ្រាន់តែជាទ្រឹស្តីនោះទេ វាអាចបំផ្លិចបំផ្លាញ បំផ្លាញជីវិត និងបំផ្លាញទំនុកចិត្តសាធារណៈ។ ដើម្បី​ចាប់​យក​ភាគហ៊ុន​យ៉ាង​ពិត​ប្រាកដ យើង​ត្រូវ​ដើរ​ហួស​ពី​គោល​គំនិត ហើយ​មើល​ទៅ​លើ​ករណី​ដែល​ការ​សម្រេច​ចិត្ត​របស់​ក្បួន​ដោះស្រាយ​បាន​បង្ក​វិបត្តិ​ជាតិ។

នេះគឺជាអ្វីដែលបានកើតឡើងនៅក្នុងប្រទេសហូឡង់ ជាមួយនឹងរឿងអាស្រូវអត្ថប្រយោជន៍ការថែទាំកុមារ ដែលត្រូវបានគេស្គាល់ថាជា 'Toeslagenaffaire'. វាជាឧទាហរណ៍ដ៏ខ្លាំងមួយ នៃរបៀបដែល AI នៅពេលដែលរចនាមិនបានល្អ និងមិនបានត្រួតពិនិត្យ អាចធ្វើឱ្យមនុស្សរងទុក្ខវេទនាយ៉ាងសម្បើម។ ករណី​សិក្សា​នេះ​មាន​មូលដ្ឋាន​លើ​ការ​ជជែក​ដេញដោល​ទាំង​ស្រុង AI និងច្បាប់ព្រហ្មទណ្ឌ នៅក្នុងរឿងដែលមិនអាចបំភ្លេចបាន ជាក់ស្តែងនៃការបរាជ័យជាប្រព័ន្ធ។

ប្រព័ន្ធដែលបានរចនាឡើងសម្រាប់គ្រោះមហន្តរាយ

រឿងអាស្រូវបានចាប់ផ្តើមជាមួយនឹងក្បួនដោះស្រាយការរៀនដោយខ្លួនឯងដែលប្រើដោយអាជ្ញាធរពន្ធដារហូឡង់។ គោលដៅរបស់វាគឺសាមញ្ញគ្រប់គ្រាន់៖ ដាក់ទង់ការក្លែងបន្លំដែលអាចកើតមានក្នុងចំណោមគ្រួសារដែលទទួលបានអត្ថប្រយោជន៍ថែទាំកុមារ។ ទោះយ៉ាងណាក៏ដោយ ការប្រហារជីវិតគឺជាមហន្តរាយមួយ។ ក្បួនដោះស្រាយគឺជា "ប្រអប់ខ្មៅ" ពេញលេញ ដំណើរការធ្វើការសម្រេចចិត្តរបស់វា ជាអាថ៌កំបាំងសូម្បីតែមន្ត្រីដែលពឹងផ្អែកលើវា។

ជំនួសឱ្យការវាយតម្លៃករណីបុគ្គលដោយស្មើភាព ក្បួនដោះស្រាយបានដាក់ទង់ឪពុកម្តាយរាប់ពាន់នាក់ថាជាអ្នកក្លែងបន្លំ ដែលជារឿយៗសម្រាប់ការរអិលបាក់ឌុបផ្នែករដ្ឋបាល។ ផលវិបាកគឺលឿន និងឃោរឃៅ។ គ្រួសារត្រូវបានបញ្ជាឱ្យសងប្រាក់រាប់ម៉ឺនអឺរ៉ូ ជាធម្មតាដោយគ្មានហេតុផលច្បាស់លាស់ ឬឱកាសត្រឹមត្រូវដើម្បីប្តឹងឧទ្ធរណ៍។ ប្រជាជនបាត់បង់ផ្ទះសម្បែង ការងារ និងប្រាក់សន្សំ។ ជីវិតត្រូវបានបំផ្លាញ។

ដំណើរការខុសប្រក្រតីជាប្រព័ន្ធនេះបានលាតត្រដាងពីគ្រោះថ្នាក់លាក់កំបាំងនៃភាពលំអៀងនៃក្បួនដោះស្រាយ និងការធ្វើសេចក្តីសម្រេចចិត្តដែលមិនច្បាស់លាស់។ វាមិនមែនគ្រាន់តែជាបញ្ហាបច្ចេកទេសប៉ុណ្ណោះទេ វា​ជា​មហន្តរាយ​របស់​មនុស្ស​ដែល​ជំរុញ​ដោយ​បច្ចេកវិជ្ជា​មិន​ប្រក្រតី និង​កង្វះ​ការ​ត្រួត​ពិនិត្យ។

'Toeslagenaffaire' បានក្លាយជាឧទាហរណ៍ដ៏ល្បីមួយអំពីរបៀបដែល AI រៀនដោយខ្លួនឯងអាចបង្កើតការសម្រេចចិត្តដោយលំអៀង និងមិនត្រឹមត្រូវ ជាមួយនឹងផលវិបាកធ្ងន់ធ្ងរនៅក្នុងពិភពពិត។ ជាការឆ្លើយតប រដ្ឋាភិបាលហូឡង់បានបោះពុម្ពសៀវភៅ "សៀវភៅណែនាំស្តីពីការមិនរើសអើងដោយការរចនា" នៅក្នុង 2021ដោយជំរុញឱ្យមានតម្លាភាពនៃក្បួនដោះស្រាយកាន់តែច្រើន និងការអនុលោមតាមសិទ្ធិជាមូលដ្ឋានដើម្បីការពារគ្រោះមហន្តរាយបែបនេះកុំឱ្យកើតឡើងម្តងទៀត។

សំណួរដែលមិនមានចម្លើយនៃការទទួលខុសត្រូវ

រឿងអាស្រូវបានបង្ខំឱ្យមានការសន្ទនាថ្នាក់ជាតិដ៏ឈឺចាប់មួយ៖ តើអ្នកណាជាអ្នកទទួលខុសត្រូវពិតប្រាកដ នៅពេលដែលសកម្មភាពរបស់ម៉ាស៊ីននាំឱ្យមានគ្រោះថ្នាក់យ៉ាងទូលំទូលាយបែបនេះ? អ្នកមិនអាចដាក់ក្បួនដោះស្រាយលើការសាកល្បងបានទេ ប៉ុន្តែការសម្រេចចិត្តរបស់វាបណ្តាលឱ្យមានការខូចខាតដែលមិនអាចប្រកែកបាន។ សំណួរផ្នែកច្បាប់ និងក្រមសីលធម៌ដែលវាលើកឡើងនៅពេលនេះ គឺជាចំណុចសំខាន់សម្រាប់អនាគតនៃអភិបាលកិច្ច AI ។

  • Algorithmic Bias៖ ប្រព័ន្ធនេះហាក់ដូចជាកំណត់គោលដៅគ្រួសារដែលមានសញ្ជាតិពីរមិនសមហេតុផល ដោយបង្កើតជាសំណួរធ្ងន់ធ្ងរអំពីការរើសអើង។ តើ​ក្បួន​ដោះស្រាយ​អាច​មាន​ការ​រើសអើង ហើយ​អ្នក​ណា​ត្រូវ​ទទួល​ខុស​ត្រូវ​ពេល​វា​មាន?
  • កង្វះតម្លាភាព៖ មន្ត្រី​មិន​អាច​ពន្យល់​បាន​ទេ។ ហេតុអ្វី ក្បួនដោះស្រាយបានដាក់ទង់គ្រួសារជាក់លាក់ ដែលធ្វើឱ្យជនរងគ្រោះមិនអាចការពារខ្លួនបាន។ ការខ្វះភាពច្បាស់លាស់នេះបានការពារកំហុសរបស់ប្រព័ន្ធពីការត្រួតពិនិត្យជាក់ស្តែងណាមួយ។
  • ការដាក់រាជ្យរបស់មនុស្ស៖ ប្រហែលជាបញ្ហាភាគច្រើនគឺជាករណីច្បាស់លាស់នៃ "ភាពលំអៀងនៃស្វ័យប្រវត្តិកម្ម" ដែលជាទំនោរសម្រាប់មនុស្សក្នុងការពឹងផ្អែកខ្លាំងពេក និងទទួលយកលទ្ធផលនៃប្រព័ន្ធស្វ័យប្រវត្តិដោយងងឹតងងុល។ មន្ត្រីរាជការបានជឿជាក់លើសាលក្រមរបស់ក្បួនដោះស្រាយ ដោយកំណត់ការចោទប្រកាន់ខុស។

ខណៈពេលដែលករណីនេះជាចម្បងនាំឱ្យមានផលវិបាកផ្នែករដ្ឋបាល និងរដ្ឋប្បវេណី វាបង្ហាញពីចន្លោះប្រហោងនៃការទទួលខុសត្រូវដូចគ្នា ដែលបង្កឱ្យមានការជជែកដេញដោលអំពីច្បាប់ព្រហ្មទណ្ឌ។ ភាពស្រដៀងគ្នាទៅនឹងប្រព័ន្ធស្វយ័តផ្សេងទៀតគឺច្បាស់ណាស់ ដូចដែលបានឃើញនៅក្នុងបញ្ហាប្រឈមផ្នែកច្បាប់ជុំវិញ គ្រោះថ្នាក់រថយន្តបើកបរដោយខ្លួនឯងដ៏ចម្រូងចម្រាសដែលការចាត់ចែងស្តីបន្ទោសគឺស្មុគស្មាញដូចគ្នា។

រឿងអាស្រូវថែទាំកុមាររបស់ប្រទេសហូឡង់គឺជាការរំលឹកដ៏ក្រៀមក្រំមួយថា នៅពេលដែលយើងផ្ទេរការសម្រេចចិត្តទៅ AI ការទទួលខុសត្រូវមិនគ្រាន់តែរលាយបាត់នោះទេ។ វាប្រែជាសាយភាយ និងស្រពិចស្រពិល ប៉ុន្តែទីបំផុតវានៅតែមានជាមួយនឹងមនុស្ស ដែលរចនា ប្រើប្រាស់ និងត្រួតពិនិត្យប្រព័ន្ធដ៏មានឥទ្ធិពលទាំងនេះ។

របៀបដែលបទប្បញ្ញត្តិសកលកំពុងគ្រប់គ្រង AI ដែលមានហានិភ័យខ្ពស់។

ការ​បង្ហាញ​រូបភាព​ឌីជីថល​នៃ​ថ្នាំង និង​បន្ទាត់​ដែល​ទាក់ទង​គ្នា​បង្កើត​ជា​បណ្តាញ​សកល​មួយ ដែល​តំណាង​ឱ្យ​បទប្បញ្ញត្តិ AI អន្តរជាតិ។
AI និង​ច្បាប់​ព្រហ្មទណ្ឌ​៖ ​តើ​នរណា​ជា​អ្នក​ទទួលខុសត្រូវ​នៅពេល​ម៉ាស៊ីន​ប្រព្រឹត្ត​ឧក្រិដ្ឋកម្ម​? ២

នៅពេលដែលបញ្ញាសិប្បនិមិត្តកាន់តែមានសមត្ថភាព រដ្ឋាភិបាលនៅទូទាំងពិភពលោកនៅទីបំផុតបានផ្លាស់ប្តូរពីការពិភាក្សាទៅជាសកម្មភាពសម្រេចចិត្ត។ ថ្ងៃ​នៃ​ការ​ចាត់​ទុក AI ដូច​ជា​បច្ចេកវិជ្ជា​ខាង​លិច​ត្រូវ​បាន​រាប់​យ៉ាង​ច្បាស់។ ការជំរុញដ៏សំខាន់មួយសម្រាប់បទប្បញ្ញត្តិសកម្មកំពុងដំណើរការ ដោយមានគោលបំណងកំណត់ផ្លូវច្បាប់ច្បាស់លាស់ មុនពេលដែលគ្រោះថ្នាក់ដែលមិនអាចត្រឡប់វិញអាចកើតមានឡើង។

ចលនាសកលនេះមិនមែនសំដៅលើការរារាំងការច្នៃប្រឌិតជាមួយនឹងការហាមប្រាមដោយដៃធ្ងន់នោះទេ។ ជំនួសមកវិញ និយតករកំពុងទទួលយកដោយឈ្លាសវៃ វិធីសាស្រ្តផ្អែកលើហានិភ័យ. អ្នកអាចគិតពីវាដូចជារបៀបដែលយើងគ្រប់គ្រងយានជំនិះ៖ យើងមិនហាមឃាត់រថយន្តទាំងអស់នោះទេ ប៉ុន្តែយើងមានច្បាប់តឹងរ៉ឹងមិនគួរឱ្យជឿសម្រាប់ម៉ូដែលប្រណាំងដ៏មានឥទ្ធិពល និងរថយន្តដឹកទំនិញធុនធ្ងន់ ដោយសារសក្តានុពលនៃគ្រោះថ្នាក់របស់ពួកគេគឺធំជាង។ ដូចគ្នានេះដែរ បទប្បញ្ញត្តិ AI ថ្មីកំពុងផ្តោតលើកម្មវិធីដែលមានហានិភ័យខ្ពស់ជាក់លាក់ ខណៈពេលដែលអនុញ្ញាតឱ្យការប្រើប្រាស់ដែលមានហានិភ័យទាបមានភាពរីកចម្រើន។

ការនាំមុខការចោទប្រកាន់នេះគឺជាចំណុចសំខាន់របស់សហភាពអឺរ៉ុប ច្បាប់ AI. ច្បាប់នេះកំពុងស្ថិតនៅលើផ្លូវដើម្បីក្លាយជាស្តង់ដារសកល ដោយតម្រៀបប្រព័ន្ធ AI ទៅជាប្រភេទដោយផ្អែកលើសក្តានុពលរបស់ពួកគេក្នុងការបង្កគ្រោះថ្នាក់ និងអនុវត្តច្បាប់ស្របតាម។ វា​ជា​យុទ្ធសាស្ត្រ​ជាក់ស្តែង ដែល​ត្រូវ​បាន​រចនា​ឡើង​ដើម្បី​ការពារ​ពលរដ្ឋ​ដោយ​មិន​រារាំង​ការ​រីក​ចម្រើន​ផ្នែក​បច្ចេកវិទ្យា។

គូរបន្ទាត់ក្រហមហាមឃាត់ AI ដែលមិនអាចទទួលយកបាន។

ច្បាប់ AI របស់សហភាពអឺរ៉ុប និងក្របខ័ណ្ឌស្រដៀងគ្នានេះ មិនមែនគ្រាន់តែអំពីការគ្រប់គ្រងហានិភ័យប៉ុណ្ណោះទេ។ ពួកគេក៏និយាយអំពីការគូរបន្ទាត់សីលធម៌ដ៏រឹងមាំនៅក្នុងខ្សាច់ផងដែរ។ កម្មវិធី AI មួយចំនួនត្រូវបានចាត់ទុកថាមានគ្រោះថ្នាក់ដល់សិទ្ធិជាមូលដ្ឋានរបស់យើង ដែលពួកគេត្រូវបានហាមឃាត់ទាំងស្រុង។ ទាំងនេះគឺជាប្រព័ន្ធដែលនិយតករនិយាយថាបង្កឱ្យមាន "ហានិភ័យដែលមិនអាចទទួលយកបាន" ។

ប្រភេទនៃ AI ដែលត្រូវបានហាមឃាត់នេះ រួមមានបច្ចេកវិទ្យាដែលជាមូលដ្ឋានខុសពីតម្លៃប្រជាធិបតេយ្យ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស។ ចំណុចទាំងមូលគឺដើម្បីការពារសេណារីយ៉ូ dystopian បំផុតមិនធ្លាប់ក្លាយជាការពិត។

បញ្ជីនៃការអនុវត្តដែលត្រូវបានហាមឃាត់គឺជាក់លាក់ និងកំណត់គោលដៅ៖

  • បច្ចេកវិទ្យាឧបាយកល៖ ប្រព័ន្ធណាមួយដែលប្រើបច្ចេកទេស subliminal ដើម្បីបង្ខូចឥរិយាបថរបស់មនុស្សតាមរបៀបដែលទំនងជាធ្វើឱ្យពួកគេមានគ្រោះថ្នាក់ដល់រាងកាយ ឬផ្លូវចិត្តគឺត្រូវបានហាមឃាត់យ៉ាងតឹងរ៉ឹង។
  • ប្រព័ន្ធពិន្ទុសង្គម៖ AI ដែលប្រើដោយអាជ្ញាធរសាធារណៈសម្រាប់ "ការដាក់ពិន្ទុសង្គម" ពោលគឺការវាយតម្លៃ ឬចាត់ថ្នាក់នៃភាពគួរឱ្យទុកចិត្តរបស់មនុស្សដោយផ្អែកលើអាកប្បកិរិយាសង្គម ឬលក្ខណៈផ្ទាល់ខ្លួនរបស់ពួកគេ - ត្រូវបានហាមឃាត់។
  • ការកេងប្រវ័ញ្ចភាពងាយរងគ្រោះ៖ វាក៏ត្រូវបានហាមឃាត់ផងដែរក្នុងការប្រើ AI ដែលកេងប្រវ័ញ្ចលើភាពងាយរងគ្រោះរបស់ក្រុមជាក់លាក់ ដោយសារអាយុរបស់ពួកគេ ឬពិការភាពផ្លូវកាយ ឬផ្លូវចិត្តណាមួយ។

ការហាមប្រាមទាំងនេះផ្ញើសារដែលមិនអាចយល់បាន៖ ផ្លូវបច្ចេកវិទ្យាមួយចំនួនគឺមានគ្រោះថ្នាក់ខ្លាំងពេកក្នុងការធ្លាក់ចុះ។ ពួកគេបានកាត់បេះដូងនៃការជជែកដេញដោល AI និងច្បាប់ព្រហ្មទណ្ឌ តាមរយៈការទប់ស្កាត់ការដាក់ពង្រាយប្រព័ន្ធដែលត្រូវបានរចនាឡើងដោយចេតនាសម្រាប់ការបញ្ចប់ព្យាបាទ ឬការគៀបសង្កត់។

ផលប៉ះពាល់ពិភពលោកពិតប្រាកដនៅប្រទេសហូឡង់

បទប្បញ្ញត្តិទាំងនេះមិនមែនជាគំនិតអរូបីសម្រាប់អនាគតទេ។ ពួកគេកំពុងមានផលប៉ះពាល់ជាក់ស្តែងនៅពេលនេះ។ ជាឧទាហរណ៍ នៅប្រទេសហូឡង់ រដ្ឋាភិបាលបានប្រញាប់ប្រញាល់តាមទិសដៅរបស់សហភាពអឺរ៉ុប។

ចាប់តាំងពីដើមឆ្នាំ 2025 មក ប្រទេសហូឡង់បាននិងកំពុងអនុវត្តការហាមឃាត់លើប្រព័ន្ធ AI ជាក់លាក់ ដើម្បីគ្រប់គ្រងហានិភ័យ ជាពិសេសនៅក្នុងច្បាប់ព្រហ្មទណ្ឌ និងកម្មវិធីសាធារណៈ។ នេះរាប់បញ្ចូលទាំងការហាមប្រាមការវាយតម្លៃហានិភ័យដែលជំរុញដោយ AI សម្រាប់ឧក្រិដ្ឋកម្ម ដែលជាការអនុវត្តដែលធ្លាប់ប្រើពីមុននៅក្នុងប៉ូលីសទស្សន៍ទាយ។

អង្គការនានានៅទូទាំងប្រទេសហូឡង់ត្រូវបានតម្រូវឱ្យលុបចោលឧបករណ៍ AI ដែលត្រូវបានហាមឃាត់ទាំងនេះដោយ ខែ​កុម្ភៈ 2025 ឬប្រថុយនឹងការផាកពិន័យយ៉ាងច្រើនពីនិយតករ។ សកម្មភាពសម្រេចចិត្តនេះបង្ហាញថាតើរដ្ឋាភិបាលនានាកំពុងប្រព្រឹត្តិចំពោះ AI ដែលមានហានិភ័យខ្ពស់ប៉ុណ្ណា ដោយបង្កើតឱ្យមានតម្រូវការផ្លូវច្បាប់ច្បាស់លាស់សម្រាប់អាជីវកម្មដើម្បីអនុវត្តតាម។ អ្នកអាចស្វែងយល់បន្ថែមអំពីជាក់លាក់ ការអនុវត្ត AI ត្រូវបានហាមឃាត់ដោយរដ្ឋាភិបាលហូឡង់ និងរបៀបដែលពួកគេប៉ះពាល់ដល់អង្គការ។

សម្រាប់អាជីវកម្ម និងអ្នកអភិវឌ្ឍន៍ ការយកវាចេញគឺច្បាស់ណាស់៖ ការយល់ដឹង និងការសម្របខ្លួនទៅនឹងបរិយាកាសបទប្បញ្ញត្តិថ្មីនេះលែងជាជម្រើសទៀតហើយ។ ទិដ្ឋភាពផ្លូវច្បាប់មានភាពរឹងមាំ ហើយការពិន័យចំពោះការមិនអនុលោមតាមច្បាប់គឺធ្ងន់ធ្ងរ ដោយបង្វែរអ្វីដែលធ្លាប់ត្រូវបានពិចារណាអំពីក្រមសីលធម៌ទៅជាហានិភ័យអាជីវកម្មជាក់ស្តែង។ ការរុករកច្បាប់ទាំងនេះឥឡូវនេះគឺជាផ្នែកសំខាន់មួយនៃការដាក់ពង្រាយប្រព័ន្ធ AI ណាមួយ។

សម្លឹងទៅមុខ៖ វិធីថ្មីដើម្បីរក្សា AI ឱ្យទទួលខុសត្រូវ

នៅពេលដែលបញ្ញាសិប្បនិមិត្តកាន់តែមានស្វ័យភាព សៀវភៅលេងច្បាប់ដែលមានស្រាប់របស់យើងចាប់ផ្តើមមានអារម្មណ៍ថាហួសសម័យហើយ។ វិធីសាស្រ្តចាស់ - គ្រាន់តែចង្អុលម្រាមដៃទៅអ្នកប្រើប្រាស់មនុស្ស ឬអ្នកសរសេរកម្មវិធីដើម - គ្រាន់តែមិនកាត់វានៅពេលដែល AI ចាប់ផ្តើមធ្វើការសម្រេចចិត្តដោយខ្លួនឯង។ ការពិត​នេះ​កំពុង​បង្ខំ​ចិត្ត​ផ្លូវច្បាប់​ឱ្យ​សួរ​សំណួរ​ដ៏​ពិបាក​មួយ​ថា តើ​មាន​អ្វី​បន្ទាប់​?

ការសន្ទនាកំពុងផ្លាស់ប្តូរឆ្ពោះទៅរកគំរូគណនេយ្យភាពថ្មីពិតប្រាកដ ដែលបង្កើតឡើងសម្រាប់បញ្ហាប្រឈមពិសេសនៃ AI កម្រិតខ្ពស់។ យើងមិននិយាយអំពីការកែប្រែតូចៗនៅទីនេះទេ។ នេះគឺជាការគិតឡើងវិញជាមូលដ្ឋានអំពីអត្ថន័យនៃការស្តីបន្ទោសនៅពេលដែល "ចិត្ត" នៅពីក្រោយសកម្មភាពគឺជាក្បួនដោះស្រាយស្មុគស្មាញ។ គំនិតទាំងនេះកំពុងបង្កើតអនាគតនៃយុត្តិធម៍នៅក្នុងពិភពលោកដែលកាន់តែដំណើរការដោយស្វ័យប្រវត្តិទៅមួយថ្ងៃ។

ការជជែកវែកញែកដ៏ចម្រូងចម្រាសលើបុគ្គលិកលក្ខណៈអេឡិចត្រូនិច

គំនិតមួយក្នុងចំណោមគំនិតដ៏ក្លាហាន និងចម្រូងចម្រាសបំផុតនៅលើតុគឺ បុគ្គលិកលក្ខណៈអេឡិចត្រូនិច. គោលគំនិតគឺផ្តល់អោយ AIs កម្រិតខ្ពស់មួយចំនួននូវស្ថានភាពផ្លូវច្បាប់ដែលមានកម្រិត ដូចជារបៀបដែលសាជីវកម្មត្រូវបានចាត់ទុកជា "មនុស្សស្របច្បាប់"។ នេះ​មិន​មែន​អំពី​ការ​ផ្តល់​សិទ្ធិ​មនុស្ស AI ទេ។ ផ្ទុយទៅវិញ វានិយាយអំពីការបង្កើតអង្គភាពដែលអាចជាម្ចាស់កម្មសិទ្ធិ ចុះហត្ថលេខាលើកិច្ចសន្យា ហើយសំខាន់បំផុតគឺត្រូវទទួលខុសត្រូវចំពោះការខូចខាតដែលវាបណ្តាលឱ្យ។

ស្រមៃមើលមូលនិធិវិនិយោគ AI ស្វយ័តពេញលេញដែលបង្កឱ្យមានការគាំងទីផ្សារជាមួយនឹងយុទ្ធសាស្រ្តជួញដូរដែលមិនបានមើលឃើញទុកជាមុនមួយចំនួន។ ជាមួយនឹងបុគ្គលិកលក្ខណៈអេឡិចត្រូនិច AI ខ្លួនឯងអាចទទួលខុសត្រូវ ហើយទ្រព្យសម្បត្តិរបស់វាអាចត្រូវបានប្រើដើម្បីសងអ្នកដែលបាត់បង់ប្រាក់។ វាបង្កើតគោលដៅសម្រាប់ការទទួលខុសត្រូវ នៅពេលដែលគ្មានមនុស្សណាម្នាក់មានកំហុស។

ទោះយ៉ាងណាក៏ដោយ គំនិតនេះកំពុងប្រឈមមុខនឹងការរុញច្រានយ៉ាងធ្ងន់ធ្ងរមួយចំនួន។

  • គ្រោះថ្នាក់ខាងសីលធម៌៖ អ្នក​រិះគន់​បារម្ភ​ថា វា​ជា​កាត​ដោះលែង​ពី​ពន្ធនាគារ។ តើអ្នកអភិវឌ្ឍន៍ និងក្រុមហ៊ុនអាចបន្ទោសការបង្កើត AI របស់ពួកគេដើម្បីគេចពីការទទួលខុសត្រូវបានទេ? វាជាហានិភ័យពិតប្រាកដ។
  • កង្វល់ខាងសីលធម៌៖ សម្រាប់មនុស្សជាច្រើន ការផ្តល់ភាពជាបុគ្គលណាមួយដល់ម៉ាស៊ីនឆ្លងកាត់បន្ទាត់ទស្សនវិជ្ជាដ៏គ្រោះថ្នាក់ ដោយធ្វើឱ្យមានភាពមិនច្បាស់លាស់រវាងមនុស្ស និងបច្ចេកវិទ្យា។
  • ភាពជាក់ស្តែង៖ វាស្តាប់ទៅល្អតាមទ្រឹស្តី ប៉ុន្តែតើវានឹងដំណើរការយ៉ាងដូចម្តេច? តើ AI បង់ការផាកពិន័យ ឬ "កាត់ទោស" យ៉ាងដូចម្តេច? បញ្ហាប្រឈមក្នុងពិភពពិតនៃការដាក់ទណ្ឌកម្មអង្គភាពមិនមែនមនុស្សគឺធំធេងណាស់។

ការបែងចែកទំនួលខុសត្រូវលើខ្សែសង្វាក់ផ្គត់ផ្គង់

គំរូជាក់ស្តែង និងពេញនិយមជាងនេះគឺ ការទទួលខុសត្រូវចែកចាយ. ជំនួសឱ្យការស្វែងរកពពែតែមួយ វិធីសាស្រ្តនេះរីករាលដាលនូវការទទួលខុសត្រូវលើអ្នកគ្រប់គ្នាដែលពាក់ព័ន្ធនឹងការបង្កើត និងការដាក់ឱ្យប្រើប្រាស់របស់ AI ។ គិត​ថា​វា​ដូច​ជា​ឧបទ្ទវហេតុ​សំណង់​ធំ — កំហុស​អាច​នឹង​ត្រូវ​បាន​ចែក​រំលែក​រវាង​ស្ថាបត្យករ អ្នក​ផ្គត់ផ្គង់​សម្ភារ ក្រុមហ៊ុន​សំណង់ និង​អ្នក​គ្រប់​គ្រង​ការដ្ឋាន។

នៅពេលដែល AI បរាជ័យ ការស្តីបន្ទោសអាចត្រូវបានបែងចែកក្នុងចំណោមភាគីជាច្រើន៖

  1. អ្នកផ្គត់ផ្គង់ទិន្នន័យ៖ ប្រសិនបើពួកគេផ្តល់ទិន្នន័យបណ្តុះបណ្តាលដោយលំអៀង ឬខូច។
  2. អ្នកអភិវឌ្ឍន៍ ក្បួនដោះស្រាយ៖ សម្រាប់​ការ​រចនា​ប្រព័ន្ធ​ដែល​មាន​ហានិភ័យ​ដែល​អាច​មើល​ឃើញ​ច្បាស់។
  3. ក្រុមហ៊ុនផលិត៖ សម្រាប់ការដាក់ AI ទៅក្នុងផលិតផលដោយគ្មានការត្រួតពិនិត្យសុវត្ថិភាពត្រឹមត្រូវ។
  4. អ្នកប្រើប្រាស់ចុងក្រោយ៖ សម្រាប់ការប្រើប្រាស់ប្រព័ន្ធដោយមិនប្រុងប្រយ័ត្ន ឬមិនអើពើការព្រមានសុវត្ថិភាព។

គំរូនេះទទួលបានថាការបរាជ័យ AI ជារឿយៗជាបញ្ហាប្រព័ន្ធ ដែលកើតចេញពីខ្សែសង្វាក់ទាំងមូលនៃការសម្រេចចិត្តដែលធ្វើឡើងដោយមនុស្សផ្សេងគ្នា។ វាជំរុញឱ្យអ្នកគ្រប់គ្នានៅក្នុងដំណើរការនេះ ប្រកាន់យកសុវត្ថិភាព និងក្រមសីលធម៌យ៉ាងយកចិត្តទុកដាក់តាំងពីដើមដល់ចប់។

គំនិតនៃការទទួលខុសត្រូវរួមនេះមិនមែនជារឿងថ្មីទេ។ វាឆ្លុះបញ្ចាំងពីគោលការណ៍ដែលយើងឃើញនៅក្នុងវិស័យវិជ្ជាជីវៈផ្សេងទៀត។ ដូចដែលយើងក្រឡេកមើលរបៀបដោះស្រាយ AI វាមានតម្លៃពិចារណាលើក្របខ័ណ្ឌដែលមានស្រាប់ដូចជា គោលការណ៍ណែនាំសុចរិតភាពសិក្សាដែលគូសបញ្ជាក់ពីស្តង់ដារសីលធម៌រួមសម្រាប់ការប្រើប្រាស់ AI ប្រកបដោយទំនួលខុសត្រូវក្នុងការអប់រំ។

ការដោះស្រាយបញ្ហាប្រអប់ខ្មៅ

ប្រហែលជាឧបសគ្គដ៏ធំបំផុតតែមួយគត់សម្រាប់គំរូផ្លូវច្បាប់នាពេលអនាគតគឺ បញ្ហា "ប្រអប់ខ្មៅ". ប្រព័ន្ធ AI ដ៏មានឥទ្ធិពលបំផុតនាពេលបច្ចុប្បន្ននេះ ជាពិសេសម៉ូដែលសិក្សាស៊ីជម្រៅ ដំណើរការតាមរបៀបដែលអាថ៌កំបាំងសូម្បីតែមនុស្សដែលបានបង្កើតវាក៏ដោយ។ ពួកគេ​អាច​ស្ដោះ​ទឹកមាត់​ចេញ​ដោយ​មិន​អាច​បង្ហាញ​ពី​ការងារ​របស់​ពួកគេ​។

កង្វះ​តម្លាភាព​នេះ​ធ្វើ​ឱ្យ​វា​ពិបាក​ក្នុង​ការ​ដោះស្រាយ​មិន​គួរ​ឱ្យ​ជឿ ហេតុអ្វី AI បានធ្វើកំហុសដែលនាំឱ្យមានឧក្រិដ្ឋកម្ម។ តើវាជាកំហុសក្នុងការរចនាមែនទេ? ទិន្នន័យមិនល្អ? ឬ​អាកប្បកិរិយា​ចម្លែក​មិន​អាច​ទាយ​ទុក​មុន​ដែល​គ្មាន​អ្នក​ណា​ឃើញ​មក? បើគ្មានចម្លើយ ការស្តីបន្ទោសគឺគ្រាន់តែជាការស្មានប៉ុណ្ណោះ។

ក្របខ័ណ្ឌច្បាប់ដែលអាចធ្វើការបាននាពេលអនាគតនឹងត្រូវទាមទារឱ្យមានតម្លាភាពបន្ថែមទៀត។ នេះមានន័យថាតម្រូវឱ្យមានលក្ខណៈពិសេសដូចជាផ្លូវសវនកម្មច្បាស់លាស់ និង "ការពន្យល់" ដោយការរចនា ធានាថានៅពេលដែលមានរឿងខុសប្រក្រតី អ្នកស៊ើបអង្កេតយ៉ាងហោចណាស់អាចធ្វើតាមដានឌីជីថលរបស់ម៉ាស៊ីនដើម្បីស្វែងរកប្រភពនៃការបរាជ័យ។

ក្របខ័ណ្ឌអនុវត្តសម្រាប់កាត់បន្ថយហានិភ័យផ្នែកច្បាប់ AI

ដៃរបស់បុគ្គលដាក់ប្លុកឈើដែលមានរូបតំណាង 'ទំនួលខុសត្រូវ' លើរចនាសម្ព័ន្ធ តំណាងឱ្យការកសាងក្របខ័ណ្ឌសម្រាប់ក្រមសីលធម៌ និងគណនេយ្យភាពរបស់ AI ។
AI និង​ច្បាប់​ព្រហ្មទណ្ឌ​៖ ​តើ​នរណា​ជា​អ្នក​ទទួលខុសត្រូវ​នៅពេល​ម៉ាស៊ីន​ប្រព្រឹត្ត​ឧក្រិដ្ឋកម្ម​? ២

ការរុករកចំណុចប្រសព្វស្មុគស្មាញនៃ AI និងច្បាប់ព្រហ្មទណ្ឌ ទាមទារច្រើនជាងការយល់ដឹងតាមទ្រឹស្តី។ វាទាមទារជំហានជាក់ស្តែង និងសកម្ម ដើម្បីកាត់បន្ថយការបង្ហាញផ្លូវច្បាប់របស់អ្នក។ សម្រាប់ស្ថាប័នណាមួយដែលកំពុងអភិវឌ្ឍ ឬដាក់ពង្រាយ AI ការបង្កើតក្របខណ្ឌផ្ទៃក្នុងដ៏រឹងមាំមិនមែនគ្រាន់តែជាក្រមសីលធម៌ល្អនោះទេ វាជាតម្រូវការអាជីវកម្មដ៏សំខាន់ដើម្បីធានាថាអ្នកមិនមែនជាអ្នកទទួលខុសត្រូវនៅពេលដែលម៉ាស៊ីនប្រព្រឹត្តបទឧក្រិដ្ឋ។

ក្របខណ្ឌនេះត្រូវសាងសង់លើសសរស្តម្ភស្នូលចំនួនបី៖ តម្លាភាព, យុត្តិធម៌និង គណនេយ្យភាព. គិតពីគោលការណ៍ទាំងនេះជាការណែនាំរបស់អ្នកសម្រាប់បង្កើតប្រព័ន្ធ AI ដែលមិនត្រឹមតែមានប្រសិទ្ធភាពប៉ុណ្ណោះទេ ថែមទាំងអាចការពារបានតាមច្បាប់ផងដែរ។ តាមរយៈការបញ្ចូលតម្លៃទាំងនេះទៅក្នុងវដ្តនៃការអភិវឌ្ឍន៍របស់អ្នកតាំងពីដំបូង អ្នកបង្កើតការការពារដ៏មានឥទ្ធិពលប្រឆាំងនឹងការអះអាងដែលអាចកើតមាននៃការធ្វេសប្រហែស ឬការមិនប្រុងប្រយ័ត្ន។

ការកសាងបញ្ជីត្រួតពិនិត្យគណនេយ្យភាព AI របស់អ្នក។

ដើម្បីប្រែក្លាយគោលការណ៍ទាំងនេះទៅជាសកម្មភាព អង្គការអាចអនុវត្តបញ្ជីត្រួតពិនិត្យច្បាស់លាស់នៃការអនុវត្តសំខាន់ៗ។ ជំហានទាំងនេះជួយបង្កើតកំណត់ត្រាដែលអាចផ្ទៀងផ្ទាត់បានអំពីភាពឧស្សាហ៍ព្យាយាមរបស់អ្នក ដោយបង្ហាញថាអ្នកបានចាត់វិធានការសមហេតុផលដើម្បីការពារគ្រោះថ្នាក់ដែលអាចមើលឃើញទុកជាមុន។

ចាប់ផ្តើមជាមួយសកម្មភាពសំខាន់ៗទាំងនេះ៖

  • អនុវត្តការវាយតម្លៃផលប៉ះពាល់ជាក្បួន (AIAs)៖ មុនពេលអ្នកគិតអំពីការដាក់ពង្រាយប្រព័ន្ធ AI អ្នកត្រូវវាយតម្លៃយ៉ាងម៉ត់ចត់នូវផលប៉ះពាល់សង្គមដែលអាចកើតមានរបស់វា។ នេះពាក់ព័ន្ធនឹងការវាយតម្លៃហានិភ័យនៃភាពលំអៀង លទ្ធផលរើសអើង និងសក្តានុពលណាមួយសម្រាប់ការប្រើប្រាស់ខុសដែលអាចនាំឱ្យមានការទទួលខុសត្រូវព្រហ្មទណ្ឌ។
  • បង្កើតការគ្រប់គ្រងទិន្នន័យដ៏រឹងមាំ៖ AI របស់អ្នកគឺល្អដូចទិន្នន័យរបស់វា។ វាមានសារៈសំខាន់ណាស់ក្នុងការអនុវត្តពិធីការដ៏តឹងរ៉ឹង ដើម្បីធានាថាទិន្នន័យបណ្តុះបណ្តាលរបស់អ្នកមានភាពត្រឹមត្រូវ តំណាង និងគ្មានការលំអៀងដែលអាចនាំឱ្យ AI ធ្វើការសម្រេចចិត្តដោយខុសច្បាប់។
  • រក្សា​ដាន​សវនកម្ម​ល្អិតល្អន់៖ រក្សាកំណត់ហេតុលម្អិតនៃប្រតិបត្តិការរបស់ AI ការសម្រេចចិត្តរបស់វា និងរាល់អន្តរាគមន៍របស់មនុស្សដែលកើតឡើង។ នៅក្នុងព្រឹត្តិការណ៍នៃឧបទ្ទវហេតុមួយ កំណត់ត្រាទាំងនេះគឺមិនអាចខ្វះបានសម្រាប់ការស៊ើបអង្កេតនូវអ្វីដែលខុស និងបង្ហាញឱ្យច្បាស់អំពីរបៀបដែលប្រព័ន្ធដំណើរការ។

សមាសធាតុសំខាន់នៃយុទ្ធសាស្ត្រកាត់បន្ថយហានិភ័យគឺការអនុវត្តប្រព័ន្ធ 'មនុស្សក្នុងរង្វង់' (HITL) សម្រាប់ការសម្រេចចិត្តដែលមានភាគហ៊ុនខ្ពស់។ នេះធានាថាប្រតិបត្តិកររបស់មនុស្សរក្សាការគ្រប់គ្រងចុងក្រោយ និងអាចបដិសេធ AI ដោយរក្សាខ្សែសង្វាក់ច្បាស់លាស់នៃការទទួលខុសត្រូវ។

ការត្រួតពិនិត្យរបស់មនុស្សជាការការពារចុងក្រោយ

គំរូ 'មនុស្សក្នុងរង្វង់' គឺលើសពីលក្ខណៈបច្ចេកទេស។ វាជាច្បាប់មួយ។ ដោយតម្រូវឱ្យមានការបញ្ជាក់របស់មនុស្សសម្រាប់សកម្មភាពសំខាន់ៗ អង្គការមួយអាចប្រកែកយ៉ាងមានប្រសិទ្ធភាពថា AI គ្រាន់តែជាឧបករណ៍ទំនើបប៉ុណ្ណោះ មិនមែនជាភ្នាក់ងារស្វ័យភាពធ្វើការសម្រេចចិត្តដោយខ្លួនឯងនោះទេ។ វិធីសាស្រ្តនេះពង្រឹងយ៉ាងសំខាន់នូវមុខតំណែងផ្លូវច្បាប់ដែលមនុស្សមិនមែនជាម៉ាស៊ីនបានបង្កើតជម្រើសចុងក្រោយ។

ទីបំផុត ការកាត់បន្ថយហានិភ័យផ្នែកច្បាប់ទាំងនេះ ពាក់ព័ន្ធនឹងការកសាងវប្បធម៌នៃការទទួលខុសត្រូវ ដែលជ្រៀតចូលទៅក្នុងស្ថាប័នទាំងមូល។ ការយល់ដឹងអំពី nuances នៃ ការទាមទារសំណង និងការខូចខាតនៅក្នុងប្រទេសហូឡង់ អាចផ្តល់នូវបរិបទដ៏មានតម្លៃសម្រាប់ការបង្កើតគោលនយោបាយផ្ទៃក្នុងទាំងនេះ។ គោលដៅគឺដើម្បីបង្កើត AI ដែលមិនត្រឹមតែមានភាពច្នៃប្រឌិតប៉ុណ្ណោះទេ ប៉ុន្តែក៏មានតម្លាភាព ក្រមសីលធម៌ និងបង្ហាញឱ្យឃើញនៅក្រោមការគ្រប់គ្រងរបស់មនុស្សផងដែរ។

សំណួរដែលគេសួរញឹកញាប់អំពី AI និងច្បាប់ព្រហ្មទណ្ឌ

ចំនុចប្រសព្វនៃបញ្ញាសិប្បនិមិត្ត និងច្បាប់ព្រហ្មទណ្ឌ គឺជាតំបន់ដែលមានល្បិចកល ដែលពោរពេញទៅដោយសំណួរច្រើនជាងចម្លើយនៅពេលនេះ។ នៅពេលដែល AI កាន់តែបញ្ចូលទៅក្នុងជីវិតប្រចាំថ្ងៃរបស់យើង វាជារឿងសំខាន់ក្នុងការយល់ដឹងថាអ្នកណាត្រូវទទួលខុសត្រូវ នៅពេលដែលប្រព័ន្ធឆ្លាតវៃមួយពាក់ព័ន្ធនឹងឧក្រិដ្ឋកម្ម។ នេះគឺជាសំណួរទូទៅមួយចំនួនដែលយើងជួបប្រទះ។

តើ AI អាចបម្រើជាសាក្សីនៅក្នុងតុលាការបានទេ?

ចម្លើយខ្លីគឺទេ យ៉ាងហោចណាស់ក៏មិនមែននៅក្នុងទិដ្ឋភាពច្បាប់បច្ចុប្បន្នដែរ។ គោលគំនិតរបស់សាក្សីគឺជាមូលដ្ឋានរបស់មនុស្ស។ ដើម្បីធ្វើជាសាក្សី បុគ្គលត្រូវតែអាចស្បថដោយសន្យាថានឹងប្រាប់ការពិត។ ពួកគេក៏ត្រូវមានចំណេះដឹងផ្ទាល់ខ្លួនអំពីព្រឹត្តិការណ៍ដែលមានសំណួរ និងអាចទប់ទល់នឹងការប្រឡងឆ្លង ដែលការចងចាំ ការយល់ឃើញ និងភាពជឿជាក់របស់ពួកគេត្រូវបានពិនិត្យ។

AI គ្រាន់តែមិនបំពេញតាមលក្ខណៈវិនិច្ឆ័យទាំងនេះទេ។ វាគ្មានស្មារតី មិនអាចស្បថ និងមិនមានការចងចាំផ្ទាល់ខ្លួនក្នុងន័យមនុស្ស។ ល្អបំផុត វាអាចបង្ហាញទិន្នន័យដែលវាបានដំណើរការ។ នេះ​ធ្វើ​ឱ្យ​វា​ច្រើន​ដូច​ជា​ភស្តុតាង​មួយ​ចំនួន​ដូច​ជា​ការ​ថត​សំឡេង CCTV ជា​ជាង​សាក្សី​ជាក់​ស្តែង។ លទ្ធផលរបស់ AI ពិតជាអាចត្រូវបានបង្ហាញនៅក្នុងតុលាការ ប៉ុន្តែវានឹងក្លាយជាអ្នកជំនាញរបស់មនុស្សដែលពន្យល់ថាទិន្នន័យដែលពិតជាបម្រើជាសាក្សី។

តើអ្វីជាភាពខុសគ្នារវាងទំនួលខុសត្រូវរដ្ឋប្បវេណី និងព្រហ្មទណ្ឌសម្រាប់ AI?

ភាពខុសគ្នានេះគឺមានសារៈសំខាន់នៅពេលដែល AI បង្កគ្រោះថ្នាក់។ ខណៈពេលដែលសំណុំរឿងទាំងរដ្ឋប្បវេណី និងព្រហ្មទណ្ឌពាក់ព័ន្ធនឹងការទទួលខុសត្រូវផ្លូវច្បាប់ គោលបំណងរបស់ពួកគេ បន្ទុកភស្តុតាង និងការដាក់ទណ្ឌកម្មគឺខុសគ្នាពីពិភពលោក។

នេះ​ជា​វិធី​សាមញ្ញ​មួយ​ដើម្បី​គិត​អំពី​វា៖

  • ទំនួលខុសត្រូវរដ្ឋប្បវេណី៖ នេះ​គឺ​ជា​ការ​ធ្វើ​ឱ្យ​ជន​រង​គ្រោះ​ជា​ថ្មី​ម្តង​ទៀត​។ ការផ្តោតសំខាន់គឺទៅលើសំណងសម្រាប់ការខូចខាត ដូចជាការខាតបង់ផ្នែកហិរញ្ញវត្ថុពីក្បួនដោះស្រាយដែលមានបញ្ហា ឬការរងរបួសពីរថយន្តស្វយ័ត។ ស្ដង់ដារនៃភ័ស្តុតាងគឺទាបជាង - ជារឿយៗជា "តុល្យភាពនៃប្រូបាប៊ីលីតេ" ។
  • ការទទួលខុសត្រូវព្រហ្មទណ្ឌ៖ នេះ​ជា​ការ​ដាក់​ទោស​កំហុស​ចំពោះ​សង្គម​ខ្លួន​ឯង។ វាទាមទារឱ្យមានការបញ្ជាក់អំពីកំហុស "លើសពីការសង្ស័យដែលសមហេតុផល" ដែលជាឧបសគ្គកាន់តែខ្ពស់ ហើយអាចនាំឱ្យមានការពិន័យធ្ងន់ធ្ងរ ដូចជាការដាក់ពន្ធនាគារ ឬពិន័យជាប្រាក់យ៉ាងច្រើន។

នៅពេលដែល AI ជាប់ពាក់ព័ន្ធ ក្រុមហ៊ុនមួយអាចប្រឈមនឹងការប្តឹងផ្តល់រដ្ឋប្បវេណីដើម្បីទូទាត់សំណងដែលបណ្តាលមកពីផលិតផលរបស់ខ្លួន។ ប៉ុន្តែ​ដើម្បី​ឲ្យ​ការ​ចោទ​ប្រកាន់​ព្រហ្មទណ្ឌ​ជាប់​ជា​ស្ថាពរ ព្រះរាជអាជ្ញា​ត្រូវ​តែ​បញ្ជាក់​ថា​តួ​អង្គ​ជា​មនុស្ស​មាន​គំនិត​មាន​កំហុស (rea mens) នេះ​ជា​មូលហេតុ​ដែល​ទំនួលខុសត្រូវ​ត្រូវ​បាន​តាមដាន​ទៅ​មនុស្ស​ម្នាក់ មិនមែន​ម៉ាស៊ីន​ទេ។

តើអង្គការរបស់ខ្ញុំអាចរៀបចំសម្រាប់ច្បាប់ AI របស់សហភាពអឺរ៉ុបដោយរបៀបណា?

ជាមួយនឹងបទប្បញ្ញត្តិដូចជា ច្បាប់ AI របស់សហភាពអឺរ៉ុប នៅលើជើងមេឃ ការរង់ចាំរហូតដល់ច្បាប់ត្រូវបានអនុវត្តយ៉ាងពេញលេញ គឺជាយុទ្ធសាស្ត្រប្រថុយប្រថាន។ ការអនុលោមតាមបែបសកម្មគឺជាមធ្យោបាយតែមួយគត់ដើម្បីកាត់បន្ថយហានិភ័យផ្លូវច្បាប់របស់អ្នកប្រកបដោយប្រសិទ្ធភាព។

នេះគឺជាជំហានសំខាន់ៗមួយចំនួន ដើម្បីឲ្យអ្នកចាប់ផ្តើម៖

  1. ចាត់ថ្នាក់ប្រព័ន្ធ AI របស់អ្នក៖ ជាដំបូង អ្នកត្រូវកំណត់ប្រភេទហានិភ័យណាមួយដែលកម្មវិធី AI របស់អ្នកធ្លាក់ចូលទៅក្នុង - មិនអាចទទួលយកបាន ខ្ពស់ មានកម្រិត ឬតិចតួចបំផុត។ ការចាត់ថ្នាក់នេះនឹងកំណត់ពីកាតព្វកិច្ចអនុលោមភាពជាក់លាក់របស់អ្នក។
  2. អនុវត្តការវាយតម្លៃហានិភ័យ៖ សម្រាប់ប្រព័ន្ធដែលមានហានិភ័យខ្ពស់ អ្នកត្រូវតែធ្វើការវាយតម្លៃឱ្យបានហ្មត់ចត់ដើម្បីកំណត់អត្តសញ្ញាណ និងដោះស្រាយហានិភ័យដែលអាចកើតមានចំពោះសិទ្ធិជាមូលដ្ឋាន។ នេះមិនមែនគ្រាន់តែជាលំហាត់គូសប្រអប់ប៉ុណ្ណោះទេ វា​ជា​ការ​ធ្លាក់​ចូល​ជ្រៅ​ទៅ​ក្នុង​ឥទ្ធិពល​របស់​ប្រព័ន្ធ​របស់​អ្នក។
  3. ធានាតម្លាភាព និងឯកសារ៖ រក្សាកំណត់ត្រាយ៉ាងល្អិតល្អន់នៃការរចនា AI របស់អ្នក សំណុំទិន្នន័យដែលប្រើសម្រាប់ការបណ្តុះបណ្តាល និងដំណើរការធ្វើការសម្រេចចិត្តរបស់វា។ ឯកសារនេះគឺចាំបាច់សម្រាប់បង្ហាញពីការអនុលោមភាព និងការទទួលខុសត្រូវ ប្រសិនបើឧប្បត្តិហេតុណាមួយកើតឡើង។
Law & More