
(SeaPRwire) – ក្នុងរយៈពេលប៉ុន្មានឆ្នាំចុងក្រោយនេះ បញ្ញាសិប្បនិម្មិតបានក្លាយជាប្រធានបទដ៏លេចធ្លោនៃការពិភាក្សា។ ម៉ូដែល AI ថ្មីនីមួយៗបានបង្ហាញពីការច្នៃប្រឌិតដ៏អស្ចារ្យដែលប្រជែងនឹងកំណែដែលបានចេញផ្សាយប៉ុន្មានសប្តាហ៍មុន។ អ្នកជំនាញ អ្នកអភិវឌ្ឍន៍ និងនាយកប្រតិបត្តិនៃក្រុមហ៊ុន AI បានធ្វើការអះអាងយ៉ាងក្លាហានអំពីគន្លងនាពេលអនាគត ចាប់ពីការបញ្ចប់នៃកម្លាំងពលកម្មដ៏លំបាក និងការកើនឡើងនៃអាយុវែងរបស់មនុស្ស រហូតដល់ការគំរាមកំហែងដល់មនុស្សជាតិ។
ប្រសិនបើមនុស្សគ្រប់គ្នាកំពុងនិយាយអំពី AI នោះគឺដោយសារតែការផ្សព្វផ្សាយនៃការច្នៃប្រឌិតទាំងនោះបានបង្កើតចំណូលកើនឡើងយ៉ាងឆាប់រហ័សសម្រាប់ក្រុមហ៊ុនដែលកំពុងអភិវឌ្ឍម៉ូដែលទាំងនោះ។ ប៉ុន្តែនៅពេលដែល AI កាន់តែលឿន កាន់តែមានសមត្ថភាព កាន់តែស្មុគស្មាញ ការសន្ទនាសាធារណៈនោះអាចនឹងត្រូវផ្លាស់ប្តូរយ៉ាងឆាប់រហ័សទៅជាការពិភាក្សាសម្ងាត់។ ក្រុមហ៊ុន AI កំពុងដាក់ពង្រាយម៉ូដែល AI កាន់តែខ្លាំងឡើងនៅក្នុងស្ថាប័នរបស់ពួកគេផ្ទាល់ ហើយវាទំនងជាពួកគេនឹងរកឃើញថាវាមានប្រយោជន៍ក្នុងការបម្រុងទុកម៉ូដែលនាពេលអនាគតដ៏មានឥទ្ធិពលបំផុតរបស់ពួកគេសម្រាប់ការប្រើប្រាស់ផ្ទៃក្នុង។ ប៉ុន្តែការសម្រេចចិត្តដែលហាក់ដូចជាគ្មានគ្រោះថ្នាក់ទាំងនេះអាចបង្កការគំរាមកំហែងយ៉ាងធ្ងន់ធ្ងរដល់សង្គមទាំងមូល ដូចដែលបានលើកឡើងខាងក្រោម។
ក្រុមហ៊ុន AI ឈានមុខគេភាគច្រើនបានប្រកាសជាសាធារណៈពីបំណងរបស់ពួកគេក្នុងការអភិវឌ្ឍន៍ម៉ូដែល AI ដែលមានសមត្ថភាពដូចមនុស្សនៅក្នុងកិច្ចការយល់ដឹងទាំងអស់ ដែលអាចបង្កើតតម្លៃសេដ្ឋកិច្ចរាប់ពាន់ពាន់លានដុល្លារ។ ជាមួយនឹងជំនឿទូទៅបច្ចុប្បន្នលើការរីកចម្រើនឆ្ពោះទៅរកបញ្ញាសិប្បនិម្មិតទូទៅ (AGI) គុណសម្បត្តិយុទ្ធសាស្ត្រដែលមានសក្តានុពលនៃម៉ូដែលកម្រិតខ្ពស់អាចនឹងនាំឱ្យក្រុមហ៊ុនប្រើប្រាស់ម៉ូដែលរបស់ពួកគេដោយសម្ងាត់ និងផ្ទៃក្នុងដើម្បីបង្កើនវឌ្ឍនភាពបច្ចេកទេស—ប៉ុន្តែផ្តល់សញ្ញាតិចតួចនៃការអភិវឌ្ឍន៍ដល់គូប្រជែង និងពិភពខាងក្រៅ។
ប្រព័ន្ធ AI បច្ចុប្បន្នតែងតែមានអាកប្បកិរិយាដែលមិនបានរំពឹងទុក មិនមានបំណង និងមិនចង់បាននៅក្នុងបរិបទពិសោធន៍ដែលបានក្លែងធ្វើ ឧទាហរណ៍ គំរាមកំហែងដល់អ្នកប្រើប្រាស់ បង្កើតព័ត៌មានមិនពិត ឬបង្ហាញពីភាពលំអៀង។ ទោះជាយ៉ាងណាក៏ដោយ ប្រសិនបើអ្នកអភិវឌ្ឍន៍ឈានមុខគេចាប់ផ្តើមលាក់បាំងព័ត៌មានសំខាន់ៗ សង្គមនឹងលែងមានឱកាស ទោះបីជាតូចចង្អៀតក៏ដោយ ដើម្បីស្វែងយល់ជាសាធារណៈ និងវាយតម្លៃពីគុណសម្បត្តិ និងគុណវិបត្តិ ទម្រង់ហានិភ័យ និងសុវត្ថិភាព និងគន្លងនៃបច្ចេកវិទ្យាដ៏សំខាន់នេះ។ នៅពេលដែលប្រព័ន្ធ AI នាពេលអនាគតកម្រិតខ្ពស់ត្រូវបានដាក់ពង្រាយ និងប្រើប្រាស់ ហើយប្រហែលជាប្រើប្រាស់ផ្តាច់មុខ នៅពីក្រោយទ្វារបិទជិត គ្រោះថ្នាក់ដែលមើលមិនឃើញចំពោះសង្គមអាចនឹងកើតឡើង និងវិវត្តដោយគ្មានការត្រួតពិនិត្យ ឬការព្រមានជាមុន—នោះគឺជាការគំរាមកំហែងដែលយើងអាច និងត្រូវតែជៀសវាង។
មន្ទីរពិសោធន៍ឈានមុខគេកំពុងប្រើប្រាស់ប្រព័ន្ធ AI កាន់តែខ្លាំងឡើងដើម្បីពន្លឿនបំពង់ស្រាវជ្រាវ និងអភិវឌ្ឍន៍ (R&D) របស់ពួកគេផ្ទាល់ ដោយរចនា algorithms ថ្មីៗ ស្នើស្ថាបត្យកម្មថ្មីទាំងស្រុង ឬបង្កើនប្រសិទ្ធភាពកូដ។ ឧទាហរណ៍ ក្រុមហ៊ុន Google បានប៉ាន់ប្រមាណថា 50% នៃកូដរបស់ពួកគេត្រូវបានសរសេរដោយ AI ។ ដូចដែលបានគូសបញ្ជាក់នៅក្នុងរបាយការណ៍ ប្រព័ន្ធ AI កម្រិតខ្ពស់អាចត្រូវបានប្រើប្រាស់ជាបន្តបន្ទាប់ដើម្បីកែលម្អអ្នកស្នងតំណែងរបស់ពួកគេផ្ទាល់ ដោយអាចបង្កើត “វដ្តវិជ្ជមាន” ដ៏មានឥទ្ធិពលនៃម៉ូដែលដែលមានសមត្ថភាពកាន់តែខ្លាំងឡើង។ លទ្ធផលនេះនឹងក្លាយជាដំណឹងល្អសម្រាប់ក្រុមហ៊ុន AI ដែលមានបំណងឈានដល់បញ្ញាសិប្បនិម្មិតទូទៅ ឬសូម្បីតែ AGI កម្រិតមហាអំណាច មុនគូប្រជែង—ប៉ុន្តែលុះត្រាតែពួកគេប្រើប្រាស់គុណសម្បត្តិយុទ្ធសាស្ត្ររបស់ពួកគេដោយសម្ងាត់។
ដំបូងឡើយ រឿងទាំងអស់នេះអាចស្តាប់ទៅហាក់ដូចជាគ្មានគ្រោះថ្នាក់៖ តើប្រព័ន្ធ AI ដែលមិនទាន់ចេញផ្សាយអាចបង្កការគំរាមកំហែងអ្វីខ្លះ?
បញ្ហាមានពីរយ៉ាង៖ ទីមួយ នៅពេលដែលប្រព័ន្ធ AI កម្រិតខ្ពស់កាន់តែមានប្រយោជន៍ជាផ្ទៃក្នុងដើម្បីបង្កើត AI កាន់តែប្រសើរ អាចមានការលើកទឹកចិត្តប្រកួតប្រជែង និងសេដ្ឋកិច្ចយ៉ាងខ្លាំង កាន់តែច្រើនជាងពេលបច្ចុប្បន្ន ដើម្បីផ្តល់អាទិភាពដល់ល្បឿន និងគុណសម្បត្តិប្រកួតប្រជែងជាជាងការប្រុងប្រយ័ត្ន។ ថាមវន្តនៃការប្រកួតប្រជែងនេះនាំមកនូវហានិភ័យ ជាពិសេសប្រសិនបើប្រព័ន្ធ AI កម្រិតខ្ពស់កាន់តែខ្លាំងឡើងត្រូវបានប្រើប្រាស់ដោយបុគ្គលិកក្រុមហ៊ុន និងដាក់ពង្រាយដើម្បីប្រើប្រាស់នៅក្នុងតំបន់សំខាន់ៗផ្នែកសុវត្ថិភាព ដូចជា AI R&D ដែលអាចដំណើរការដោយស្វយ័តដើម្បីកាត់បន្ថយការកកិត ដោយបង្កប់នូវចំណុចបរាជ័យដែលមានសក្តានុពល មុនពេលនរណាម្នាក់អាចយល់បានពេញលេញអំពីអាកប្បកិរិយារបស់ប្រព័ន្ធ AI ។
ទីពីរ ការវាយតម្លៃ និងអន្តរាគមន៍ដែលមានស្រាប់ភាគច្រើនផ្តោតលើប្រព័ន្ធ AI ដែលមានជាសាធារណៈ។ សម្រាប់ប្រព័ន្ធ AI ដែលបានដាក់ពង្រាយជាផ្ទៃក្នុង ព័ត៌មានតិចតួចណាស់ ឬគ្មានទាល់តែសោះ ត្រូវបានគេដឹងអំពីអ្នកណាដែលមានសិទ្ធិចូលប្រើប្រាស់ ឬអ្វីដែលពួកគេត្រូវបានប្រើប្រាស់សម្រាប់។ ឱ្យកាន់តែច្បាស់ មានព័ត៌មានតិចតួចប៉ុណ្ណោះដែលត្រូវបានផ្តល់ឱ្យអំពីសមត្ថភាពរបស់ពួកគេ ថាតើពួកគេមានអាកប្បកិរិយាមិនល្អឬអត់; ថាតើពួកគេស្ថិតនៅក្រោមការគ្រប់គ្រងសមស្របជាមួយនឹងយន្តការត្រួតពិនិត្យ និងការការពារឬអត់; ថាតើពួកគេអាចត្រូវបានគេប្រើប្រាស់ខុសដោយអ្នកដែលមានសិទ្ធិចូលប្រើប្រាស់ ឬទម្រង់ហានិភ័យសរុបរបស់ពួកគេឬអត់។ ក៏មិនមានតម្រូវការលម្អិត និងសមហេតុផលគ្រប់គ្រាន់ដើម្បីធានាថាប្រព័ន្ធ AI ទាំងនេះត្រូវបានសាកល្បងយ៉ាងម៉ត់ចត់ និងមិនបង្កការគំរាមកំហែងជាបន្តបន្ទាប់ដល់សង្គម មុនពេលពួកគេត្រូវបានដាក់ឱ្យប្រើប្រាស់នោះទេ។
ប្រសិនបើយើងមិនតម្រូវឱ្យក្រុមហ៊ុនបច្ចេកវិទ្យាផ្តល់ព័ត៌មានលម្អិតគ្រប់គ្រាន់អំពីរបៀបដែលពួកគេសាកល្បង គ្រប់គ្រង និងប្រើប្រាស់ម៉ូដែល AI ថ្មីជាផ្ទៃក្នុងទេ រដ្ឋាភិបាលមិនអាចត្រៀមខ្លួនសម្រាប់ប្រព័ន្ធ AI ដែលអាចនឹងមានសមត្ថភាពកម្រិតរដ្ឋជាតិបានទេ។ ទន្ទឹមនឹងនេះ គ្រោះថ្នាក់ដែលវិវត្តន៍នៅពីក្រោយទ្វារបិទជិតអាចរីករាលដាលចូលទៅក្នុងសង្គមដោយគ្មានការព្រមានជាមុន ឬសមត្ថភាពអន្តរាគមន៍។ ដើម្បីឱ្យប្រាកដ សូម្បីតែសព្វថ្ងៃនេះ យើងមិនអាចជឿទុកចិត្តលើប្រព័ន្ធ AI បច្ចុប្បន្នឱ្យមានអាកប្បកិរិយាគួរឱ្យទុកចិត្តតាមបំណង ថាតើពួកគេត្រូវបានដាក់ពង្រាយខាងក្រៅ ឬខាងក្នុងនោះទេ។ ទោះជាយ៉ាងណាក៏ដោយ យើងនៅតែមានពេលដើម្បីធ្វើសកម្មភាព។
មានវិធានការងាយៗដែលអាចត្រូវបានអនុវត្តនៅថ្ងៃនេះ។ វិសាលភាពនៃគោលនយោបាយសុវត្ថិភាព AI ព្រំដែនស្ម័គ្រចិត្តរបស់ក្រុមហ៊ុន AI គួរតែត្រូវបានពង្រីកយ៉ាងច្បាស់លាស់ដើម្បីគ្របដណ្តប់ការដាក់ពង្រាយ និងការប្រើប្រាស់ផ្ទៃក្នុងដែលមានហានិភ័យខ្ពស់ ដូចជាសម្រាប់ការបង្កើនល្បឿន AI R&D ជាដើម។ ជាផ្នែកមួយនៃនេះ ការដាក់ពង្រាយផ្ទៃក្នុងគួរតែត្រូវបានចាត់ទុកដោយការយកចិត្តទុកដាក់ដូចគ្នាទៅនឹងការដាក់ពង្រាយខាងក្រៅ ហើយការវាយតម្លៃ និងការវាយតម្លៃយ៉ាងម៉ត់ចត់ដើម្បីកំណត់អត្តសញ្ញាណសមត្ថភាពគ្រោះថ្នាក់ ការបង្កើតទម្រង់ហានិភ័យច្បាស់លាស់ និងយន្តការគ្រប់គ្រង ឬការពារដែលតម្រូវឱ្យមានមុនពេលប្រើប្រាស់គួរតែត្រូវបានលើកទឹកចិត្ត។
ទីភ្នាក់ងាររដ្ឋាភិបាលដែលទទួលបន្ទុកក្នុងការត្រៀមខ្លួនថ្នាក់ជាតិគួរតែមានភាពមើលឃើញជាមុនអំពីការដាក់ពង្រាយ និងការប្រើប្រាស់ប្រព័ន្ធ AI កម្រិតខ្ពស់ជាផ្ទៃក្នុង ហើយទទួលបានព័ត៌មានសំខាន់ៗដែលទាក់ទងនឹងសន្តិសុខជាតិទាំងអស់។ នេះអាចរួមបញ្ចូល ឧទាហរណ៍ ព័ត៌មានអំពីអ្នកណាដែលមានសិទ្ធិចូលប្រើប្រាស់ប្រព័ន្ធ AI ទាំងនេះ និងក្រោមលក្ខខណ្ឌអ្វី ឧបករណ៍ AI ទាំងនេះត្រូវបានប្រើប្រាស់សម្រាប់អ្វី ការត្រួតពិនិត្យអ្វីកំពុងត្រូវបានអនុវត្តចំពោះពួកគេ និងអ្វីដែលអាចកើតឡើងប្រសិនបើការត្រួតពិនិត្យនេះបរាជ័យ ដើម្បីធានាថាផលប្រយោជន៍សេដ្ឋកិច្ច និងកម្មសិទ្ធិបញ្ញាត្រូវបានមានតុល្យភាពជាមួយនឹងផលប្រយោជន៍សន្តិសុខជាតិស្របច្បាប់។
ក្រុមហ៊ុន AI និងរដ្ឋាភិបាលគួរតែសហការគ្នាដើម្បីដឹកនាំការអនុម័តនូវការអនុវត្តល្អបំផុតទាំងនេះ ដើម្បីធានានូវការច្នៃប្រឌិតគួរឱ្យទុកចិត្ត និងការការពារសាធារណៈ។
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។
