
(SeaPRwire) – នៅឆ្នាំ២០២៣ អតីតអ្នកត្រួតពិនិត្យអាវុធអង្គការសហប្រជាជាតិ និងជាអ្នកវិទ្យាសាស្ត្រ Rocco Casagrande បានមកដល់អគារការិយាល័យអគ្គនាយក Eisenhower នៅជាប់នឹងខ្លោងទ្វារខាងលិចវិមានស្ថានធិការដ្ឋានស ដោយដាក់ធុងតូចមួយដែលបិទជិត។ នៅខាងក្នុងមានបំពង់សាកល្បងជាច្រើនដែលមានគ្រឿងផ្សំផ្សេងៗ ដែលប្រសិនបើដាក់រួមគ្នាឱ្យបានត្រឹមត្រូវ អាចបណ្តាលឱ្យមានជំងឺរាតត្បាតដ៏គ្រោះថ្នាក់។
យោងតាម Casagrande បូត AI មួយមិនត្រឹមតែផ្តល់ឱ្យគាត់នូវរូបមន្តដ៏សាហាវប៉ុណ្ណោះទេ វាថែមទាំងផ្តល់គំនិតអំពីរបៀបជ្រើសរើសលក្ខខណ្ឌអាកាសធាតុ និងគោលដៅដ៏ល្អបំផុតសម្រាប់ការវាយប្រហារ។ ការមកដល់ទីនោះដើម្បីធ្វើសេចក្តីព្រាងដល់មន្ត្រីរដ្ឋាភិបាលអំពីហានិភ័យជំងឺរាតត្បាតដែលអាចប្រើ AI បាន ឧបករណ៍បង្ហាញរបស់ Casagrande បានផ្ញើសារដ៏ខ្លាំងក្លាមួយទៅកាន់មន្ត្រីសន្តិសុខអំពីរបៀបដែល AI បានធ្វើឱ្យរលំរលាយរបាំងទប់ទល់នឹងការវិភាគវិស្វកម្មដ៏ព្រៃផ្សៃយ៉ាងរហ័ស។
របាំងទប់ទល់នឹងការវិភាគវិស្វកម្មជំងឺរាតត្បាតត្រូវបានបន្ទាបចុះ ហើយអ្នកគោលនយោបាយបាន។ ការស្នើឡើងវិញនូវវិធានការការពារ និងការផ្តល់អាទិភាពដល់ការការពារគីមី និងជីវសាស្ត្រ។
ទំនងជាត្រូវបានជំរុញដោយការព្រួយបារម្ភពិតប្រាកដ និងហានិភ័យនៃការទទួលខុសត្រូវផ្នែកច្បាប់ ក្រុមហ៊ុន AI ដែលនៅជាប់ខាងមុខក៏បានបង្ហាញភាពជាអ្នកដឹកនាំផងដែរ ដែលត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងកិច្ចប្រជុំ Seoul Summit ។ ក្រុមហ៊ុនទាំងនេះបានប្តេជ្ញាចំពោះសាធារណៈក្នុងការបន្ធូរបន្ថយហានិភ័យនានាក្នុងវិស័យគីមី ជីវសាស្ត្រ វិទ្យុសកម្ម នុយក្លេអ៊ែរ និងវត្ថុផ្ទុះ (CBRNe)។
ទោះជាយ៉ាងណាក៏ដោយ ទោះបីជាមានវិធានការទាំងនេះ ក៏គម្លាតសន្តិសុខដែលគួរឱ្យព្រួយបារម្ភនៅតែមាន។ ទោះបីជាវាជារឿងល្អដែលក្រុមហ៊ុនកំពុងផ្តោតលើជំងឺរាតត្បាតក៏ដោយ ប្រព័ន្ធអេកូឡូស៊ីកំពុងផ្តោតលើគំរូតែមួយគត់គឺ “អ្នកភេរវកម្មវីរុសដែលធ្វើការតែម្នាក់ឯង” ជាគ្រោះថ្នាក់ធ្ងន់ធ្ងរបំផុត។ ការយកចិត្តទុកដាក់តិចជាងនេះច្រើនត្រូវបានផ្តល់ឱ្យគ្រប់សេណារីយ៉ូហានិភ័យផ្សេងទៀត។ ការផ្តោតលើតួអង្គបុគ្គលបានធ្វើឱ្យគ្រោះថ្នាក់ដែលមានមូលដ្ឋានលើរដ្ឋ និងក្រុមភេរវកម្មត្រូវបានពិនិត្យមិនគ្រប់គ្រាន់យ៉ាងគ្រោះថ្នាក់។
លើសពីនេះទៅទៀត ហានិភ័យវីរុសរាតត្បាតមិនមែនជាតំណាងគ្រប់គ្រាន់សម្រាប់គ្រោះថ្នាក់ផ្សេងទៀតទេ។ ជំហានបច្ចេកទេសសម្រាប់អភិវឌ្ឍវត្ថុផ្ទុះបង្កើតឡើងដោយខ្លួនឯង ភ្នាក់ងារជីវសាស្ត្រដែលមិនឆ្លង និងអាវុធគីមីគឺខុសគ្នាពីភ្នាក់ងារជីវសាស្ត្រដែលឆ្លង។ ការសាងសង់ និងប្រើប្រាស់អាវុធគីមីដូចជា Sarin ឧទាហរណ៍ ផ្ទុយពីវីរុស ពាក់ព័ន្ធនឹងសំណុំជំហានបច្ចេកទេសខុសគ្នាទាំងស្រុង។ សម្រាប់ហេតុផលនេះ យើងត្រូវការការសាកល្បងសុវត្ថិភាព AI ដាច់ដោយឡែក។
ទោះយ៉ាងណាក៏ដោយ ដោយខ្លួនឯង គ្រោះថ្នាក់ “តូចជាង” ទាំងនេះនៅតែអាចសម្លាប់មនុស្សជាច្រើន បំផ្លាញសហគមន៍ និងបង្កឱ្យមានភាពចលាចលនៅទូទាំងប្រទេស។ យើងកំពុងស្ថិតក្នុងគ្រោះថ្នាក់នៃការបង្កើតប្រព័ន្ធសុវត្ថិភាពដែលផ្តោតតែលើការការពារប្រឆាំងនឹងជំងឺរាតត្បាតបន្ទាប់ ខណៈពេលដែលទុកឱ្យទ្វារបើកចំហសម្រាប់ទម្រង់ភេរវកម្មផ្សេងទៀត។
ដោយមានការព្រួយបារម្ភ យើងបានឃើញមន្ទីរពិសោធន៍ AI ធំៗលើការប្តេជ្ញាចិត្តសុវត្ថិភាព ទំនងជាដោយសារតែពួកគេខ្វះទិន្នន័យដែលបានចាត់ថ្នាក់ដើម្បីបំពេញពួកវា។ ឧទាហរណ៍ ខណៈពេលដែលក្រុមហ៊ុន AI មួយចំនួនបោះពុម្ពការសាកល្បងអំពីថាតើគំរូរបស់ពួកគេអាចជួយបណ្តាលឱ្យមានជំងឺរាតត្បាតដែរឬទេ ពួកគេមិនបានពិពណ៌នាលម្អិតថាតើគំរូដូចគ្នានោះអាចជួយក្នុងការវាយប្រហារគីមី ឬវត្ថុផ្ទុះបង្កើតឡើងដោយខ្លួនឯងដែរឬទេ។
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។
ការលុបចោលនេះគឺគ្រោះថ្នាក់។ AI កម្រិតខ្ពស់អាចមិនត្រឹមតែជួយបុគ្គលសាងសង់អាវុធប៉ុណ្ណោះទេ វាក៏អាចជួយពួកគេឱ្យរំលងការគ្រប់គ្រងការនាំចេញ និងលាក់ដានរបស់ពួកគេ ដោយអនុញ្ញាតឱ្យនរណាម្នាក់រំលងរបាំងការពារអន្តរជាតិដោយមិនត្រូវបានរកឃើញ។ ដ៏សំខាន់នោះគឺ វាប
