
(SeaPRwire) – គំរូភាសាធំៗ (LLMs) លេងចត្រង្គអន់ណាស់។
ទោះជាយ៉ាងណា ជាអ្នកឈ្នះជើងឯកចត្រង្គជាតិចំនួនបីដង និងជាអ្នកឈ្នះជើងឯកចត្រង្គស្រីសហរដ្ឋអាមេរិកចំនួនពីរដង ខ្ញុំនៅតែចូលចិត្តលេងប្រឆាំងនឹងវា។ មិនមែនព្រោះវាជំរុញឱ្យខ្ញុំលេងអស្ចារ្យបំផុតទេ ប៉ុន្តែព្រោះអ្វីដែលវាបង្ហាញអំពីធម្មជាតិមនុស្ស។
ការលេងចត្រង្គជាមួយ LLMs បានបង្រៀនខ្ញុំថា មនុស្សលោកមានភាពច្នៃប្រឌិត និងចម្រុះយ៉ាងពិសេស មនុស្សងាយទទួលរងនឹងការលើកតម្កើង និងការលួងលោម ហើយ AI កំពុងចាប់ផ្ដើមរូបរាងអាកប្បកិរិយាមនុស្ស។
LLMs មិនត្រូវបានគេបង្កើតឡើងដើម្បីលេងចត្រង្គអស្ចារ្យទេ។ យ៉ាងណាមិញ វាត្រូវបានរចនាឡើងដើម្បីទស្សន៍ទាយអ្វីដែលទំនងជានឹងកើតឡើងបន្ទាប់ និងដើម្បីលើកតម្កើងយើង។ ក្បួនដោះស្រាយចត្រង្គដែលប្រើ AI មិនមែនកំពុងព្យាយាមបំផ្លាញអ្នកទេ វាកំពុងព្យាយាមរក្សាអ្នកឱ្យនៅលេងបន្ត។ ប៉ុន្តែនៅក្នុងការលេងចត្រង្គដ៏អស្ចារ្យដោយសារវាអន់នេះ យើងអាចរៀនមេរៀនដែលលើសពីតារាង ឬថូខឹន។
កម្មវិធី AI ចត្រង្គដ៏អស្ចារ្យ ចាប់ពីអ្នកដែលឈ្នះ Garry Kasparov កាលពី ៣០ ឆ្នាំមុន រហូតដល់ DeepMind របស់ “AlphaZero” អាចឈ្នះអ្នកលេងមនុស្សណាម្នាក់ជាប្រចាំ។ ប៉ុន្តែមនុស្សភាគច្រើនមិនលេងប្រឆាំងនឹងកុំព្យូទ័រចត្រង្គកំពូលទៀតទេ ព្រោះការចាញ់របស់អ្នកគឺជាការសន្និដ្ឋានដែលគេដឹងជាមុន។ ការត្រូវគេបំផ្លាញជាបន្តបន្ទាប់អាចបង្រៀនអ្នកបានត្រឹមតែប៉ុណ្ណឹង។ ផ្ទុយទៅវិញ ការសាកល្បងជាមួយ LLMs អាចធ្វើឱ្យរីករាយ។
នៅពេលដែលខ្ញុំបានប្រកួតចត្រង្គជាមួយ ChatGPT4 លើកដំបូង វាលេងបានល្អមធ្យម ប៉ុន្តែខ្ញុំនៅតែទទួលបានទីតាំងដ៏ល្អបន្ទាប់ពី ១៥ វគ្គ និងឈ្នះកូនសេះមួយ។ នៅពេលដែលអត្ថប្រយោជន៍របស់ខ្ញុំកើនឡើង វាបាន “យល់ឃើញ” (hallucinate) កូនហ្គូរទេវតាមួយដើម្បីចាប់កូននាងរបស់ខ្ញុំមកវិញ។ និយាយម្យ៉ាងទៀត វាបានក្បត់! ដំបូងឡើយ រឿងនេះមិនសមហេតុផលទេ។ តើ LLMs ស្តង់ដារត្រូវបានគេស្គាល់ថាលួងលោមច្រើនជាងការលួចទេ?
ដូច្នេះខ្ញុំបានចាប់ផ្ដើមលេងវគ្គដ៏អាក្រក់បំផុតដែលខ្ញុំអាចគិតបានប្រឆាំងនឹង ChatGPT។ វាបានពត់ក្បួនម្ដងទៀត ប៉ុន្តែលើកនេះវាជួយខ្ញុំ។ កូនហ្គូរទេវតាបានជំនួសកូនហ្គូរដែលខ្ញុំបានលេងខុស។ ទោះជាខ្ញុំលេងប្រសើរ ឬអន់ជាង ChatGPT វាបញ្ចប់ដោយធ្វើឱ្យខ្ញុំស្មើនឹងវា។ វាមិនតែងតែក្បត់ទេ ប៉ុន្តែវាតែងតែ “បង្កើតរឿង” (confabulate)។ នៅពេលមនុស្សបង្កើតរឿង យើងព្យាយាមបំពេញចន្លោះអនុស្សាវរីយ៍ ឬសុបិនរបស់យើងជាមួយនឹងលំដាប់ឡូជីខលបំផុត។ ChatGPT ក៏កំពុងធ្វើដូចគ្នាដែរ។
ខ្ញុំបានរកឃើញថា ការយល់ឃើញមិនពិត (hallucinations) របស់ LLMs មានប្រូបាប៊ីលីតេកើតឡើងខ្ពស់ជាង នៅពេលព្យាយាមអនុវត្ត “វគ្គវែង” ដែលឆ្លងកាត់ក្តារទាំងមូល។ នេះឆ្លុះបញ្ចាំងពីរបៀបដែល LLMs ពិបាកជាមួយការសន្ទនាវែងៗ។
នៅពេល Google ធ្វើជាម្ចាស់ផ្ទះផ្ដល់ជូន LLMs កំពូលនៅក្នុងពានរង្វាន់មួយ ការប្រកួត ៤២ ក្នុងចំណោម ៤៧ ការប្រកួត គឺប្រើការការពារ Sicilian ដែលត្រូវបាន Bobby Fischer និងតួអង្គនិមិត្ត Beth Harmon ពី Queen’s Gambit ចូលចិត្តផងដែរ។ ហេតុអ្វីបានជាគេចូលចិត្ត Sicilian ច្រើនម្ល៉េះ? ព្រោះវាជាការបើកវគ្គពេញនិយមបំផុត។ ការស្រាវជ្រាវថ្មីៗរបស់ DeepMind បានបង្ហាញពីបែបបទដូចគ្នា នៅពេលពួកគេព្យាយាមបង្កើតទីតាំងចត្រង្គដែលមានភាពច្នៃប្រឌិត ស្រស់ស្អាត និងផ្ទុយពីភាពធម្មតា។ អ្នកស្រាវជ្រាវបានរកឃើញថា AI ជាញឹកញាប់ “ដួលរលំ” លើខ្លួនវាផ្ទាល់ ដោយធ្វើឡើងវិញនូវប្រធានបទ និងលំនាំដូចគ្នាដែលពួកគេចាត់ទុកថា “ស្រស់ស្អាត”។
ក្នុងករណីកម្មវិធីសម្រស់ចត្រង្គរបស់ DeepMind អ្នកស្រាវជ្រាវបានអាចកាត់បន្ថយបាញ្ហានេះ ដោយការសរសេរកម្មវិធីឱ្យមានភាពចម្រុះកាន់តែខ្លាំង។ ប៉ុន្តែទោះបីជាមានទិន្នន័យបណ្ដុះបណ្ដាលដ៏ច្រើន លទ្ធផលប្រូបាប៊ីលីតេ និងតម្រងភាពចម្រុះក៏ដោយ ក៏វាមិនងាយនឹងធ្វើត្រាប់តាមភាពខុសៗគ្នា និងជួរនៃគំនិតមនុស្សនោះដែរ។
ជាការពិតណាស់ LLMs និង AI ទូទៅទៀត មិនមែនជាបច្ចេកវិទ្យាតែមួយគត់ដែលពិបាកក្នុងការចាប់យកភាពចម្រុះនៃបទពិសោធន៍មនុស្សនោះទេ។ យកឧទាហរណ៍ ឌីណាមិកឈ្នះទទួលទាំងអស់ (winner-take-all) ដែលដំណើរការដោយក្បួនដោះស្រាយនៅលើបណ្ដាញសង្គម ដែលក្នុងនោះការធ្វើតាមអ្វីដែលអ្នកប្រើប្រាស់ជាមធ្យមចង់បាន ធ្វើឱ្យអ្នកទទួលបានការចុច ការយកចិត្តទុកដាក់ និងប្រាក់កាសកាន់តែច្រើន។ ដើម្បីជៀសវាងការធ្លាក់ចូលទៅក្នុងការទាញអូសនៃសំឡេង
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។
