
(SeaPRwire) – តើអ្វីជាការបែងចែករវាងអតិថិជនបុគ្គល និងអតិថិជនក្រុមហ៊ុនរបស់អ្នក?
បច្ចុប្បន្ននេះគឺជិត 60/40, 50/50។ ពីមុនគឺទាបជាងនៅផ្នែកក្រុមហ៊ុន។ នៅដើមឆ្នាំ 2024 វាគឺ 90/10។ ភាគច្រើននៃនេះកំពុងកើនឡើងនៅផ្នែកក្រុមហ៊ុន ជាពិសេសឥឡូវនេះ នៅពេលដែលយើងសហការបង្កើត និងធ្វើការស៊ីជម្រៅជាមួយក្រុមហ៊ុនមួយចំនួន ដូចជា Deutsche Telekom ឬ Epic Games។
ElevenLabs បង្កើតទាំង conversational AI chatbots និង creative tools ដែលបង្កើតសំឡេងដោយផ្អែកលើការណែនាំ។ តើមួយណាដែលរីកចម្រើនលឿនជាង?
Conversational AI។ ផ្នែកនៃការបម្រើខ្លួនឯងដែលប្រើ conversational AI ភាគច្រើនជាអ្នកអភិវឌ្ឍន៍។ មានការជំរុញគួរឱ្យចាប់អារម្មណ៍ពីវិស័យប្រពៃណីខ្លាំង ដើម្បីផ្លាស់ប្តូរទៅក្នុងផ្នែកសន្ទនានោះផងដែរ។ Epic Games គឺជាឧទាហរណ៍ដ៏អស្ចារ្យ។ នោះប្រហែលជាការដាក់ពង្រាយដ៏ធំបំផុតមួយដែលយើងមិនធ្លាប់ធ្វើ ដើម្បីនាំយកបទពិសោធន៍មួយចូលទៅក្នុង Fortnite ដែលអ្នករាល់គ្នាអាចទាក់ទងជាមួយ Darth Vader បាន។ នោះត្រូវបានធ្វើឡើងដោយសហការជាមួយអចលនទ្រព្យរបស់ James Earl Jones។ ប៉ុន្តែកីឡាកររាប់លាននាក់មាន Darth Vader រស់ ដែលអ្នកអាចលេងជាមួយបានភ្លាមៗ។ នោះមិនមែនជាអ្វីដែលអ្នកអាចធ្វើបានតាមប្រពៃណីទេ ដោយផ្លាស់ប្តូរពីបន្ទាត់ដែលបានបង្កើតជាមុនឋិតិវន្តទៅជាតួអង្គឌីណាមិក។ នោះពិតជាធំសម្បើមណាស់។ ឥឡូវនេះយើងកំពុងឃើញ [វិស័យ] ជំនួយអតិថិជនកំពុងផ្លាស់ប្តូរក្នុងទិសដៅនៃការរំខានដ៏ធំ [អរគុណដល់] conversational AI។
តើអ្នកអាចរក្សាភាពនាំមុខគេជាងក្រុមហ៊ុនធំៗដោយរបៀបណា?
ខ្ញុំគិតថាយើងមានបុគ្គលិកល្អបំផុតមួយចំនួន។ ហើយជាមួយនឹង text to speech [និង] ជាមួយនឹង speech to text បញ្ហាប្រឈមដ៏ធំបន្ទាប់ដែលអ្នករាល់គ្នាកំពុងព្យាយាមដោះស្រាយគឺ តើអ្នកអាចបណ្តុះបណ្តាល omni-model បានទេ—ដូច្នេះការរួមបញ្ចូលគ្នារវាង LLM [large language model] និង speech ដែលអាចបង្កើតការសន្ទនាកាន់តែប្រសើរ ខណៈពេលដែលធានាថាវាមិនត្រឹមតែមានអារម្មណ៍ និងលឿនប៉ុណ្ណោះទេ ថែមទាំងមានស្ថេរភាពទៀតផង។ យើងមាន prototype នៅខាងក្នុងដែលជាអ្វីដែលធំបំផុតដែលយើងកំពុងព្យាយាមបង្កើតនៅចុងឆ្នាំនេះ។ ប៉ុន្តែគោលដៅសម្រាប់ conversational AI ជាផលិតផល និងសម្រាប់ការស្រាវជ្រាវដែលនឹងជំរុញផលិតផលនោះ គឺការឆ្លងកាត់ Turing test សម្រាប់ការសន្ទនាជាមួយ AI agent។ ដូច្នេះអ្នកមានអារម្មណ៍ថាវាជាការសន្ទនាពិតប្រាកដ។ នោះគឺជាគោលដៅសំខាន់។
ខ្ញុំគិតថាយើងបានឆ្លងកាត់ចំណុចគោល Turing test រួចហើយ.
អន្តរកម្មសំឡេងសុទ្ធសាធ ដូចជា customer support ប្រហែលជាឆ្លងកាត់ការសាកល្បង Turing test ហើយខ្ញុំគិតថា សង្ឃឹមថាយើងជាអ្នកដំបូងគេដែលធ្វើដូច្នេះជាមួយនឹងរឿងមួយចំនួនដែលយើងកំពុងធ្វើ។ ប៉ុន្តែខ្ញុំគិតថាអ្វីដែលវាជាគឺ emotional contextual awareness និង [មាន] កម្រិតបញ្ញាខ្ពស់ជាងនៅក្នុងការសន្ទនា។
តើអ្នកដោះស្រាយជាមួយមនុស្សដែលប្រើប្រាស់បច្ចេកវិទ្យារបស់អ្នកខុសដោយរបៀបណា?
យើងបានបង្កើត safeguards។ ទីមួយគឺ transparency ឬ provenance ដូច្នេះរាល់ខ្លឹមសារ [នីមួយៗ] អាចតាមដានត្រឡប់ទៅ account បាន។ ទីពីរគឺផ្នែក moderation ដែលយើង moderate ទាំង text និង voice។ ដូច្នេះ យើង moderate សម្រាប់ការក្លែងបន្លំ និងការបោកប្រាស់ យើង moderate សម្រាប់ child safety។ នៅផ្នែក voice យើង moderate ដើម្បីពិនិត្យមើលថាពួកគេមិនត្រូវបានគេប្រើប្រាស់ខុសទេ។ ផ្នែកចុងក្រោយគឺថាតើយើងអាចនាំយកបច្ចេកវិទ្យាទៅកាន់មនុស្សដោយរបៀបណា ដូច្នេះពួកគេដឹងថាពួកគេកំពុងទាក់ទងជាមួយ AI។ [មាន] classifier មួយ ដូច្នេះមនុស្សអាច upload audio content ហើយទទួលបានព័ត៌មានថា [តើវាជា] AI ឬអត់។ យើងកំពុងសហការជាមួយ Oxford, Berkeley, Reality Defender, និង AI safety institutes នៅក្នុង U.S. និង U.K. ដើម្បីផ្តល់ classifier ដល់អង្គការផ្សេងទៀត។ ផ្នែកដ៏ធំមួយគឺថាតើយើងអាចផ្តល់បច្ចេកវិទ្យាទាំងអស់ទៅកាន់ good actors ខណៈពេលដែលការពារ bad actors ដោយរបៀបណា។ វាជាតុល្យភាពនោះ។
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។
