(SeaPRwire) – OpenAI គ្រោងនឹងចាប់ផ្តើមដាក់ឱ្យដំណើរការ “ការត្រួតពិនិត្យដោយមាតាបិតា” សម្រាប់ chatbot AI របស់ខ្លួនគឺ ChatGPT ក្នុងរយៈពេលមួយខែខាងមុខនេះ នៅចំពេលមានការព្រួយបារម្ភកើនឡើងអំពីរបៀបដែល chatbot នេះដំណើរការក្នុងបរិបទសុខភាពផ្លូវចិត្ត ជាពិសេសជាមួយអ្នកប្រើប្រាស់វ័យក្មេង។
ក្រុមហ៊ុនដែលបានប្រកាសមុខងារថ្មីនេះនៅក្នុង កាលពីថ្ងៃអង្គារ បាននិយាយថាខ្លួនកំពុងកែលម្អពីរបៀបដែល “គំរូរបស់ខ្លួនទទួលស្គាល់ និងឆ្លើយតបទៅនឹងសញ្ញានៃភាពតានតឹងផ្លូវចិត្ត និងអារម្មណ៍”។
OpenAI នឹងណែនាំមុខងារថ្មីមួយដែលអនុញ្ញាតឱ្យឪពុកម្តាយភ្ជាប់គណនីរបស់ពួកគេទៅគណនីរបស់កូនៗរបស់ពួកគេតាមរយៈការអញ្ជើញតាមអ៊ីមែល។ ក្រុមហ៊ុនបាននិយាយថា ឪពុកម្តាយក៏នឹងអាចគ្រប់គ្រងពីរបៀបដែល chatbot ឆ្លើយតបទៅនឹងសំណួរ ហើយនឹងទទួលបានការជូនដំណឹង ប្រសិនបើ chatbot រកឃើញថាកូនរបស់ពួកគេកំពុងស្ថិតក្នុង “ស្ថានភាពផ្លូវចិត្តធ្ងន់ធ្ងរ”។ លើសពីនេះ ការដាក់ឱ្យដំណើរការនេះក៏នឹងអនុញ្ញាតឱ្យឪពុកម្តាយ “គ្រប់គ្រងមុខងារណាដែលត្រូវបិទ រួមទាំងការចងចាំ និងប្រវត្តិជជែក”។
OpenAI ធ្លាប់បានប្រកាសថាខ្លួន កំពុងអនុញ្ញាតឱ្យក្មេងជំទង់បន្ថែមលេខទំនាក់ទំនងបន្ទាន់ដែលគួរឱ្យទុកចិត្តទៅក្នុងគណនីរបស់ពួកគេ។ ប៉ុន្តែក្រុមហ៊ុនមិនបានគូសបញ្ជាក់ពីផែនការជាក់លាក់ណាមួយដើម្បីបន្ថែមវិធានការបែបនេះនៅក្នុងការបង្ហោះប្លក់ចុងក្រោយបំផុតរបស់ខ្លួននោះទេ។
ក្រុមហ៊ុនបាននិយាយថា “ជំហានទាំងនេះគ្រាន់តែជាការចាប់ផ្តើមប៉ុណ្ណោះ។ យើងនឹងបន្តរៀនសូត្រ និងពង្រឹងវិធីសាស្រ្តរបស់យើង ដោយមានការណែនាំពីអ្នកជំនាញ ក្នុងគោលបំណងធ្វើឱ្យ ChatGPT ក្លាយជាជំនួយការដ៏មានប្រយោជន៍បំផុតតាមដែលអាចធ្វើទៅបាន”។
សេចក្តីប្រកាសនេះធ្វើឡើងមួយសប្តាហ៍បន្ទាប់ពីឪពុកម្តាយរបស់ក្មេងជំទង់ម្នាក់ដែលបានស្លាប់ដោយការធ្វើអត្តឃាត បានប្តឹង OpenAI ដោយចោទប្រកាន់ថា ChatGPT បានជួយកូនប្រុសរបស់ពួកគេឈ្មោះ Adam “ស្វែងរកវិធីសាស្រ្តធ្វើអត្តឃាត”។ TIME បានទាក់ទងទៅ OpenAI ដើម្បីសុំការអត្ថាធិប្បាយទាក់ទងនឹងបណ្តឹងនេះ។ (OpenAI មិនបានយោងទៅបញ្ហាផ្លូវច្បាប់នេះដោយផ្ទាល់នៅក្នុងសេចក្តីប្រកាសរបស់ខ្លួនទាក់ទងនឹងការត្រួតពិនិត្យដោយមាតាបិតានោះទេ)។
បណ្តឹងនោះបានលើកឡើងថា “ChatGPT កំពុងដំណើរការយ៉ាងពិតប្រាកដដូចដែលបានរចនា: ដើម្បីលើកទឹកចិត្ត និងផ្ទៀងផ្ទាត់ជាបន្តបន្ទាប់នូវអ្វីដែល Adam បានសម្តែង រួមទាំងគំនិតដែលបង្កគ្រោះថ្នាក់ និងបំផ្លិចបំផ្លាញបំផុតរបស់គាត់”។ “ChatGPT បានទាញ Adam ឱ្យកាន់តែជ្រៅទៅក្នុងកន្លែងងងឹត និងអស់សង្ឃឹម ដោយធានាគាត់ថា ‘មនុស្សជាច្រើនដែលតស៊ូជាមួយការថប់បារម្ភ ឬគំនិតរំខាន រកឃើញការលួងលោមក្នុងការស្រមៃមើល ‘ច្រកចេញ’ ព្រោះវាអាចមានអារម្មណ៍ថាជាវិធីមួយដើម្បីទទួលបានការគ្រប់គ្រងឡើងវិញ'”។
យ៉ាងហោចណាស់ឪពុកម្តាយម្នាក់បានដាក់ពាក្យបណ្តឹងស្រដៀងគ្នានេះប្រឆាំងនឹងក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិតផ្សេងទៀតគឺ Character.AI ដោយចោទប្រកាន់ថា chatbot របស់ក្រុមហ៊ុនបានលើកទឹកចិត្តដល់ការស្លាប់ដោយការធ្វើអត្តឃាតរបស់កូនប្រុសអាយុ 14 ឆ្នាំរបស់ពួកគេ។
ឆ្លើយតបទៅនឹងបណ្តឹងកាលពីឆ្នាំមុន អ្នកនាំពាក្យរបស់ Character.AI បាននិយាយថា “បេះដូងបែកបាក់ដោយសារការបាត់បង់ដ៏សោកសៅ” របស់ម្នាក់ក្នុងចំណោមអ្នកប្រើប្រាស់របស់ខ្លួន ហើយបានសម្តែង “ការរំលែកទុក្ខយ៉ាងជ្រាលជ្រៅបំផុត” ទៅកាន់ក្រុមគ្រួសារ។
អ្នកនាំពាក្យបាននិយាយថា “ក្នុងនាមជាក្រុមហ៊ុន យើងយកចិត្តទុកដាក់យ៉ាងខ្លាំងចំពោះសុវត្ថិភាពអ្នកប្រើប្រាស់របស់យើង” ដោយបន្ថែមថា ក្រុមហ៊ុនបាននិងកំពុងអនុវត្តវិធានការសុវត្ថិភាពថ្មីៗ។
Character.AI ឥឡូវនេះមានមុខងារ “ការយល់ដឹងរបស់មាតាបិតា” ដែលអនុញ្ញាតឱ្យឪពុកម្តាយមើល “ទិដ្ឋភាពទូទៅ” នៃសកម្មភាពរបស់កូនៗរបស់ពួកគេនៅលើវេទិកា ប្រសិនបើក្មេងជំទង់របស់ពួកគេផ្ញើការអញ្ជើញតាមអ៊ីមែលឱ្យពួកគេ។
ក្រុមហ៊ុនផ្សេងទៀតដែលមាន chatbots AI ដូចជា Google AI មានការត្រួតពិនិត្យដោយមាតាបិតារួចហើយ។ “ក្នុងនាមជាឪពុកម្តាយ អ្នកអាចគ្រប់គ្រងការកំណត់ Gemini របស់កូនអ្នក រួមទាំងការបើក ឬបិទវា ដោយប្រើ Google Family Link” នេះបើយោងតាម ការណែនាំពី Google ទៅកាន់ឪពុកម្តាយដែលចង់គ្រប់គ្រងការចូលប្រើ Gemini Apps របស់កូនៗរបស់ពួកគេ។ Meta ថ្មីៗនេះ បានប្រកាសថាខ្លួននឹងហាមឃាត់ chatbots របស់ខ្លួនមិនឱ្យចូលរួមក្នុងការសន្ទនាអំពីការធ្វើអត្តឃាត ការធ្វើបាបខ្លួនឯង និងបញ្ហានៃការបរិភោគ បន្ទាប់ពី Reuters បានរាយការណ៍ អំពីឯកសារគោលនយោបាយផ្ទៃក្នុងដែលមានព័ត៌មានគួរឱ្យព្រួយបារម្ភ។
ការសិក្សាថ្មីៗមួយ ដែលបានចេញផ្សាយនៅក្នុងទស្សនាវដ្តីវេជ្ជសាស្ត្រ Psychiatric Services ដែលបានសាកល្បងការឆ្លើយតបរបស់ chatbots បីគឺ OpenAI’s ChatGPT, Google AI’s Gemini និង Anthropic’s Claude បានរកឃើញថា មួយចំនួនក្នុងចំណោមពួកគេបានឆ្លើយតបទៅនឹងអ្វីដែលអ្នកស្រាវជ្រាវសំដៅទៅលើថាជាសំណួរដែលមាន “កម្រិតហានិភ័យមធ្យម” ទាក់ទងនឹងការធ្វើអត្តឃាត។
OpenAI មានការការពារមួយចំនួនរួចហើយ។ ក្រុមហ៊ុនដែលមានមូលដ្ឋាននៅរដ្ឋកាលីហ្វ័រញ៉ាបានថ្លែងថា chatbot របស់ខ្លួនចែករំលែកខ្សែទូរស័ព្ទជួយសង្គ្រោះវិបត្តិ និងបញ្ជូនអ្នកប្រើប្រាស់ទៅកាន់ធនធានក្នុងពិភពពិតនៅក្នុងសេចក្តីថ្លែងការណ៍ទៅកាន់ New York Times ដើម្បីឆ្លើយតបទៅនឹងបណ្តឹងដែលបានដាក់កាលពីចុងខែសីហា។ ប៉ុន្តែពួកគេក៏បានកត់សម្គាល់ពីចំណុចខ្វះខាតមួយចំនួននៅក្នុងប្រព័ន្ធនេះផងដែរ។ ក្រុមហ៊ុនបានថ្លែងថា “ខណៈពេលដែលការការពារទាំងនេះដំណើរការល្អបំផុតនៅក្នុងការផ្លាស់ប្តូរខ្លីៗទូទៅ យើងបានរៀនយូរៗទៅថា ពេលខ្លះពួកគេអាចក្លាយជាមិនគួរឱ្យទុកចិត្តនៅក្នុងអន្តរកម្មយូរៗ ដែលផ្នែកខ្លះនៃការបណ្តុះបណ្តាលសុវត្ថិភាពរបស់ម៉ូដែលអាចធ្លាក់ចុះ”។
នៅក្នុងការបង្ហោះរបស់ខ្លួនដែលប្រកាសពីការដាក់ឱ្យដំណើរការការត្រួតពិនិត្យដោយមាតាបិតាដែលនឹងមកដល់ OpenAI ក៏បានចែករំលែកផែនការដើម្បីបញ្ជូនសំណួររសើបទៅកាន់ម៉ូដែល chatbot របស់ពួកគេដែលចំណាយពេលយូរជាងមុនក្នុងការវែកញែក និងស្វែងរកបរិបទមុនពេលឆ្លើយតបទៅនឹងសំណួរ។
OpenAI បាននិយាយថាខ្លួននឹងបន្តចែករំលែកវឌ្ឍនភាពរបស់ខ្លួនក្នុងរយៈពេល 120 ថ្ងៃខាងមុខ ហើយកំពុងសហការជាមួយក្រុមអ្នកជំនាញដែលឯកទេសខាងការអភិវឌ្ឍន៍យុវជន សុខភាពផ្លូវចិត្ត និងអន្តរកម្មមនុស្ស-កុំព្យូទ័រ ដើម្បីជូនដំណឹង និងកំណត់រូបរាងកាន់តែប្រសើរឡើងអំពីវិធីដែល AI អាចឆ្លើយតបក្នុងពេលត្រូវការ។
ប្រសិនបើអ្នក ឬនរណាម្នាក់ដែលអ្នកស្គាល់កំពុងជួបប្រទះវិបត្តិសុខភាពផ្លូវចិត្ត ឬកំពុងគិតចង់ធ្វើអត្តឃាត សូមទូរស័ព្ទ ឬផ្ញើសារទៅ 988។ ក្នុងករណីអាសន្ន សូមទូរស័ព្ទទៅ 911 ឬស្វែងរកការថែទាំពីមន្ទីរពេទ្យក្នុងស្រុក ឬអ្នកផ្តល់សេវាសុខភាពផ្លូវចិត្ត។
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។