Here’s the translated content:

កំណែលើកដំបូងដោយ AI Research Center អនុវត្តបានយ៉ាងល្អក្នុងគណិតវិទ្យា និងការវែកញែក
TAIPEI, ថ្ងៃទី 10 ខែមីនា ឆ្នាំ 2025 — Hon Hai Research Institute បានប្រកាសនៅថ្ងៃនេះអំពីការដាក់ឱ្យដំណើរការ Large Language Model (LLM) ជាភាសាចិនបុរាណជាលើកដំបូង ដែលបង្កើតបានជាព្រឹត្តិការណ៍ដ៏សំខាន់មួយទៀតក្នុងការអភិវឌ្ឍន៍បច្ចេកវិទ្យា AI របស់ Taiwan ជាមួយនឹងវិធីសាស្រ្តបណ្តុះបណ្តាលគំរូដែលមានប្រសិទ្ធភាព និងតម្លៃទាបជាងដែលបានបញ្ចប់ក្នុងរយៈពេលត្រឹមតែ 4 សប្តាហ៍ប៉ុណ្ណោះ។
វិទ្យាស្ថានដែលគាំទ្រដោយ Hon Hai Technology Group (“Foxconn”) (TWSE:2317) ដែលជាក្រុមហ៊ុនផលិតគ្រឿងអេឡិចត្រូនិកដ៏ធំបំផុតរបស់ពិភពលោក និងជាអ្នកផ្តល់ដំណោះស្រាយបច្ចេកវិទ្យាឈានមុខគេ បាននិយាយថា LLM – ដែលមានឈ្មោះកូដ FoxBrain – នឹងត្រូវបានបើកកូដប្រភព និងចែករំលែកជាសាធារណៈនាពេលអនាគត។ វាត្រូវបានរចនាឡើងដំបូងសម្រាប់កម្មវិធីដែលប្រើប្រាស់ក្នុងប្រព័ន្ធផ្ទៃក្នុងរបស់ Group ដែលគ្របដណ្តប់មុខងារដូចជាការវិភាគទិន្នន័យ ការគាំទ្រការសម្រេចចិត្ត កិច្ចសហប្រតិបត្តិការឯកសារ គណិតវិទ្យា ការវែកញែក និងការដោះស្រាយបញ្ហា និងការបង្កើតកូដ។
FoxBrain មិនត្រឹមតែបង្ហាញពីសមត្ថភាពយល់ដឹង និងការវែកញែកដ៏ខ្លាំងក្លាប៉ុណ្ណោះទេ ប៉ុន្តែវាក៏ត្រូវបានធ្វើឱ្យប្រសើរឡើងសម្រាប់រចនាប័ទ្មភាសារបស់អ្នកប្រើប្រាស់តៃវ៉ាន់ផងដែរ ដោយបង្ហាញពីការអនុវត្តដ៏ល្អឥតខ្ចោះនៅក្នុងការធ្វើតេស្តគណិតវិទ្យា និងតក្កវិជ្ជា។
“ក្នុងរយៈពេលប៉ុន្មានខែថ្មីៗនេះ ការធ្វើឱ្យស៊ីជម្រៅនៃសមត្ថភាពវែកញែក និងការប្រើប្រាស់ GPUs ប្រកបដោយប្រសិទ្ធភាពបានក្លាយជាការអភិវឌ្ឍន៍ដ៏សំខាន់នៅក្នុងវិស័យ AI ។ គំរូ FoxBrain របស់យើងបានអនុវត្តយុទ្ធសាស្ត្របណ្តុះបណ្តាលប្រកបដោយប្រសិទ្ធភាពខ្ពស់ ដោយផ្តោតលើការធ្វើឱ្យប្រសើរឡើងនូវដំណើរការបណ្តុះបណ្តាលជាជាងការប្រមូលផ្តុំថាមពលកុំព្យូទ័រដោយងងឹតងងល់” នេះបើតាមសម្តីរបស់ Dr. Yung-Hui Li នាយក Artificial Intelligence Research Center នៅ Hon Hai Research Institute ។ “តាមរយៈវិធីសាស្រ្តបណ្តុះបណ្តាលដែលបានរចនាយ៉ាងប្រុងប្រយ័ត្ន និងការបង្កើនប្រសិទ្ធភាពធនធាន យើងបានបង្កើតគំរូ AI ក្នុងស្រុកដោយជោគជ័យជាមួយនឹងសមត្ថភាពវែកញែកដ៏ខ្លាំងក្លា។”
ដំណើរការបណ្តុះបណ្តាល FoxBrain ត្រូវបានផ្តល់ថាមពលដោយ 120 NVIDIA H100 GPUs ធ្វើមាត្រដ្ឋានជាមួយ InfiniBand networking ហើយបានបញ្ចប់ក្នុងរយៈពេលប្រហែល 4 សប្តាហ៍ប៉ុណ្ណោះ។ បើប្រៀបធៀបទៅនឹងគំរូវិភាគដែលបានដាក់ឱ្យដំណើរការនាពេលថ្មីៗនេះនៅក្នុងទីផ្សារ វិធីសាស្រ្តបណ្តុះបណ្តាលគំរូដែលមានប្រសិទ្ធភាព និងតម្លៃទាបជាងនេះបង្កើតបានជាព្រឹត្តិការណ៍ដ៏សំខាន់មួយសម្រាប់ការអភិវឌ្ឍន៍បច្ចេកវិទ្យា AI របស់ Taiwan ។
FoxBrain គឺផ្អែកលើ Meta Llama 3.1 architecture ជាមួយនឹងប៉ារ៉ាម៉ែត្រ 70B ។ នៅក្នុងប្រភេទភាគច្រើនក្នុងចំណោម TMMLU+ test dataset វាដំណើរការលើស Llama-3-Taiwan-70B នៃមាត្រដ្ឋានដូចគ្នា ជាពិសេសគឺពូកែខាងគណិតវិទ្យា និងការវែកញែកឡូជីខល (សម្រាប់លក្ខណៈវិនិច្ឆ័យ TMMLU+ របស់ FoxBrain សូមយោងលើរូបភាពទី 1) ។ ខាងក្រោមនេះគឺជាលក្ខណៈបច្ចេកទេស និងយុទ្ធសាស្ត្របណ្តុះបណ្តាលសម្រាប់ FoxBrain៖
- វិធីសាស្រ្តបង្កើនទិន្នន័យដែលបានបង្កើតឡើង និងការវាយតម្លៃគុណភាពសម្រាប់ 24 topic categories តាមរយៈបច្ចេកវិទ្យាដែលមានកម្មសិទ្ធិ បង្កើតបាន 98B tokens នៃទិន្នន័យបណ្តុះបណ្តាលមុនដែលមានគុណភាពខ្ពស់សម្រាប់ភាសាចិនបុរាណ
- Context window length: 128 K tokens
- បានប្រើ 120 NVIDIA H100 GPUs សម្រាប់ការបណ្តុះបណ្តាល ជាមួយនឹងតម្លៃកុំព្យូទ័រសរុប 2,688 GPU days
- បានប្រើ multi-node parallel training architecture ដើម្បីធានាបាននូវដំណើរការ និងស្ថេរភាពខ្ពស់។
- បានប្រើបច្ចេកទេស Adaptive Reasoning Reflection តែមួយគត់ដើម្បីបណ្តុះបណ្តាលគំរូក្នុងការវែកញែកដោយស្វ័យភាព

នៅក្នុងលទ្ធផលតេស្ត FoxBrain បានបង្ហាញពីភាពប្រសើរឡើងយ៉ាងទូលំទូលាយនៅក្នុងគណិតវិទ្យា បើប្រៀបធៀបទៅនឹងគំរូមូលដ្ឋាន Meta Llama 3.1 model ។ វាបានសម្រេចបាននូវវឌ្ឍនភាពគួរឱ្យកត់សម្គាល់នៅក្នុងការធ្វើតេស្តគណិតវិទ្យា បើប្រៀបធៀបទៅនឹង Taiwan Llama ដែលបច្ចុប្បន្នជាគំរូធំជាងគេរបស់ចិនបុរាណ ហើយបានលើសគំរូ Meta បច្ចុប្បន្ននៃថ្នាក់ដូចគ្នានៅក្នុងសមត្ថភាពវែកញែកគណិតវិទ្យា។ ខណៈពេលដែលនៅមានគម្លាតបន្តិចជាមួយនឹងគំរូ distillation របស់ DeepSeek ការអនុវត្តរបស់វាគឺជិតនឹងស្តង់ដារឈានមុខគេរបស់ពិភពលោករួចទៅហើយ។
ការអភិវឌ្ឍន៍របស់ FoxBrain – ពីការប្រមូលទិន្នន័យ ការសម្អាត និងការពង្រីក រហូតដល់ Continual Pre-Training, Supervised Finetuning, RLAIF និង Adaptive Reasoning Reflection – ត្រូវបានសម្រេចជាជំហានៗ តាមរយៈការស្រាវជ្រាវឯករាជ្យ ដែលទីបំផុតសម្រេចបាននូវអត្ថប្រយោជន៍ដែលខិតជិតគំរូ AI កម្រិតពិភពលោក ទោះបីជាមានធនធានកុំព្យូទ័រមានកំណត់ក៏ដោយ។ ការស្រាវជ្រាវ large language model នេះបង្ហាញថា ទេពកោសល្យបច្ចេកវិទ្យារបស់ Taiwan អាចប្រកួតប្រជែងជាមួយសមភាគីអន្តរជាតិក្នុងវិស័យ AI model ។
ទោះបីជា FoxBrain ត្រូវបានរចនាឡើងដំបូងសម្រាប់កម្មវិធី group ផ្ទៃក្នុងក៏ដោយ នាពេលអនាគត Group នឹងបន្តសហការជាមួយ technology partners ដើម្បីពង្រីកកម្មវិធី FoxBrain ចែករំលែកព័ត៌មាន open-source របស់ខ្លួន និងលើកកម្ពស់ AI ក្នុងការផលិត ការគ្រប់គ្រងខ្សែសង្វាក់ផ្គត់ផ្គង់ និងការសម្រេចចិត្តឆ្លាតវៃ។
ក្នុងអំឡុងពេល model training NVIDIA បានផ្តល់ការគាំទ្រតាមរយៈ Taipei-1 Supercomputer និងការពិគ្រោះយោបល់បច្ចេកទេស ដោយអនុញ្ញាតឱ្យ Hon Hai Research Institute បញ្ចប់ការ model pre-training ដោយជោគជ័យជាមួយ NVIDIA NeMo ។ FoxBrain ក៏នឹងក្លាយជាម៉ាស៊ីនដ៏សំខាន់មួយដើម្បីជំរុញការធ្វើឱ្យប្រសើរឡើងនៃ Foxconn’s three major platforms: Smart Manufacturing. Smart EV. Smart City.
លទ្ធផលនៃ FoxBrain ត្រូវបានគ្រោងទុកជាលើកដំបូងនៅឯសន្និសីទធំមួយក្នុងអំឡុងពេល NVIDIA GTC 2025 Session Talk “” នៅថ្ងៃទី 20 ខែមីនា។
អំពី Hon Hai Research Institute
វិទ្យាស្ថាននេះមានមជ្ឈមណ្ឌលស្រាវជ្រាវចំនួន 5 ។ មជ្ឈមណ្ឌលនីមួយៗមានអ្នកជំនាញ R&D បច្ចេកវិទ្យាខ្ពស់ជាមធ្យម 40 នាក់ ដែលទាំងអស់ផ្តោតលើការស្រាវជ្រាវ និងការអភិវឌ្ឍន៍បច្ចេកវិទ្យាថ្មីៗ ការពង្រឹងបច្ចេកវិទ្យា និង pipeline នៃការច្នៃប្រឌិតផលិតផលរបស់ Foxconn ការខិតខំប្រឹងប្រែងដើម្បីគាំទ្រការផ្លាស់ប្តូរ Group ពី “brawn” ទៅ “brains” និងការពង្រឹងសមត្ថភាពប្រកួតប្រជែងនៃយុទ្ធសាស្រ្ត “3+3” របស់ Foxconn ។
អំពី Foxconn ។
រូបថត –