អ្នកជំនាញផ្នែកបច្ចេកវិទ្យាបានព្រមានថ្មីៗនេះថា បញ្ញាសិប្បនិម្មិត (AI) អាចធ្វើឱ្យមនុស្សជាតិឈានឆ្ពោះទៅដល់ការផុតពូជបាន។ នេះបើតាមការរាយការណ៍របស់បណ្ដាញព័ត៌មាន BBC។
អ្នកជំនាញបានធ្វើការព្រមាននេះ ក្នុងសេចក្ដីថ្លែងការណ៍មួយដែលចេញផ្សាយនៅលើគេហទំព័ររបស់មជ្ឈមណ្ឌលសម្រាប់សុវត្ថិភាព AI កាលពីថ្ងៃអង្គារ ទី ៣០ខែឧសភា ដោយមានការគាំទ្រពីអ្នកជំនាញរាប់សិបនាក់ផ្សេងទៀត។
បណ្ដានាយកប្រតិបត្តិនៃក្រុមហ៊ុន AI ធំៗ ដូចជាលោក Sam Altman របស់ក្រុមហ៊ុនOpenAI លោក Demis Has sabis របស់ក្រុមហ៊ុនGoogle DeepMind និងលោកDario Amodeiរបស់ក្រុមហ៊ុន Anthropic សុទ្ធតែ បានគាំទ្រសេចក្តីថ្លែងការណ៍នេះ។
សេចក្ដីថ្លែងការណ៍ បានលើកឡើងថា៖ «ការកាត់បន្ថយហានិភ័យនៃការផុតពូជមនុស្ស ពី AI គួរតែជាអាទិភាពសកលមួយ រួមជាមួយនឹងហានិភ័យក្នុងសង្គមផ្សេងទៀត ដូចជាជំងឺរាតត្បាត និងសង្រ្គាមនុយក្លេអ៊ែរជាដើម»។
សេចក្ដីថ្លែងការណ៍ដដែលបានបង្ហាញនូវសេណារីយោ មហន្តរាយមួយចំនួនដែលអាចកើតមានឡើង ដោយក្នុងនោះរួមមាន៖ (១) ការយក AI ធ្វើជាអាវុធ ឧទាហរណ៍ដូចជា ការប្រើប្រាស់ AI ដើម្បីបង្កើតអាវុធគីមី (២) ព័ត៌មានមិនពិតដែលបង្កើតដោយ AI អាចធ្វើឱ្យសង្គមមានអស្ថិរភាពហើយធ្វើឱ្យការសម្រេចចិត្តរួមចុះខ្សោយ (៣) AI កាន់តែស្ថិតនៅក្រោមអំណាចផ្ដាច់ការមួយចំនួនតូចដែលបើកដៃឱ្យរបបផ្ដាច់ការទាំងនោះ ធ្វើកិច្ចការតាមអំពើចិត្ត រួមទាំងការឃ្លាំមើល និងការគាបសង្កត់ជាដើម និង(៤) មនុស្សពឹងផ្អែកលើ AI ជ្រុល ដែលស្រដៀងនឹងសេណារីយោនៃក្នុងខ្សែភាពយន្តវិទ្យាសាស្ត្រគំនូរជីវចល « Wall-E»។
ដូចទៅនឹងប្រធានក្រុមហ៊ុន AI ធំៗមួយចំនួនដែរ អ្នកជំនាញផ្នែកបច្ចេកវិទ្យាផ្សេងៗទៀត ដូចជាអ្នកវិទ្យាសាស្រ្តកុំព្យូទ័រល្បីឈ្មោះ លោក Geoffrey Hintonដែលធ្លាប់ចេញការព្រមានស្ដីពីគ្រោះថ្នាក់របស់ AI និងសាស្ត្រាចារ្យវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យ Montreal លោក YoshuaBengioសុទ្ធតែគាំទ្រលើសេចក្ដីព្រមានទាំងនេះដូចគ្នា។
យ៉ាងណាមិញ អ្នកជំនាញខ្លះទៀត បានលើកឡើងថា ការភ័យខ្លាចAI បំផ្លាញមនុស្សជាតិ មានភាពមិនប្រាកដប្រជា ហើយជាការទាញការចាប់អារម្មណ៍ពីបញ្ហាផ្សេងៗទៀតដែលមានស្រាប់។ នេះបើតាមការស្រង់សម្ដីរបស់ BBC។
ចំណែកឯអ្នកជំនាញផ្សេងទៀត បានលើកឡើងប្រាប់ BBC ថា ការរីកចម្រើនរបស់AI «នឹងពង្រីកទំហំនៃការសម្រេចចិត្តដោយស្វ័យប្រវត្តិ» ដែលមានភាពលម្អៀង ការរើសអើងអយុត្តិធម៌ និងការផ្ដាច់មុខរបស់ក្រុមណាមួយ។
ការណ៍នេះ ជំរុញឱ្យមានការកើនឡើងនៃបរិមាណ និងការរីករាលដាលនៃព័ត៌មានមិនពិតដែលធ្វើឱ្យខូចការពិត និងលុបបំបាត់ការជឿទុកចិត្តរបស់សាធារណៈជន និងជំរុញឱ្យមានវិសមភាពបន្ថែមទៀត។
ទោះជាយ៉ាងណាក៏ដោយ នាយកមជ្ឈមណ្ឌលសម្រាប់សុវត្ថិភាព AI លោក Dan Hendrycksបានប្រាប់ BBC ថា ហានិ ភ័យនាពេលអនាគត និងការព្រួយបារម្ភនាពេលបច្ចុប្បន្ន មិនមែនជារឿងខុសប្លែកគ្នានោះទេ។ លោកបន្តថាការដោះស្រាយបញ្ហាមួយចំនួននៅថ្ងៃនេះ អាចមានប្រយោជន៍សម្រាប់ការដោះស្រាយហានិភ័យជាច្រើននៅថ្ងៃអនាគត៕