កំពុងផ្ទុក...

ថ្ងៃ អាទិត្យ ទី៣០ ខែ វិច្ឆិកា ឆ្នាំ ២០២៥

ការធ្វើរោគវិនិច្ឆ័យខុសរបស់ AI ភ្ជាប់ទៅនឹងទិន្នន័យបណ្តុះបណ្តាលដែលមានភាពលំអៀង


  • ដោយ Admin
  • Nov 27, 2025
  • នៅក្នុង AI

លោក Warren Tierney អាយុ ៣៧ ឆ្នាំ ដែលរស់នៅក្នុងទីក្រុង Killarney ស្រុក Kerry ភាគនិរតីនៃប្រទេសអៀរឡង់ បានជួបប្រទះនឹងការឈឺចាប់រាល់ពេលដែលគាត់លេបអាហារ។ គាត់បានសួរ ChatGPT ដែលជា chatbot បញ្ញាសិប្បនិម្មិត (AI) អំពីរោគសញ្ញារបស់គាត់ ហើយ ChatGPT បានឆ្លើយតបថា "លទ្ធភាពនៃជំងឺមហារីកគឺទាបណាស់"។ ChatGPT បានធានាដល់ Tierney ដោយនិយាយថា "គ្មានអ្វីនៅក្នុងការពិពណ៌នារបស់អ្នកដែលបង្ហាញពីជំងឺមហារីកនោះទេ"។ ទោះជាយ៉ាងណាក៏ដោយ បន្ទាប់ពីស៊ូទ្រាំនឹងការឈឺចាប់ និងបានទៅមន្ទីរពេទ្យ Tierney ត្រូវបានគេធ្វើរោគវិនិច្ឆ័យថាមានជំងឺមហារីកបំពង់អាហារដំណាក់កាលទី ៤។ Tierney ដែលបានចាប់ផ្តើមការព្យាបាលជំងឺមហារីក បានប្រាប់ Economic Times ថា "ខ្ញុំបានជួបប្រទះបញ្ហាដោយពឹងផ្អែកខ្លាំងពេកលើ AI" ហើយបានបន្ថែមថា "ខ្ញុំបានខ្ជះខ្ជាយពេលវេលាជាច្រើនខែដោយសារតែការធានាឡើងវិញរបស់ AI"។


ខណៈពេលដែល AI ត្រូវបានសរសើរចំពោះការទស្សន៍ទាយ និងធ្វើរោគវិនិច្ឆ័យជំងឺធ្ងន់ធ្ងរយ៉ាងឆាប់រហ័ស កាត់បន្ថយបន្ទុកការងាររបស់បុគ្គលិកពេទ្យ និងដឹកនាំបដិវត្តន៍ថែទាំសុខភាព វាក៏មានបញ្ហាសំខាន់ៗ និងបញ្ហាប្រឈមដែលមិនទាន់ដោះស្រាយផងដែរ។ អ្នកជំនាញព្រមានថា ប្រសិនបើឧបករណ៍ AI ត្រូវបានប្រើប្រាស់ខុសក្នុងវិស័យវេជ្ជសាស្ត្រដោយគ្មានការផ្ទៀងផ្ទាត់ប្រសិទ្ធភាពគ្រប់គ្រាន់ គ្រោះថ្នាក់វេជ្ជសាស្ត្រធ្ងន់ធ្ងរអាចកើតឡើង ហើយការកំណត់ការទទួលខុសត្រូវក្នុងករណីបែបនេះនឹងមានភាពមិនច្បាស់លាស់។

◇ហានិភ័យនៃការធ្វើរោគវិនិច្ឆ័យខុសដោយ AI ដែលបានទទួលការបណ្តុះបណ្តាលលើទិន្នន័យជាក់លាក់

សហគមន៍វេជ្ជសាស្ត្រកំណត់អត្តសញ្ញាណកំហុសក្នុងការធ្វើរោគវិនិច្ឆ័យរបស់វេជ្ជបណ្ឌិត AI និងហានិភ័យអ្នកជំងឺដែលជាលទ្ធផលជាបញ្ហាធំបំផុត។ ដោយសារដំណើរការសម្រេចចិត្តរបស់ AI មិនអាចយល់បានចំពោះវេជ្ជបណ្ឌិតមនុស្ស ការរកឃើញ និងបញ្ជាក់ពីការធ្វើរោគវិនិច្ឆ័យខុសគឺពិបាក។ ការសិក្សាមួយក្នុងឆ្នាំ 2024 ដោយអ្នកស្រាវជ្រាវនៅមជ្ឈមណ្ឌលវេជ្ជសាស្ត្រកុមារ Cohen នៅសហរដ្ឋអាមេរិកបានវិភាគករណីធ្វើរោគវិនិច្ឆ័យកុមារចំនួន 100 ដោយប្រើ ChatGPT ហើយបានរកឃើញអត្រាធ្វើរោគវិនិច្ឆ័យខុស 83%។ អ្នកស្រាវជ្រាវបានកត់សម្គាល់ថា "អត្រាធ្វើរោគវិនិច្ឆ័យខុសរបស់ AI គឺខ្ពស់ជាពិសេសនៅក្នុងករណីកុមារ ដែលតម្រូវឱ្យមានការពិចារណាស្មុគស្មាញអំពីរោគសញ្ញា និងអាយុ"។


ការធ្វើរោគវិនិច្ឆ័យខុសរបស់ AI កើតចេញពីបញ្ហារចនាសម្ព័ន្ធទាក់ទងនឹងការបណ្តុះបណ្តាលទិន្នន័យវេជ្ជសាស្ត្រដែលលំអៀង។ AI ធ្វើការវិនិច្ឆ័យដោយផ្អែកលើទិន្នន័យពីក្រុមស្រាវជ្រាវដែលមានស្រាប់ ដែលភាគច្រើនមានករណីបុរសស្បែកសមកពីប្រទេសអភិវឌ្ឍន៍។ នេះមានន័យថា ការធ្វើរោគវិនិច្ឆ័យ AI សម្រាប់ជំងឺកម្រ ឬអ្នកជំងឺមកពីប្រទេសដែលមានចំណូលទាប ដែលទិន្នន័យមានកម្រិត អាចមិនត្រឹមត្រូវ។ វេទិកាសេដ្ឋកិច្ចពិភពលោក (WEF) បានបញ្ជាក់កាលពីខែតុលាថា "ប្រព័ន្ធថែទាំសុខភាព AI ត្រូវបានបង្កើតឡើងដោយផ្អែកលើទិន្នន័យពីក្រុមតូចមួយនៃចំនួនប្រជាជន" ដោយបន្ថែមថា "នេះអាចធ្វើឱ្យវិសមភាពសុខភាពសកលកាន់តែធ្ងន់ធ្ងរឡើង"។ យោងតាមក្រុមស្រាវជ្រាវនៃសាកលវិទ្យាល័យស្ទែនហ្វដនៅសហរដ្ឋអាមេរិក អត្រាធ្វើរោគវិនិច្ឆ័យខុសរបស់ AI សម្រាប់ស្ត្រីស្បែកខ្មៅឈានដល់ 50%។

វេជ្ជបណ្ឌិត AI ដែលបានទទួលការបណ្តុះបណ្តាលលើទិន្នន័យដែលលំអៀងអាចនាំឱ្យមានការព្យាបាលមិនស្មើគ្នា។ ខណៈពេលដែលការថែទាំសុខភាព AI ត្រូវបានគេរំពឹងថានឹងកាត់បន្ថយវិសមភាពផ្នែកវេជ្ជសាស្ត្រដោយផ្តល់អត្ថប្រយោជន៍ដល់ក្រុមដែលងាយរងគ្រោះ និងអ្នកជំងឺនៅតំបន់ដាច់ស្រយាល វាអាចធ្វើឱ្យពួកគេកាន់តែធ្ងន់ធ្ងរឡើង។ កាលពីខែមេសា ទិនានុប្បវត្តិ Nature Medicine បានចេញផ្សាយឯកសារមួយដោយព្រមានថា គំរូភាសាធំៗ (LLMs) នៅក្នុង AI អាចចេញអនុសាសន៍ព្យាបាលដែលមិនសមហេតុផលផ្នែកវេជ្ជសាស្ត្រដោយផ្អែកលើលក្ខណៈសង្គមប្រជាសាស្ត្ររបស់អ្នកជំងឺ។ បន្ទាប់ពីវិភាគករណីព្យាបាលពិតប្រាកដចំនួន 1,000 ដោយប្រើគំរូ AI ចំនួនប្រាំបួន អ្នកស្រាវជ្រាវបានរកឃើញថា AI បានណែនាំការវាយតម្លៃសុខភាពផ្លូវចិត្តដែលមិនចាំបាច់សម្រាប់បុគ្គលស្បែកខ្មៅ ជនជាតិភាគតិចផ្លូវភេទ និងជនអនាថា។ ចំពោះអ្នកជំងឺដែលមានប្រាក់ចំណូលទាប វាបានណែនាំតែការធ្វើតេស្តជាមូលដ្ឋានប៉ុណ្ណោះ ខណៈពេលដែលស្នើឱ្យមានការស្កេន CT ឬ MRI ដែលមានតម្លៃថ្លៃញឹកញាប់ជាងសម្រាប់អ្នកជំងឺដែលមានប្រាក់ចំណូលខ្ពស់។ ការសិក្សាស្រដៀងគ្នានេះបានបង្ហាញថា AI ជារឿយៗបានបន្ទាបបន្ថោកបញ្ហាសុខភាពចំពោះស្ត្រីបើប្រៀបធៀបទៅនឹងបុរសដែលមានរោគសញ្ញាដូចគ្នា។ Reuters បាននិយាយថា "AI បានធ្វើត្រាប់តាមវិសមភាពថែទាំសុខភាពដែលកើតឡើងនៅក្នុងពិភពពិតដោយផ្អែកលើភាពខុសគ្នានៃទ្រព្យសម្បត្តិ"។


◇ការទទួលខុសត្រូវមិនច្បាស់លាស់ចំពោះការធ្វើរោគវិនិច្ឆ័យខុស

ការទទួលខុសត្រូវផ្នែកច្បាប់គឺមិនច្បាស់លាស់ទេ ប្រសិនបើគ្រោះថ្នាក់ផ្នែកវេជ្ជសាស្ត្រកើតឡើងដោយសារតែការធ្វើរោគវិនិច្ឆ័យរបស់វេជ្ជបណ្ឌិត AI។ ខណៈពេលដែលបុគ្គលិកពេទ្យ និងមន្ទីរពេទ្យអាចត្រូវទទួលខុសត្រូវចំពោះគ្រោះថ្នាក់ វាមិនច្បាស់ទេថាតើការទទួលខុសត្រូវស្ថិតនៅលើវេជ្ជបណ្ឌិត មន្ទីរពេទ្យ ឬអ្នកអភិវឌ្ឍន៍ AI ដែរឬទេ ប្រសិនបើ AI អានរូបភាព CT ឬកាំរស្មីអ៊ិចខុស។ យោងតាមក្រុមហ៊ុនព័ត៌មានផ្នែកច្បាប់របស់សហរដ្ឋអាមេរិក Enjuris គិតត្រឹមឆ្នាំ 2024 បណ្តឹងផ្នែកវេជ្ជសាស្ត្រទាក់ទងនឹង AI ក្នុងវិស័យថែទាំសុខភាពបានកើនឡើង 14% បើប្រៀបធៀបទៅនឹងឆ្នាំ 2022។ ករណីធម្មតាមួយពាក់ព័ន្ធនឹងការអានរូបភាព AI ដែលបរាជ័យក្នុងការរកឃើញជំងឺមហារីក ឬការបាក់ឆ្អឹង ដោយវេជ្ជបណ្ឌិតមិនបានពិនិត្យលទ្ធផលឡើងវិញទេ។ Enjuris បានកត់សម្គាល់ថា "តុលាការមិនទាន់បានសន្និដ្ឋានថាតើ AI គួរតែត្រូវបានចាត់ទុកជាឧបករណ៍វេជ្ជសាស្ត្រ សេវាកម្ម ឬឧបករណ៍ដែលប្រើប្រាស់ដោយវេជ្ជបណ្ឌិតឬអត់"។

នេះគឺជាបញ្ហាសកល។ ការស្ទង់មតិរបស់អង្គការសុខភាពពិភពលោក (WHO) លើរដ្ឋសមាជិកអឺរ៉ុបចំនួន 50 នៅថ្ងៃទី 19 បានរកឃើញថាប្រទេសចំនួន 43 បានលើកឡើងពីភាពមិនប្រាកដប្រជាផ្នែកច្បាប់ថាជាឧបសគ្គធំបំផុតចំពោះការទទួលយក AI ផ្នែកវេជ្ជសាស្ត្រ។ មានតែប្រទេសចំនួនបួនប៉ុណ្ណោះ រួមទាំងប្រទេសអេស្តូនី និងអេស្ប៉ាញ ដែលមានក្របខ័ណ្ឌច្បាប់សម្រាប់ AI ក្នុងវិស័យថែទាំសុខភាព។ លោកវេជ្ជបណ្ឌិត Hans Kluge នាយកតំបន់ WHO ប្រចាំទ្វីបអឺរ៉ុប បានចង្អុលបង្ហាញថា "បើគ្មានយុទ្ធសាស្ត្រច្បាស់លាស់ ការការពារភាពឯកជនទិន្នន័យ ការការពារផ្នែកច្បាប់ និងការវិនិយោគលើសមត្ថភាពប្រើប្រាស់ AI ទេ មានហានិភ័យដែល AI អាចធ្វើឱ្យកាន់តែធ្ងន់ធ្ងរឡើងជាជាងកាត់បន្ថយវិសមភាពថែទាំសុខភាព"។

Super Admin

Admin

សូម ចូលគណនី ដើម្បីបញ្ចេញមតិយោបល់លើអត្ថបទនេះ!

អ្នកក៏អាចចូលចិត្តផងដែរ