اسٹینفورڈ کے مطالعے کا کہنا ہے کہ کچھ ایف ڈی اے سے منظور شدہ AI طبی آلات کا 'مناسب' جائزہ نہیں لیا جاتا ہے۔

ماخذ نوڈ: 808637

اس جولائی 2021-12 کو ٹرانسفارم 16 میں شامل ہوں۔ کے لئے رجسٹر کریں۔r سال کا AI ایونٹ.


یو ایس فوڈ اینڈ ڈرگ ایڈمنسٹریشن (FDA) کے ذریعہ منظور شدہ AI سے چلنے والے کچھ طبی آلات ڈیٹا کی تبدیلی اور کم نمائندگی والے مریضوں کے خلاف تعصب کا شکار ہیں۔ یہ اسٹینفورڈ کے مطابق ہے۔ مطالعہ میں شائع فطرت، قدرت میڈیسن پچھلے ہفتے، جس نے پایا کہ AI مزید طبی آلات میں سرایت کرنے کے باوجود - FDA نے گزشتہ سال 65 سے زیادہ AI آلات کو منظور کیا تھا - ضروری نہیں کہ ان الگورتھم کی درستگی کا سختی سے مطالعہ کیا جائے۔

اگرچہ تعلیمی برادری نے AI کلینیکل ٹرائلز کے لیے رہنما خطوط تیار کرنا شروع کر دیے ہیں، لیکن تجارتی الگورتھم کا جائزہ لینے کے لیے کوئی طریقہ کار موجود نہیں ہے۔ امریکہ میں، FDA AI سے چلنے والے طبی آلات کی منظوری کے لیے ذمہ دار ہے، اور ایجنسی باقاعدگی سے ان آلات پر معلومات جاری کرتی ہے جس میں کارکردگی کا ڈیٹا بھی شامل ہے۔

اسٹینفورڈ ریسرچ کے مصنفین نے FDA سے منظور شدہ میڈیکل AI آلات کا ایک ڈیٹا بیس بنایا اور تجزیہ کیا کہ منظوری حاصل کرنے سے پہلے ہر ایک کی جانچ کیسے کی گئی۔ محققین کے مطابق، تقریباً تمام AI سے چلنے والے آلات — 126 میں سے 130 — جنوری 2015 اور دسمبر 2020 کے درمیان FDA کے ذریعے منظور کیے گئے، ان کی جمع کرانے پر صرف سابقہ ​​مطالعہ کیا گیا۔ اور 54 منظور شدہ ہائی رسک ڈیوائسز میں سے کسی کا بھی ممکنہ اسٹڈیز کے ذریعے جائزہ نہیں لیا گیا، یعنی ڈیوائسز کو ان کی تعیناتی کے ساتھ ہم آہنگ کرنے کی بجائے ان کی منظوری سے قبل ٹیسٹ ڈیٹا اکٹھا کیا گیا تھا۔

مصنفین کا استدلال ہے کہ ممکنہ مطالعہ ضروری ہیں، خاص طور پر AI طبی آلات کے لیے، کیونکہ میدان میں استعمال مطلوبہ استعمال سے ہٹ سکتا ہے۔ مثال کے طور پر، زیادہ تر کمپیوٹر کی مدد سے تشخیصی آلات کو بنیادی تشخیصی ٹولز کے بجائے فیصلہ سازی کے آلات کے طور پر ڈیزائن کیا گیا ہے۔ ایک ممکنہ مطالعہ سے یہ بات سامنے آسکتی ہے کہ معالجین تشخیص کے لیے کسی آلے کا غلط استعمال کر رہے ہیں، جس کے نتیجے میں ایسے نتائج برآمد ہوں گے جن کی توقع کی جائے گی۔

اس بات کے ثبوت موجود ہیں کہ یہ انحراف غلطیوں کا باعث بن سکتے ہیں۔ ہیرسبرگ میں پنسلوانیا پیشنٹ سیفٹی اتھارٹی کی جانب سے ٹریکنگ سے پتہ چلا کہ جنوری 2016 سے دسمبر 2017 تک، ریاست میں لیبارٹری ٹیسٹنگ کے دوران EHR سسٹم 775 مسائل کے لیے ذمہ دار تھے، جن میں انسانی کمپیوٹر کے تعاملات 54.7 فیصد واقعات کے لیے ذمہ دار تھے اور بقیہ 45.3 فیصد اس کی وجہ سے ہوئے۔ ایک کمپیوٹر. مزید برآں، 2018 میں جاری ہونے والی امریکی حکومت کی ایک مسودہ رپورٹ میں پتا چلا ہے کہ معالجین غیر معمولی طور پر انتباہات سے محروم نہیں رہتے ہیں - کچھ AI سے باخبر - منشیات کے تعامل کے بارے میں معمولی مسائل سے لے کر ان لوگوں تک جو کافی خطرات لاحق ہیں۔

سٹینفورڈ کے محققین نے ایف ڈی اے سے منظور شدہ آلات پر کئے گئے ٹیسٹوں میں مریض کے تنوع کی کمی بھی پائی۔ 130 ڈیوائسز میں سے، 93 کا ملٹی سائیٹ اسسمنٹ نہیں ہوا، جبکہ 4 کا صرف ایک سائٹ پر اور 8 ڈیوائسز کا صرف دو سائٹس پر تجربہ کیا گیا۔ اور 59 ڈیوائسز کی رپورٹس میں مطالعہ کے نمونے کے سائز کا ذکر نہیں کیا گیا۔ 71 ڈیوائس اسٹڈیز میں سے جن میں یہ معلومات تھیں، درمیانی سائز 300 تھا، اور صرف 17 ڈیوائس اسٹڈیز میں اس بات پر غور کیا گیا کہ الگورتھم مختلف مریضوں کے گروپوں پر کیسے کام کرسکتا ہے۔

جزوی طور پر کوڈ، ڈیٹاسیٹس اور تکنیکوں کو جاری کرنے میں سستی کی وجہ سے، بیماریوں کی تشخیص کے لیے AI الگورتھم کو تربیت دینے کے لیے آج استعمال ہونے والا زیادہ تر ڈیٹا عدم مساوات کو برقرار رکھ سکتا ہے، پچھلے مطالعات سے پتہ چلتا ہے۔ برطانیہ کے سائنسدانوں کی ایک ٹیم ملا کہ آنکھوں کی بیماری کے تقریباً تمام ڈیٹاسیٹس شمالی امریکہ، یورپ اور چین کے مریضوں سے آتے ہیں، یعنی آنکھوں کی بیماری کی تشخیص کرنے والے الگورتھم کم نمائندگی والے ممالک کے نسلی گروہوں کے لیے بہتر کام کرنے کے لیے کم یقینی ہیں۔ دوسرے میں مطالعہٹورنٹو یونیورسٹی، ویکٹر انسٹی ٹیوٹ، اور MIT کے محققین نے دکھایا کہ بڑے پیمانے پر استعمال ہونے والے سینے کے ایکسرے ڈیٹاسیٹس انکوڈ کریں نسلی، صنفی، اور سماجی اقتصادی تعصب۔

بنیادی ڈیٹاسیٹ چیلنجوں سے ہٹ کر، ایسے ماڈلز جن میں کافی ہم مرتبہ جائزہ نہیں ہے، حقیقی دنیا میں تعینات ہونے پر غیر متوقع رکاوٹوں کا سامنا کر سکتے ہیں۔ ہارورڈ کے سائنسدان ملا کہ سی ٹی اسکینوں کو پہچاننے اور درجہ بندی کرنے کے لیے تربیت یافتہ الگورتھم مخصوص CT مشین مینوفیکچررز کے اسکین فارمیٹس کی طرف متعصب ہوسکتے ہیں۔ دریں اثنا، ایک گوگل شائع whitepaper تھائی لینڈ کے ہسپتالوں میں آنکھوں کی بیماری کی پیش گوئی کرنے والے نظام کو نافذ کرنے میں چیلنجوں کا انکشاف کیا، بشمول اسکین کی درستگی کے مسائل۔ اور جیسے کمپنیوں کی طرف سے کئے گئے مطالعہ بابل صحت, ایک اچھی طرح سے مالی اعانت سے چلنے والا ٹیلی میڈیسن اسٹارٹ اپ جو ٹیکسٹ پیغامات سے متعدد بیماریوں کا علاج کرنے کے قابل ہونے کا دعویٰ کرتا ہے، کو بار بار سوالوں میں ڈالا گیا ہے۔

اسٹینفورڈ اسٹڈی کے مصنفین کا استدلال ہے کہ تشخیص میں سائٹس کی تعداد کے بارے میں معلومات کو "مسلسل طور پر رپورٹ کیا جانا" ضروری ہے تاکہ معالجین، محققین، اور مریضوں کو دیئے گئے AI میڈیکل ڈیوائس کی وشوسنییتا کے بارے میں باخبر فیصلے کر سکیں۔ ان کا کہنا ہے کہ الگورتھمک تعصب اور وشوسنییتا کو سمجھنے کے لیے ملٹی سائٹ کے جائزے اہم ہیں، اور یہ آلات، ٹیکنیشن کے معیارات، امیج اسٹوریج فارمیٹس، ڈیموگرافک میک اپ، اور بیماری کے پھیلاؤ میں تغیرات کے حساب کتاب میں مدد کر سکتے ہیں۔

"متعدد کلینیکل سائٹس میں AI آلات کی کارکردگی کا جائزہ لینا اس بات کو یقینی بنانے کے لیے اہم ہے کہ الگورتھم نمائندہ آبادیوں میں اچھی کارکردگی کا مظاہرہ کریں،" مصنفین نے لکھا۔ "معیاری نگہداشت کے مقابلے میں ممکنہ مطالعات کی حوصلہ افزائی کرنا نقصان دہ اوور فٹنگ کے خطرے کو کم کرتا ہے اور صحیح طبی نتائج کو زیادہ درست طریقے سے حاصل کرتا ہے۔ غیر ارادی نتائج اور تعصبات کی تفہیم اور پیمائش کے لئے AI آلات کی پوسٹ مارکیٹ نگرانی کی بھی ضرورت ہے جو ممکنہ، ملٹی سینٹر ٹرائل میں نہیں پائے جاتے ہیں۔

VentureBeat

VentureBeat کا مشن تکنیکی فیصلہ سازوں کے لیے تبدیلی کی ٹیکنالوجی اور لین دین کے بارے میں علم حاصل کرنے کے لیے ایک ڈیجیٹل ٹاؤن اسکوائر بننا ہے۔ ہماری سائٹ ڈیٹا ٹیکنالوجیز اور حکمت عملیوں کے بارے میں ضروری معلومات فراہم کرتی ہے تاکہ آپ اپنی تنظیموں کی رہنمائی کر سکیں۔ ہم آپ کو ہماری کمیونٹی کا رکن بننے کے لیے مدعو کرتے ہیں، رسائی حاصل کرنے کے لیے:

  • آپ کے دلچسپی کے موضوعات پر تازہ ترین معلومات
  • ہمارے نیوز لیٹر
  • رہنمائی کرنے والا رہنما مواد اور ہمارے قیمتی واقعات تک رعایت تک رسائی ، جیسے 2021 کو تبدیل کریں: اورجانیے
  • نیٹ ورکنگ کی خصوصیات اور بہت کچھ

رکن بنیں

ماخذ: https://venturebeat.com/2021/04/12/some-fda-approved-ai-medical-devices-are-not-adequately-evaluated-stanford-study-says/

ٹائم اسٹیمپ:

سے زیادہ VentureBeat