هوش مصنوعی می تواند کارکردی تخریبی در پزشکی داشته باشد ، از تعصبات نژادی تا تشخیص های سوء گیرانه

به گزارش مجله آرنا، نیویورک تایمز نوشت: هوش مصنوعی با ارزیابی رفتار پزشکان در شرایط مختلف بالینی آغاز به ارزیابی (و گاهی اوقات ارزیابی بیش از حد) بیماری ها می نماید و بنابراین اکنون شاهد این هستیم که هوش مصنوعی حتی می تواند سرطان ها را تشخیص دهد یا تشخیص هایی در حوزه هایی مثل مغز، چشم، قلب و ... انجام دهد. هوش مصنوعی حتی می تواند با ردیابی پرونده پزشکی بیماران پیشبینی کند آنها دچار چه بیماری هایی خواهند شد. در کنار همه این وظایف، هوش مصنوعی می تواند محاسباتی وقت گیر مثل محاسبه ضربان قلب و مواردی مشابه را انجام دهد.

هوش مصنوعی می تواند کارکردی تخریبی در پزشکی داشته باشد ، از تعصبات نژادی تا تشخیص های سوء گیرانه

به گزارش سرویس آی تی و فناوری انتخاب، نگاهی به قابلیتهای متعدد هوش مصوعی در عرصه پزشکی تا حدی قانع نماینده است که باعث می گردد از خودمان بپرسیم سااس چرا باید به عنوان یک دانشجوی پزشکی تحصیل کنیم و دوره های سخت این رشته را بگذرانیم؟

سوالات زیادی در خصوص اینکه آیا هوش مصنوعی واقعا مثل یک پزشک کار می نماید یا خیر وجود دارد. برای مثال هنوز هم ابهاماتی وجود دارد که آیا هوش مصنوعی واقعا می تواند تا حدی دقیق باشد که برای مثال زمان مرگ یک بیمار مبتلا به سرطان حاد را تعیین کند؟ اما این سوالات اغلب روی مسائل فنی مرتبط با هوش مصنوعی متمرکز است نه اصول اخلاقی. این که هوش مصنوعی اخلاقیات را در عرصه پزشکی مورد توجه قرار نمی دهد تا حدی مهم شده که بعضی این موضوع را از 3 منظر و دلیل اصلی مورد آنالیز قرار داده اند:

اولین مسئله آموزش است. درواقع هوش مصنوعی باید برای تشخیص بیماری به واسطه مجموعه داده های بزرگ یاد بگیرد و اگر این داده ها شامل اطلاعات کافی بیماران مبتلا به یک اختلال خاص نباشد، تشخیص های پزشکی هوش مصنوعی قابل اطمینان نخواهد بود. یک مطالعه اخیر نشان داد که بعضی از برنامه های تشخیص چهره به ندرت می توانند در حوزهن افراد رنگین پوست و زنان تشخیص های درست پوستی بدهند و فرض کنید قرار باشد از داده های مبتنی بر هوش مصنوعی برای تشخیص سرطان پوست استفاده کنیم.

علم پزشکی برای سال هایی طولانی کوشش نموده است تا زنان و اقلیت ها را به اندازه کافی در پژوهش های خود وارد کند. اما همچنان بسیاری از مطالعات ژنتیکی از فقدان بیماران سیاه پوست رنج می برند، که منجر به نتیجه گیری اشتباه می گردد. زنان اغلب علائم مختلفی در هنگام حمله قلبی دارند و باعث تاخیر در درمان می شوند. شاید رایج ترین ریسکهای قلب و عروق که با استفاده از داده های بیشتر بیماران سفیدپوست فراوری شده باشد، ممکن است برای اقلیت ها کمتر دقیق باشد.

دلیل دوم این است که بعضی مبناهای داده از ابتدا بر اساس طبقه اجتماعی و وضعیت معیشت بیماران تعیین می ود. برای مثال به طور رایج، بیماران فقیر و آواره ای که دچار بیماری هایی مثل سرطان می شوند کمتر خدمات پزشکی دریافت می نمایند و در نتیجه در هنگام طبقه بندی اطلاعات این نوع بیماران، هوش مصنوعی دچار تعارض شده و تصور می ند اساسا وضعیت سلامت و بهبودی این بیماران کم ارزش تر است. بر این اساس اگر، برای مثال، بیماران فقیر پس از پیوند عضو یا پس از دریافت شیمی درمانی برای سرطان در مرحله پایانی، بدتر می شوند، الگوریتم های یادگیری ماشینی ممکن است نتیجه گیری کند که این بیماران احتیاجی به دریافت درمان های مکمل ندارند و روند درمان آنان را بیرحمانه متوقف کند.

در نهایت و به عنوان مورد سوم؛ حتی اگر هوش مصنوعی کاملا بدون سوء گیری اقدام به ارزیبی شریط کند، گاهی تشخیص های هوش مصنوعی می تواند روند متاقشات در تصمیم های پزشکی را سخت تر کند. برای مثال شرایطی را در نظر بگیرید که در آن، پزشکان تصمیم می گیرند که آیا بیمار باید بعد از عمل جراحی زانو به خانه برود یا به یک مرکز توانبخشی فرستاه گردد. طبیعی است که دریافت مددکاری با هزینه های بالاتری همراه است و اگر الگوریتم بر اساس محل اقامت بیمار که در یک محله کم درآمد زندگی می نماید طراحی شده باشد، ممکن است بیماران فقیر را به جای دریافت فیزیوتراپی به خانه بفرسد. این موضوع نه تنها برای بیمار عواقب دارد، بلکه می تواند بین گروه های درمانی اختلاف ایجاد نموده و نتایج درمان را تضعیف کند.

در حال حاضر، تا حدودی، تمام این مسائل در حوزه پزشکی وجود دارد. مراقبت های بهداشتی آمریکا همواره از نابرابری های درآمدی و نژادی که ریشه در انواع مختلف تعصب دارند رنج می برد. خطر هوش مصنوعی در حوزه پزشکی این است که چنین تعصباتی به شکل اتوماتیک و نامرئی در آمده اند. درواقع هوش مصنوعی بی شباهت به یک جعبه سیاه نیست که تعیین نیست بر اساس چه مدارک و شواهدی یک تصمیم تعیین را اتخاذ نموده است.

مسئله وقتی مهم تر می گردد که بدانیم بسیاری از پزشکان به داده های دیجیتال وابسته هستند و حتی دانشجویان پزشکی در تمامی مراحل آموزش و یادگیری خود نیم نگاهی به اطلاعات آنلاین دارد. با همه این مخاطرات نمی توانیم منکر این موضوع شویم که هوش مصنوعی پتانسیل بالایی برای توسعه پزشکی دارد. اما تحقق این وعده احتیاج به آگاهی از پتانسیل تعصب و حفاظت از آن دارد. این به معنی نظارت منظم بر خروجی الگوریتم ها و پیامدهای آن است.

بر این اساس وظیفه همه افراد فعال در این حوزه حفاظت از جهتی است که هوش مصنوعی طی می نماید. چرا که هرگونه خطا در این جهت می تواند عواقبی سخت برای آینده هوش مصنوعی در حوزه پزشکی داشته باشد.

منبع: انتخاب
انتشار: 16 خرداد 1398 بروزرسانی: 27 فروردین 1399 گردآورنده: genarena.ir شناسه مطلب: 55

به "هوش مصنوعی می تواند کارکردی تخریبی در پزشکی داشته باشد ، از تعصبات نژادی تا تشخیص های سوء گیرانه" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "هوش مصنوعی می تواند کارکردی تخریبی در پزشکی داشته باشد ، از تعصبات نژادی تا تشخیص های سوء گیرانه"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید