
قبل از اینکه یک سازمان مراقبت بهداشتی فناوری جدیدی را برای استفاده گسترده بپذیرد، به احتمال زیاد ساختاری از قبل وجود دارد که شامل نظارت چندرشتهای برای آزمایش و اعتبارسنجی راهکار است.
هنگام پیادهسازی یک راهحل مبتنی بر هوش مصنوعی نیز نباید تفاوت چندانی وجود داشته باشد. اگرچه فناوری ممکن است متفاوت باشد، اما بعید نیست که سازمان شما مجبور باشد حاکمیت هوش مصنوعی را کاملاً از صفر شروع کند.
وجود حاکمیت هوش مصنوعی به ویژه حیاتی است زیرا هنوز عدم قطعیت زیادی در مورد استانداردهای صنعتی و مقررات فدرال وجود دارد. این ممکن است منجر به بررسی بیشتر در سطح ایالتی شود: به عنوان مثال، در تگزاس، دادستان کل ایالت و یک شرکت فناوری مراقبت بهداشتی مستقر در دالاس در سپتامبر ۲۰۲۴ پس از تعدادی ادعاهای نادرست و گمراهکننده در مورد دقت محصولات مبتنی بر هوش مصنوعی شرکت، به توافق رسیدند.
همانطور که اسنوفلیک تعریف میکند، حاکمیت هوش مصنوعی "مجموعهای از چارچوبها، سیاستها و بهترین شیوهها است که به عنوان موانعی برای اطمینان از توسعه و استفاده از فناوریهای هوش مصنوعی به روشی که خطرات احتمالی ناشی از سوگیری را به حداقل رسانده و مزایای مورد نظر را به حداکثر برساند" عمل میکند.
حاکمیت هوش مصنوعی را میتوان به عنوان گسترشی از حاکمیت داده نیز در نظر گرفت. در نهایت، هسته اصلی هوش مصنوعی از دادهها و تحلیلهای پیشرفته تشکیل شده است. راهحلهای هوش مصنوعی به اصول و شیوههای حاکمیت داده مانند مدیریت دادهها، کیفیت دادهها، مدیریت فرادادهها، حفظ حریم خصوصی و امنیت دادهها به همان اندازه یا بیشتر از راهحلهای دادهها و تحلیلهای سنتی نیاز دارند. مهم است که حاکمیت را برای راهحلهای هوش مصنوعی بدون در نظر گرفتن عناصر اساسی و حیاتی حاکمیت داده از ابتدا بازآفرینی نکنیم.
بخشی از حاکمیت هوش مصنوعی باید به نگرانیها در مورد سوگیری، تصمیمگیری و تأثیر اقتصادی و فرهنگی فناوری بپردازد. حیاتی است که سازمانهای مراقبت بهداشتی بر پایهای از حاکمیت دادهها و سایر زمینههای خاص حاکمیت هوش مصنوعی بنا کنند تا امیدوار باشند از پذیرش پایدار و سراسری راهحلهای هوش مصنوعی در سازمان خود برخوردار شوند.
نگرانی بیماران از حاکمیت ناکافی هوش مصنوعی
هر سال، سازمان غیرانتفاعی تحقیقات مراقبت بهداشتی ECRI فهرستی از مهمترین تهدیدها برای ایمنی بیمار را منتشر میکند. برای سال ۲۰۲۵، "حاکمیت ناکافی هوش مصنوعی در مراقبتهای بهداشتی" جایگاه دوم را به خود اختصاص داد.
و بیماران حق دارند در مورد نحوه استفاده ارائهدهندگان خود از هوش مصنوعی در ارائه خدمات مراقبت بهداشتی خود نگران باشند. اگر یک راهحل پرستاری مجازی وجود دارد که برای نظارت بر یک اتاق به دید ماشینی (computer vision) متکی است، آیا بیماران از وجود دوربین و میکروفون مطلع شدهاند و رضایت صریح خود را اعلام کردهاند؟ آیا بیماران میدانند که پزشکان مراقبتهای اولیه آنها از ابزارهای شنود محیطی (ambient listening tools) برای مستندسازی بالینی در طول معاینات سالانه استفاده میکنند؟ اگر از یک راهحل هوش مصنوعی استفاده میشود، سازمان چگونه از دادههای بهداشتی بیمار محافظت میکند؟
اینها سوالاتی هستند که سازمانهای مراقبت بهداشتی باید هنگام بررسی نقشهایی که هوش مصنوعی میتواند در جریان کار بالینی آنها ایفا کند، به آنها پاسخ دهند. اما طبق یک نظرسنجی در سال ۲۰۲۳ از مرکز پزشکی متصل در UPMC و KLAS Research، تنها ۱۶ درصد از سیستمهای بهداشتی ساختارهای حاکمیتی برای رسیدگی به طور خاص به هوش مصنوعی و دادهها دارند.
تجزیه و تحلیل دادههای نظرسنجی سال ۲۰۲۳ انجمن بیمارستانهای آمریکا توسط دانشکده بهداشت عمومی دانشگاه مینه سوتا نشان داد که در حالی که اکثریت بیمارستانهای ایالات متحده از مدلهای پیشبینی مبتنی بر هوش مصنوعی استفاده میکردند، تنها ۴۴ درصد از آنها مدلهای خود را برای سوگیری ارزیابی کرده بودند. این برای ارائه عادلانه مراقبت مضر است و اگر سازمانهای مراقبت بهداشتی میخواهند به هدف پنجگانه (Quintuple Aim) که شامل پیشرفت برابری سلامت است دست یابند، باید به طور جدی به سوگیری هوش مصنوعی بپردازند.
بیشتر بخوانید: از دادهها و هوش مصنوعی برای بهبود نتایج مراقبتهای بهداشتی بهره ببرید.
حاکمیت هوش مصنوعی تنها یک تغییر فناوری نیست
در زیر علاقه مستمر به هوش مصنوعی، نگرانیهایی در مورد کمبود نیروی کار مراقبتهای بهداشتی و فرسودگی بالینی مداوم وجود دارد. پزشکان و پرستاران به شدت تحت فشار هستند و همیشه حمایتی را که نیاز دارند دریافت نمیکنند. علاوه بر این، ایالات متحده با افزایش جمعیت سالمندان، همچنان شاهد افزایش پایدار در تقاضای مراقبتهای بهداشتی خواهد بود.
سازمانهای ارائهدهنده به دنبال راهحلهایی برای کاهش بار اداری بر بالینگران و کمک به آنها برای انجام بیشتر با کمتر هستند. آنها همچنین امیدوارند راهکارهایی را بپذیرند که میتوانند استعدادها را جذب کنند و شاید بتوانند حرفه پرستاران یا متخصصانی را که ممکن است در سالهای آینده بازنشسته شوند، تمدید کنند.
به همین دلیل است که با ادامه آزمایش و گسترش برنامههای مبتنی بر هوش مصنوعی توسط سازمانهای مراقبت بهداشتی، باید یک ساختار حاکمیتی قوی وجود داشته باشد تا از ارائهدهندگان و بیماران محافظت شود. و این کافی نیست که یک رهبر ارشد برای نظارت بر هوش مصنوعی منصوب شود و کار را تمام شده تلقی کرد. حاکمیت هوش مصنوعی باید شامل بخشهای مختلف باشد و آموزش و پرورش سراسری در سازمان را شامل شود.
دکتر برت الیور، مدیر ارشد اطلاعات پزشکی در گروه پزشکی باپتیست هلث مستقر در لوئیزویل، کنتاکی، در کنفرانسی صنعتی در سال ۲۰۲۴ گفت: "ما به سطحی از سواد هوش مصنوعی نیاز داریم تا پزشکانی که از دستگاه استفاده میکنند بگویند: 'صبر کنید، آیا این از فرآیند ارزیابی هوش مصنوعی ما عبور کرده است؟ درباره چه هوش مصنوعی صحبت میکنید؟'" او افزود: "گفتگوهای نسبتاً کوچک مانند این میتوانند تأثیر بزرگی در اطمینان از ارزیابی و نظارت بر هوش مصنوعی ورودی داشته باشند."