تصدر منظمة الصحة العالمية أول تقرير عالمي عن الذكاء الاصطناعي (AI) في الصحة وستة مبادئ إرشادية لتصميمه واستخدامه
يحمل الذكاء الاصطناعي (AI) وعدًا كبيرًا لتحسين تقديم الرعاية الصحية والطب في جميع أنحاء العالم ، ولكن فقط إذا تم وضع الأخلاق وحقوق الإنسان في صميم تصميمه ونشره واستخدامه ، وفقًا لإرشادات منظمة الصحة العالمية الجديدة المنشورة اليوم.
التقرير، أخلاقيات وحوكمة الذكاء الاصطناعي للصحة ، هي نتيجة عامين من المشاورات التي أجرتها لجنة من الخبراء الدوليين المعينين من قبل منظمة الصحة العالمية.
قال الدكتور تيدروس أدهانوم غيبريسوس ، المدير العام لمنظمة الصحة العالمية: "مثل كل التقنيات الجديدة ، يمتلك الذكاء الاصطناعي إمكانات هائلة لتحسين صحة ملايين الأشخاص حول العالم ، ولكن مثل كل التقنيات الأخرى يمكن أن يساء استخدامها ويسبب ضررًا". "يوفر هذا التقرير الجديد المهم دليلًا قيمًا للبلدان حول كيفية تعظيم فوائد الذكاء الاصطناعي ، مع تقليل مخاطره وتجنب مآزقه".
يمكن استخدام الذكاء الاصطناعي ، وفي بعض البلدان الغنية يستخدم بالفعل لتحسين سرعة ودقة التشخيص والكشف عن الأمراض ؛ للمساعدة في الرعاية السريرية ؛ تعزيز البحوث الصحية وتطوير الأدوية ، ودعم تدخلات الصحة العامة المتنوعة ، مثل مراقبة الأمراض ، والاستجابة للفاشية ، وإدارة النظم الصحية.
يمكن للذكاء الاصطناعي أيضًا تمكين المرضى من التحكم بشكل أكبر في الرعاية الصحية الخاصة بهم وفهم احتياجاتهم المتطورة بشكل أفضل. ويمكنه أيضًا أن يمكّن البلدان الفقيرة الموارد والمجتمعات الريفية ، حيث غالبًا ما يعاني المرضى من تقييد وصولهم إلى العاملين في مجال الرعاية الصحية أو المهنيين الطبيين ، من سد الثغرات في الوصول إلى الخدمات الصحية.
ومع ذلك ، يحذر تقرير منظمة الصحة العالمية الجديد من المبالغة في تقدير فوائد الذكاء الاصطناعي للصحة ، لا سيما عندما يحدث ذلك على حساب الاستثمارات والاستراتيجيات الأساسية المطلوبة لتحقيق التغطية الصحية الشاملة.
كما يشير إلى أن الفرص مرتبطة بالتحديات والمخاطر ، بما في ذلك الجمع والاستخدام غير الأخلاقيين للبيانات الصحية ؛ التحيزات المشفرة في الخوارزميات ، ومخاطر الذكاء الاصطناعي على سلامة المرضى والأمن السيبراني والبيئة.
على سبيل المثال ، في حين أن استثمار القطاعين الخاص والعام في تطوير ونشر الذكاء الاصطناعي أمر بالغ الأهمية ، فإن الاستخدام غير المنظم للذكاء الاصطناعي يمكن أن يُخضع حقوق ومصالح المرضى والمجتمعات للمصالح التجارية القوية لشركات التكنولوجيا أو مصالح الحكومات في المراقبة و الرقابة الاجتماعية.
ويشدد التقرير أيضًا على أن الأنظمة المدربة في المقام الأول على البيانات التي تم جمعها من الأفراد في البلدان ذات الدخل المرتفع قد لا تؤدي أداءً جيدًا للأفراد في البيئات منخفضة ومتوسطة الدخل.
لذلك يجب تصميم أنظمة الذكاء الاصطناعي بعناية لتعكس تنوع بيئات الرعاية الاجتماعية والاقتصادية والصحية. يجب أن تكون مصحوبة بتدريب على المهارات الرقمية ، والمشاركة المجتمعية ، وزيادة الوعي ، خاصة بالنسبة لملايين العاملين في مجال الرعاية الصحية الذين سيحتاجون إلى محو الأمية الرقمية أو إعادة التدريب إذا كانت أدوارهم ووظائفهم مؤتمتة ، والذين يجب أن يتعاملوا مع الآلات التي يمكن أن تتحدى القرار- صنع واستقلالية مقدمي الخدمات والمرضى.
في نهاية المطاف ، واسترشادًا بالقوانين القائمة والتزامات حقوق الإنسان ، والقوانين والسياسات الجديدة التي تكرس المبادئ الأخلاقية ، يجب على الحكومات ومقدمي الخدمات والمصممين العمل معًا لمعالجة المخاوف المتعلقة بالأخلاقيات وحقوق الإنسان في كل مرحلة من مراحل تصميم وتطوير ونشر تكنولوجيا الذكاء الاصطناعي .
ستة مبادئ لضمان عمل الذكاء الاصطناعي من أجل المصلحة العامة في جميع البلدان
للحد من المخاطر وتعظيم الفرص الكامنة في استخدام الذكاء الاصطناعي للصحة ، توفر منظمة الصحة العالمية المبادئ التالية كأساس لتنظيم وحوكمة الذكاء الاصطناعي:
حماية استقلالية الإنسان: في سياق الرعاية الصحية ، هذا يعني أن البشر يجب أن يظلوا مسيطرين على أنظمة الرعاية الصحية والقرارات الطبية ؛ يجب حماية الخصوصية والسرية ، ويجب على المرضى إعطاء موافقة مستنيرة صالحة من خلال الأطر القانونية المناسبة لحماية البيانات.
تعزيز رفاهية الإنسان وسلامته والمصلحة العامة. يجب أن يفي مصممو تقنيات الذكاء الاصطناعي بالمتطلبات التنظيمية للسلامة والدقة والفعالية لحالات أو مؤشرات الاستخدام المحددة جيدًا. يجب أن تتوفر تدابير مراقبة الجودة في الممارسة وتحسين الجودة في استخدام الذكاء الاصطناعي.
ضمان الشفافية وقابلية الشرح والوضوح. تتطلب الشفافية نشر معلومات كافية أو توثيقها قبل تصميم أو نشر تقنية الذكاء الاصطناعي. يجب أن تكون هذه المعلومات سهلة الوصول إليها وتسهل إجراء مشاورات عامة هادفة ومناقشة حول كيفية تصميم التكنولوجيا وكيف ينبغي أو لا ينبغي استخدامها.
تعزيز المسؤولية والمساءلة. على الرغم من أن تقنيات الذكاء الاصطناعي تؤدي مهامًا محددة ، فإن مسؤولية ضمان استخدامها في ظل ظروف مناسبة ومن قبل أشخاص مدربين تدريباً مناسباً تقع على عاتق أصحاب المصلحة. يجب أن تكون الآليات الفعالة متاحة للاستجواب والإنصاف للأفراد والجماعات الذين يتأثرون سلبًا بالقرارات القائمة على الخوارزميات.
ضمان الشمولية والإنصاف. تتطلب الشمولية أن يتم تصميم الذكاء الاصطناعي للصحة لتشجيع الاستخدام المتكافئ على أوسع نطاق ممكن والوصول إليه ، بغض النظر عن العمر أو الجنس أو الجنس أو الدخل أو العرق أو العرق أو التوجه الجنسي أو القدرة أو الخصائص الأخرى المحمية بموجب قوانين حقوق الإنسان.
تعزيز الذكاء الاصطناعي المستجيب والمستدام. يجب على المصممين والمطورين والمستخدمين تقييم تطبيقات الذكاء الاصطناعي بشكل مستمر وشفاف أثناء الاستخدام الفعلي لتحديد ما إذا كان الذكاء الاصطناعي يستجيب بشكل مناسب ومناسب للتوقعات والمتطلبات. يجب أيضًا تصميم أنظمة الذكاء الاصطناعي لتقليل عواقبها البيئية وزيادة كفاءة الطاقة. يجب على الحكومات والشركات معالجة الاضطرابات المتوقعة في مكان العمل ، بما في ذلك تدريب العاملين في مجال الرعاية الصحية على التكيف مع استخدام أنظمة الذكاء الاصطناعي ، واحتمال فقدان الوظائف بسبب استخدام الأنظمة الآلية.
ستوجه هذه المبادئ عمل منظمة الصحة العالمية في المستقبل لدعم الجهود المبذولة لضمان استخدام الإمكانات الكاملة للذكاء الاصطناعي للرعاية الصحية والصحة العامة لفائدة الجميع.
من https://www.who.int/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its -التصميم والاستخدام