تدعو منظمة الصحة العالمية (المنظمة) إلى توخي الحذر في استخدام أدوات النمذجة اللغوية الكبرى (النمذجة اللغوية (LLMs)) المنشأة بواسطة الذكاء الاصطناعي، من أجل حماية وتعزيز رفاه الإنسان وسلامته واستقلاليته والحفاظ على الصحة العامة.
وتشمل أدوات النمذجة اللغوية بعض أسرع المنصات توسعا مثل ChatGPT وBard وBert والعديد من المنصات الأخرى التي تقلد فهم التواصل البشري ومعالجته وإنتاجه. ويثير الانتشار الصاروخي لهذه المنصات في أوساط العامة واستخدامها التجريبي المتزايد للأغراض المتعلقة بالصحة اهتماماً كبيراً حول إمكانية الاستفادة منها لدعم الاحتياجات الصحية للناس.
ومن الضروري فحص المخاطر بعناية عند استخدام أدوات النمذجة اللغوية لتحسين الوصول إلى المعلومات الصحية، كأداة لدعم اتخاذ القرار، أو حتى لتعزيز القدرة التشخيصية في البيئات التي تعاني من نقص الموارد لحماية صحة الناس والحد من عدم المساواة.
وفي حين تبدي المنظمة حماساً للاستخدام المناسب للتكنولوجيات، بما في ذلك أدوات النمذجة اللغوية، لدعم أخصائيي الرعاية الصحية والمرضى والباحثين والعلماء، فإن ثمة قلقاً إزاء عدم التعامل مع أدوات النمذجة اللغوية بنفس المقدار من الحذر الذي يمارس عادة عند التعامل مع أي تكنولوجيا جديدة. ويشمل ذلك الالتزام الواسع النطاق بالقيم الأساسية للشفافية والشمول ومشاركة الجمهور وإشراف الخبراء والتقييم الصارم.
ويمكن أن يؤدي التبني السريع للأنظمة غير المجرّبة إلى أخطاء من جانب العاملين في مجال الرعاية الصحية، وإلحاق الضرر بالمرضى، وتآكل الثقة في الذكاء الاصطناعي، وبالتالي تقويض (أو تأخير) الفوائد والاستخدامات المحتملة على المدى الطويل لهذه التكنولوجيات في جميع أنحاء العالم.
وفيما يلي بعض المخاوف التي تتطلب رقابة صارمة مطلوبة لاستخدام هذه التكنولوجيات بطرق آمنة وفعالة وأخلاقية:
- قد تكون البيانات المستخدمة لتدريب منصات الذكاء الاصطناعي متحيزة، أو تولد معلومات مضللة أو غير دقيقة يمكن أن تشكل مخاطر على الصحة والإنصاف والشمول.
- تولد النمذجة اللغوية استجابات يمكن أن تبدو موثوقة ومعقولة للمستخدم النهائي؛ ومع ذلك، فقد تكون هذه الاستجابات غير صحيحة تماماً أو تحتوي على أخطاء خطيرة خاصة بالنسبة للاستجابات المتعلقة بالصحة.
- قد يتم تدريب تطبيقات النمذجة اللغوية على البيانات التي ربما لم تتم الموافقة مسبقا على استخدامها لهذا الغرض، وقد لا توفر الحماية للبيانات الحساسة (بما في ذلك البيانات الصحية) التي يُدخلها المستخدم في التطبيق للحصول على رد.
- يمكن إساءة استخدام تطبيقات النمذجة اللغوية لإنشاء ونشر معلومات مضللة مقنعة للغاية في شكل محتوى نصي أو صوتي أو فيديوي يصعب على الجمهور تمييزه عن المحتوى الصحي الموثوق.
- بينما تلتزم منظمة الصحة العالمية بتسخير التكنولوجيات الجديدة، بما في ذلك الذكاء الاصطناعي وتطبيقات الصحة الرقمية، لتحسين صحة الإنسان، فإنها توصي بأن يكفل مقررو السياسات سلامة المرضى وحمايتهم بينما تعمل شركات التكنولوجيا على تسويق تطبيقات النمذجة اللغوية.
وتقترح منظمة الصحة العالمية معالجة هذه الشواغل، وقياس البينات الواضحة على فائدة هذه التطبيقات قبل استخدامها على نطاق واسع في الرعاية الصحية الروتينية والطب - سواء من قبل الأفراد أو مقدمي الرعاية أو مديري النظم الصحية ومقرري السياسات.
وتكرر منظمة الصحة العالمية التأكيد على أهمية غرس المبادئ الأخلاقية وإجراءات الحوكمة المناسبة، على النحو المبين في تقرير منظمة الصحة العالمية بشأن أخلاقيات وحوكمة الذكاء الاصطناعي من أجل الصحة، في تصميم وتطوير ونشر تطبيقات الذكاء الاصطناعي من أجل الصحة.
وتشمل المبادئ الأساسية الستة التي حددتها المنظمة ما يلي: (1) حماية الاستقلالية؛ (2) تعزيز رفاه الإنسان وسلامته وتقديم المصلحة العامة؛ (3) ضمان الشفافية وقابلية التفسير والوضوح؛ (4) تعزيز المسؤولية والمساءلة؛ (5) ضمان الشمول والإنصاف؛ (6) تعزيز تطبيقات الذكاء الاصطناعي المتجاوبة والمستدامة.