العلوم الأساسية
الذكاء الاصطناعي (AI) هو العلم الأسرع تقدمًا والذي يؤثر على غالبية الأنشطة البشرية بطريقة مفيدة إلى حد ما. لقد أدى الذكاء الاصطناعي إلى تعديل حياة الإنسان وتحسين الاتصالات والسفر وصناعة السيارات والتجارة والبناء والزراعة1،2. يتقدم الذكاء الاصطناعي الذي يستخدم تقنيات التعلم المعزز العميق بسرعة، ومن المتوقع أنه بحلول عام 2050، أو حتى قبل ذلك، سيصل إلى مستوى الذكاء البشري العام3. ورغم الترحيب بكل هذا التقدم، فمن المتوقع أن يتبعه تهديدات كبيرة للإنسانية.4،5.
الطب هو أحد العلوم التي تأثرت بشكل مفيد بتحسين دقة التشخيص وعلم الأوبئة وتحديد المرحلة والشدة والتنبؤ وعلاج العديد من الأمراض6،7. بالإضافة إلى ذلك، لعب الذكاء الاصطناعي دورًا حاسمًا في اكتشاف أدوية جديدة وأحدث ثورة في التعليم الطبي والمعلومات الطبية والممارسة الطبية. من الواضح أن هدف الذكاء الاصطناعي في الطب هو تعزيز رفاهية الإنسان والمساواة والرعاية الصحية المتقدمة والحفاظ على استقلالية وأمن وشفافية بيانات المرضى الأفراد. ومع ذلك، فإن تطوير وتنفيذ Ais يمثل مخاطر كبيرة في مجال ممارسة الطب وكذلك في البحوث البيولوجية8،9.
سيتم مناقشة المخاطر والأخطار التالية: 1) كما هو موجود في الوقت الحاضر، إساءة استخدام البيانات، والمخاطر أثناء تطوير و/أو تنفيذ الذكاء الاصطناعي، ومخاطر التعليم الطبي؛ 2) كما قد يظهر قريبًا، استبدال الاختبارات والفحوصات الطبية المختلفة أو التخصصات الطبية؛ و3) متى قد يصبح الذكاء الاصطناعي أقوى (الذكاء الاصطناعي الفائق) من الذكاء البشري. أخيرًا، سيتم تقديم اقتراح قائم على الأخلاقيات الطبية لكي يظل الذكاء الاصطناعي مفيدًا للبشرية في المستقبل10.
المخاطر الناجمة عن الذكاء الاصطناعي في الطب: موجودة
تستخدم أنظمة الذكاء الاصطناعي خوارزميات محددة تحتاج من خلالها إلى مجموعات بيانات كبيرة لتحسين دقتها (الخصوصية/الحساسية). هذه العملية معرضة لخطر كبير فيما يتعلق بأمن وخصوصية وسرية بيانات المريض الفردية الحساسة.11. واليوم، زاد خطر اختراق مجموعات البيانات هذه بشكل كبير بسبب اهتمام شركات الأدوية أو التأمين. بالإضافة إلى ذلك، يمكن أن يكون اختراق الملفات الطبية جزءًا من هجوم إلكتروني ضد الحكومة12،13.
هناك مشكلة أخرى وهي تحيز البيانات. أثناء جمع البيانات، عن قصد أو عن غير قصد، قد يتم تحريف بعض الأقليات أو الأجناس أو الأعراق أو الأجناس بشكل كبير. لذلك، فإن هذه الخوارزميات متحيزة ولا تمثل عامة السكان بشكل كافٍ14،15. وقد يتفاقم تأثير التحيز هذا بسبب إحجام الممارسين الطبيين أو المستشفيات أو المنظمات الصحية الأخرى عن تقديم الملفات الطبية لمرضاهم بسبب المخاوف من حدوث تسريبات أمنية. هناك خطر كبير آخر لإساءة استخدام البيانات الطبية وهو تأثير تسمم البيانات، والذي يشير إلى التلاعب المتعمد بالبيانات الطبية لإدخال أخطاء أو تحيزات في الرعاية الصحية. وهذا له عواقب وخيمة على دقة وموثوقية التوصيات الطبية. وقد يؤثر هذا أيضًا على نتائج التجارب السريرية أو مطالبات التأمين11. وأخيرا، عندما يستخدم الذكاء الاصطناعي نماذج بيانات وبائية مختلفة، كما رأينا خلال وباء كوفيد-19، فإن هذا قد يؤدي إلى استنتاجات مختلفة.
تطوير خوارزميات الذكاء الاصطناعي في الطب
يمكن أن تؤثر الخوارزمية الطبية غير الدقيقة على عدد كبير من المرضى. قد يكون هذا نتيجة لعدم كفاية اختبار مثل هذه الخوارزمية نظرًا لعدم وجود قواعد ثابتة حاليًا لاختبار صلاحيتها. ومن الأمثلة المحتملة على ذلك حالة التجارب مزدوجة التعمية، والتي تعتبر عمومًا أقوى أداة لتحديد تأثير علاج معين16. ومع ذلك، فمن غير الواضح من سيكون المسؤول في حالة حدوث مثل هذا الخطأ: الطبيب الشخصي، أو المستشفى، أو مزود الجهاز، أو الشركة التي تقوم بتطوير الخوارزمية. لذلك، هناك قضايا قانونية مهمة تتعلق بالمساءلة عن الأخطاء الطبية الناجمة عن عطل في الآلات15.
تنفيذ
لا يتم تدريب مقدمي الرعاية الصحية بشكل كافٍ على استخدام تقنيات الذكاء الاصطناعي، وبالتالي فإن تنفيذ هذه الأساليب العلاجية في الممارسة العملية يثير قضايا أمنية وأخطاء إضافية، حتى يتم إنشاء نظام تدريب مقبول على نطاق واسع لمقدمي الرعاية الصحية17. علاوة على ذلك، قد يضر الذكاء الاصطناعي بالعلاقة بين الطبيب والمريض18. يتطلب الأطباء معرفة متعمقة بتقييم الذكاء الاصطناعي وأدائه، لتوصيل دور الذكاء الاصطناعي بشكل هادف للمرضى، وتجنب المرضى ’ الخوف والارتباك19.
أخبار كاذبة-معلومات طبية
لقد تم استخدام خوارزميات المعلومات المزيفة للتأثير على السلوك البشري وتغيير الأنماط الاجتماعية والاقتصادية للأفراد أو المجتمعات. في هذه الحالة، يقوم الذكاء الاصطناعي بإنشاء مقالات ومنشورات على وسائل التواصل الاجتماعي مصممة لخداع الجمهور لأنها تبدو مشروعة ولكنها ملفقة بالكامل. وقيل إن الأخبار الكاذبة قد تؤثر حتى على نتائج الانتخابات20،21. وبالمثل، تم استخدام الذكاء الاصطناعي لتوليد وتضخيم ومعالجة تصور المشكلات الطبية التي تنشر الارتباك. ومن الأمثلة على ذلك استخدام الأخبار الكاذبة في الحركة العالمية ضد التطعيمات. يمكن للأشخاص الذين لا يمتلكون الخلفية المناسبة من المعرفة والتدريب أن يسيئوا فهم وتفسير المعلومات المتعلقة بالطب والعلوم بسهولة. ولسوء الحظ، قد تؤثر المعلومات المزيفة حتى على الممارسين الصحيين22.
المخاطر في التعليم الطبي
على الرغم من أن الذكاء الاصطناعي جعل من السهل للغاية الوصول إلى المعلومات الطبية، إلا أن القلق الحاسم هو أن هذه المعلومات لا يتم التحقق من صحتها دائمًا بشكل صحيح. وينبغي أيضًا اعتبار صناديق الدردشة التي تم تطويرها مؤخرًا، والتي يمكنها تقديم مقالات مكتوبة أو إجابات لامتحانات الجامعة أو محتويات المحاضرة المطلوبة، بمثابة تهديدات محتملة للذكاء الاصطناعي19. وبما أن دقتها وصلاحيتها في مختلف الجوانب الطبية لم يتم اختبارها بعناية بعد، فإنها قد تمثل تهديدات كبيرة.
علاوة على ذلك، هناك ما يسمى بتأثير ‘الطبيب الكسول’18،23. إذا استخدم الطبيب خوارزميات الذكاء الاصطناعي حصريًا للتشخيص وكذلك خيارات العلاج، فقد يؤدي ذلك تدريجيًا إلى نسيان كارثي للمهارات العملية وفقدان الإبداع الفكري والقدرة على حل المشكلات الطبية، مع الأخذ في الاعتبار جميع المعايير الطبية والأخلاقية للمرضى.
مخاطر الذكاء الاصطناعي في الطب: المستقبل القريب
خلال مرحلة التطوير (حتى عام 2050 تقريبًا)، من حيث الفجوات الاجتماعية، من المتوقع أن يؤدي الذكاء الاصطناعي في الطب، بدلاً من تعزيز المساواة في الخدمات الصحية في جميع أنحاء العالم، إلى زيادة الفجوة بين البلدان المتقدمة تقنيًا وتلك التي تفتقر إلى المرافق الرقمية.
علاوة على ذلك، فإن سباق شركات الذكاء الاصطناعي الكبرى لتطوير أفضل وأسرع وأرخص وأكثر الخوارزميات الطبية ربحية، يثير ضغوطًا شديدة على العلماء المطورين وقد يتسبب ذلك في أخطاء قاتلة ونقص في الشفافية.14،24. ولذلك، فحتى الذكاء الاصطناعي لا يزال ضعيفا خلال هذه الفترة، ومن المتوقع أن تتفاقم جميع المخاطر التي تمت مناقشتها سابقا. قد تؤدي التطبيقات الأعمق للذكاء الاصطناعي في علم الأحياء وعلم الوراثة إلى مسارات خطيرة للبشرية لأن الذكاء الاصطناعي سوف يتلاعب بالوظائف البيولوجية البشرية والرموز الجينية25-27. ويحاول العلماء حاليًا ربط الآلات بالأدمغة البشرية أو زرع شرائح رقمية في البشر. يُعرف هذا المجال بتقنية واجهة الدماغ والحاسوب (BCI)، والتي تهدف إلى إنشاء مسار اتصال مباشر بين الدماغ والأجهزة الخارجية، مثل أجهزة الكمبيوتر أو أجزاء الجسم الاصطناعية، المستخدمة في المقام الأول للأغراض الطبية28،29. على الرغم من أن هذه التكنولوجيا تبدو رائعة في مساعدة الأفراد ذوي الإعاقة، فمن المهم ملاحظة الاعتبارات الأخلاقية التي يتم طرحها30،31.
بالإضافة إلى ذلك، وبما أنه من المتوقع أن يتسبب الذكاء الاصطناعي في بطالة عالمية ضخمة، فإن هذا من شأنه أن يؤثر أيضًا على مهن الرعاية الصحية.24. إن التحذير من استبدال الاختبارات والفحوصات، وكذلك تخصصات طبية معينة بالذكاء الاصطناعي، واضح. يُزعم أن التخصصات القائمة على التعرف على الأنماط مثل الأشعة وعلم الأمراض وعلم الخلايا وعلم الأحياء الدقيقة والأمراض الجلدية يمكن أن تكون أول التخصصات التي يتم استبدالها بالذكاء الاصطناعي25،32. لقد تمت بالفعل دراسة خوارزميات الذكاء الاصطناعي في العديد من المجالات الطبية لتوفير طريقة أسهل لتشخيص وتقييم الاستجابة للعلاج32.
مخاطر الذكاء الاصطناعي في الطب: المستقبل البعيد
في الوقت الحالي، الذكاء الاصطناعي أضعف من الذكاء البشري، ولكن مع تقدم الذكاء الاصطناعي بسرعة كبيرة، فمن المتوقع أن يصل إلى المستوى العام للذكاء البشري بحلول عام 2050 أو حتى قبل ذلك.33،34. بعد ذلك، سيصبح الذكاء الاصطناعي بسهولة ذكاءً اصطناعيًا فائقًا، وهو ذكاء اصطناعي أقوى من الدماغ البشري. سيكون للذكاء الاصطناعي الفائق ذكاء عام وقد يمتلك القدرة على تحسين خوارزمياته، مما يؤدي إلى تقدم سريع. عندما يحدث هذا (وإذا حدث)، حتى لو كان هذا الحدث العلمي الأكثر أهمية، فإنه يثير قضايا غير متوقعة حول كيفية استخدام الآلات للعلوم الطبية.34. إذا حلت خوارزميات الذكاء الاصطناعي أخيرًا محل تقييمات الأطباء’، فهناك سبب منطقي للتساؤل عما إذا كان سيتم استبدال جميع الأطباء بالروبوتات التي تستخدم خوارزميات الذكاء الاصطناعي. ورغم أن الإجابة على هذا السؤال صعبة للغاية في الوقت الحاضر، إلا أن بعض الخبراء يزعمون أن هذا قد يحدث في المستقبل البعيد.
ومن الصعب للغاية التنبؤ بدقة بكيفية مساعدة الذكاء الاصطناعي الفائق للعلماء في التدخل في الجينوم البشري أو استخدام أدوية جديدة على البشر. يمكن إجراء التحرير الجيني باستخدام أساليب التكنولوجيا الحيوية، في حين يمكن تحقيق التلاعب بالدماغ البشري عبر وسائل مختلفة، بما في ذلك التلاعب النفسي، أو واجهات الدماغ والحاسوب المتطورة، أو حتى التدخل العصبي المباشر29،35،36. حتى لو بدا الأمر وكأنه خيال علمي، فقد ينتج الذكاء الاصطناعي نسخًا من ‘العمال البشريين’ عن طريق تغيير الوراثة البشرية. هناك سيناريوهات تصف كيف يمكن للآلات، عن قصد أو عن غير قصد، استخدام الأدوية لإيذاء البشر. في المستقبل، قد يحاول الذكاء الاصطناعي الفائق استكشاف الدماغ البشري لتطوير معرفته العلمية. قد يتصرف الذكاء الاصطناعي الفائق تجاه البشر بالطريقة التي تصرفنا بها تجاه الحيوانات.
أخيرًا، هناك عدد كبير من المخاطر والأخطار غير المعروفة أو السيناريوهات التي لم يتم التفكير فيها أبدًا حول كيفية استخدام الذكاء الاصطناعي الفائق للطب في المستقبل البعيد1،25،27. لتجنب الآثار الضارة المحتملة للذكاء الاصطناعي التي قد تؤدي إلى انقراض الإنسان، من الأهمية بمكان تطوير نظام تحكم قوي للذكاء الاصطناعي الفائق الآمن والصديق للإنسان10،37.
المسار الأخلاقي للذكاء الاصطناعي الآمن
هناك العديد من المقترحات للحفاظ على الذكاء الاصطناعي صديقًا ومفيدًا للجنس البشري في المستقبل. يعتمد اقتراحنا على فكرة أن الأخلاقيات الطبية يمكن أن تكون النموذج الأولي للأخلاقيات الرقمية. باستخدام تقنيات التعلم الآلي العميق، يمكننا دمج الآلات بالمبادئ الأخلاقية والمعنوية10.
كانت أخلاقيات الطب أول محاولة للأخلاق الإنسانية بدأت قبل 2500 عام بقسم أبقراط. في العصر الحديث، يتم استكمال القسم بقواعد أخلاقية مقبولة دوليًا ولجان أخلاقية مختلفة. وعلى نحو مماثل، قد تشتمل أخلاقيات الذكاء الاصطناعي على مكونات مماثلة: قسم أبقراط لعلماء الكمبيوتر38، قواعد الأخلاقيات المقبولة عالميًا، ولجان الأخلاقيات للعلوم الرقمية10،37.
ومن المتوقع أن يعمل القسم على تحسين المعرفة الأخلاقية في مجتمع الكمبيوتر وخاصة علماء الذكاء الاصطناعي، الذين سيكونون مسؤولين عن إثراء الآلات بخوارزميات الأخلاق. بالإضافة إلى ذلك، قد يؤكد القسم على المسؤوليات الشخصية لكل عالم، وتعريفه بعواقب المخالفات38. وقد سبق عرض تفاصيل هذا الاقتراح بالتفصيل10،38. إننا في حاجة ماسة إلى الأخلاقيات والقواعد المعنوية المقبولة دوليا، وإذا كان من الأسهل تنفيذها عالميا تحت رعاية الأمم المتحدة على سبيل المثال. يمكن للجان الأخلاقيات التكميلية للذكاء الاصطناعي في الجامعات ومعاهد الأبحاث وشركات الذكاء الاصطناعي أن تضيف مرشحات أخلاقية نحو الذكاء الاصطناعي الآمن، مما يعزز مسؤولية العلماء ومحاسبتهم.
يُظهر تاريخ العلوم أن الاكتشافات الكبرى تتبعها مخاطر أكبر. تعتبر الطاقة النووية والتغيرات المناخية والذكاء الاصطناعي اختراعات بشرية قد تؤدي إلى انقراض البشرية1،3،4. في هذه المقالة، تمت مناقشة المخاطر والأخطار الحالية للذكاء الاصطناعي في الطب، بالإضافة إلى المخاطر المحتملة في المستقبل القريب والبعيد. في الوقت الحالي، يتعلق الخطر الرئيسي بسلامة وسرية البيانات الطبية الحساسة لكل مريض. وعلى الرغم من أن علماء الكمبيوتر يبذلون جهودًا هائلة لتطوير أساليب آمنة، إلا أن المنظمات الطبية مترددة في تقديم مثل هذه البيانات، في حين أن الأطباء أيضًا غير مقتنعين تمامًا. ويبدو أن معركة الشرطة ضد الجريمة ليست ناجحة دائما، على الرغم من أن علماء الكمبيوتر يحاولون بقوة تطوير استراتيجيات للكشف عن عمليات التلاعب بالبيانات ومنعها وتطوير تقنيات قوية للأمن السيبراني والتحقق من صحتها.
يعد تحيز البيانات، وبعبارة أخرى، البيانات غير الكاملة، أو التسمم المتعمد للبيانات، من المخاطر المعروفة الأخرى لاستخدام الذكاء الاصطناعي في الطب. قد تصبح مجموعات البيانات غير المكتملة ضارة عند تطبيقها على أقليات مختلفة، مثل الأقليات العرقية أو الجنسانية أو العرقية التي تم استبعادها من البيانات. يمكن أن يتم تسميم البيانات الطبية لأسباب واضحة تتعلق بالمطالبة بالتأمين، أو للتأثير على نتائج التجارب السريرية31. علاوة على ذلك، فإن الأخطاء المحتملة للذكاء الاصطناعي في الطب لها عواقب قانونية معقدة للغاية فيما يتعلق بالمسؤولية. ونظرًا لانعدام الشفافية في تطوير الخوارزميات الطبية والصعوبات في التنفيذ من قبل المتخصصين في الرعاية الصحية، سيكون من الصعب جدًا التحقق من المساءلة والتقدم بطلب للحصول على مطالبات أو عقوبات31،37،39. وتحاول المنظمات الدولية والحكومات الآن سد هذه الثغرات في التشريعات، حيث قدم الاتحاد الأوروبي مؤخراً الوثيقة الأكثر شمولاً40،41. تشكل نماذج الموافقة المستنيرة، عند الحاجة، تهديدًا كبيرًا آخر لأنه من الصعب شرح إجراءات الذكاء الاصطناعي المعقدة واختبار قابلية الفهم.
بالإضافة إلى ذلك، من المتوقع أن يؤثر الذكاء الاصطناعي بشكل كبير على التعليم الطبي والممارسة الطبية. لذلك، ينبغي على كليات الطب والجمعيات الطبية مراقبة هذه التغييرات عن كثب وتعديل مناهجها وفقًا لذلك. قد يؤدي الاستبدال المحتمل لمختلف التخصصات الطبية بالذكاء الاصطناعي إلى البطالة بين الممارسين الصحيين. وهناك خطر آخر مثير للقلق وهو أن الأطباء قد يصبحون في المستقبل معتمدين بشكل مفرط على الذكاء الاصطناعي. وقد يؤدي هذا إلى انخفاض التفكير النقدي والحكم السريري وقدرتهم على حل المشكلات. وبالتالي قد تزداد متلازمة ‘الطالب الكسول’ و ‘الطبيب الكسول’18،23.
الاتجاه المستقبلي هو الذكاء الاصطناعي الفائق الذي سيكون قادرًا على أداء أي مهمة فكرية. ويظل هذا مفهومًا نظريًا في الوقت الحالي، لكن إمكانية تطوير الذكاء الاصطناعي الفائق تثير مناقشات ومخاوف بين العلماء والخبراء في مجال الذكاء الاصطناعي والأخلاق، نظرًا لفكرة أنه في مثل هذه الحالة، قد يتلاعب الذكاء الاصطناعي الفائق بالدماغ البشري. والأهم من ذلك، أن تحرير الجينوم البشري بواسطة الذكاء الاصطناعي يمكن أن يكون له عواقب كارثية ذات أبعاد غير متوقعة على البشرية. عندما (وإذا) وصلت الآلات إلى مستوى الذكاء الاصطناعي الفائق، فسيكون من الصعب للغاية التنبؤ بكيفية استخدامها لمعرفتها العلمية الطبية والوراثية على البشر1،4،25.
في حين أن الذكاء الاصطناعي في مرحلة التطوير، فمن الأهمية بمكان التصرف بطريقة وقائية وتطوير آليات قوية وآمنة لضمان بقاء الذكاء الاصطناعي صديقًا للإنسان في المستقبل1،37. يعد الوعي العام أمرًا بالغ الأهمية، ولكن بصرف النظر عن ذلك، يجب على العلماء تطوير آليات آمنة وقوية حتى يظل الذكاء الاصطناعي مفيدًا للبشرية، قبل وقت طويل من أن يصبح أقوى من البشر. إحدى الطرق لتحقيق الذكاء الاصطناعي الودود هي دمج الآلات مع خوارزميات أخلاقية. ونحن نرى أنه إذا أصبحت الأخلاقيات الطبية النموذج الأولي للأخلاق الرقمية، فإن مخاطر الذكاء الاصطناعي على الحياة البشرية بشكل عام، وعلى الطب بشكل خاص، يمكن التقليل منها. وقد اقترح أن يكون القسم المماثل لقسم أبقراط هو الأساس لأخلاقيات الكمبيوتر38. ومن شأن هذا القسم أن يعزز المسؤوليات الأخلاقية والمعنوية لعلماء الذكاء الاصطناعي ومعرفتهم بعواقب الممارسة الخاطئة. وأخيرًا، سيؤدي هذا القسم لعلماء الكمبيوتر إلى زيادة الوعي العالمي باحتمال إساءة استخدام الذكاء الاصطناعي في الطب وسيعزز التعاون الدولي من أجل ذكاء اصطناعي آمن10،38. وبما أن تقدم العلم يؤدي إلى التطور الهائل المستمر للذكاء الاصطناعي، فإن المفتاح للبشرية هو تحقيق التعايش مع الذكاء الاصطناعي.
خاتمة
على الرغم من أن الذكاء الاصطناعي له تأثير مفيد كبير على العلوم الطبية، إلا أنه يتبعه العديد من المخاطر والأخطار الكبيرة. يُقترح بشدة أن تقوم المنظمات الطبية بمراقبة التغييرات المرتبطة بالخطوات العملاقة لتطوير الذكاء الاصطناعي، وتعديل التعليم والممارسة الطبية وفقًا لذلك. قد تظهر المخاطر الرئيسية عندما يصبح الذكاء الاصطناعي أقوى من الدماغ البشري، وبالتالي من الأهمية بمكان تطوير آليات قوية وآمنة لإبقاء الذكاء الاصطناعي تحت السيطرة. يمكن أن يكون إنشاء مسار أخلاقي أحد الطرق الآمنة للذكاء الاصطناعي ليظل صديقًا للإنسان في المستقبل.
