لا تزال اتجاهات الذكاء الاصطناعي تعيد تعريف المشهد التكنولوجي والعلمي؛ إذ إن الابتكارات التي تعزز بشكل كبير قدرات البرمجيات تؤثر بصورة كبيرة على الأنشطة البشرية في مختلف القطاعات.

مع مُضيِّنا قُدماً في عام 2024، فإن البقاء في صدارة الاتجاهات الرئيسية لتطوير هذه التكنولوجيا اليوم أمر ضروري لكل المهنيين والشركات التي تهدف إلى الاستفادة من أحدث التقنيات، لدفع عجلة النمو والابتكار.

اتجاهات الذكاء الاصطناعي

فيما يلي نظرة سريعة على أهم اتجاهات الذكاء الاصطناعي للعام الحالي، وآثارها المحتملة، وفقاً لتقرير عرضته مجلة «إي ويك» الإلكترونية:

1- حضور متزايد: يعزز الذكاء الاصطناعي التوليدي حضوره الذي يحظى بشعبية كبيرة بالفعل، فإنشاء المحتوى الأكثر الدقة والأتمتة والتنفيذ الأكثر كفاءة في قطاعات مثل المجال الطبي، يتطور بسرعة.

2- للمستخدمين وصنّاع القرار: يعمل الذكاء الاصطناعي متعدد الوسائط على زيادة ربط أنواع البيانات بتفاعلات أكثر ثراء؛ إذ إن تعزيز قدرة الذكاء الاصطناعي على فهم أشكال متعددة من البيانات والتفاعل معها واستخدامها، يعمل على تحسين تجارب المستخدمين وعمليات صنع القرار.

3- الأمن الرقمي: يعزز الأمن السيبراني الموجه بالذكاء الاصطناعي الأمن الرقمي؛ إذ يقدم الذكاء الاصطناعي مزيداً من الدقة في الكشف عن التهديدات، وحلولاً أكثر استقلالية للأمن السيبراني، للمساعدة في الاستجابة للتهديدات السيبرانية بشكل أكثر كفاءة.

4- توسيع نطاق الذكاء الاصطناعي المدمج، والذكاء الاصطناعي الذي يركز على تجارب المستخدم: إن الإدماج المباشر للذكاء الاصطناعي في واجهات المستخدم والعمليات التشغيلية، يعزز الكفاءة وتجربة المستخدم إلى حد بعيد.

المشاركة الجماعية والجوانب الأخلاقية

5- تطور عملية المشاركة الجماعية في مجال الذكاء الاصطناعي، وإمكانية الوصول إلى أدواته على نطاق واسع: إن زيادة إمكانية الوصول إلى أدوات الذكاء الاصطناعي القوية، بما يتجاوز شركات التكنولوجيا الكبرى، تعزز الابتكار عبر جميع أحجام الأعمال.

6- دمج الرؤية الحاسوبية والأتمتة الفائقة في التصنيع: يعمل الذكاء الاصطناعي على تحويل التصنيع التقليدي، عبر الأتمتة المتطورة والدقة المعززة.

7- خطورة ارتفاع الذكاء الاصطناعي في اقتصاد الظل: هناك حاجة إلى سياسات أكثر قوة للتصدي للتحديات التي يفرضها استخدام تكنولوجيات الذكاء الاصطناعي غير المصرح بها داخل المؤسسات.

8- النمو في الذكاء الاصطناعي مفتوح المصدر: يحدث قدر أكبر من الابتكار والتعاون، بسبب توفر مصادر وأدوات الذكاء الاصطناعي مفتوحة المصدر.

9- تعزيز الامتثال والتوقعات الأخلاقية: تعمل الشركات على تطوير أدوات ذكاء اصطناعي مسؤولة وأكثر أخلاقية، للتوافق مع المعايير واللوائح العالمية.

10- تقلص حجم نماذج اللغة: تكتسب نماذج الذكاء الاصطناعي وظائف أكبر، حتى مع تصاميمها الأصغر حجماً، مما يوفر أداء أعلى بموارد أقل.

شعبية الذكاء الاصطناعي

ويمكن الخوض بشكل أعمق في الاتجاهات الثلاثة الأولى.

أولاً– يعزز الذكاء الاصطناعي التوليدي حضوره الذي يحظى بشعبية كبيرة بالفعل. وقد أدى تطويره إلى إحداث تغيير كبير في مختلف قطاعات الصناعة، وخصوصاً قطاعات مثل الرعاية الصحية والصناعات الإبداعية.

> في مجال الرعاية الصحية: يساعد في تشخيص الأمراض، وتسريع اكتشاف الأدوية، من خلال محاكاة الأنظمة البيولوجية المعقدة، وبالتالي تحديد الحالات المرشحة المحتملة لتطوير الأدوية بصورة أسرع.

> في المجالات الإبداعية: يعزز إنشاء المحتوى عبر مختلف الوسائط، مثل الفن الرقمي والموسيقى وإنتاج الفيديو، مما يتيح التخصيص عالي المستوى، وتوليد المحتوى الذي يتوافق بشكل وثيق مع تفضيلات المستخدم أو المستهلك.

> مخاوف أخلاقية: يزداد اهتمام المستخدمين بمجال الذكاء الاصطناعي التوليدي، ويرجع ذلك في المقام الأول إلى قدرته على أتمتة وتعزيز العمليات الإبداعية، ما يعني توفيراً كبيراً للوقت والتكلفة وإمكانات جديدة للتخصيص.

ومع ذلك، فإن تبنِّي الذكاء الاصطناعي التوليدي على نطاق واسع يثير مخاوف أخلاقية؛ لا سيما فيما يتعلق بدقة إنتاجه وأصالته، واحتمال ضياع الوظائف في المجالات الإبداعية. كما تشكل هذه التكنولوجيا أيضاً مخاطر إساءة الاستخدام، مثل خلق المحتوى المزيف تزييفاً عميقاً، والذي يمكن أن تكون له آثار اجتماعية خطيرة.

> ثورة التصميم والتسويق: بالنسبة للشركات، يَعِد الذكاء الاصطناعي التوليدي بمواصلة إحداث ثورة في تصميم المنتجات، والتسويق، وإشراك العملاء من خلال تمكين خلق تجارب المستخدمين الأكثر تكيفاً وابتكاراً.

ومع ذلك، يجب على الشركات أن تكون حذرة في استخدام الذكاء الاصطناعي التوليدي. ويجب عليها التعامل مع الاعتبارات الأخلاقية وردود الفعل السلبية المحتملة من إساءة استخدام تكنولوجيات الذكاء الاصطناعي، وضمان استخدام الذكاء الاصطناعي التوليدي بطريقة تعزز سلامة العلامة التجارية وثقة العملاء.

تفاعلات أكثر ثراء

يعالج الذكاء الاصطناعي متعدد الوسائط أنواعاً متعددة من مدخلات البيانات، مثل النصوص والصور والصوتيات، ويدمجها.

> تفهُّم القدرات الحسية والمعرفية البشرية: وقد اكتسب ذلك الاتجاه من الذكاء الاصطناعي زخماً، مع إدراك الشركات قيمة إنشاء أنظمة ذكاء اصطناعي أكثر دقة ووعياً بالسياق، يمكنها أن تفهم وتتفاعل بطرق تعكس القدرات الحسية والمعرفية البشرية. يتيح دمج أنواع البيانات المختلفة فهماً واستجابة أكثر شمولاً من أنظمة الذكاء الاصطناعي. والفائدة هي تحسين تجارب المستخدمين ودعم اتخاذ القرار. ومع ذلك، فإن تعقيد تصميم هذه الأنظمة يقدم تحديات من حيث تكامل البيانات، وقوة المعالجة، والحفاظ على الخصوصية عبر تدفقات البيانات المختلفة.

> تفاعل مع البشر والمنتجات: مع نمو الذكاء الاصطناعي متعدد الوسائط، يمكننا أن نتوقع رؤية واجهات خدمة العملاء المعززة بشكل كبير وقدرات التفاعل مع المنتج.

الذكاء الاصطناعي متعدد الوسائط سيجعلها أكثر سهولة واستجابة؛ حيث يمكنه الاستفادة بشكل أفضل من الحواس البشرية المتعددة في وقت واحد. وبوسعنا أن نتوقع أيضاً أن نرى تقنيات مثل تطبيقات الإبداع وأدوات البحث تصبح أكثر سلاسة ودقة. إضافة إلى ذلك، يمكن أن يساعد الذكاء الاصطناعي المتعدد الوسائط الشركات على اتخاذ أوضاع أمان أكثر قوة؛ حيث إن الجمع بين أنواع البيانات يمكن أن يؤدي إلى اكتشاف أكثر شمولاً للتهديدات.

الأمن الرقمي

ثالثاً- يعزز الأمن السيبراني الموجه بالذكاء الاصطناعي الأمن الرقمي.

لقد تم دمج الذكاء الاصطناعي في بعض حلول الأمن السيبراني لبضع سنوات على الأقل الآن، ولكن أدوات الأمن السيبراني التي تعمل بالذكاء الاصطناعي أصبحت الآن أكثر شعبية بسرعة مع توسيع قدراتها.

> أمن رقمي بالذكاء الاصطناعي: من المتوقع أن ينمو سوق الأمن السيبراني الموجه بالذكاء الاصطناعي، من نحو 24 مليار دولار في عام 2023 إلى ما يقرب من 134 مليار دولار بحلول عام 2030. ويستخدم الأمن السيبراني الموجه بالذكاء الاصطناعي التعلم الآلي للتنبؤ بالتهديدات السيبرانية، واكتشافها، والاستجابة لها بسرعة وكفاءة أكبر من الطرق التقليدية. كما أن التهديدات السيبرانية لا تتباطأ؛ لا سيما مع تقاطع الذكاء الاصطناعي التوليدي والأمن السيبراني الذي يقدم مجموعة جديدة كاملة من التحديات القائمة على الذكاء الاصطناعي. وتصبح هذه التهديدات أكثر تعقيداً يوماً بعد يوم، وهو ما يتطلب تدابير أمنية أكثر ديناميكية وتكيفاً. ويعزز الذكاء الاصطناعي قدرات الكشف عن التهديدات، ويمكن أن يستجيب بشكل مستقل للتهديدات في الوقت الحقيقي. وهذا من شأنه أن يقلص إلى حد بعيد من فرصة المهاجمين لإلحاق الأذى.

> نقاط ضعف الذكاء الاصطناعي: في بعض الحالات، قد يشكل الاعتماد على الذكاء الاصطناعي للأمن مخاطر تتعلق بنقاط الضعف، والتحيزات المحتملة للذكاء الاصطناعي؛ حيث يمكن للمهاجمين استغلال هذه الثغرات في أنظمة الذكاء الاصطناعي، وتحويلها إلى تهديدات، واستخدام التحيزات لإحداث أقصى قدر من الضرر.

يمكن أن يساعد تطبيق حلول الأمن السيبراني الموجهة بالذكاء الاصطناعي الشركات على حماية البيانات والأنظمة المهمة بشكل أكثر فعالية، والحفاظ على الامتثال للمتطلبات التنظيمية المتطورة. ومع ذلك، تحتاج المؤسسات إلى تحديث ومراقبة أنظمة الذكاء الاصطناعي باستمرار، للحماية من التهديدات الناشئة، وضمان أن التدابير الأمنية لا ينتهي بها المطاف إلى الإخلال بخصوصية المستخدم أو سلامة النظام عن غير قصد.

الذكاء الاصطناعي إلى أين؟

عندما كشفت شركة «Open AI» عن منتجها الجديد «Chat GPT» الذي اعتمد في تطويره على تقنيات الذكاء الاصطناعي في 30 نوفمبر 2022 وأتاحت استخدامه في أكثر من 150 دولة، متمنيةً أن يلامس عدد مستخدميها المليون شخص في الأشهر الأولى، ولكن فوجئ الجميع بأن هذا الرقم قد تحقق في خمسة أيام لا غير، وفي خلال أقل من شهرين وصل عدد مستخدمي هذا التطبيق إلى مائة مليون مستخدم. أما بالنسبة لتقنية الذكاء الاصطناعي فقد كان عام 2023 بلا شك عامًا مميزًا لها، إلا أن الخوف والتكهنات المتشائمة غالبًا ما هيمنت على عناوين أخباره، فشهد ذلك العام صعود منتقديه وتحذيرهم من أن الذكاء الاصطناعي سوف يشكل مخاطر وجودية على البشرية. وكانت باكورة هذا التوجه إصدار رسالة مفتوحة رفيعة المستوى من قادة صناعة التكنولوجيا، في مارس 2023، من بينهم «إيلون ماسك» رئيس شركة «X»، و«ستيف ووزنياك» «أحد مؤسسي شركة أبل»، تدعو إلى التوقف عن أبحاث الذكاء الاصطناعي لمدة 6 أشهر حتى يتمكن الخبراء من تقييم المخاطر وإنشاء بروتوكولات السلامة.
وانقسم الجميع، فالمتفائلون رحبوا به أيما ترحيب، والمتشائمون وجاء على رأسهم عالِم الحاسبات البريطاني المتخصص في مجال الذكاء الاصطناعي البروفيسور «جيفري هينتون» الذي صَدَمَ العالم بإعلانه في مقابلة مع صحيفة نيويورك تايمز نُشرت في 1 مايو 2023 استقالته من شركة جوجل عملاق تكنولوجيا المعلومات، محذرًا من المخاطر المتزايدة للتطور في هذا المجال قائلًا «إنه يأسف للعمل الذي كرس حياته من أجله بسبب احتمال أن يساء استخدام الذكاء الاصطناعي، مشيرًا إلى «الجهات الفاعلة السيئة» التي ستحاول استخدام الذكاء الاصطناعي في «الأشياء السيئة». واللافت للنظر في هذا البيان أنه يُعلن استقالة واحد من أهم رواد التكنولوجيا في العصر الحديث؛ حيث لُقب «هينتون» بــ «الأب الروحي للذكاء الاصطناعي».
وفي هذا الإطار، فإنه من المهم الإجابة عن عدد من التساؤلات، أبرزها: لماذا استقال جيفري هينتون من جوجل؟ ولماذا تتصاعد النظرة المتشائمة تجاه برامج الدردشة التي تقوم على الذكاء الاصطناعي؟ وهل كانت الاستقالة تقصد بعينها تطبيقات الدردشة، مثل: ChatGPT، أو Google Bard؟ وخصوصًا أنه في مقابلته مع محطة الـ «بي بي سي» في اليوم التالي لاستقالته أشار إلى أن المخاطر الناجمة عن برامج الدردشة الآلية ستكون «مخيفة للغاية»، أم أن هناك سببًا آخر وراء الاستقالة؟
وفي حقيقة الأمر أن تلك التطبيقات في نهاية المطاف هي برامج ذكية تستخدم البيانات والمعلومات المتوافرة، وتنفذ ما تتدرب عليه من خوارزميات التعلم الخاضعة وغير الخاضعة للإشراف. وبالتالي، فإن المسألة لا يمكن وصفها بالتطور المخيف، ولكن الخطر يكمن في أن تستند هذه التطبيقات في عملها إلى ما يطلق عليه «المحولات التوليدية المدربة مسبقًا» التي تستخدم تقنيات التعلم العميق للآلة، وهي آلية تكنولوجية ابتكرتها مجموعة بحثية، وتم نشرها في ورقة علمية عام 2017. وليس هناك ثمة قلق من تعلم الآلة واستخدام تطبيقاتها في الدردشة أو خلافها، ولكن الخوف الحقيقي يكمن من وصول هذه الآلة إلى درجة قدرتها على التعلم بمفردها، بحيث تصبح في غير حاجة للإنسان الذي قام بابتكارها في الأساس، وفي تلك الحالة، سوف تكون الآلة قادرة على اتخاذ القرارات بنفسها، دون الحاجة إلى تدخل العنصر البشري، وهو الأمر الذي سيُشكل تهديدًا كبيرًا على الإنسانية. وهذا ما أكده «هينتون» فيما بين سطور تصريحاته عندما تحدث عن تعلم الآلة قائلًا: «إن الآلات في الوقت الراهن، ليست أكثر ذكاء منا، لكنني أعتقد أنها قد تكون كذلك قريبًا». وأضاف «نحن أنظمة بيولوجية، بينما الآلات أنظمة رقمية، ومن الواضح أن الفرق حاليًّا بات لصالح تلك الأنظمة الرقمية»، وذلك بالنظر إلى التقدم التكنولوجي غير المسبوق، والذي أصبح في صالح تقدم الآلة على حساب تقدم الإنسان، ومن ثم لا بد وأن نقلق بشأن ذلك».
وبدأ الجميع يتحدث عن مخاطر الذكاء الاصطناعي وانتفض قادة الدول وزعماء العالم وعلى رأسهم الرئيس الأمريكي «جو بايدن» الذي أصدر أمرًا تنفيذيًّا، في 30 أكتوبر 2023، بشأن «الذكاء الاصطناعي الآمن والمأمون والجدير بالثقة، ويضمن هذا التوجيه أن تقود أمريكا الطريق في إدارة مخاطر الذكاء الاصطناعي، وتحقيق الأهداف المرجوة، كما يضع هذا الأمر التنفيذي معايير جديدة لسلامة الذكاء الاصطناعي وأمنه، تحمي خصوصية الأمريكيين، وتعزز المساواة والحقوق المدنية، وتدافع عن المستخدمين، وتشجع الابتكار والمنافسة، وتعزز القيادة الأمريكية للعالم».
ولحق به بعد يومين فقط «ريتشى سوناك» رئيس الوزراء البريطاني الذي تحدث بالنهج نفسه في مؤتمر «القمة لأمان الذكاء الاصطناعي AI Safety Summit» الذي دعت إليه المملكة المتحدة واختارت قرية «بلتشيلى بارك» لانعقاده في مطلع نوفمبر 2023، هذه القرية التي استضافت فريق فك الشفرات البريطاني بقيادة عالم الحاسبات الإنجليزي «آلان تورينج» أثناء الحرب العالمية الثانية، والذي كسر لغز الشفرة الألمانية «إنجيما» وقام بفكها، وكان ذلك أحد أسباب انتصار الحلفاء في هذه الحرب.

حضر هذا المؤتمر ممثلو 28 دولة وعدد من رؤساء الشركات العالمية التي تعمل في هذا المجال. وانتهى المؤتمر بإصدار «إعلان بلتشلي» الصادر عن الدول المشاركة في قمة سلامة الذكاء الاصطناعي»،

في 1 نوفمبر 2023، ويتلخص الإعلان «في أن الذكاء الاصطناعي يقدم فرصًا عالمية هائلة، فهو يتمتع بالقدرة على تعزيز رفاهية الإنسان والسلام والازدهار. ولتحقيق ذلك، نؤكد أنه من أجل مصلحة الجميع، ينبغي أن يتم تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه بطريقة آمنة بحيث تتمحور حول الإنسان وأن يكون جديرًا بالثقة والمسؤولية. ونرحب بجهود المجتمع الدولي حتى الآن للتعاون في هذا المجال لتعزيز النمو الاقتصادي الشامل والتنمية المستدامة والابتكار، وحماية حقوق الإنسان والحريات الأساسية، وتعزيز ثقة الشعوب في أنظمة الذكاء الاصطناعي لتحقيق إمكاناتها بالكامل».

وقبل أن نتحدث عن اتجاهات تطبيقات الذكاء الاصطناعي في عام 2024، دعنا نؤكد العوامل الحاكمة في هذا المجال:

إن الإعلان عن تطبيق Chat GPT في نهاية عام 2022، مستخدمًا تكنولوجيا «المحولات التوليدية Generative Transformers» إنما هو في الأساس بداية تغير جذري في استخدامات الذكاء الاصطناعي وتطبيقاته بسبب محور وأساس عمله، والذي يفتح الطريق أمام الآلة ليتخطى «ذكاؤها» الذكاء البشري.
معدل التطور غير المسبوق في هذا المجال نتيجة لتوفر البنى التحتية اللازمة لتحقيق ذلك،

تأتي اعتبارًا من البنية التحتية للاتصالات، ومرورًا بتقنيات الحوسبة الكمومية «Quantum Computing» ومنتهيًا بالخبراء والقدرات البشرية المتوفرة للتعامل مع الكميات الهائلة للبيانات التي تحتاج إليها هذه التطبيقات.
توفر التمويل اللازم، والذي يُوجّه أكثر من 95% منه لإنتاج هذه التطبيقات (الـ 5% الباقية على الأكثر تستخدم لمواجهة آثار الذكاء الاصطناعي السلبية).
التنافسية غير المسبوقة أيضًا بين عملاقي التكنولوجيا شركة جوجل، وشركة «أوبن إيه أي» المدعومة كاملًا من شركة ميكروسوفت من ناحية وبين الدول المنافسة مثل الصين وروسيا من ناحية أخرى.

الاستثمار الهائل في هذا المجال على مستوى الحكومات والدول، وأخص هنا بالذكر الصين التي تتصدر هذا المجال -وإن أنكر الأمريكيون ذلك تارة واعترفوا به تارة أخرى- ويكفي أن نعلم أن الاحتياطي الصيني المركزي من العملات الصعبة في ديسمبر الماضي كان 3.24 تريليونات دولار.
وأخيرًا، فمن المؤكد أن معدل استخدام الذكاء الاصطناعي في الأغراض العسكرية أصبح على نحو غير مسبوق، إلا أن تطوير هذا المجال فيما يتعلق بالقدرات العسكرية دائمًا يخضع للسرية، لأنه يتعلق بمسائل ترتبط بالأمن القومي للدول.
وبناءً على ما سبق نتوقع أن تكون الاتجاهات الحديثة في مجال الذكاء الاصطناعي عام 2024 كالآتي:
1. إنتاجيًّا: كما هو الحال حاليًّا في استخدام تطبيق «Chat GPT» وقدرته المتطورة على إنتاج نصوص كتابية تحقق الأهداف المطلوبة، فإن الجيل القادم من الذكاء الاصطناعي التوليدي سوف يصبح متعدد الوسائط، وستكون هذه التطبيقات قادرة على تنسيق المدخلات المختلفة، مثل: النص والصوت والألحان والإشارات المرئية، وقادرة أيضًا على كتابة روايات معقدة، وحتى تصميم السيمفونيات الموسيقية وإنتاج بعض الأفلام السينمائية، مما يعد ثورة ويفتح المجال أمام قيام الشركات بتعزيز الإنتاجية ودعم الابتكار وتحفيز الإبداع.

2. تكنولوجيًّا: في عام 2024 أيضًا سوف يتطور الذكاء الاصطناعي الكمي «Quantum AI»، فالذكاء الاصطناعي عمومًا يحتاج إلى قدرة حاسوبية هائلة وليس هناك أقدر من الحوسبة الكمومية على تحقيق ذلك. وذلك يفسر سبب الطفرة الحالية في إنتاج الأبحاث في هذا المجال وهذا ما يفسر أيضًا المنافسة الصامتة والشرسة بين الصين ببنيتها البحثية العملاقة وأقطاب تكنولوجيا المعلومات الأمريكيين، مثل: شركتي «IBM» و«Google AI» في مجال تطوير الحوسبة الكمومية. فهي تنتقل بسرعة إلى طليعة أبحاث الذكاء الاصطناعي. وبالتالي سنشهد قفزات هائلة في قدرات الذكاء الاصطناعي، خاصة في المجالات التي تتطلب حل المشكلات المعقدة التي يمكن أن تتعامل معها الحوسبة الكمومية.

3. تشريعيًّا: إن تطور الذكاء الاصطناعي غير المسبوق لا يشكل مصدرًا أساسيًّا لجذب مستخدميه حول العالم فحسب، بل إنه يحظى الآن باهتمام بالغ من صنّاع السياسة وقادة العالم أجمع. ومع حلول عام 2024، بدأت الدول الرائدة في هذا المجال في اقتراح بل والبدء في سن تشريعات تخص الذكاء الاصطناعي، وأتحدث هنا عن دول مثل الصين والاتحاد الأوروبي والولايات المتحدة والهند. وتتمحور أهدافها حول ثلاثة محاور: تحفيز الاختراقات التكنولوجية، وجذب الاستثمارات العالمية، وحماية شعوبها من أي تداعيات سلبية غير مقصودة للذكاء الاصطناعي.

4. أخلاقيًّا: إن البصمة المتزايدة للذكاء الاصطناعي في حياتنا تقدم عددًا لا يحصى من المعضلات الأخلاقية؛ نظرًا لأن آليات الذكاء الاصطناعي تقوم بشكل متزايد بالتدخل في القرارات وإرشادها في مجالات عديدة تمس حياة الإنسان بطرق غير مباشرة وأحيانًا مباشرة. إذن فمن الضروري أن يكون التطوير في هذا المجال يحظى بأقصى قدر من الشفافية والعدالة تحميها اتفاقيات عالمية يوافق عليها العالم، وقوانين راسخة يلتزم بها الجميع.

إذن، هو عصر الذكاء الاصطناع الذي نعيشه حاليًّا، ولكنه غيَّر كل التقنيات المحورية التي سبقته -ولست متأكدًا من أن هناك تقنية لاحقة- من حيث تطوره غير المسبوق وتغلغله في حياتنا اليومية، والأخطر من هذا كله هو آثاره السلبية التي يمكن أن تهدد الوجود البشري. وكما نعيش حاليًّا ونشاهد النقاشات والمقترحات التي تنتج عنها، فمهما كانت مزايا مثل هذه المقترحات ووجاهتها، فمن غير المرجح أن يحدث كبح جماح لتطوير وتطور الذكاء الاصطناعي في أي وقت قريب. وحتى لو افترضنا أنه من الممكن سياسيًّا الاتفاق على وقف هذا التقدم، فمن المرجح أنه لن يلتزم به أحد في ظل المنافسة الشرسة بين الولايات المتحدة الأمريكية وخصومها الرئيسين في هذا المجال مثل الصين وروسيا. علاوة على ذلك، يبدو أنه حتى أولئك الذين يدعون إلى التوقف مؤقتًا لا يأخذون الفكرة على محمل الجد، فبعض الموقعين على رسالة التوقف المذكورة سابقًا مثل «إيلون ماسك»، مساهم رئيس في شركة «X.AI» التي تعمل في المجال نفسه.

ومن الجيد أن نشاهد المبادرات التي تصدر من قادة العالم مثل الأمر التنفيذي الصادر من الرئيس الأمريكي، والبيان الصادر عن مؤتمر قمة أمن الذكاء الاصطناعي في المملكة المتحدة ودعم رئيس الوزراء البريطاني له، ولكنهما في النهاية أمران تنفيذيان أمريكيان داخليان لا يُلزَم بهما أحد خارج حدودها، والآخر هو مؤتمر حضرته بعض الدول ورؤساء شركات والإعلان الصادر عن هذا المؤتمر كان بمثابة «إعلان نوايا» غير ملزم لأحد.
وختامًا، يبقى الخوف الأعظم في استخدامات الذكاء الاصطناعي في التطبيقات العسكرية من أن تؤدي الرغبة في تحقيق فضل التعجل والسبق في استخدام هذه الأسلحة إلى خروج الآلة عن سيطرة مخترعيها ومطوريها، وحينئذ سوف يكون الخطر الوجودي على جنسنا البشري.

230 مليون دولار | أمازون تدعم شركات الذكاء الاصطناعي

صحيفة العراقوكالة الاستقلال      |  العرب في اوروبا  |  IEGYPT  | سعر الدولار في بغداد