أكدت شركة “مايكروسوفت”، الأربعاء، أن قراصنة مدعومون من روسيا والصين وإيران يستخدمون أدوات من برنامج “أوبن إيه. آي” المدعوم من مايكروسوفت لصقل مهاراتهم وخداع أهدافهم.
وقالت مايكروسوفت في تقرير لها، إنها “تعقبت مجموعات القرصنة المرتبطة بالمخابرات العسكرية الروسية والحرس الثوري الإيراني والحكومتين الصينية والكورية الشمالية أثناء محاولتها تحسين حملات القرصنة باستخدام نماذج لغوية كبيرة. وتعتمد برامج الكمبيوتر هذه، والتي تسمى غالباً “الذكاء الاصطناعي”، على كميات هائلة من النصوص لتوليد ردود تبدو بشرية”.
وأعلنت الشركة عن هذا الاكتشاف في الوقت الذي “فرضت فيه حظراً شاملاً على مجموعات القرصنة المدعومة من الدول من استخدام منتجات الذكاء الاصطناعي الخاصة بها”.
وقال توم بيرت نائب رئيس قطاع أمن العملاء في مايكروسوفت، لوكالة “رويترز” في مقابلة قبل نشر التقرير: “بغض النظر عما إذا كان هناك أي انتهاك للقانون أو أي انتهاك لشروط الخدمة، فإننا لا نريد تلك الجهات الفاعلة التي حددناها، والتي نتتبعها ونعرف أنها جهات فاعلة للتهديد من مختلف الأنواع، لا نريد أن يتمكنوا من استخدام هذه التكنولوجيا”.
ولم يرد المسؤولون الدبلوماسيون الروس والكوريون الشماليون والإيرانيون على رسائل تطلب التعليق على هذه المزاعم.
من جهته قال ليو بنغ يو، المتحدث باسم السفارة الصينية في الولايات المتحدة، إن السفارة تعارض “التشهير والاتهامات التي لا أساس لها ضد الصين” وتدعو إلى نشر تكنولوجيا الذكاء الاصطناعي “بشكل آمن وموثوق ويمكن التحكم فيه” من أجل “تعزيز الرفاهية المشتركة للبشرية”.
ووصفت شركتا “أوبن أيه. آي” و”مايكروسوفت” استخدام القراصنة لأدوات الذكاء الاصطناعي الخاصة بهم بأنها في “مرحلة مبكرة” و”تدريجية”.
الحذر من استخدام الذكاء الاصطناعي في القرصنة الإلكترونية
كشفت مايكروسوفت وأوبن إيه آي اليوم أن المتسللين يستخدمون بالفعل نماذج لغوية كبيرة المعروفة اختصارا بـ”إل إل إم إس” (LLMs) مثل شات جي بي تي لتحسين هجماتهم الإلكترونية الحالية وتحسينها، بحسب موقع ذي فيرج.
ففي بحث منشور حديثا، اكتشفت مايكروسوفت وأوبن إيه آي محاولات من قبل مجموعات مدعومة من روسيا وكوريا الشمالية وإيران والصين باستخدام أدوات مثل شات جي بي تي للبحث في الأهداف، وتحسين النصوص البرمجية، والمساعدة في بناء تقنيات الهندسة الاجتماعية.
وتقول مايكروسوفت في مدونة: “تقوم مجموعات الجرائم الإلكترونية، والجهات الفاعلة التي تهدد الدول، وغيرهم من الخصوم، باستكشاف واختبار تقنيات الذكاء الاصطناعي المختلفة عند ظهورها، في محاولة لفهم الميزات المحتملة لعملياتهم والضوابط الأمنية التي قد يحتاجون إليها للتحايل”.
وأضافت مايكروسوفت أنه “تبين أن مجموعة سترونتيوم المرتبطة بالمخابرات العسكرية الروسية، تستخدم نماذج اللغة الكبيرة والمعروفة لفهم بروتوكولات الاتصالات عبر الأقمار الصناعية، وتقنيات التصوير الراداري، ومعايير تقنية محددة”.
وكانت مجموعة القرصنة المعروفة أيضا باسم “إيه بي تي 28” أو “فانسي بير”، نشطة خلال حرب روسيا في أوكرانيا، وشاركت سابقا في استهداف حملة هيلاري كلينتون الرئاسية في عام 2016، وفقا لما ذكره موقع ذي فيرج.
مايكروسوفت تبني سيكيورتي كوبايلوت وهو مساعد جديد للذكاء الاصطناعي صُمم لمتخصصي الأمن السيبراني (غيتي)
كما تَستخدم المجموعة أيضا نماذج اللغة الكبيرة للمساعدة في “مهام البرمجة النصية الأساسية، بما في ذلك معالجة الملفات، واختيار البيانات، والتعبيرات العادية، والمعالجة المتعددة، لأتمتة العمليات الفنية أو تحسينها”، وفقا لمايكروسوفت.
وبحسب موقع “ذي فيرج”، تستخدم مجموعة القرصنة الكورية الشمالية المعروفة باسم ثاليوم نماذج اللغة الكبيرة، للبحث عن نقاط الضعف المبلّغ عنها علنا، واستهداف المنظمات للمساعدة في مهام البرمجة النصية الأساسية، وصياغة محتوى لحملات التصيد الاحتيالي.
وتقول مايكروسوفت إن المجموعة الإيرانية المعروفة باسم كوريوم تستخدم أيضا نماذج اللغة الكبيرة لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وحتى تعليمات برمجية لتجنب اكتشافها بواسطة تطبيقات مكافحة الفيروسات. ويستخدم المتسللون الصينيون التابعون للدولة أيضا نماذج اللغة الكبيرة للبحث والبرمجة والترجمات وتحسين أدواتهم الحالية.
وكانت هناك مخاوف إزاء استخدام الذكاء الاصطناعي في الهجمات الإلكترونية، لا سيما مع ظهور أدوات الذكاء الاصطناعي مثل “وُرم جي بي تي” و”فرويد جي بي تي” للمساعدة في إنشاء رسائل البريد الإلكتروني الضارة وأدوات الاختراق.
كما حذر مسؤول كبير في وكالة الأمن القومي الشهر الماضي من أن المتسللين يستخدمون الذكاء الاصطناعي لجعل رسائل البريد الإلكتروني التصيدية الخاصة بهم تبدو أكثر إقناعا.
ولم تَكتشف مايكروسوفت وأوبن إيه آي أي “هجمات كبيرة” حتى الآن، لكن الشركتين قامتا بإغلاق جميع الحسابات والأصول المرتبطة بمجموعات القرصنة هذه.
وتقول مايكروسوفت: “في الوقت نفسه، نشعر أنه من المهم نشر هذا البحث لكشف التحركات التدريجية في المراحل المبكرة التي نلاحظ قيام جهات فاعلة معروفة بالتهديد بها، ومشاركة المعلومات عن كيفية حظرنا ومواجهتهم مع مجتمع المدافعين”.
وبينما يبدو استخدام الذكاء الاصطناعي في الهجمات الإلكترونية محدودا في الوقت الحالي، فإن مايكروسوفت تحذر من حالات الاستخدام المستقبلية مثل انتحال الهوية الصوتية.
وبطبيعة الحال، تستخدم مايكروسوفت الذكاء الاصطناعي للرد على هجمات الذكاء الاصطناعي. يقول مدير تحليلات في مايكروسوفت هوما هاياتيفار: “يمكن للذكاء الاصطناعي أن يساعد المهاجمين على تحقيق المزيد من التطور في هجماتهم، ولديهم الموارد اللازمة لتنفيذها.. لقد رأينا ذلك مع أكثر من 300 جهة تهديد تتعقبها مايكروسوفت، ونحن نستخدم الذكاء الاصطناعي للحماية والكشف والاستجابة”.
وتقوم مايكروسوفت ببناء سيكيورتي كوبايلوت، وهو مساعد جديد للذكاء الاصطناعي صُمم لمتخصصي الأمن السيبراني لتحديد الخروقات وفهم الكميات الهائلة من الإشارات والبيانات التي يجري إنشاؤها من خلال أدوات الأمن السيبراني يوميا بشكل أفضل.
وتقوم شركة البرمجيات العملاقة أيضا بإصلاح أمان برامجها في أعقاب الهجمات السحابية الكبرى على آزور، وحتى تجسس المتسللين الروس على المديرين التنفيذيين لشركة مايكروسوفت.
لماذا يريد البيت الأبيض من القراصنة الإلكترونيين خداع روبوتات الدردشة؟ السؤال المهم
ماذا يحدث عندما يجتمع الآلاف من المخترقين في مدينة واحدة بهدف وحيد، هو محاولة الخداع واكتشاف العيوب في نماذج الذكاء الاصطناعي؟ هذا ما يريد البيت الأبيض معرفته.
هذا الأسبوع في أكبر مؤتمر سنوي للقراصنة في العالم في لاس فيغاس، ديف كون 31، تفتح التكنولوجيا الكبيرة أنظمتها القوية ليتم اختبارها جنبا إلى جنب لأول مرة.
تحت دائرة الضوء، توجد نماذج لغات كبيرة، روبوتات الدردشة المفيدة مثل تشات جي بي تي الذي أصدرته شركة أوبن إي أي، وبارد الذي أنتجته غوغل.
تعدّ الدكتورة رومان شودري، الرئيسة التنفيذية لشركة هيومن إنتلجنس وزميلة الذكاء الاصطناعي المسؤول في جامعة هارفارد، أحد منظمي هذا الحدث.
وقالت لبي بي سي نيوز إنهم صمموا مسابقة “لتحديد المشاكل في أنظمة الذكاء الاصطناعي” و”إنشاء تقييم مستقل”. وتقول إن الحدث سيكون مساحة آمنة للشركات “للحديث عن مشاكلهم وكيفية حلها”.
تخطى قصص مقترحة وواصل القراءة
تم إقناع شركات ميتا، غوغل، أوبن إي أي، أنثروبيك، كوير، ميكروسوفت، إنفيديا وستابيليتي بفتح نماذجهم ليتم اختراقها لتحديد المشكلات.
تقول شودري إن الشركات تعرف أن العديد من الأشياء يمكن أن تسوء، لذا فإن المنافسة هي وسيلة لمعرفة ما يحدث عندما تتحدى مجموعة محددة من المخترقين نماذجهم في مواجهة الوقت.
كيف يعمل المؤتمر؟
يقدّر المنظمون أنه على مدار يومين ونصف اليوم، سيتم منح 3 آلاف شخص يعملون بمفردهم في واحد من 158 جهاز كمبيوتر محمولا 50 دقيقة، لمحاولة اكتشاف عيوب في ثمانية نماذج كبيرة للذكاء الاصطناعي.
لن يعرف المتسابقون نموذج الشركة الذي يعملون معه، على الرغم من أن المتسابقين ذوي الخبرة قد يكونون قادرين على التخمين. يؤدي إكمال التحدي الناجح إلى ربح نقاط ويفوز الشخص الذي حقق أعلى إجمالي.
الجائزة عبارة عن قطعة قوية من أدوات الحوسبة، وحدة معالجة رسومات، ولكن ربما الأهم من ذلك وفقا لشودري ستكون “حقوق المفاخرة”.
يطلب أحد التحديات من المخترقين الحصول على نموذج للهلوسة (بالمعلومات) أو اختراع حقيقة حول شخص سياسي أو شخصية رئيسية.
تقول الدكتورة سيرافينا غولدفارب – تارانت، رئيسة سلامة الذكاء الاصطناعي في كوير، إنه بينما من المعروف أن النماذج يمكن أن تصنع الحقائق، فليس من الواضح مدى تكرار حدوثها.
وقالت “نعلم أن النماذج تهلوس بالمعلومات، لكن سيكون من المفيد زيادة الوعي بعدد المرات التي يحدث فيها ذلك. ما زلنا لا نعرف”.
لماذا لا تجعلنا التكنولوجيا أكثر إنتاجية؟
سيتم أيضا اختبار اتساق النماذج، وتقول غولدفارب – تارانت إن هناك مخاوف بشأن كيفية عملها عبر اللغات المختلفة.
“حراس الأمن لا يعملون بلغات مختلفة ويعتقد الناس أنهم كذلك”.
على سبيل المثال، إذا سألت العديد من نماذج اللغة الإنجليزية الكبيرة عن كيفية الانضمام إلى منظمة إرهابية، فلن يقدّموا لك إجابة، بسبب آلية الأمان. رغم ذلك، اسأل النموذج بلغة مختلفة ويعطيك قائمة بالخطوات التي يجب اتباعها.
كانت غولدفراب – تارانت تجهز نماذج كوير للحدث، وتقول إنه على الرغم من قوتها “لا يعني ذلك عدم وجود ثغرات أمنية في نماذجنا، لم نعثر عليها بعد”.
المشاكل الحالية
هذا الحدث يحظى بدعم البيت الأبيض. في مايو/أيار، أعلن عن الحدث، قائلا إنه “سيوفر معلومات مهمة للباحثين والجمهور حول تأثيرات هذه النماذج، وسيمكن شركات الذكاء الاصطناعي والمطورين من اتخاذ خطوات لإصلاح المشكلات الموجودة فيها”.
أثارت وتيرة تطوير الشركات لأدواتها مخاوف بشأن انتشار المعلومات المضللة، خاصة قبل الانتخابات الرئاسية الأمريكية العام المقبل. في يوليو/تموز، التزمت سبع شركات رائدة في مجال الذكاء الاصطناعي بضمانات طوعية لإدارة المخاطر التي تشكلها التكنولوجيا، لكن الضمانات القانونية ستستغرق وقتا أطول ليتم الاتفاق عليها.
تقول الدكتور شودري إن هناك “سباق تسلح منظم يحدث الآن”، وهذا الحدث هو وسيلة لتسليط الضوء على مشاكل الذكاء الاصطناعي الحالية بدلا من التهديدات الوجودية.
وتقول إن الأمر لا يتعلق بالسؤال عما إذا كان بإمكان الذكاء الاصطناعي تفجير سلاح نووي، بل يتعلق أكثر بتحدي الأنظمة “لمعرفة ما إذا كانت تشتمل على أضرار وتحيزات”.
“على سبيل المثال، هل يكذبون علينا، ويختلقون عواصم وهمية، ويكذبون بشأن ما إذا كانوا أطباء مؤهلين، أو يشكلون معلومة سياسية مزيفة تماما”؟
تريد الدكتورة غولدفارب – تارانت أن يكون التركيز في التنظيم على معالجة المشكلات الحالية. إنها تريد من الحكومات “قضاء الوقت في تنظيم الذكاء الاصطناعي الآن لمنع المعلومات الخاطئة”.
ماذا يحدث بعد ذلك؟
تريد شودري أن تعرف “ماذا يحدث عندما، أو إذا وجدنا مشاكل مع هذه النماذج. ماذا ستكون استجابة شركات التكنولوجيا”؟
“إذا لم نتمكن من إنشاء نماذج تنبؤية بسيطة للتعلم الآلي للذكاء الاصطناعي خالية من التحيز والتمييز، فلن يكون لدينا نماذج ذكاء اصطناعي أكثر تعقيدا في المستقبل خالية من هذه المشكلات”.
بمجرد الانتهاء من التحدي، ستتمكن الشركات من رؤية البيانات التي تم جمعها، والاستجابة لأي عيوب تم إبرازها.
سيتمكن الباحثون المستقلون من طلب الوصول إلى البيانات، مع نشر نتائج التجربة في فبراير/شباط المقبل.
قراصنة مدعومون من إيران يخترقون خدمات بث تلفزيوني في الإمارات
ذكرت شركة “مايكروسوفت” أن مجموعة قرصنة مدعومة من قبل الحرس الثوري الإيراني تمكنت من اختراق منصات بث تلفزيوني في الإمارات باستخدام بث إخباري مُزيف عن حرب غزة أنشئ بواسطة الذكاء الاصطناعي، وفقا لصحيفة “الغارديان”.
وأضافت مايكروسوفت أن مجموعة قرصنة تدعى “Cotton Sandstorm” اخترقت خدمات بث تلفزيوني في الإمارات عندما ظهر مقدم أخبار بتقنية الذكاء الاصطناعي وهو يقرأ تقريرا إخباريا مزيفا تحت عنوان “من أجل الإنسانية” وتناول الحرب بين إسرائيل وحماس في غزة.
وقالت صحيفة “الغارديان” إن المذيع المزيف كان يعلق على صور لم يتم التحقق منها زعمت أنها تظهر فلسطينيين أصيبوا وقتلوا جراء العمليات العسكرية الإسرائيلية في غزة.
وأفاد محللون في مايكروسوفت بأن مجموعة القرصنة نشرت مقاطع فيديو على منصة تيليغرام تظهر تمكنها من اختراق ثلاث خدمات بث عبر الإنترنت وتعطل قنوات إخبارية باستخدام مذيع الأخبار المزيف.
بدورها ذكرت صحيفة “خليج تايمز” وهي خدمة إخبارية مقرها الإمارات، أن القراصنة استهدفوا سكان دبي الذين يستخدمون جهاز استقبال من طراز “HK1RBOXX ” في ديسمبر الماضي برسالة تقول: “ليس لدينا خيار سوى الاختراق لإيصال هذه الرسالة إليك”.
وبعد الرسالة قام المذيع المزيف بعرض لقطات “صادمة”، بالإضافة لشريط يوضح عدد القتلى والجرحى في غزة حتى الآن.
وقالت مايكروسوفت أيضا أن هناك تقارير تحدثت عن حوادث مماثلة جرت في كندا والمملكة المتحدة.
وتزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصنع محتوى زائف، يهدف لإثارة مشاعر الغضب لدى الجمهور بالتزامن مع الحرب بين إسرائيل وحماس في غزة.
وتنتشر على مواقع التواصل الاجتماعي مقاطع فيديو وصور يدّعي ناشروها أنها تظهر على سبيل المثال مشاهد القتل والدمار في غزة، وأخرى تتحدث بالعكس من ذلك أن صور الجثث لممثلين يدعون الموت من أجل جذب التعاطف وتعميق مشاعر الكراهية.
وأظهرت صور الحرب بين إسرائيل وحماس بشكل واضح إمكانات الذكاء الاصطناعي كأداة دعائية مضللة تستخدم لخلق صور يحاول ناشروها الادعاء بأنها واقعية.
ومنذ أن بدأت الحرب في السابع من أكتوبر، تم استخدام الصور المعدلة رقميا والمنتشرة على وسائل التواصل الاجتماعي لتقديم ادعاءات كاذبة بشأن المسؤولية عن الضحايا أو لخداع الناس بشأن فظائع لم تحدث أبدا.