حذّر أنطونيو غوتيريش الأمين العام للأمم المتحدة الثلاثاء من أن الذكاء الاصطناعي قد يشكل خطرا على السلم والأمن الدوليين، داعيا الدول الأعضاء إلى وضع ضوابط لإبقاء التقنية تحت السيطرة.

وقال غوتيريش في جلسة هي الأولى التي يخصّصها مجلس الأمن للبحث في مسألة الذكاء الاصطناعي “من الجلي أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة”.

وتابع “الذكاء الاصطناعي التوليدي لديه إمكانيات هائلة للخير والشر”، وأشار إلى أن التقنية قادرة على المساعدة في وضع حد للفقر أو علاج السرطان، لكن قد تكون لها “عواقب خطيرة جدا على السلام والأمن الدوليين”.

وفيما يلي أبرز النقاط التي أشار إليها غوتيريش:

الامم المتحدة
الامم المتحدة

دعا الدول الأعضاء إلى إعداد وثيقة ملزمة قانونيا بحلول عام 2026 “لحظر استخدام الأسلحة الذاتية المميتة”.
من الممكن استخدام الذكاء الاصطناعي في “التعرف على أنماط العنف ومراقبة وقف إطلاق النار وتعزيز جهود حفظ السلام والوساطة والجهود الإنسانية”.
الاستخدامات الضارة لأنظمة الذكاء الاصطناعي لأغراض إرهابية أو إجرامية أو لصالح دولة، يمكن أن تتسبب في مستويات مرعبة من الموت والدمار وتفشي الصدمات والضرر النفسي العميق على نطاق يفوق التصور.

التفاعل بين الذكاء الاصطناعي والأسلحة النووية والتكنولوجيا البيولوجية والتكنولوجيا العصبية وتكنولوجيا الروبوتات، هو “أمر مقلق للغاية”.
حضّ على “الاتفاق على المبدأ العام ومفاده أن الفاعلية والسيطرة البشرية ضرورية في ما يتعلّق بالأسلحة النووية ولا ينبغي سحبها إطلاقا”.
دعا إلى إنشاء مجموعة عمل تكلف إعداد تقرير بحلول نهاية العام عن خيارات الحوكمة العالمية للذكاء الاصطناعي.
جدد التأكيد على دعمه إنشاء كيان أممي لمؤازرة جهود حوكمة استخدام الذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية أو منظمة الطيران المدني الدولي.

من جانبه، قال وزير الخارجية البريطاني جيمس كليفرلي الذي تتولى بلاده الرئاسة الدورية لمجلس الأمن إن الذكاء الاصطناعي “سيؤثر على عمل هذا المجلس. يمكنه تعزيز الاستقرار الاستراتيجي العالمي أو تعطيله”.

وأشار كليفرلي الذي تستضيف بلاده في وقت لاحق من العام الحالي قمة حول الذكاء الاصطناعي إلى أن التقنية “تتحدى افتراضاتنا الأساسية حول الدفاع والردع. وتطرح أسئلة أخلاقية حول المساءلة عن قرارات مميتة في ساحة المعركة”.

تحذير عاجل من خطر محدق يسببه الذكاء الاصطناعي

حذرت منظمة تراقب المحتوى على الإنترنت من خطورة استعمال الذكاء الاصطناعي في إنتاج مواد بصرية تبدو واقعية للغاية تظهر أوضاعا جنسية مزعومة على الأطفال.

تحذير عاجل من خطر محدق يسببه الذكاء الاصطناعي
تحذير عاجل من خطر محدق يسببه الذكاء الاصطناعي

وقالت منظمة The Internet Watch Foundation (IWF) إنها عثرت بالفعل على صور واقعية بشكل مذهل، أنتجها الذكاء الاصطناعي، بحيث لا يتمكن كثيرون من التمييز بينها وبين الصور الحقيقية، وفق ما ذكرت شبكة “سكاي نيوز” البريطانية، الثلاثاء.

وأضافت أنها حققت في صفحات على الإنترنت، جرى الإبلاغ عن بعضها عن طريق مستخدمين، أظهرت صورا لأطفال لا تتجاوز أعمارهم 3 سنوات.

وذكرت أن هذا الأمر يضع الأطفال الحقيقيين في حالة من الخطر.

وتعرّف منظمة (IWF) نفسها بأنها منظمة معنية بإيجاد وحذف المحتوى على الإنترنت الذي يظهر الانتهاكات الجنسية للأطفال.

ودعت الرئيسة التنفيذية للمنظمة، سوزي هارغريفز، رئيس الوزراء البريطاني، ريشي سوناك، للتعامل مع القضية باعتبارها ذات أولوية قصوى، عندما تستضيف بريطانيا قمة عالمية عن الذكاء الاصطناعي في وقت لاحق من العام الجاري.

وقالت إن أعداد هذه الصور ليست بالكبيرة في الوقت الراهن، لكن من الواضح أن هناك إمكانية أمام المجرمين لإنتاج صور تظهر أطفال في أوضاع جنسية تنتهك حقوقهم.

واعتبرت أن هذا الأمر سيكون مدمرا بالنسبة إلى أمن الإنترنت وأمن الأطفال على الشبكة.

وإنتاج صور تظهر الأطفال بأوضاع جنسية مخلة أمر محظور في القانون البريطاني.

وتقول المنظمة إن تكنولوجيا الذكاء الاصطناعي في هذا المجال تتطور بشكل متسارع وتسهل الوصول إليها، مما يعني أن التعامل مع المشكلة سيكون صعبا على القانون.

وتقول الوكالة الوطنية لمكافحة الجريمة في بريطانيا إن هذا الخطر متزايد، مشددة على أنها تأخذ الأمر بجدية تامة.

الذكاء الاصطناعي: هل هو خطير، وما هي الوظائف التي يهددها ؟

الذكاء الاصطناعي: هل هو خطير، وما هي الوظائف التي يهددها ؟
الذكاء الاصطناعي: هل هو خطير، وما هي الوظائف التي يهددها ؟

تتطور تقنية الذكاء الاصطناعي (AI) بسرعة هائلة، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة.

ومع ذلك، يخشى بعض الخبراء من إمكانية استخدام هذه التقنية لأغراض ضارة، كما أنها قد تشكل خطرا على استمرارية بعض الوظائف.

ما هو الذكاء الاصطناعي وكيف يعمل؟

ما هو الذكاء الاصطناعي وكيف يعمل؟
ما هو الذكاء الاصطناعي وكيف يعمل؟

يسمح الذكاء الاصطناعي لجهاز الحاسوب أن يفكر، ويتصرف، ويستجيب كما لو أنه إنسان.

يمكن تزويد أجهزة الحاسوب بكميات هائلة من المعلومات والبيانات، ليتم تدريبها على تحديد الأنماط الموجودة فيها؛ فتصبح قادرة بعد ذلك على إنتاج تنبؤات، وحل المشكلات، وحتى التعلم من أخطائها.

بالإضافة إلى البيانات، يستخدم الذكاء الاصطناعي عددا من الخوارزميات – وهي عبارة عن مجموعة من التعليمات والخطوات البرمجية، التي يجب اتباعها بالترتيب الصحيح لإكمال مهمة معينة.

الذكاء الاصطناعي هو تلك التكنولوجيا التي تعتمد عليها برامج المساعدة الصوتية الرقمية مثل أليكسا وسيري. كما أنه يتيح لبرامج مثل سبوتيفاي ويوتيوب وبي بي سي آي بلاير أن تقترح عليك قائمة من المواد التي قد ترغب في تشغليها، وتساعد تلك التكنولوجيا أيضا تطبيقي فيسبوك وتويتر في اختيار وعرض منشورات الوسائط الاجتماعية التي توافق اهتمامات المستخدمين.

كذلك يتيح الذكاء الاصطناعي لشركة أمازون أن تحلل عادات الشراء لدى عملائها، وبناء على هذا التحليل تقوم أمازون بعرض توصيات لعمليات شراء مستقبلية تتناسب مع اهتمامات كل عميل على حدة – كما تستخدم الشركة هذه التقنية لإزالة التقييمات المزيفة.

كيف بلغت شركة أمازون القمة من مرآب صغير بمنزل جيف بيزوس؟
ما المقصود بـ “تشات جي بي تي” و “بوت السناب My AI ” ؟
هما تطبيقا دردشة “قويان” يعملان بالذكاء الاصطناعي، وقد أصبحا على مستوى عال من الشهرة خلال الأشهر الماضية.

كما أنهما أمثلة على ما يسمى بالذكاء الاصطناعي “التوليدي”.

والذكاء الاصطناعي التوليدي، هو شكل آخر من الذكاء الاصطناعي. إذ يتعلم كيفية بناء معلومات جديدة من البيانات والأنماط السابقة، بحيث يكون قادرا على إنشاء محتوى جديد وأصلي يبدو كما لو تم إنشاؤه بواسطة إنسان.

وتقترن تلك التقنية ببرنامج حاسوب يُعرف باسم “بوت الدردشة”، والذي يتلقى الرسائل النصية من المستخدمين ويقوم بالرد عليها بشكل منطقي وذكي.

يمكن لهذه التطبيقات الإجابة على الأسئلة ورواية القصص وكتابة أكواد برمجية.

لكن في بعض الأحيان، قد يقدم كلا من “تشات جي بي تي” و “بوت السناب My AI ” إجابات غير صحيحة للمستخدمين، أو متحيزة مثل التمييز على أساس الجنس أو العنصرية.

ما هو “تشات جي بي تي” وهل يجب أن تخشاه غوغل؟

ما هو “بوت السناب My AI” الذي أثار اهتمام مستخدمي تطبيق سناب شات؟
هل فرض الذكاء الاصطناعي نفسه على أنظمة التعليم دون أن نشعر؟
لماذا يخشى النقاد من أن يكون الذكاء الاصطناعي خطيرا؟
مع وجود القليل من القواعد التنظيمية المتبعة لاستخدام الذكاء الاصطناعي، فقد حذر الخبراء من أن تطوره السريع قد يكون خطيرا. حتى أن البعض قال إنه يجب وقف أبحاث الذكاء الاصطناعي.

في مايو/ أيار الماضي، قدّم جيفري هينتون – الذي ينظر إليه على نطاق واسع كأب روحي للذكاء الاصطناعي – استقالته من شركة غوغل محذرا من أن روبوتات الدردشة الذكية يمكن أن تصبح قريبا أكثر ذكاء من البشر.

وفي وقت لاحق من ذلك الشهر، نشر مركز أمان الذكاء الاصطناعي – ومقره الولايات المتحدة – بيانا عبر موقعه الإلكتروني، أيده العشرات من المتخصصين التكنولوجيين البارزين.

وجاء في البيان أن استخدام الذكاء الاصطناعي قد يولد معلومات خاطئة من شأنها أن تزعزع استقرار المجتمع، وفي أسوأ السيناريوهات، قال الخبراء إن هذه الآلات قد تصبح ذكية للغاية بحيث تتولى زمام الأمور، ما قد يؤدي إلى انقراض البشرية.

و قالت رئيسة قطاع التكنولوجيا في الاتحاد الأوروبي مارغريت فيستاجر لبي بي سي إن قدرة الذكاء الاصطناعي على تضخيم التحيز أو التمييز أصبحت مصدر قلق كبير وسببا ملحا لإيجاد حل.

رئيسة قطاع التكنولوجيا في الاتحاد الأوروبي مارغريت فيستاجر
رئيسة قطاع التكنولوجيا في الاتحاد الأوروبي مارغريت فيستاجر

وبالنسبة لـ فيستاجر فإن ما يقلقها على وجه الخصوص، هو الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في اتخاذ قرارات تؤثر على سبل عيش الناس مثل طلبات القروض، مضيفة أن هناك “خطرا بالتأكيد” يتمثل في إمكانية استخدام الذكاء الاصطناعي للتأثيرعلى الانتخابات.

يقول آخرون، بمن فيهم رائدة التكنولوجيا مارثا لين فوكس، إنه لا ينبغي لنا أن نشعر بنوع من “الهستيريا والهلع” بشأن الذكاء الاصطناعي، كما أنها حثت على إجراء نقاشات أكثر منطقية حول قدرات الذكاء الاصطناعي.

ما هي القواعد المعمول بها حاليا بشأن الذكاء الاصطناعي ؟

تتصارع حكومات الدول في جميع أنحاء العالم، من أجل الوصول إلى اتفاق يُنظم استخدام الذكاء الاصطناعي.

مؤخرا صوت أعضاء البرلمان الأوروبي لصالح قانون الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي، وهذا القانون – الأول من نوعه – سيضع إطارا قانونيا صارما يحكم استخدام الذكاء الاصطناعي، كما سيتعين على الشركات الامتثال له.

تقول مارغريت فيستاجر إن وضع “حواجز حماية” أمر ضروري لمواجهة المخاطر الكبرى التي يشكلها الذكاء الاصطناعي.

والتشريع الجديد – الذي من المتوقع أن يدخل حيز التنفيذ عام 2025 – سيعمل على تصنيف تطبيقات الذكاء الاصطناعي إلى مستويات من الخطورة – حسب تأثيرها على المستهلكين.

وسيتم تصنيف ألعاب الفيديو المدعومة بالذكاء الاصطناعي، وفلتر(مرشح) البريد الإلكتروني غير المرغوب فيه ضمن فئة المخاطر المتدنية.

وستواجه تطبيقات الذكاء الاصطناعي – ذات المخاطر العالية – مثل تلك المستخدمة في تقييم درجة الائتمان (الأهلية الائتمانية) أو الحصول على مسكن أشد الضوابط صرامة.

ولن تتبنى المملكة المتحدة تطبيق هذه القواعد، حيث حددت الحكومة البريطانية في شهر مارس/ آذار الماضي رؤيتها المستقبلية المتعلقة بالذكاء الاصطناعي.

واستبعدت الحكومة البريطانية تشريع قانون تنظيمي خاص للذكاء الاصطناعي، وقالت بدلا من ذلك إنها ستقوم بإلحاق القواعد التنظيمية للذكاء الاصطناعي ضمن الهيئات التنظيمية الموجودة حاليا والتي ستتولى الإشراف عليها.

لكن فيستاجر تقول إن تنظيم استخدام الذكاء الاصطناعي يجب أن يكون “شأنا عالميا”، وتضيف أن تبني “رأي جماعي” بين الدول “ذات التفكير المماثل” أمر مهم.

كما اعترف المشرعون الأمريكيون خلال جلسة استماع حديثة مخصصة للذكاء الاصطناعي، بوجود مخاوف بشأن مدى صلاحية تلك القواعد.

في حين تعتزم الصين إلزام الشركات بإخطار المستخدمين عند استخدام خوارزمية الذكاء الاصطناعي.

تغيير شعار منصة تويتر الامريكية إلى X يثير الجدل !

صحيفة العراقوكالة الاستقلال      |  العرب في اوروبا  |  IEGYPT  | سعر الدولار في بغداد