في مقالنا لهذا اليوم سنتحدث من خلاله عن تحذير مبتكر تشات جي بي تي من “الخطر الوجودي للذكاء الاصطناعي” أذ و حذر سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي” المبتكرة لبرنامج “تشات جي بي تي”، من أن الذكاء الاصطناعي يشكل “خطرا وجوديا” على البشري، مشيرا إلى أن الوكالة الدولية للطاقة الذرية تشرف على هذه التكنولوجيا الرائدة.

 

وقال ألتمان “التحدي الذي يواجه العالم اليوم يتعلق بكيف سندير تلك المخاطر ونتأكد بأن نستمر في التمتع بتلك المزايا الهائلة. لا أحد يريد أن يدمر العالم.”

كان “تشات جي بي تي” الذي طورته “أوبن إيه آي” قد جذب أنظار العالم بأجوبته التي تشبه المقالات على أسئلة المستخدمين. واستثمرت مايكروسوفت نحو مليار دولار في أوبن إيه آي. لكن نجاح البرنامج أثار أيضا مخاوف. فقد وقع المئات من رموز الصناعة ومنهم ألتمان على خطاب في مايو يحذر أن ”التخفيف من خطر الانقراض بسببالذكاء الاصطناعي يجب أن يكون أولوية عالمية، بالإضافة إلى مخاطر اجتماعية أخرى كالأوبئة والحرب النووية.”

وأشار ألتمان إلى الوكالة الدولية للطاقة الذرية بوصفها مثالا على كيفية اتحاد العالم للرقابة على القوة النووية، كانت الوكالة قد أنشأت في سنوات ما بعد إلقاء الولايات المتحدة القنابل الذرية على اليابان في نهاية الحرب العالمية الثانية.

ونقلت تقريرات عن ألتمان قوله “دعونا نتأكد من اتحادنا معا ككوكب- وأتمنى أن يلعب هذا المكان دورا في ذلك. نحن نتحدث عن الوكالة الدولية للطاقة الذرية كنموذج لقول العالم (حسنا، هذه تكنولوجيا خطيرة للغاية، دعونا نضع بعض المحاذير والضمانات). وأعتقد أن بإمكاننا القيام بالأمرين معا.”

أذ و يدرس المشرعون في أنحاء العالم أيضا الذكاء الاصطناعي. ويسعى الاتحاد الأوروبي المكون من 27 دولة لسن قانون خاص بالذكاء الاصطناعي، وقد يصبح المعيار العالمي الفعلي الذي يحكم التكنولوجيا.

وفي مايو الماضي، أوضح ألتمان أمام الكونغرس أن تدخل الحكومة سيكون ضروريا لإدارة المخاطر التي تأتي مع الذكاء الاصطناعي.

مسؤول بريطاني: الذكاء الاصطناعي قد “يقتل البشر” خلال عامين

قال مستشار رئيس الوزراء البريطاني ريشي سوناك في شؤون التكنولوجيا، إن الذكاء الاصطناعي يمكن أن يصبح قويا بما يكفي “لقتل العديد من البشر” في غضون عامين فقط.

مسؤول بريطاني: الذكاء الاصطناعي قد "يقتل البشر" خلال عامين
مسؤول بريطاني: الذكاء الاصطناعي قد “يقتل البشر” خلال عامين

ونقلت صحيفة “إندبندنت” البريطانية عن مات كليفورد قوله خلال برنامج تلفزيوني: “ما لم يتم تنظيم منتجي ومطوري الذكاء الاصطناعي على نطاق عالمي، فقد تظهر أنظمة “قوية جدا” يمكن للبشر أن يكافحوا من أجل السيطرة عليها”.

وأوضح أن “الذكاء الاصطناعي يمتلك اليوم القدرة على صنع أسلحة إلكترونية لشن هجمات على نطاق واسع، أو أسلحة بيولوجية يمكن أن تتسبب في العديد من الوفيات في العالم”.

وتابع: “حتى المخاطر على المدى القريب مخيفة للغاية.. هذه أمور سيئة”.

وأضاف: “الخطر الوجودي الذي يجري الحديث بشأنه، هو ما سيحدث بمجرد أن نخلق ذكاء أكبر من البشر”.

ويتوقع كليفورد أن تتجاوز أنظمة الذكاء الاصطناعي الذكاء البشري في غضون عامين، مشيرا إلى أن قدراتها تتطور بسرعة وباستمرار.

يأتي ذلك في الوقت الذي يتوجه فيه سوناك إلى الولايات المتحدة، حيث من المقرر أن يحاول إقناع الرئيس جو بايدن بـ”خطته الكبرى” لتكون المملكة المتحدة في قلب التنظيم الدولي للذكاء الاصطناعي.

ويريد رئيس الوزراء أن تستضيف بريطانيا هيئة رقابة دولية على الذكاء الاصطناعي، على غرار الوكالة الدولية للطاقة الذرية.

سؤال طرحه علماء استخدموا خاصية الذكاء الاصطناعي : هل يمكن للذكاء الاصطناعي أن يصاب بـ”الزهايمر” أو “الخرف” ؟

سؤال طرحه علماء استخدموا خاصية الذكاء الاصطناعي : هل يمكن للذكاء الاصطناعي أن يصاب بـ"الزهايمر" أو "الخرف" ؟

منذ أسابيع قليلة تحدث المؤسس المشارك في شركة مايكروسوفت بيل جيتس، عن الثورة التي ستحدثها أدوات الذكاء الاصطناعي التوليدي في العالم، مشيداً بالدور الذي ستقوم به، في مساعدة البشرية على تحقيق تقدم في جميع المجالات.

واختتم جيتس حديثه الطويل عن هذه التكنولوجا الجديدة قائلاً: “بينما نخترع الروبوتات التي يشغلّها الذكاء الاصطناعي التوليدي، نحتاج فقط للتأكد من عدم إصابتها بمرض الزهايمر”.

الخرف والهلوسة والزهايمر

وفي حين ظن الجميع أن استخدام جيتس لتعبير “الزهايمر” مجرد مزحة، تبين بعد ذلك أن مؤسس مايكروسوفت لم يكن يمزح، وأن البرامج والروبوتات العاملة بالذكاء الاصطناعي التوليدي يمكن أن تصاب بالزهايمر والخرف والهلوسة، وهذا الأمر ليس نتاج تحليل بل حدث بالفعل مع تطبيق ChatGPT التابع لشركة OpenAI، التي سارعت الأسبوع الماضي الى تدارك الأمر، عبر الإعلان أنها ستتصدى لهلوسة الذكاء الاصطناعي، وذلك باتباع أسلوب أحدث في تدريب نماذج اللغة.

 

ويحدث خرف أو هلوسة الذكاء الاصطناعي، عندما تختلق روبوتات مثل ChatGPT أو Bard أو غيرها من البرامج المماثلة، أحداثاً غير حقيقية، وتصر على أنها حقائق لا شك فيها، إذ تعد هذه الهلوسات معضلة خطيرة، خاصة إذا تم اعتمادها من قبل الانسان.

ويقول كريستوف زغبي وهو المؤسس والرئيس التنفيذي لشركة ذكاء التكنولوجية “Zaka”، في حديث خاص ، إن القصة بدأت عندما استخدم محام في الولايات المتحدة برنامج ChatGPT، لمساعدته على إدانة شركة طيران، وإلزامها التعويض لراكب تعرض لإصابة بسبب عربة الطعام الموجودة على متن الطائرة، حيث طلب المحامي من ChatGPT، العثور على سوابق قضائية تم فيها إدانة شركات الطيران بحوادث مماثلة، وبالفعل قدم له البرنامج 6 قضايا سابقة ذات صلة، ليتبين لاحقاً لقاضي المحكمة، أن السوابق القضائية المُشار اليها غير موجودة في الواقع.

ويضيف الزغبي أن ما حصل دفع المحامي الأميركي للاعتراف بأنه استخدم ChatGPT، لتكملة بحثه القانوني، مشيراً الى أن البرنامج أكد له أن المعلومات صحيحة ومناسبة لدعواه، رافضاً إعطاءه المصدر والمرجع القانوني لها، حيث يدل ما حدث على أن ChatGPT وجميع البرامج المماثلة، يمكن أن تصاب بـ “الزهايمر”.

وبحسب زغبي فإن ChatGPT مبني على نموذج لغة، مدرب على قراءة الكثير من النصوص، ليقوم بتركيب نص متكامل، حيث أن هذا التطبيق ليس هدفه البحث عن معلومات صحيحة ودقيقة، بل أن يكتب نصاً مقنعاً كما تم تدريبه، وهو لا يكترث ما إذا كانت تلك المعلومات صحيحة، فالمهم بالنسبة له أن يكون موقعها في الجملة مناسب، وبالتالي يمكن له أن يخترع أسماء وأحداثاً طالما هي تتناسب مع نصه، ويصر على أنها حقيقية.

ويعتبر زغبي أن ما يحدث خطير، لأن الناس باتوا يستعينون ببرنامج الذكاء الاصطناعي التوليدي، ويستخدمونه دون التحقق من دقة المعلومات التي زودهم بها، فيحصلون على نص يحوي الكثير من المعلومات غير الصحيحة، ولذلك فإن النصيحة التي يمكن تقديمها هنا، هي بعدم استخدام هذه البرامج عند البحث عن معلومات معينة، بل اللجوء الى محرك البحث الشهير غوغل الذي يقدم الإجابة مرفقة بالرابط الذي يمكن للمستخدم التأكد من صحته.

هل سيتم حل هذه المشكلة نهائياً ؟

ويكشف زغبي إن مشكلة إصابة ChatGPT أو غيره من البرامج المماثلة بالخرف أو الهلوسة، قد لا يتم حلها بنسبة 100 بالمئة، فحتى لو تم دعم هذه التكنولوجيا بميزة التحقق من القصة أو الواقعة، فإننا قد نصل الى مرحلة تقل فيها الهلوسة، وهذا الأمر لن يحصل في المستقبل القريب.

من جهتها تقول أخصائية التسويق الرقمي كارين عباس صحفي ، إن سبب إطلاق وصف “الزهايمر” أو “خرف” أو “هلوسة” وعدم القول بأنه “يكذب” على ما يفعله ChatGPT، أو غيره من برامج الذكاء الاصطناعي، يعود الى أن البرنامج لا يدرك أنه يكذب، بل هو وفي لحظة “عدم يقين”، يقوم بتحليل البيانات الموجودة لديه، بطريقة يراها أنها صحيحة، تماماً كما حال الانسان عندما يصاب بالخرف أو الزهايمر أو الهلوسة، حيث يعتقد أن ما يقوله صحيح 100 بالمئة، ومن هنا فإنه لا يجب النظر إلى روبوتات الذكاء الاصطناعي، على أنها شخص عاقل يمتلك إجابات على جميع الأسئلة التي قد نحتاجها.

كما أكدت عباس أنه مع تقدم الوقت وتطور التكنولوجيا، فإن نسبة الخرف في برامج الذكاء الاصطناعي ستقل حدتها، ولكن من الصعب إنهائها تماماً، ولذلك فإنه من المهم جداً على المستخدم، أن يتأكد من صحة ودقة المعلومات التي يحصل عليها من خلال هذه البرامج.

“سبايدرمان” يتصدر شباك التذاكر في دور السينما

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

صحيفة العراقوكالة الاستقلال      |  العرب في اوروبا  |  IEGYPT  | سعر الدولار في بغداد