قال العالم البريطاني ستيوراد راسل الشهير بتطوير ميزة الذكاء الاصطناعي، إن أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها.

البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4 التي أُطلقت حديثًا – خليفة برنامج الدردشة عبر الإنترنت ChatGPT، مدعوم من GPT-3.5.

حكى: (وقعت على الخطاب بثقة، لأنه يجب أن يقال إنّنا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة)، ولا نعرف ما قادرة على انجازه، وهذا يعني أننا لا نستطيع السيطرة عليها).

تابع: (الناس قلقون بشأن التضليل والتحيز العنصري في ممارسات هذه الأنظمة، وأحد أكبر المخاوف المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص غُير وجهه أو جسده رقميًا وبدا آخر – ليُستخدم بشكل ضار أو لنشر معلومات كاذبة).

حذر الخبير، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا من التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها.

قال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة تضخ المعلومات المضللة وباستخدام الذكاء الاصطناعي.

أكمل: (قلق الرسالة يتعلق حقًا بالجيل القادم من النظام، وفي الوقت الحالي، تعاني الأنظمة من بعض القيود في قدرتها على إنشاء خطط معقدة).

تابع: (في ظل الجيل التالي من الأنظمة، أو الذي يليه، يمكن أن تدار الشركات بواسطة أنظمة الذكاء الاصطناعي، ويمكن أن ترى حملات عسكرية تنظمها أنظمة ذكاء اصطناعي).

أضاف: (إذا كنت تبني أنظمة أقوى من البشر، فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة).

Copy URL to clipboard


























شارك الموضوع

Copy URL to clipboard

ابلغ عن خطأ

لقد تم إرسال رسالتك بنجاح

نسخ إلى الحافظة

أدخل رقم الهاتف أو بريدك الإلكتروني للإطلاع على آخر الأخبار