مختارات

ما أسوأ سيناريوهات الذكاء الاصطناعي؟ وكيف نتصدى لها؟

أصبح الذكاء الاصطناعي (AI) بسرعة جزءا لا يتجزأ من حياتنا اليومية، مما أدى إلى تغيير طريقة عملنا والتواصل والتفاعل مع العالم من حولنا. ومع استمرار تقدم الذكاء الاصطناعي وزيادة تطوره، من المهم مراعاة المخاطر والعواقب المحتملة المرتبطة بتطويره.
وفي هذه المقالة، سوف نلقي نظرة عامة شاملة على بعض أسوأ السيناريوهات التي يمكن أن تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، من احتمال أن تسبب الأسلحة المستقلة (ذاتية التشغيل) الفوضى إلى خطر تحول الذكاء الاصطناعي الخارق ضد الإنسانية، فنسلط بذلك الضوء على المخاطر المحتملة التي يجب أن نضعها في الاعتبار بينما يواصل البشر تطوير هذه التقنيات القوية والاعتماد عليها.

تابعنا في فيسبوك


ومن الجدير بالذكر أنه إلى جانب الرجوع إلى المصادر المتخصصة، فقد لجأنا في إعداد هذه المقالة إلى الاستفادة من رأي الذكاء الاصطناعي نفسه بطرح السؤال على 4 تطبيقات شهيرة للذكاء الاصطناعي هي “شات جي بي تي” (ChatGPT)، “جي بي تي-4” (GPT-4)، “ساغ” (Sage)، “كلود+” (Claude+) فحذرتنا، وقدمت لنا تصوراتها عن أسوأ سيناريوهات الذكاء الاصطناعي، وأكد أحدها أنه “من المهم ملاحظة أن هذه السيناريوهات ليست تنبؤات، بل هي مخاطر محتملة يجب أن نكون على دراية بها ونعمل على التخفيف منها”.
اتخاذ القرارات الحاسمة بناء على معلومات مزيفة
هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلي المتقدمة، مما يؤدي إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية.
وفي سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار في مجال الأمن القومي في يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، مما قد يؤدي إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب.
سباق التسلح بالذكاء الاصطناعي
عندما يتعلق الأمر بالذكاء الاصطناعي والأمن القومي، فإن السرعة هي النقطة المهمة، لكنها أيضا المشكلة. ولأن أنظمة الذكاء الاصطناعي تمنح مستخدميها مزايا سرعة أكبر فإن الدول التي تطور أولا تطبيقات عسكرية تكتسب ميزة إستراتيجية، لكن في المقابل قد يكون بهذا الأمر خطورة بالغة قد يتسبب بها أصغر عيب في النظام والذي يمكن للمخترقين استغلاله.
ففي مثل هذا السيناريو، قد تؤدي الحاجة الملحة للفوز بسباق التسلح بالذكاء الاصطناعي إلى عدم كفاية تدابير السلامة، مما يزيد من احتمالية إنشاء أنظمة ذكاء اصطناعي ذات عواقب غير مقصودة وربما كارثية.
على سبيل المثال، قد يميل قادة الأمن القومي إلى تفويض قرارات القيادة والتحكم للذكاء الاصطناعي ويلغون الإشراف البشري على نماذج التعلم الآلي التي لا نفهمها تماما، من أجل الحصول على ميزة السرعة. وفي مثل هذا السيناريو، حتى الإطلاق الآلي لأنظمة الدفاع الصاروخي التي تبدأ دون إذن بشري يمكن أن يؤدي إلى تصعيد غير مقصود وربما يؤدي إلى حرب نووية.
كما يمكن في سيناريو آخر، من خلال استغلال بعض العيوب أو الثغرات في أنظمة الذكاء الاصطناعي، شن هجمات إلكترونية تؤدي إلى تعطيل البنية التحتية الحيوية للدول المتقدمة، أو سرقة البيانات الحساسة لها، أو نشر معلومات مضللة بين السكان بهدف إحداث بلبلة واضطراب شعبي، أو حتى تضليل أصحاب القرار بمعلومات مزيفة، كما ذكرنا بالنقطة الأولى.
نهاية الخصوصية والإرادة الحرة
مع كل إجراء رقمي نتخذه فإننا ننتج بيانات جديدة: رسائل البريد الإلكتروني، النصوص، ما نُحَمِّلُه من الإنترنت، المشتريات، المنشورات، صور السلفي، مواقع “جي بي إس”. ومن خلال السماح للشركات والحكومات بالوصول غير المقيد إلى هذه البيانات، فإننا نسلمها أدوات المراقبة والتحكم.

تابعنا في تويتر


ومع إضافة التعرف على الوجه، القياسات الحيوية، البيانات الجينية، التحليل التنبئي المدعوم بالذكاء الاصطناعي، فإننا ندخل منطقة خطرة ومجهولة مع تنامي المراقبة والتتبع من خلال البيانات دون أي فهم تقريبا للآثار المحتملة.
متد قوة البيانات، بمجرد جمعها وتحليلها، إلى ما هو أبعد من وظائف المراقبة. فاليوم، تتنبأ الأنظمة التي تدعم الذكاء الاصطناعي بالمنتجات التي سنشتريها، الترفيه الذي سنشاهده، الروابط التي سننقر عليها. فعندما تعرفنا هذه المنصات بشكل أفضل مما نعرف أنفسنا، فقد لا نلاحظ الزحف البطيء الذي يسلبنا إرادتنا الحرة ويخضعنا لسيطرة القوى الخارجية.
سوء الاستخدام من قبل الأنظمة الاستبدادية
بات معروفا حاليا أنه يمكن استخدام الذكاء الاصطناعي للمراقبة الجماعية (أنظمة التعرف على الوجوه على سبيل المثال) وتمكين الحكومات أو الكيانات الأخرى من مراقبة مواطنيها والسيطرة عليهم على نطاق غير مسبوق. وقد يؤدي ذلك إلى فقدان الخصوصية، فضلا عن إساءة استخدام السلطة من قبل أولئك الذين يتحكمون في تقنيات المراقبة هذه وربما استخدامها لانتهاك حقوق الإنسان وغيرها من أشكال القمع.
AD
وخير مثال على ذلك ما تتبعه سلطات الاحتلال الإسرائيلي مع الفلسطينيين في مدينة الخليل حيث تنشر كاميرات ترصد حركة ووجوه الفلسطينيين وتحفظ بياناتهم وتتعرف عليهم، فيتخذ الذكاء الاصطناعي قرارا بالسماح بمرورهم أو رفضه عند نقاط التفتيش المختلفة، أو حتى تصفية المشتبه فيهم، من دون تدخل بشري.
الإحلال الوظيفي (فقدان الوظائف واضطراب العمل)
يتمتع الذكاء الاصطناعي بالقدرة على أتمتة العديد من الوظائف، مما قد يؤدي إلى اضطراب أسواق العمل وطبيعة العديد من الوظائف بشكل كبير.
فعلى الرغم من أن الذكاء الاصطناعي قد يخلف أنواعا وفرصا جديدة من الوظائف على المدى الطويل، إلا أن الفترة الانتقالية قد تكون صعبة، حيث تؤثر على ملايين الأشخاص الذين قد يجدون صعوبة في العثور على وظائف جديدة والتكيف مع الاقتصاد الجديد.
ونظرا لأن أنظمة الذكاء الاصطناعي تصبح أكثر تقدما وقدرة، فهناك خطر من أنها قد تحل محل العاملين البشريين في مجموعة واسعة من الوظائف، مما قد يؤدي إلى انتشار البطالة والاضطراب الاقتصادي.
المصدر: الجزيرة نت

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

زر الذهاب إلى الأعلى