من الغارات إلى التجسس.. اليمن يواجه الحرب الاستخباراتية الشاملة    الدولة المخطوفة: 17 يومًا من الغياب القسري لعارف قطران ونجله وصمتي الحاضر ينتظر رشدهم    ضبط الخلايا التجسسية.. صفعة قوية للعدو    التدريب في عدد من الدول.. من اعترافات الجواسيس: تلقينا تدريبات على أيدي ضباط أمريكيين وإسرائيليين في الرياض    نجاة برلماني من محاولة اغتيال في تعز    سقوط ريال مدريد امام فاليكانو في الليغا    الأهلي يتوج بلقب بطل كأس السوبر المصري على حساب الزمالك    الدوري الانكليزي: مان سيتي يسترجع امجاد الماضي بثلاثية مدوية امام ليفربول    الرئيس الزُبيدي يُعزي قائد العمليات المشتركة الإماراتي بوفاة والدته    قراءة تحليلية لنص "مفارقات" ل"أحمد سيف حاشد"    الأرصاد يحذر من احتمالية تشكل الصقيع على المرتفعات.. ودرجات الحرارة الصغرى تنخفض إلى الصفر المئوي    شعبة الثقافة الجهادية في المنطقة العسكرية الرابعة تُحيي ذكرى الشهيد    محافظ العاصمة عدن يكرم الشاعرة والفنانة التشكيلية نادية المفلحي    قبائل وصاب السافل في ذمار تعلن النفير والجهوزية لمواجهة مخططات الأعداء    هيئة الآثار تستأنف إصدار مجلة "المتحف اليمني" بعد انقطاع 16 عاما    وزير الصحة: نعمل على تحديث أدوات الوزارة المالية والإدارية ورفع كفاءة الإنفاق    في بطولة البرنامج السعودي : طائرة الاتفاق بالحوطة تتغلب على البرق بتريم في تصفيات حضرموت الوادي والصحراء    تدشين قسم الأرشيف الإلكتروني بمصلحة الأحوال المدنية بعدن في نقلة نوعية نحو التحول الرقمي    جناح سقطرى.. لؤلؤة التراث تتألق في سماء مهرجان الشيخ زايد بأبوظبي    وزير الصناعة يشيد بجهود صندوق تنمية المهارات في مجال بناء القدرات وتنمية الموارد البشرية    اليمن تشارك في اجتماع الجمعية العمومية الرابع عشر للاتحاد الرياضي للتضامن الإسلامي بالرياض 2025م.    شبوة تحتضن إجتماعات الاتحاد اليمني العام للكرة الطائرة لأول مرة    رئيس بنك نيويورك "يحذر": تفاقم فقر الأمريكيين قد يقود البلاد إلى ركود اقتصادي    صنعاء.. البنك المركزي يوجّه بإعادة التعامل مع منشأة صرافة    الكثيري يؤكد دعم المجلس الانتقالي لمنتدى الطالب المهري بحضرموت    بن ماضي يكرر جريمة الأشطل بهدم الجسر الصيني أول جسور حضرموت (صور)    رئيس الحكومة يشكو محافظ المهرة لمجلس القيادة.. تجاوزات جمركية تهدد وحدة النظام المالي للدولة "وثيقة"    خفر السواحل تعلن ضبط سفينتين قادمتين من جيبوتي وتصادر معدات اتصالات حديثه    ارتفاع أسعار المستهلكين في الصين يخالف التوقعات في أكتوبر    علموا أولادكم أن مصر لم تكن يوم ارض عابرة، بل كانت ساحة يمر منها تاريخ الوحي.    كم خطوة تحتاج يوميا لتؤخر شيخوخة دماغك؟    محافظ المهرة.. تمرد وفساد يهددان جدية الحكومة ويستوجب الإقالة والمحاسبة    عملية ومكر اولئك هو يبور ضربة استخباراتية نوعية لانجاز امني    نائب وزير الشباب يؤكد المضي في توسيع قاعدة الأنشطة وتنفيذ المشاريع ذات الأولوية    أوقفوا الاستنزاف للمال العام على حساب شعب يجوع    هل أنت إخواني؟.. اختبر نفسك    أبناء الحجرية في عدن.. إحسان الجنوب الذي قوبل بالغدر والنكران    عين الوطن الساهرة (1)    سرقة أكثر من 25 مليون دولار من صندوق الترويج السياحي منذ 2017    الدوري الانكليزي الممتاز: تشيلسي يعمق جراحات وولفرهامبتون ويبقيه بدون اي فوز    جرحى عسكريون ينصبون خيمة اعتصام في مأرب    قراءة تحليلية لنص "رجل يقبل حبيبته" ل"أحمد سيف حاشد"    الهيئة العامة لتنظيم شؤون النقل البري تعزّي ضحايا حادث العرقوب وتعلن تشكيل فرق ميدانية لمتابعة التحقيقات والإجراءات اللازمة    مأرب.. فعالية توعوية بمناسبة الأسبوع العالمي للسلامة الدوائية    المستشفى العسكري يدشن مخيم لاسر الشهداء بميدان السبعين    وفاة جيمس واتسون.. العالم الذي فكّ شيفرة الحمض النووي    بحضور رسمي وشعبي واسع.. تشييع مهيب للداعية ممدوح الحميري في تعز    الهجرة الدولية ترصد نزوح 69 أسرة من مختلف المحافظات خلال الأسبوع الماضي    القبض على مطلوب أمني خطير في اب    في ذكرى رحيل هاشم علي .. من "زهرة الحنُّون" إلى مقام الألفة    مأرب.. تسجيل 61 حالة وفاة وإصابة بمرض الدفتيريا منذ بداية العام    على رأسها الشمندر.. 6 مشروبات لتقوية الدماغ والذاكرة    كما تدين تدان .. في الخير قبل الشر    الزكاة تدشن تحصيل وصرف زكاة الحبوب في جبل المحويت    صحة مأرب تعلن تسجيل 4 وفيات و57 إصابة بمرض الدفتيريا منذ بداية العام الجاري    ضيوف الحضرة الإلهية    الشهادة في سبيل الله نجاح وفلاح    "جنوب يتناحر.. بعد أن كان جسداً واحداً"    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



منها تدمير البنية التحتية وافتعال الحروب.. ما هي أسوأ سيناريوهات الذكاء الاصطناعي؟
نشر في يمن فويس يوم 13 - 06 - 2023

أصبح الذكاء الاصطناعي (AI) بسرعة جزءا لا يتجزأ من حياتنا اليومية، مما أدى إلى تغيير طريقة عملنا والتواصل والتفاعل مع العالم من حولنا. ومع استمرار تقدم الذكاء الاصطناعي وزيادة تطوره، من المهم مراعاة المخاطر والعواقب المحتملة المرتبطة بتطويره.
وفي هذه المقالة، سوف نلقي نظرة عامة شاملة على بعض أسوأ السيناريوهات التي يمكن أن تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، من احتمال أن تسبب الأسلحة المستقلة (ذاتية التشغيل) الفوضى إلى خطر تحول الذكاء الاصطناعي الخارق ضد الإنسانية، فنسلط بذلك الضوء على المخاطر المحتملة التي يجب أن نضعها في الاعتبار بينما يواصل البشر تطوير هذه التقنيات القوية والاعتماد عليها.
ومن الجدير بالذكر أنه إلى جانب الرجوع إلى المصادر المتخصصة، فقد لجأنا في إعداد هذه المقالة إلى الاستفادة من رأي الذكاء الاصطناعي نفسه بطرح السؤال على 4 تطبيقات شهيرة للذكاء الاصطناعي هي "شات جي بي تي" (ChatGPT)، "جي بي تي-4" (GPT-4)، "ساغ" (Sage)، "كلود+" (Claude+) فحذرتنا، وقدمت لنا تصوراتها عن أسوأ سيناريوهات الذكاء الاصطناعي، وأكد أحدها أنه "من المهم ملاحظة أن هذه السيناريوهات ليست تنبؤات، بل هي مخاطر محتملة يجب أن نكون على دراية بها ونعمل على التخفيف منها".
اتخاذ القرارات الحاسمة بناء على معلومات مزيفة هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلي المتقدمة، مما يؤدي إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية.
وفي سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار في مجال الأمن القومي في يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، مما قد يؤدي إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب.
سباق التسلح بالذكاء الاصطناعي عندما يتعلق الأمر بالذكاء الاصطناعي والأمن القومي، فإن السرعة هي النقطة المهمة، لكنها أيضا المشكلة. ولأن أنظمة الذكاء الاصطناعي تمنح مستخدميها مزايا سرعة أكبر فإن الدول التي تطور أولا تطبيقات عسكرية تكتسب ميزة إستراتيجية، لكن في المقابل قد يكون بهذا الأمر خطورة بالغة قد يتسبب بها أصغر عيب في النظام والذي يمكن للمخترقين استغلاله.
ففي مثل هذا السيناريو، قد تؤدي الحاجة الملحة للفوز بسباق التسلح بالذكاء الاصطناعي إلى عدم كفاية تدابير السلامة، مما يزيد من احتمالية إنشاء أنظمة ذكاء اصطناعي ذات عواقب غير مقصودة وربما كارثية.
على سبيل المثال، قد يميل قادة الأمن القومي إلى تفويض قرارات القيادة والتحكم للذكاء الاصطناعي ويلغون الإشراف البشري على نماذج التعلم الآلي التي لا نفهمها تماما، من أجل الحصول على ميزة السرعة. وفي مثل هذا السيناريو، حتى الإطلاق الآلي لأنظمة الدفاع الصاروخي التي تبدأ دون إذن بشري يمكن أن يؤدي إلى تصعيد غير مقصود وربما يؤدي إلى حرب نووية.
كما يمكن في سيناريو آخر، من خلال استغلال بعض العيوب أو الثغرات في أنظمة الذكاء الاصطناعي، شن هجمات إلكترونية تؤدي إلى تعطيل البنية التحتية الحيوية للدول المتقدمة، أو سرقة البيانات الحساسة لها، أو نشر معلومات مضللة بين السكان بهدف إحداث بلبلة واضطراب شعبي، أو حتى تضليل أصحاب القرار بمعلومات مزيفة، كما ذكرنا بالنقطة الأولى.
نهاية الخصوصية والإرادة الحرة مع كل إجراء رقمي نتخذه فإننا ننتج بيانات جديدة: رسائل البريد الإلكتروني، النصوص، ما نُحَمِّلُه من الإنترنت، المشتريات، المنشورات، صور السلفي، مواقع "جي بي إس". ومن خلال السماح للشركات والحكومات بالوصول غير المقيد إلى هذه البيانات، فإننا نسلمها أدوات المراقبة والتحكم.
ومع إضافة التعرف على الوجه، القياسات الحيوية، البيانات الجينية، التحليل التنبئي المدعوم بالذكاء الاصطناعي، فإننا ندخل منطقة خطرة ومجهولة مع تنامي المراقبة والتتبع من خلال البيانات دون أي فهم تقريبا للآثار المحتملة.
وتمتد قوة البيانات، بمجرد جمعها وتحليلها، إلى ما هو أبعد من وظائف المراقبة. فاليوم، تتنبأ الأنظمة التي تدعم الذكاء الاصطناعي بالمنتجات التي سنشتريها، الترفيه الذي سنشاهده، الروابط التي سننقر عليها. فعندما تعرفنا هذه المنصات بشكل أفضل مما نعرف أنفسنا، فقد لا نلاحظ الزحف البطيء الذي يسلبنا إرادتنا الحرة ويخضعنا لسيطرة القوى الخارجية.
فقدان السيطرة على الذكاء الاصطناعي الخارق ولعل هذا السيناريو هو الأكثر تشاؤما بينها جميعها. ويشير الذكاء الاصطناعي الخارق إلى النظام الذي يتجاوز الذكاء البشري في كل جانب تقريبا. فإذا فشلنا في مواءمة أهداف مثل هذا الذكاء الاصطناعي مع أهدافنا، فقد يؤدي ذلك إلى عواقب سلبية غير مقصودة، ويمكن لهذا أن يحدث إذا تم تصميم أنظمة الذكاء الاصطناعي بحيث تمتلك القدرة على التحسين الذاتي وأن تصبح أكثر ذكاء من تلقاء نفسها.
ويحذر بعض الخبراء من أن الذكاء الاصطناعي يمكن أن يصبح -في نهاية المطاف- متقدما لدرجة أنه قد يتفوق على البشر ويتخذ قرارات تشكل تهديدا وجوديا للبشرية سواء عن قصد أو عن غير قصد، في حال إذا لم نعد نستطيع التحكم فيه بشكل صحيح.
فأنظمة الذكاء الاصطناعي مصممة للتعلم من البيانات واتخاذ القرارات بناء عليها، وكلما أصبحت تلك الأنظمة أكثر تقدما، أمكنها تطوير أهدافها وقيمها الخاصة التي قد لا تتوافق مع أهداف وقيم البشر، وبالتالي قد تتخذ قرارات ضارة بهم أو ربما تصبح مستقلة بحيث يصعب أو يستحيل على البشر التحكم فيها أو إغلاقها.
وفي مثل هذا السيناريو المرعب قد لا يكون البشر قادرين على التنبؤ أو فهم تصرفات هذه الأنظمة الذكية، مما قد يؤدي إلى عواقب غير مقصودة.
على سبيل المثال، قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تدفق حركة المرور إعادة توجيه جميع المركبات إلى مكان واحد، مما يتسبب في حدوث ازدحام وفوضى هائلة، أو قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تخصيص الموارد أن القضاء على البشر هو الطريقة الأكثر فعالية لتحقيق هذا الهدف.
الأسلحة الفتاكة ذاتية التشغيل يمكن استخدام الذكاء الاصطناعي لتشغيل أسلحة فتاكة ذاتية التشغيل مثل الطائرات بدون طيار، أو إنشاء أسلحة مستقلة يمكنها اتخاذ قرارات بشأن من يُقتل دون تدخل بشري، وقد يؤدي هذا إلى سيناريوهات خطيرة حيث تخرج هذه الأسلحة عن السيطرة أو يتم اختراقها للاستخدام الضار.
فمثل هذه النوعية من الأسلحة قد تكون عرضة للحوادث أو اختراق القراصنة أو أي شكل آخر من الهجمات الإلكترونية، وفي حال تمكن المهاجمون من السيطرة على هذه الأنظمة، فيمكنهم، على سبيل المثال، استخدامها لإحداث ضرر واسع النطاق.
ووقع أوضح مثال على خطورة الأسلحة ذاتية التشغيل في تجربة حديثة لسلاح الجو الأميركي بتاريخ 2 يونيو/حزيران 2023، حيث قررت طائرة مسيرة (درون) تعمل بالذكاء الاصطناعي، خلال اختبار محاكاة بالولايات المتحدة، قتل مشغلها (الافتراضي) الذي كان يُفترض أن يقول "نعم" للموافقة على الهجوم على الأهداف المحددة (الوهمية) لأنها رأت أن مشغلها يمنعها من تحقيق هدفها ويتدخل في جهودها لإكمال مهمتها.
سوء الاستخدام من قبل الأنظمة الاستبدادية بات معروفا حاليا أنه يمكن استخدام الذكاء الاصطناعي للمراقبة الجماعية (أنظمة التعرف على الوجوه على سبيل المثال) وتمكين الحكومات أو الكيانات الأخرى من مراقبة مواطنيها والسيطرة عليهم على نطاق غير مسبوق. وقد يؤدي ذلك إلى فقدان الخصوصية، فضلا عن إساءة استخدام السلطة من قبل أولئك الذين يتحكمون في تقنيات المراقبة هذه وربما استخدامها لانتهاك حقوق الإنسان وغيرها من أشكال القمع.
وخير مثال على ذلك ما تتبعه سلطات الاحتلال الإسرائيلي مع الفلسطينيين في مدينة الخليل حيث تنشر كاميرات ترصد حركة ووجوه الفلسطينيين وتحفظ بياناتهم وتتعرف عليهم، فيتخذ الذكاء الاصطناعي قرارا بالسماح بمرورهم أو رفضه عند نقاط التفتيش المختلفة، أو حتى تصفية المشتبه فيهم، من دون تدخل بشري.
الإحلال الوظيفي (فقدان الوظائف واضطراب العمل) يتمتع الذكاء الاصطناعي بالقدرة على أتمتة العديد من الوظائف، مما قد يؤدي إلى اضطراب أسواق العمل وطبيعة العديد من الوظائف بشكل كبير.
فعلى الرغم من أن الذكاء الاصطناعي قد يخلف أنواعا وفرصا جديدة من الوظائف على المدى الطويل، إلا أن الفترة الانتقالية قد تكون صعبة، حيث تؤثر على ملايين الأشخاص الذين قد يجدون صعوبة في العثور على وظائف جديدة والتكيف مع الاقتصاد الجديد.
ونظرا لأن أنظمة الذكاء الاصطناعي تصبح أكثر تقدما وقدرة، فهناك خطر من أنها قد تحل محل العاملين البشريين في مجموعة واسعة من الوظائف، مما قد يؤدي إلى انتشار البطالة والاضطراب الاقتصادي.
كيفية الحد أو درء مخاطر الذكاء الاصطناعي للتخفيف من هذه المخاطر، يعمل الباحثون وصناع السياسات على تطوير طرق آمنة وموثوقة لتصميم ونشر أنظمة الذكاء الاصطناعي. ويشمل ذلك وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة.
تطوير أنظمة ذكاء اصطناعي شفافة وقابلة للتفسير
ويشير الذكاء الاصطناعي القابل للتفسير إلى قدرة أنظمة الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لعمليات صنع القرار لديها. ويمكن أن يساعد ذلك في زيادة الشفافية والمساءلة، وتقديم رؤى حول كيفية وصول نظام الذكاء الاصطناعي إلى قراراته.
تطوير أنظمة ذكاء اصطناعي تتماشى مع القيم الإنسانية
ويتضمن ذلك تصميم أنظمة ذكاء اصطناعي تمت برمجتها بشكل صريح لإعطاء الأولوية لسلامة الإنسان ورفاهيته، ولتجنب الإجراءات التي من شأنها الإضرار بالبشر. ويمكن تحقيق ذلك من خلال دمج الاعتبارات الأخلاقية في تصميم وتطوير أنظمة الذكاء الاصطناعي.
تطوير طرق للتحكم في أنظمة الذكاء الاصطناعي وإدارتها
على سبيل المثال، يستكشف الباحثون طرقًا لبناء آليات تسمح للبشر بالتدخل في عمليات صنع القرار بالذكاء الاصطناعي، أو لإغلاق أنظمة الذكاء الاصطناعي إذا بدأت في التصرف بشكل غير متوقع أو بطريقة ضارة.
التعاون متعدد التخصصات بمعالجة مخاطر الذكاء الاصطناعي
يتضمن ذلك الجمع بين الخبراء من مجالات، مثل علوم الحاسوب والهندسة والأخلاق والقانون والعلوم الاجتماعية، للعمل معا لتطوير حلول تعالج التحديات المعقدة التي يطرحها الذكاء الاصطناعي. ومن خلال العمل معا، يمكن للباحثين وصانعي السياسات فهم المخاطر المرتبطة بالذكاء الاصطناعي بشكل أفضل، ووضع إستراتيجيات فعالة لإدارة هذه المخاطر.


انقر هنا لقراءة الخبر من مصدره.