السامعي يوجه رسالة شكر وتقدير وعرفان لكل المتضامنين معه ويؤكد استمراره في أداء واجبه الوطني    مقتل ضابطين برصاص جنود في محافظتي أبين وشبوة    مسؤول إسرائيلي: نعمل على محو الدولة الفلسطينية    مستشفى الثورة… حين يتحوّل صرح العلاج إلى أنقاض    الرئيس المشاط يعزّي في وفاة الشاعر الكبير والأديب كريم الحنكي    السهام يقسو على النور بخماسية ويتصدر المجموعة الثالثة في بطولة بيسان 2025    وزير التجارة يكشف أسباب تعافي الريال ويؤكد أن الأسعار في طريقها للاستقرار(حوار)    ردود أفعال دولية واسعة على قرار الكابينت الصهيوني احتلال غزة    هبوط العملة.. والأسعار ترتفع بالريال السعودي!!    واشنطن: استقلالية البنك المركزي اليمني ضرورة لإنقاذ الاقتصاد ومنع الانهيار    مليونية صنعاء.. جاهزون لمواجهة كل مؤامرات الأعداء    إعلاميون ونشطاء يحيون أربعينية فقيد الوطن "الحميري" ويستعرضون مأثره    الفاو: أسعار الغذاء العالمية تسجل أعلى مستوى خلال يوليو منذ أكثر منذ عامين    الأمم المتحدة تعلن وصول سوء التغذية الحاد بين الأطفال بغزة لأعلى مستوى    القبض على 5 متورطين في أعمال شغب بزنجبار    رباعية نصراوية تكتسح ريو آفي    200 كاتب بريطاني يطالبون بمقاطعة إسرائيل    الأرصاد يتوقع أمطار رعدية واضطراب في البحر خلال الساعات المقبلة    الذهب يسجل مستويات قياسية مدعومًا بالرسوم الجمركية الأمريكية    الشهيد علي حسن المعلم    الإدارة الأمريكية تُضاعف مكافأة القبض على الرئيس الفنزويلي وكراكاس تصف القرار ب"المثير للشفقة"    صحيفة روسية تكشف من هو الشيباني    اشتباكات مسلحة عنيفة بين فصائل المرتزقة في عدن    بايرن ميونخ يكتسح توتنهام الإنجليزي برباعية نظيفة    تفشي فيروس خطير في ألمانيا مسجلا 16 إصابة ووفاة ثلاثة    فياريال الإسباني يعلن ضم لاعب الوسط الغاني توماس بارتي    ما سر قرار ريال مدريد مقاطعة حفل الكرة الذهبية 2025؟    اكتشاف معبد عمره 6 قرون في تركيا بالصدفة    دراسة تحذّر من خطر شاشات الهواتف والتلفاز على صحة القلب والشرايين!    المحتجون الحضارم يبتكرون طريقة لتعطيل شاحنات الحوثي المارة بتريم    يحق لبن حبريش قطع الطريق على وقود كهرباء الساحل لأشهر ولا يحق لأبناء تريم التعبير عن مطالهم    في تريم لم تُخلق النخلة لتموت    إنسانية عوراء    الراجع قوي: عندما يصبح الارتفاع المفاجئ للريال اليمني رصاصة طائشة    باوزير: تريم فضحت تهديدات بن حبريش ضد النخبة الحضرمية    لماذا يخجل أبناء تعز من الإنتساب إلى مدينتهم وقراهم    وتؤكد بأنها على انعقاد دائم وان على التجار رفض تسليم الزيادة    وسط تصاعد التنافس في تجارة الحبوب .. وصول شحنة قمح إلى ميناء المكلا    تغاريد حرة .. عندما يسودنا الفساد    كرة الطائرة الشاطئية المغربية.. إنجازات غير مسبوقة وتطور مستمر    القرعة تضع اليمن في المجموعة الثانية في تصفيات كأس آسيا للناشئين    إب.. قيادي حوثي يختطف مواطناً لإجباره على تحكيمه في قضية أمام القضاء    الرئيس المشاط يعزي في وفاة احد كبار مشائخ حاشد    محافظ إب يدشن أعمال التوسعة في ساحة الرسول الأعظم بالمدينة    عصابة حوثية تعتدي على موقع أثري في إب    الصراع في الجهوية اليمانية قديم جدا    وفاة وإصابة 9 مواطنين بصواعق رعدية في الضالع وذمار    جامعة لحج ومكتب الصحة يدشنان أول عيادة مجانية بمركز التعليم المستمر    خطر مستقبل التعليم بانعدام وظيفة المعلم    دراسة أمريكية جديدة: الشفاء من السكري ممكن .. ولكن!    أربع مباريات مرتقبة في الأسبوع الثاني من بطولة بيسان    هيئة الآثار تنشر قائمة جديدة بالآثار اليمنية المنهوبة    اجتماع بالمواصفات يناقش تحضيرات تدشين فعاليات ذكرى المولد النبوي    مجلس الوزراء يقر خطة إحياء ذكرى المولد النبوي للعام 1447ه    لا تليق بها الفاصلة    حملة رقابية لضبط أسعار الأدوية في المنصورة بالعاصمة عدن    من أين لك هذا المال؟!    تساؤلات............ هل مانعيشه من علامات الساعه؟ وماذا اعددناء لها؟    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



منها تدمير البنية التحتية وافتعال الحروب.. ما هي أسوأ سيناريوهات الذكاء الاصطناعي؟
نشر في يمن فويس يوم 13 - 06 - 2023

أصبح الذكاء الاصطناعي (AI) بسرعة جزءا لا يتجزأ من حياتنا اليومية، مما أدى إلى تغيير طريقة عملنا والتواصل والتفاعل مع العالم من حولنا. ومع استمرار تقدم الذكاء الاصطناعي وزيادة تطوره، من المهم مراعاة المخاطر والعواقب المحتملة المرتبطة بتطويره.
وفي هذه المقالة، سوف نلقي نظرة عامة شاملة على بعض أسوأ السيناريوهات التي يمكن أن تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، من احتمال أن تسبب الأسلحة المستقلة (ذاتية التشغيل) الفوضى إلى خطر تحول الذكاء الاصطناعي الخارق ضد الإنسانية، فنسلط بذلك الضوء على المخاطر المحتملة التي يجب أن نضعها في الاعتبار بينما يواصل البشر تطوير هذه التقنيات القوية والاعتماد عليها.
ومن الجدير بالذكر أنه إلى جانب الرجوع إلى المصادر المتخصصة، فقد لجأنا في إعداد هذه المقالة إلى الاستفادة من رأي الذكاء الاصطناعي نفسه بطرح السؤال على 4 تطبيقات شهيرة للذكاء الاصطناعي هي "شات جي بي تي" (ChatGPT)، "جي بي تي-4" (GPT-4)، "ساغ" (Sage)، "كلود+" (Claude+) فحذرتنا، وقدمت لنا تصوراتها عن أسوأ سيناريوهات الذكاء الاصطناعي، وأكد أحدها أنه "من المهم ملاحظة أن هذه السيناريوهات ليست تنبؤات، بل هي مخاطر محتملة يجب أن نكون على دراية بها ونعمل على التخفيف منها".
اتخاذ القرارات الحاسمة بناء على معلومات مزيفة هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلي المتقدمة، مما يؤدي إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية.
وفي سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار في مجال الأمن القومي في يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، مما قد يؤدي إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب.
سباق التسلح بالذكاء الاصطناعي عندما يتعلق الأمر بالذكاء الاصطناعي والأمن القومي، فإن السرعة هي النقطة المهمة، لكنها أيضا المشكلة. ولأن أنظمة الذكاء الاصطناعي تمنح مستخدميها مزايا سرعة أكبر فإن الدول التي تطور أولا تطبيقات عسكرية تكتسب ميزة إستراتيجية، لكن في المقابل قد يكون بهذا الأمر خطورة بالغة قد يتسبب بها أصغر عيب في النظام والذي يمكن للمخترقين استغلاله.
ففي مثل هذا السيناريو، قد تؤدي الحاجة الملحة للفوز بسباق التسلح بالذكاء الاصطناعي إلى عدم كفاية تدابير السلامة، مما يزيد من احتمالية إنشاء أنظمة ذكاء اصطناعي ذات عواقب غير مقصودة وربما كارثية.
على سبيل المثال، قد يميل قادة الأمن القومي إلى تفويض قرارات القيادة والتحكم للذكاء الاصطناعي ويلغون الإشراف البشري على نماذج التعلم الآلي التي لا نفهمها تماما، من أجل الحصول على ميزة السرعة. وفي مثل هذا السيناريو، حتى الإطلاق الآلي لأنظمة الدفاع الصاروخي التي تبدأ دون إذن بشري يمكن أن يؤدي إلى تصعيد غير مقصود وربما يؤدي إلى حرب نووية.
كما يمكن في سيناريو آخر، من خلال استغلال بعض العيوب أو الثغرات في أنظمة الذكاء الاصطناعي، شن هجمات إلكترونية تؤدي إلى تعطيل البنية التحتية الحيوية للدول المتقدمة، أو سرقة البيانات الحساسة لها، أو نشر معلومات مضللة بين السكان بهدف إحداث بلبلة واضطراب شعبي، أو حتى تضليل أصحاب القرار بمعلومات مزيفة، كما ذكرنا بالنقطة الأولى.
نهاية الخصوصية والإرادة الحرة مع كل إجراء رقمي نتخذه فإننا ننتج بيانات جديدة: رسائل البريد الإلكتروني، النصوص، ما نُحَمِّلُه من الإنترنت، المشتريات، المنشورات، صور السلفي، مواقع "جي بي إس". ومن خلال السماح للشركات والحكومات بالوصول غير المقيد إلى هذه البيانات، فإننا نسلمها أدوات المراقبة والتحكم.
ومع إضافة التعرف على الوجه، القياسات الحيوية، البيانات الجينية، التحليل التنبئي المدعوم بالذكاء الاصطناعي، فإننا ندخل منطقة خطرة ومجهولة مع تنامي المراقبة والتتبع من خلال البيانات دون أي فهم تقريبا للآثار المحتملة.
وتمتد قوة البيانات، بمجرد جمعها وتحليلها، إلى ما هو أبعد من وظائف المراقبة. فاليوم، تتنبأ الأنظمة التي تدعم الذكاء الاصطناعي بالمنتجات التي سنشتريها، الترفيه الذي سنشاهده، الروابط التي سننقر عليها. فعندما تعرفنا هذه المنصات بشكل أفضل مما نعرف أنفسنا، فقد لا نلاحظ الزحف البطيء الذي يسلبنا إرادتنا الحرة ويخضعنا لسيطرة القوى الخارجية.
فقدان السيطرة على الذكاء الاصطناعي الخارق ولعل هذا السيناريو هو الأكثر تشاؤما بينها جميعها. ويشير الذكاء الاصطناعي الخارق إلى النظام الذي يتجاوز الذكاء البشري في كل جانب تقريبا. فإذا فشلنا في مواءمة أهداف مثل هذا الذكاء الاصطناعي مع أهدافنا، فقد يؤدي ذلك إلى عواقب سلبية غير مقصودة، ويمكن لهذا أن يحدث إذا تم تصميم أنظمة الذكاء الاصطناعي بحيث تمتلك القدرة على التحسين الذاتي وأن تصبح أكثر ذكاء من تلقاء نفسها.
ويحذر بعض الخبراء من أن الذكاء الاصطناعي يمكن أن يصبح -في نهاية المطاف- متقدما لدرجة أنه قد يتفوق على البشر ويتخذ قرارات تشكل تهديدا وجوديا للبشرية سواء عن قصد أو عن غير قصد، في حال إذا لم نعد نستطيع التحكم فيه بشكل صحيح.
فأنظمة الذكاء الاصطناعي مصممة للتعلم من البيانات واتخاذ القرارات بناء عليها، وكلما أصبحت تلك الأنظمة أكثر تقدما، أمكنها تطوير أهدافها وقيمها الخاصة التي قد لا تتوافق مع أهداف وقيم البشر، وبالتالي قد تتخذ قرارات ضارة بهم أو ربما تصبح مستقلة بحيث يصعب أو يستحيل على البشر التحكم فيها أو إغلاقها.
وفي مثل هذا السيناريو المرعب قد لا يكون البشر قادرين على التنبؤ أو فهم تصرفات هذه الأنظمة الذكية، مما قد يؤدي إلى عواقب غير مقصودة.
على سبيل المثال، قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تدفق حركة المرور إعادة توجيه جميع المركبات إلى مكان واحد، مما يتسبب في حدوث ازدحام وفوضى هائلة، أو قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تخصيص الموارد أن القضاء على البشر هو الطريقة الأكثر فعالية لتحقيق هذا الهدف.
الأسلحة الفتاكة ذاتية التشغيل يمكن استخدام الذكاء الاصطناعي لتشغيل أسلحة فتاكة ذاتية التشغيل مثل الطائرات بدون طيار، أو إنشاء أسلحة مستقلة يمكنها اتخاذ قرارات بشأن من يُقتل دون تدخل بشري، وقد يؤدي هذا إلى سيناريوهات خطيرة حيث تخرج هذه الأسلحة عن السيطرة أو يتم اختراقها للاستخدام الضار.
فمثل هذه النوعية من الأسلحة قد تكون عرضة للحوادث أو اختراق القراصنة أو أي شكل آخر من الهجمات الإلكترونية، وفي حال تمكن المهاجمون من السيطرة على هذه الأنظمة، فيمكنهم، على سبيل المثال، استخدامها لإحداث ضرر واسع النطاق.
ووقع أوضح مثال على خطورة الأسلحة ذاتية التشغيل في تجربة حديثة لسلاح الجو الأميركي بتاريخ 2 يونيو/حزيران 2023، حيث قررت طائرة مسيرة (درون) تعمل بالذكاء الاصطناعي، خلال اختبار محاكاة بالولايات المتحدة، قتل مشغلها (الافتراضي) الذي كان يُفترض أن يقول "نعم" للموافقة على الهجوم على الأهداف المحددة (الوهمية) لأنها رأت أن مشغلها يمنعها من تحقيق هدفها ويتدخل في جهودها لإكمال مهمتها.
سوء الاستخدام من قبل الأنظمة الاستبدادية بات معروفا حاليا أنه يمكن استخدام الذكاء الاصطناعي للمراقبة الجماعية (أنظمة التعرف على الوجوه على سبيل المثال) وتمكين الحكومات أو الكيانات الأخرى من مراقبة مواطنيها والسيطرة عليهم على نطاق غير مسبوق. وقد يؤدي ذلك إلى فقدان الخصوصية، فضلا عن إساءة استخدام السلطة من قبل أولئك الذين يتحكمون في تقنيات المراقبة هذه وربما استخدامها لانتهاك حقوق الإنسان وغيرها من أشكال القمع.
وخير مثال على ذلك ما تتبعه سلطات الاحتلال الإسرائيلي مع الفلسطينيين في مدينة الخليل حيث تنشر كاميرات ترصد حركة ووجوه الفلسطينيين وتحفظ بياناتهم وتتعرف عليهم، فيتخذ الذكاء الاصطناعي قرارا بالسماح بمرورهم أو رفضه عند نقاط التفتيش المختلفة، أو حتى تصفية المشتبه فيهم، من دون تدخل بشري.
الإحلال الوظيفي (فقدان الوظائف واضطراب العمل) يتمتع الذكاء الاصطناعي بالقدرة على أتمتة العديد من الوظائف، مما قد يؤدي إلى اضطراب أسواق العمل وطبيعة العديد من الوظائف بشكل كبير.
فعلى الرغم من أن الذكاء الاصطناعي قد يخلف أنواعا وفرصا جديدة من الوظائف على المدى الطويل، إلا أن الفترة الانتقالية قد تكون صعبة، حيث تؤثر على ملايين الأشخاص الذين قد يجدون صعوبة في العثور على وظائف جديدة والتكيف مع الاقتصاد الجديد.
ونظرا لأن أنظمة الذكاء الاصطناعي تصبح أكثر تقدما وقدرة، فهناك خطر من أنها قد تحل محل العاملين البشريين في مجموعة واسعة من الوظائف، مما قد يؤدي إلى انتشار البطالة والاضطراب الاقتصادي.
كيفية الحد أو درء مخاطر الذكاء الاصطناعي للتخفيف من هذه المخاطر، يعمل الباحثون وصناع السياسات على تطوير طرق آمنة وموثوقة لتصميم ونشر أنظمة الذكاء الاصطناعي. ويشمل ذلك وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة.
تطوير أنظمة ذكاء اصطناعي شفافة وقابلة للتفسير
ويشير الذكاء الاصطناعي القابل للتفسير إلى قدرة أنظمة الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لعمليات صنع القرار لديها. ويمكن أن يساعد ذلك في زيادة الشفافية والمساءلة، وتقديم رؤى حول كيفية وصول نظام الذكاء الاصطناعي إلى قراراته.
تطوير أنظمة ذكاء اصطناعي تتماشى مع القيم الإنسانية
ويتضمن ذلك تصميم أنظمة ذكاء اصطناعي تمت برمجتها بشكل صريح لإعطاء الأولوية لسلامة الإنسان ورفاهيته، ولتجنب الإجراءات التي من شأنها الإضرار بالبشر. ويمكن تحقيق ذلك من خلال دمج الاعتبارات الأخلاقية في تصميم وتطوير أنظمة الذكاء الاصطناعي.
تطوير طرق للتحكم في أنظمة الذكاء الاصطناعي وإدارتها
على سبيل المثال، يستكشف الباحثون طرقًا لبناء آليات تسمح للبشر بالتدخل في عمليات صنع القرار بالذكاء الاصطناعي، أو لإغلاق أنظمة الذكاء الاصطناعي إذا بدأت في التصرف بشكل غير متوقع أو بطريقة ضارة.
التعاون متعدد التخصصات بمعالجة مخاطر الذكاء الاصطناعي
يتضمن ذلك الجمع بين الخبراء من مجالات، مثل علوم الحاسوب والهندسة والأخلاق والقانون والعلوم الاجتماعية، للعمل معا لتطوير حلول تعالج التحديات المعقدة التي يطرحها الذكاء الاصطناعي. ومن خلال العمل معا، يمكن للباحثين وصانعي السياسات فهم المخاطر المرتبطة بالذكاء الاصطناعي بشكل أفضل، ووضع إستراتيجيات فعالة لإدارة هذه المخاطر.


انقر هنا لقراءة الخبر من مصدره.