من الحروب والأوبئة إلى الذكاء الاصطناعي.. عالمنا على حافة الهاوية وقادة التكنولوجيا يطلقون صفارات الإنذار
5 د
في هذا العالم الذي يتسم بالسرعة المتزايدة والتعقيد اللامحدود، تتزاير الألغاز التي تهدد استمرار البشرية. من المعارك والأوبئة التي شهدناها منذ العصور القديمة، إلى الأخطار المعاصرة كالتغير المناخي وتهديد التنوع البيولوجي، والآن تطور الذكاء الاصطناعي وخطر استبداله بالبشر. إذ أصبحت التهديدات أكثر قوة وتأثيرًا على مستوى العالم. وفي الوقت الذي نركّز فيه على الأزمات الحالية، قد تتجلى تهديدات جديدة وغير متوقعة بسرعة خارقة. لذا يجب علينا التعامل مع التحديات القديمة والجديدة بحكمة وشجاعة.
الحروب والأوبئة.. التحديات التاريخية للبشرية
واجهت البشرية العديد من الأخطار مثل الحروب والأوبئة التي شكلت تحديات كبيرة على مدى التاريخ. فقد أدت الحروب إلى دمار هائل وفقدان للأرواح، وفرضت ضرورة البحث عن حلول سلمية والعمل على الحفاظ على السلام العالمي. ومن ناحية أخرى، الأوبئة العديدة مثل؛ الطاعون والإنفلونزا وأخيراً جائحة كوفيد-19، أعادت تشكيل البشرية وحددت كيفية التعامل مع الأمراض الوبائية.
من الدروس التي استخلصتها البشرية من هذه التجارب الصعبة هي أهمية الاعتراف بالمشكلات والتهديدات المحتملة في مراحلها المبكرة، والتعاون الدولي في التعامل معها، والاستثمار الكبير في الأبحاث العلمية والتكنولوجيا للتأكد من أننا مجهزون بشكل أفضل للتعامل مع التحديات المستقبلية. من خلال الاعتبار لهذه الدروس، إذ يمكن للبشرية الاستعداد بشكل أفضل للتهديدات المستقبلية، بما في ذلك الأخطار التاجمة عن تقدم الذكاء الاصطناعي.
التهديد القادم.. خطر الذكاء الاصطناعي
تتواصل التقنيات الحديثة في الارتقاء بسرعة غير مسبوقة، وقد تصدّر الذكاء الاصطناعي (AI) الواجهة كمصدر آخر للقلق العالمي. إذ يعتبر الكثيرون الذكاء الاصطناعي مجالًا متقدمًا ومتجددًا للابتكار، إلا أن البعض الآخر ينظر إليه على أنه تهديد للبشرية. وخطره المحتمل يتجلى في العديد من الأشكال مثل؛ التأثير على سوق العمل والخصوصية، إلى تضخم الأخبار الكاذبة والتحيز. وأكثر السيناريوهات السوداوية هي تجاوز الذكاء الاصطناعي البشرية في الذكاء وعدم القدرة على السيطرة عليه.
جدية هذه الخطورة ليست واضحة في الوقت الحالي. لكن رد الفعل الأمثل لهذا التهديد هو الاستثمار في البحث والمناقشات حول القضايا الأخلاقية والأمنية المرتبطة بالذكاء الاصطناعي، وتطوير القواعد الأخلاقية والقانونية للتحكم في استخدامه، بالإضافة إلى تعزيز الشفافية في البحث والتطوير. وكل ذلك من أجل تجنب السلبيات المحتملة.
قادة الذكاء الاصطناعي يحذرون من خطر وجودي قد يهدد البشرية
طُرح بيانًا يرفع منسوب النقاش حول المخاطر المحتملة للذكاء الاصطناعي من قبل سام ألتمان _الرئيس التنفيذي لشركة OpenAI _ مع أكثر من 350 من الرؤساء التنفيذيين والباحثين والمهندسين العاملين في تطوير الذكاء الاصطناعي مثل؛ ديميس حاسابيس و داريو أمودي، وهم على التوالي الرؤساء التنفيذيين لـ OpenAI و جوجل وDeepMind و Anthropic. يتضمن البيان أيضا تواقيع من خبراء من جوجل ومايكروسوفت، بالإضافة إلى علماء الحاسوب يوشوا بنجيو و جيوفري هينتون الذين يعتبران رواد في هذا المجال.
وفي حدث لافت للنظر لم يوقع البيان من قبل القادة التنفيذيين لـ Meta، اللاعب القوي في مجال الذكاء الاصطناعي والشركة الأم لـ Facebook و WhatsApp و Instagram، حسبما قال مركز السلامة من الذكاء الاصطناعي.
تشير الرسالة العلنية من مركز السلامة أن الذكاء الاصطناعي يمكن أن يشكل تهديدًا وجوديًا مشابهًا للأوبئة والحروب النووية، مما يجعل السلامة من الذكاء الاصطناعي قضية هامة لقادة الشركات الذين يدمجون الذكاء الاصطناعي في منظماتهم.
يضيف هذا البيان القاسي الذي أيده السيد ألتمان وغيره من المطورين بُعدًا جديدًا إلى النقاش الجاري حول المخاطر المحتملة للذكاء الاصطناعي والحاجة إلى تنظيم فعال.
— "يجب أن يكون التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية جنبًا إلى جنب مع الأخطار الأخرى على مستوى المجتمع، مثل الأوبئة والحرب النووية"
أصدرت الرسالة العلنية في 30 مايو بيانًا يقول:
تواجه الشركات بالفعل تحديات في تكامل تكنولوجيا الذكاء الاصطناعي بسبب المخاطر المعروفة مثل انتهاكات الخصوصية، والمعلومات الخاطئة، والتحيز العنصري. ومع أن الذكاء الاصطناعي يقدم فرصًا كثيرة، إلا أن السرعة الهائلة في تطور الذكاء الاصطناعي تثير قلقًا حول قدرته المحتملة على تجاوز القدرات البشرية في بعض المجالات.
العمل العالمي لمواجهة التحديات القادمة
يؤكد دان هندريكس، مدير مركز السلامة من الذكاء الاصطناعي، أن "تخفيف خطر الهلاك من الذكاء الاصطناعي سيتطلب عملاً عالمياً"، مشيراً إلى الحاجة لمستوى مماثل من الجهد والتنسيق لمواجهة المخاطر المستقبلية للذكاء الاصطناعي بشكل فعال.
أولًا: وقبل كل شيء، يجب أن نطور أطر أخلاقية وقواعد عالمية تحكم استخدام الذكاء الاصطناعي. فالمراقبة غير المبررة، والتلاعب بالمعلومات، والتطبيقات العسكرية الخطيرة للذكاء الاصطناعي هي مجرد بعض السيناريوهات التي يجب تجنبها. وبالتالي فإن العمل المشترك للتوصل إلى معايير أخلاقية عالمية سيساعد في التأكد من استخدام الذكاء الاصطناعي للنفع العام، بدلاً من تسببه في الأذى.
ثانياً: يجب على المجتمع العالمي أن يتعامل مع الأثر الاقتصادي للذكاء الاصطناعي. إذ يمكن للأتمتة الواسعة النطاق أن تؤدي إلى فقدان وظائف بشرية، ومن هنا يتطلب الأمر تطوير برامج تعليمية وتدريبية جديدة لمساعدة العمال على التكيف مع الاقتصاد الجديد.
أخيرًا: يتطلب التعامل مع التحديات المرتبطة بالذكاء الاصطناعي التعاون الدولي في البحث والتطوير. إذ يجب على البلدان العمل معًا لتقاسم المعرفة والأفكار والابتكارات، وبذلك يمكنها الاستفادة المشتركة من هذه التكنولوجيا المتقدمة، مع التأكد من مواجهة التحديات الأخلاقية والاقتصادية والأمنية المرتبطة بها بشكل فعال ومسؤول.
تذكرنا القضايا الحديثة مثل التغير المناخي وجائحة الكورونا بأن البشرية قادرة على التعامل مع التهديدات الكبرى بشكل جماعي. لذا يجب أن نتعلم من هذه الأمثلة ونطبق الدروس المستفادة في التعامل مع التحديات المستقبلية للذكاء الاصطناعي. إذ يتطلب الأمر تغييرات كبيرة في كيفية تعاملنا مع التكنولوجيا، لأن الإمكانيات الهائلة للذكاء الاصطناعي تعزيز الجهود للحفاظ على السلامة والأمن لضمان مستقبل آمن ومزدهر.
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.