Netflix

من الهندسة الحيوية إلى الذكاء الاصطناعي .. كيف يمكننا النجاة في هذا العالم الجديد؟

مصطفى أبو المجد
مصطفى أبو المجد

7 د

"الذكاء الاصطناعي" هي واحدة من بين أكثر الكلمات بحثًا في محركات البحث خلال السنوات الأخيرة، وهذا يشير إلى أن موضوع الذكاء الاصطناعي يعد أحد أكثر المواضيع إثارةً للجدل في الفترة الأخيرة، نتيجة التباين الواضح في وجهات النظر حوله بين المؤيدين والمعارضين.

فهل سيصبح الذكاء الاصطناعي بديلًا للإنسان في مختلف الصناعات والحرف؟ وهل سيصبح الذكاء الاصطناعي أكثر كفاءة من البشر في يوم ما؟ وهل ستظل هذه التساؤلات مفتوحة للنقاش حتى فيما يتعلق بإجابتها؟ 


ماذا عن الثورات الصناعية؟ 


في عام 1965 توقع مؤسس شركة إنتل جوردون مور توقعًا استمر لمدة ستة عقود، هذا التوقع يشير بأن عدد الترانزستورات على شريحة الدوائر الرقمية سيتضاعف كل عامين، مما يؤدي إلى نمو هائل في السرعة والقدرة، حتى وإن انخفضت تكلفة الآلات.

وأُطلق على هذا التوقع اسم "قانون مور" وبعد عقود ومع تنامي الاهتمام الفعلي بالحوسبة الذكية، قدم الباحث في مجال الذكاء الاصطناعي إيليزر يودكوفسكي تفسيرًا مشئومًا له، وسماه "Moore’s Law of Mad Science" يُشير هذا القانون إلى الآتي "كل 18 شهرًا، ينخفض الحد الأدنى للذكاء الذي يمكن أن يدمر العالم نقطة واحدة."

لأسباب واضحة يُعد هذا التصريح مثير للجدل بين خبراء التكنولوجيا، ويخلق موجة غير ضرورية من الخوف، أو الدعوة إلى إغلاق كامل لتقنيات الذكاء الاصطناعي.

بصراحة من السهل أن نرى من أين جاءت مخاوفه، في القرون القليلة الماضية وحدها انتقلنا من بنادق المسدسات إلى الأسلحة التلقائية، ثم إلى القنابل النووية والضربات بالطائرات بدون طيار، فالحروب الآن تُقاتل حرفيًا بواسطة أجهزة تحكم Xbox.

ثم يأتي الذكاء الاصطناعي على عكس البنادق أو القنابل، فهذه تكنولوجيا لها القدرة على فتح مستقبل أفضل وأكثر إشراقًا، وسوف تحدث ثورة في كل شيء من منع أزمة المناخ إلى تطوير الأدوية، ومع ذلك كما يحذرنا يودكوفسكي وغيره الكثير من العلماء يمكن  أن يجعل البشر عديمي الجدوى، وفي أسوأ الحالات يمكن أن يقضي علينا تمامًا.


ما هي المخاطر المترتبة عن التكنولوجيا الذكية في الوقت الحالي؟


غيّر الذكاء الأصطناعي العديد من الاحتياجات الخاصة بالبشر، وأدى ذلك إلي جعل أكثر مستخدمي وسائل التواصل الاجتماعي أو الذكاء الأصطناعي في حالة من القلق الزائد حول هذه المسألة، وذلك الذي أدّى إلى اقتراح بعض الحلول الممكنة للسيطرة على ذلك التطور ومن ضمن تلك الاقتراحات هي "إطفاء جميع وسائل الذكاء الاصطناعي".

لم ولن يكون هذا الحل قابل للتطبيق، لأن وكما تحدثنا من قبل أن الذكاء الأصطناعي قد جاء لمساعدة البشر لا لاستبدالهم، وأيضًا النظريات المتشائمة التي طُرحت من قبل والتي ستطرح فيما بعد لا يدعو لنسيان أثر الذكاء الاصطناعي الإيجابي على حياتنا، ولكن كان الحل الأفضل هو "تقليل اضطراب هذه الموجة شديدة الاضطراب بدلًا من ازالتها تمامًا." 


هل يمكننا فعلًا "احتواء هذه الموجة"؟


أعلنت حكومة المملكة المتحدة مؤخرًا عن قمة دولية لسلامة الذكاء الاصطناعي، وتناقشت فيه حول أهمية الذكاء الاصطناعي مع التحقق من جوانبه السلبية والإيجابية، ونظرت إلي مسألة احتواء أضرار الذكاء الاصطناعي على أنها ليست المهمة الوحيدة التي أمامها وإنما مهمتها أيضًا هي توعية الأجيال القادمة حول ذلك الخطر الذي يمكن أن ينتج عن الذكاء الاصطناعي وهذا لن يكون كافيًا في حد ذاته، ولا تكفي قمة واحدة أو تشريع واحد لتحقيق الاحتواء، أو مهمة الحفاظ على السيطرة على التكنولوجيات الرائدة مثل الذكاء الاصطناعي.

من خلال مؤتمر مثل قمة سلامة الذكاء الاصطناعي، الذي ينبغي لنا أن نشيد به وندعمه، مع الاعتراف أيضًا بأنه لن يرقى أي حدث أو إجراء على الإطلاق إلى مستوى "إنجاز مهمة " فقط بالجهد المستمر على كل المستويات، بدءًا من الأفراد في الشركات وحتى المعاهدات الدولية والحركات العالمية، يمكننا حقًا معالجة المشكلات، وحتى في هذه الحالة لا يكون هذا حلًا أنيقًا ودائمًا، ولكنه شيء يحتاج إلى العمل باستمرار، الأمان هنا ليس وجهة، بل هو طريق يجب أن نستمر في السير فيه، ومؤتمر قمة السلامة هي البداية.


لماذا نعتقد أن ادعاءات الفناء أكثر مصداقية هذه المرة؟

نقطة التحول الحاسمة هنا كانت عدة اختراعات كانت بالفعل خيال في القرون الماضي، وفي هذا القرن الذي أكد العلماء أنه صاحب الإنتاجية الأكثر على مر العصور.

"التكنولوجيا الحيوية" عندما يتعلق الأمر بتطبيق بعض الإجراءات على البشر كانت مجرد اجراءات بدائيه ولم يفكر أحد من العلماء في القرون الماضية في أن يخترق أحد الذرات ويخرج منها "الحمض النووي البشري" لكي يجري عليه بعض التعديل.

وأيضًا القنبلة النووية التي صنعت واُستخدمت بالفعل ، عند تلك النقطة تجاوز الأمر مجرد الاعتقاد، أصبحت إمكانية الإبادة حقيقة واضحة، وهذا ما تغير نحن الآن نبني تقنيات ذات قوة هائلة لتغيير العالم، إنها تتطور بسرعات لا تصدق وبقدرات لا يزال بإمكاننا تخمينها فقط.

هذا ليس خيالًا علميًا بل هو برنامج بحثي نشط، ومع ذلك مع أشياء مثل الذكاء الاصطناعي والتكنولوجيا الحيوية لا يعني ذلك أننا نقف على حافة الهاوية الآن، بل إنهم يستطيعون في النهاية أن يقودونا نحو ذلك، وعلينا أن نكون مستعدين، فالتحدي الأساسي هو ضمان عدم حدوث ذلك.


لماذا نعتقد أن الذكاء الاصطناعي والهندسة الحيوية محركين لهذا العصر؟


 إنها أكثر التقنيات ذات الأهداف العامة التي يمكن تخيله، إذ تتناول الركيزتين الأساسيتين لجنسنا البشري الذكاء والحياة، فكل شيء في عالمنا البشري ينبع من هاتين الخاصيتين، وبالتالي فإن أي شيء يجمع أي من الخاصيتين، ويسمح لهم بالتحكم فيهما على مستوى جديد، لا بد أن يكون من بين أهم الاختراعات في التاريخ.

بمجرد أن تبدأ في فحص المسارات ونطاق حالات الاستخدام لهاتين التقنيتين، فمن الواضح أنهما سيشكلان المستقبل بطريقة عميقة، ويزداد استخدام تقنيات الهندسة الحيوية على مدار الوقت مثل الهندسة الوراثية (Genetic engineering)، والاستنساخ (Cloning)، والعلاج الجيني (Gene therapy)، وعلاج الخلايا الجذعية (Stem Cell Therapy)، والوقود الحيوي (Biofuel) وغيرها من التطبيقات العديدة التي تساعد على تجاوز العديد من الأمراض أو علاجها مؤقتًا حتى يصل الوقت المناسب الذي يمكننا فيه صناعة دواء لهذا الداء، وكذلك أدوات الذكاء الأصطناعي التي تطورت في وقتنا الحالي وأصبحت أشمل وأكثر فاعلية من السابق. 


وسائل التواصل الاجتماعي وخطورتها على البشر


من السهل تسليط الضوء على جميع مشكلات وسائل التواصل الاجتماعي ونسيان كل الخير الذي يأتي منها، وكل الذكريات المشتركة، والمعرفة المكتشفة، والعلاقات التي تكونت، فلا أعتقد أن أي عملية حسابية بسيطة يمكن أن تنصف مدى تعقيد ما يحدث، والأمر نفسه ينطبق تمامًا على الذكاء الاصطناعي، فإن القول بأنها "جيدة" أو "سيئة" يُخطئ في فهم مدى تأثير التكنولوجيا ودقتها.

ما يمكننا أن نتعلمه من وسائل التواصل الاجتماعي، وتاريخ التكنولوجيا على نطاق أوسع هو أن التكنولوجيات تنتشر دائمًا على نطاق واسع، ويريد الناس هذه الأدوات، فهي تدفع الاستخدام والتطوير مما يجعلها أكثر سهولة في الوصول إليها، وتحفز المزيد من الاستخدام باستمرار، وهذا نمط متأصل للغاية مع عدد قليل جدًا من الأمثلة المضادة، فإنه يُشير إلى أننا لا نستطيع إيقاف هذه الموجة الجديدة تمامًا كما لم نتمكن من إيقاف الموجات السابقة.


هل كان من الخطأ تسريع أبحاث الذكاء الاصطناعي؟


لكي نجاوب علي هذا السؤال بدقة يجب علينا أن نطرح سؤال آخر وهو"ما هي المخاطر الناجمة عن عدم تطوير الذكاء الاصطناعي؟" وهذا يجعلنا داخل دائرة التساؤلات التي ستدور.

لنضرب مثال على ذلك "جائحة كورونا" التي امتدت لعامين كاملين والتي لا نزال نعاني منها حتى الآن، فهل كانت توجد إمكانية لإحصاء عدد المرضى أو فرق التدخل السريع أو خدمات التطوع عالميًا، أو أدوات مساعدة المرضى داخل الحجر الصحي، أو حتى التواصل مع المرضى داخل الحجر الصحي من حيث الاطلاع على نتائجهم الحيوية وغير ذلك كثير من الأمثلة التي لا يمكن التعامل معها إلا عن طريق الذكاء الاصطناعي.


لماذا نعتقد أنه من الصعب للغاية تصور مستقبل أكثر إيجابية للتكنولوجيا الجديدة؟

كان من الغريب في القرن التاسع عشر حتى منتصف القرن العشرين أن تكون لدينا نظرة سلبية للتكنولوجيا فقط، والتغير الحادث يرجع إلى الوعي المتزايد بالجوانب السلبية التي تأتي مع ثورة التكنولوجيا الجديدة، والنضج المكتشف حديثًا، وفهم كيفية تأثيرها في سلسلة من العواقب غير المقصودة.

ذو صلة

على نطاق واسع وهذا أمر جيد، من الصحيح تمامًا أن يتحمل خبراء التكنولوجيا المسؤولية، وأن تُطبق إجراءات التخفيف منذ البداية، ولكن تحديد المشاكل أسهل من الحلول، وهذا هو ما نحن فيه الآن.

في نهاية المطاف، يظهر الطريق إلى مستقبلنا أوضح عندما نفهم تأثيرات التكنولوجيا الجديدة ونتعلم كيفية التفاعل معها بحكمة، ومع الأخذ في الاعتبار أهمية الرؤية الإيجابية المتوازنة للمستقبل، يجب أن تكون نظرتنا إلى الجوانب الإيجابية بجانب التحذير من التحديات، ويبقى لنا أن نكون مستعدين لاستكشاف هذا العالم الشيق، والبحث عن الطرق التي ستمكننا من البقاء والازدهار فيه.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة