الذكاء الاصطناعي سوف يدمر الإنترنت .. كيف يمكن أن يحدث ذلك؟
8 د
قد تبدو عبارة أن الذكاء الاصطناعي سوف يدمر الإنترنت سوداوية بعض الشيء، لكن رغم الفوائد الفعلية التي نراها عند استخدام الذكاء الاصطناعي في بعض المجالات، إلا أنه يبدو أن تأثيره على الإنترنت سوف يكون مدمرًا فعلًا، وهذا وفقًا لآراء خبراء إنشاء المحتوى ومطوري البرامج والمختصين بإجراءات الحماية والأمان عند تصفح الإنترنت، أو القيام بالمعاملات المالية من خلاله.
فكيف سوف يحدث هذا السيناريو وهل توجد أي وسائل مضمونة لتجنب هذا التأثير السيء على وسيلة اتصال أصبحت هي المسيطرة تمامًا على مستوى العالم؟
روبوتات الذكاء الاصطناعي وإعاقتها لدخول البشر إلى المحتوى المفضل
نعم، فبعد عامين فقط من إطلاق Chatgpt والنسخ الأخرى من روبوتات الذكاء الاصطناعي أصبح دخول البشر للكثير من المواقع أصعب بكثير من أي وقت سابق، فبالتأكيد لاحظت اختبارات التحقق من كونك بشريًا ولست روبوتًا، ومع كونها موجودة من التسعينات تقريبًا مع ابتكار أكواد الكاباتشا CAPTCHA وهي تسلسل رقمي أو بالأحرف لإثبات هويتك البشرية ومنع الروبوتات من تنفيذ أنشطة غير مقبولة سواء التعليق أو الزيارات الوهمية أو حتى التسلل للبيانات، ومع كون هذه الاختبارات كانت ولا تزال مزعجة بشدة إلا أن تطور الذكاء الاصطناعي جعل هذه الاختبارات أكثر صعوبة بكثير وتثير الغضب فعليًا.
فمثلا عند الدخول إلى موقع HBO Max في نهاية شهر مايو، وبدلًا من اختبارات الكاباتشا المزعجة البسيطة، وجد المستخدمون أنفسهم أمام سلسلة معقدة من الألغاز والمهام الغريبة مثل الاستماع إلى مقاطع صوتية وانتقاء المقطع المتكرر، أو إضافة نقاط إلى صور النرد وغيرها مما أثار الكثير من الاستياء والتساؤلات عن سبب هذه المهام المعقدة.
وهذا في الواقع يحدث لعدة أسباب تتعلق كلها بالذكاء الاصطناعي، فبدءًا من الحاجة إلى تدريبه على طريقة تصرف البشر أمام المهام المختلفة ليقلدها، مرورًا بالرغبة في منعه من جمع البيانات، وانتهاءً باحتياج الموقع الإلكتروني إلى التأكد من هوية زائريه والمتفاعلين معه، الذين أصبح تحديدهم صعبًا للغاية مع تدريب نماذج الذكاء الاصطناعي على أكواد الـ CAPTCHA وقدرتهم المتزايدة على خداعها.
لذلك يؤدي الذكاء الاصطناعي الآن وبالفعل وبعد عدة أشهر فقط من إطلاقه إلى إعاقة وصول البشر العاديين للمحتوى على الإنترنت، وإذا استمر هذا الحال فسوف يبحث المستخدمون عن بدائل أخرى للتواصل والترفيه كما هُجرت وسائل أخرى فيما مضى مما يجعل الذكاء الاصطناعي الآن وقبل تطوره بالكامل كابوسًا للإنترنت.
انتشار فيروسي للمحتوى المشكوك فيه
منذ إنشاء الإنترنت وهو يواجه اتهامات بالمحتوى غير الموثوق، ومع وجود قواعد السيو والتقييمات المتنوعة من جوجل ومحركات البحث بدأ الأمر يتراجع قليلًا، مع عدم السماح للمواقع غير الموثوقة بالظهور، ولكن يبدو أن الأمر سوف يتدهور من جديد.
فقد وجدت شركة NewsGuard المسؤولة عن تعقب المعلومات الخاطئة مع تصنيف مصداقية المواقع، نحو 350 صفحة إخبارية على الإنترنت أنشأها الذكاء الاصطناعي بالكامل سواء مع القليل من الإشراف البشري أو من دونة على الإطلاق، والتي تنشر محتوى غير جدير بالثقة على الإطلاق، وضربت أمثلة بمواقع مثل Biz Breaking News and Market News Reports والتي تنشر مجموعة متنوعة من المقالات والقصص الإخبارية في مجالات الاقتصاد والسياسة والسفر والتكنولوجيا وغيرها، ولكنها مليئة بالمغالطات والادعاءات ونظريات المؤامرة والخداع وغيرها.
ويؤكد جوردون كروفيتز الرئيس التنفيذي المشارك في NewsGuard أن روبوتات الذكاء الاصطناعي سوف تكون أكبر مصدر للمعلومات المُضللة في تاريخ الإنترنت، ومع التقرير الصادر على يوروبول -وكالة تنفيذ القانون في الاتحاد الأوروبي- فإنه يؤكد أن نحو 90% من محتوى الإنترنت سوف يكون بواسطة الذكاء الاصطناعي خلال عدة سنوات، لذلك من الضروري ضبط هذه الروبوتات الآن، ووضع طرق حماية لها لانتقاء المعلومات المُضللة، وإلا سوف ينتهي أمر الإنترنت تمامًا.
تدمير مواقع المجتمعات البشرية
نجد بعض المواقع التي تعتمد على المتطوعين والتفاعل الاجتماعي الكبير مثل Reddit تتعرّض إلى تسلل كبير من روبوتات الذكاء الاصطناعي للحصول على البيانات الهائلة من التفاعل البشري واستخدامها في تدريب تلك الروبوتات، مما جعل موقع ريديت والذي اُعتبر لسنوات طويلة الصفحة الأولى غير الرسمية للإنترنت، يضطر إلى فرض رسوم باهظة للوصول إلى بياناته، مما أدى إلى شهر من الإضرابات والاحتجاجات في مجتمع ريديت ولكن دون جدوى، مما يهدم الأساس الذي أُنشأ عليه الموقع من سهولة التفاعل وإقامة المجتمعات والتحقق من البيانات سواء عبر آلاف وملايين المتطوعين، أو عبر تطبيقات الطرف الثالث مثل أبولو Apollo والذي اضطر للإغلاق بالفعل نتيجة سياسة Reddit الجديدة، إذ اعتمد مستخدمو ريديت على تطبيقات مثل Apollo للتحقق من موثوقية البيانات والمعلومات وضبط غرف الدردشة وغيرها.
كما أن موقع آخر مثل Stack Overflow وهو متخصص في الأسئلة والإجابات التقنية تعرّض إلى هبوط مفاجئ في يونيو مما أدى بشركة Prosus المسؤولة عنه للسماح بإجابات مُنشأة بواسطة الذكاء الاصطناعي مع فرض رسوم أيضًا على شركات الذكاء الاصطناعي للوصول إلى بياناتها، مما أدى بأكبر الوسطاء والمتفاعلين على الموقع للإضراب باعتبار أن المحتوى منخفض الجودة، والذي أنشأته الروبوتات يتعارض مع الهدف الأساسي للموقع ألا وهو أن يكون منصة متكاملة لمحتوى من الأسئلة والإجابات عالية الجودة.
الاحتيال أصبح أكثر سهولة بكثير
خلال سنوات قليلة للغاية سوف يؤدي الصعود شديد السرعة للذكاء الاصطناعي إلى فرض مجموعة كبيرة من التحديات أمام عوامل الأمان والخصوصية، وسوف يكون من المستحيل تقريبا اكتشاف عمليات الاحتيال عبر الإنترنت والتي تزايدت بنسبة 135% منذ نوفمبر 2022، وهذا لأن الذكاء الاصطناعي سوف يكون قادرًا على التكيف التام مع كل هدف.
فقد وجد جون ليكاتو أستاذ علوم الكمبيوتر في جامعة جنوب فلوريدا أنه سوف تُنفذ عمليات الاحتيال بدقة شديدة وفقًا لميول الفرد وسلوكياته بناءً على عدد قليل للغاية من المعلومات سواء الموجودة على مواقع الويب التي يزورها، أو على ملفه الشخصي في وسائل التواصل الاجتماعي.
ومن أهم المخاوف على الإطلاق تلك التي ينتحل فيها الذكاء الاصطناعي صفة هيئات مثل البنك الذي تتعامل معه مثلًا، فسوف تكون تلك الروبوتات قادرة على إنتاج نصوص فائقة الجودة ورسومات تجعل العميل متأكدًا أنه يتحدث بالفعل مع أحد مسؤولي البنك، كما يمكن التسلل إلى البريد الإلكتروني وكشف كلمات السر وحتى الاحتيال على الأشخاص بانتحال صفة أحد من الأقارب أو المعارف أو الأصدقاء المقربين.
فإذا كان المتسللون الآن يضطرون للقيام بمهام معقدة للتسلل إلى البيانات فإن الأمر يُصبح أكثر سهولة بسرعة شديدة، فنظرًا لأن نماذج OpenAI و Google تزحف بنشاط إلى مواقع الويب فإنه يمكن للقراصنة إخفاء الرموز الضارة بل قد تجعل تلك الروبوتات تنفذ بمهام من أجل القراصنة دون تدخل بشري، فيطلب منك تفاصيل بطاقة الائتمان دون أن تشك في أنك تتعامل مع الموقع نفسه أو شخص موثوق.
وكل هذا سوف يزيد بشدة من مخاطر الدخول على الإنترنت، ففي عصر تحاول جميع الدول الاتجاه للتجارة الإلكترونية، وتقليل التبادل النقدي والعمل عن بُعد، فإن هذه المخاطر المتجددة يوميًا سوف تعيق هذا الأمر بشدة، خصوصا مع قدرة الروبوتات على التسلل لكل شيء سواء مواقع المشتريات والبريد الإلكتروني والتقويم لمعرفة جدولك وغيرها من أمور قد تدمر حياتك بشدة مما قد تضطر معه للتوقف تمامًا عن استخدام الإنترنت.
إنترنت غير ذي جدوى في جمع المعلومات
إذا كان الإنترنت الآن هو الوسيلة الأولى للاتصال واستقاء المعلومات والأخبار والترفيه وغيرها، فإن الشك والتضليل في كل شيء وعدم القدرة على التعرف على من أنشأ المحتوى الذي تقرأه وتستمتع إليه، أو مع من تتحدث هل صديقك أو قريبك أو مجرد روبوت فإن هذا سوف يؤدي في الأغلب إلى تراجع حاد في الاعتماد على الإنترنت، إلا إذا كانت الميول الغريبة ستؤدي بالناس للدخول في علاقات مع الروبوتات.
ويزداد الأمر صعوبةً مع اتجاهات الشركات التقنية الكبرى مثل جوجل ومايكروسوفت في اعتماد المحتوى المُنشأ بواسطة الذكاء الاصطناعي، أو الملخصات التي يُصدرها من المواقع الإلكترونية المختلفة، فعندما تبحث عن أي شيء وبدلًا من ظهور عدة مواقع موثوقة لك فسوف تظهر ملخصات من عمل الذكاء الاصطناعي لا تعلم بالضبط أيها حقيقي أو صحيح، مما سوف يقلل بالطبع من اعتماد الأشخاص على الإنترنت كوسيلة للمعلومات.
تدمير الذكاء الاصطناعي للتجارة الإلكترونية
أدى المحتوى غير الموثوق إلى إغراق منصات مثل أمازون Amazon وإستي Etsy بمنتجات غير موثوقة تتعلق الآن بشكل أكبر بالمحتوى مثل الكتب، فمثلا اكتشفت الكاتبة المخضرمة جين فريدمان مجموعة كُتب منشورة باسمها على منصة أمازون ولكنها في الواقع من تأليف الذكاء الاصطناعي واستخدم أشخاص اسمها لتحقيق المبيعات.
كما تعرّض كريتوفر كويل وهو مهندس مناهج دراسية في بورتلاند لأمر مُشابه عندما أصدر كتاب تقني ليُفاجأ بالعنوان نفسه موجود على أمازون بعد أسبوعين ولكن مع محتوى أنشأه الذكاء الاصطناعي.
فإذا كان هذا التقليد ينتشر الآن فيما يتعلق بالمحتوى فليس من المستغرب أن ينتقل سريعًا إلى كل أنواع المنتجات الأخرى على المواقع الإلكترونية، والتي يبدو أنه من السهل للغاية التسلل إليها، وعرض بضائع تبدو أصلية تمامًا مع صعوبة متزايدة في كشفها.
هل هناك طرق لمقاومة سيطرة الذكاء الاصطناعي على الإنترنت أو تقليل تأثيره؟
حتى الآن لا يتمتع المحتوى المُنشأ بواسطة الذكاء الاصطناعي بجمهور كبير لما يوجد به من أخطاء، ولعدم تطويره بصورة تُنافس البشر فعليًا، إلا أن صعود هذا المحتوى بسرعة وانتشاره خصوصًا على مواقع التواصل الاجتماعي مثل منصة X (تويتر سابقًا) وفيسبوك وغيرها يوحي بصعوبة شديدة في السيطرة عليه خصوصا مع تعلمه المستمر من أخطائه، وتحسنه المستمر في تقليد البشر والتهرب من أنظمة الكشف التي تطورها بعض المواقع.
إلا أنه من المفيد في الأمر بعض الشيء، والذي قد يكبح جماح الذكاء الاصطناعي هو حاجته المستمرة إلى البشر للتعلم، فالذكاء الاصطناعي الآن ماهر لأنه يتدرب على طريقة تعامل البشر، ولكن عندما يسيطر المحتوى المُنشأ من الروبوتات فإن قدرة الإصدارات الجديدة على التعلم سوف تتراجع بشدة وسوف تكون أقل كفاءةً.
يقول توبي والش أستاذ الذكاء الاصطناعي في جامعة نيو ساوث ويلز أن تدريب نماذج الذكاء الاصطناعي الجديدة على بيانات أنشأتها نماذج قديمة من الذكاء الاصطناعي سوف يؤدي إلى تدهورها وانهيارها بسرعة.
فهل بالفعل الذكاء الاصطناعي يمكن أن يدمر الإنترنت تمامًا؟ أم سوف نجد علاجًا سريعًا لتلك المشكلات والتي إذا استمرت سوف تدمر قدرة الذكاء الاصطناعي نفسه على التطور أيضًا؟
لذلك فحتى الآن لا يزال الإنترنت وروبوتات التسلل والذكاء الاصطناعي في حاجة شديدة إلى البشر، فهل سوف يستمر الأمر طويلًا أم سوف تظهر مفارقات أخرى؟
وهل إذا انتهى عصر الإنترنت فهل سوف نعود إلى الكتب الورقية ووسائل الاتصال القديمة من جديد، أم سوف نجد طرق أخرى، أم هل سنرضى بالتفاعل مع الروبوتات والمحتوى المُنشأ بواسطتها؟
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.