ما مدى صحة أداة البحث في ChatGPT؟ دراسة تكشف أخطاءها المتكررة
2 د
دراسة تكشف عن أخطاء متكررة في نسب ChatGPT Search للمصادر الإخبارية الأصلية.
يجد الباحثون أن الذكاء الاصطناعي يستشهد بمحتوى مكرر بدلاً من المصادر الأصلية.
تظهر مشكلات النسب بغض النظر عن سماح الناشرين لروبوتات OpenAI بالزحف إلى محتواهم.
تعد OpenAI بتحسين نتائج البحث لكنها تواجه صعوبات في معالجة الأخطاء الحالية.
أظهرت دراسة حديثة أجرتها جامعة كولومبيا أن أداة البحث ي تشات جي بي تي ChatGPT Search من شركة OpenAI تعاني من مشكلات خطيرة في دقة نسب المصادر الإخبارية. وقد أثار التقرير قلقًا عميقًا لدى الناشرين بشأن مصداقية العلامات التجارية وسيطرتهم على محتواهم، مما يطرح تساؤلات حول التزام OpenAI بمعايير تطوير الذكاء الاصطناعي المسؤول.
أطلقت OpenAI أداة ChatGPT Search الشهر الماضي، مدعيةً أنها تعمل بالشراكة مع صناعة الأخبار وتعتمد على ملاحظات الناشرين. لكن النتائج التي توصلت إليها دراسة مركز Tow Center للصحافة الرقمية ألقت شككت في هذه الادعاءات، مشيرة إلى أن النظام يفشل في نسبة المحتوى بشكل صحيح إلى مصادره الأصلية، حتى لو سمح الناشرون بظهور محتواهم على المنصة.
المشكلات الرئيسية التي كشفت عنها الدراسة
- من بين 200 استعلام تم تحليله، كانت 153 إجابة غير صحيحة.
- نادرًا ما اعترف الذكاء الاصطناعي بأخطائه.
- في سبع إجابات فقط، استُخدمت عبارات توحي بعدم التأكد مثل "ربما".
وجد الباحثون أن ChatGPT Search يميل إلى الاستشهاد بمقالات مكررة أو موزعة عبر مواقع أخرى بدلاً من المصادر الأصلية. على سبيل المثال، عند طلب اقتباس من مقال منشور في نيويورك تايمز (والتي تمنع روبوتات OpenAI)، أشار النظام إلى نسخة غير مرخصة منشورة في موقع آخر.
المثير للاهتمام أن حتى الناشرين الذين يسمحون لروبوتات OpenAI بالزحف إلى محتواهم، مثل MIT Technology Review، لم تُنسب إليهم الاقتباسات بدقة، حيث استشهدت الأداة بنسخ موزعة بدلاً من الأصلية.
تأثيرات العلاقة بين OpenAI والناشرين
الدراسة أوضحت أن الناشرين يواجهون مخاطر متزايدة بغض النظر عن قرارهم بالسماح أو منع روبوتات OpenAI من التغلغل:
- تمكين الروبوتات لا يضمن ظهور المحتوى بشكل صحيح.
- منع الروبوتات لا يمنع بالضرورة ظهور المحتوى.
هذه الإشكاليات تهدد بإبعاد القراء عن المصادر الأصلية وتؤثر سلبًا على سمعة الناشرين.
رد OpenAI
في ردها على التقرير، أكدت OpenAI أنها تعمل على تحسين دقة الاقتباسات وتدعم الناشرين من خلال عرض روابط واضحة وتلخيصات للمحتوى. وقال متحدث باسم الشركة:
"نساعد الناشرين في اكتشاف المستخدمين لمحتواهم عالي الجودة، وسنعمل على تحسين نتائج البحث واحترام تفضيلات الناشرين."
لكن رغم هذه التصريحات، أشارت OpenAI إلى صعوبة حل مشكلات الأخطاء المحددة في نسب المحتوى.
تثير هذه النتائج تساؤلات كبيرة حول مسؤولية OpenAI في مجال النشر. فإذا كانت الشركة تسعى لبناء شراكة حقيقية مع صناعة الأخبار، فإن الخطوة الأولى هي ضمان نسب المحتوى بدقة وشفافية. مع القضايا القانونية الجارية ضد OpenAI، يبدو أن الطريق ما زال طويلًا أمام الناشرين للحصول على السيطرة الكاملة على حقوق استخدام المحتوى. ولضمان الثقة واستمرار الاعتماد على تقنيات الذكاء الاصطناعي في الصحافة والنشر، يتعين على OpenAI أن تثبت التزامها بمعايير الصحافة المسؤولة وتقديم حلول ملموسة.
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.