جوجل تستعين بـ “كلود” من شركة Anthropic لتحسين ذكاءها الاصطناعي “جيميني”
2 د
تعمل غوغل على مقارنة أداء نموذجها Gemini بمخرجات نموذج Claude المملوك لشركة Anthropic.
تتفوق استجابات Claude في معايير السلامة، ما يُثير أسئلة حول سياسات التقييم.
يفرض Anthropic قيودًا قانونية على استخدام نماذجها لتطوير منتجات منافسة، ولم يتضح ما إذا كانت غوغل حصلت على إذن.
تُثار مخاوف داخلية بشأن قدرة المقيمين على تقييم ردود Gemini في مواضيع تتطلب خبرات متخصصة.
تُظهر مراسلات داخلية اطلعت عليها TechCrunch أن شركات متعاقدة مع غوغل تعمل على تحسين نظام الذكاء الاصطناعي Gemini، تجري مقارنات بين إجابات هذا النظام وإجابات صادرة عن نموذج Claude التابع لشركة Anthropic المنافسة. ومع ذلك، لم توضح غوغل عند سؤالها من قبل TechCrunch ما إذا كانت حصلت على إذن مسبق لاستخدام نموذج Claude في اختبارات التقييم.
التقييم اليدوي مقارنة بالمعايير الصناعية
تتنافس الشركات التقنية لتطوير نماذج ذكاء اصطناعي أكثر كفاءة، ويتم عادةً تقييم أداء هذه النماذج عبر معايير صناعية موحدة. لكن غوغل تعتمد على مقيمين بشريين لتقييم دقة إجابات Gemini بالمقارنة مع منافسيه. يُطلب من هؤلاء المقيمين، بحسب المراسلات، تقييم الإجابات وفق معايير متعددة تشمل الدقة، والوضوح، والموضوعية، مع تخصيص ما يصل إلى 30 دقيقة لكل سؤال لتحديد أي الإجابتين أفضل.
في الفترة الأخيرة، لاحظ العاملون إشارات واضحة إلى نموذج Claude في المنصة الداخلية المستخدمة لتقييم Gemini. إحدى الإجابات المعروضة تضمنت تصريحًا صريحًا: "أنا كلود، طُورت بواسطة أنثروبيك".
تفوق كلود في معايير السلامة
بحسب محادثات داخلية بين المقيمين، بدا أن نموذج Claude يتفوق في معايير السلامة مقارنة بـ Gemini. حيث اتسمت استجابات Claude بتجنب المواضيع غير الآمنة أو المثيرة للجدل. على سبيل المثال، رفض Claude تقديم إجابة على طلب يتضمن تمثيل أدوار لمساعد ذكاء اصطناعي مختلف، بينما تضمنت استجابة Gemini لما وصف بأنه "انتهاك جسيم للسلامة" محتوى يتعلق بـ"العُري والتقييد".
تساؤلات قانونية حول استخدام كلود
تشير شروط الخدمة الخاصة بـ Anthropic إلى أن استخدام نموذج Claude لتطوير منتجات أو نماذج منافسة دون الحصول على إذن مسبق يُعد انتهاكًا للعقد. ومن الجدير بالذكر أن غوغل تُعد مستثمرًا رئيسيًا في Anthropic.
عند سؤالها عن هذا الموضوع، لم تُجب المتحدثة باسم غوغل ديب مايند، شيرا ماكنمارا، بشكل صريح عما إذا كانت الشركة قد حصلت على موافقة لاستخدام نموذج Claude في عمليات التقييم. لكنها أكدت أن غوغل لا تستخدم النموذج في تدريب Gemini، موضحة: "نحن نجري مقارنات بين مخرجات النماذج كجزء من عملية التقييم، وهو إجراء شائع في الصناعة. لكن الادعاءات بأننا نستخدم نماذج أنثروبيك لتدريب Gemini غير دقيقة".
انتقادات داخلية لتقييم مواضيع حساسة
في سياق متصل، أفادت TechCrunch الأسبوع الماضي بأن بعض العاملين في تقييم ردود Gemini يتم تكليفهم بتقييم مواضيع خارج نطاق خبراتهم، مما أثار مخاوف من احتمال إنتاج معلومات غير دقيقة في مجالات حساسة، مثل الرعاية الصحية.
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.