أثار المبدأ التوجيهى الداخلى الجديد الذى تم تمريره من جوجل إلى العاملين في Gemini، العديد من المخاوف من أن يكون Gemini، محرك رئيسى لنشر معلومات غير دقيقة حول موضوعات شديدة الحساسية مثل الرعاية الصحية للمستخدمين.
وتكمن المخاوف فى أن Gemini يُطلب بشكل روتينى من المتعاقدين الذين يعملون مع شركة جلوبال لوجيك، وهى شركة الاستعانة بمصادر خارجية مملوكة لشركة هيتاشى، تقييم الاستجابات التى يولدها الذكاء الاصطناعي وفقا لعوامل مثل "الصدق".
فى البداية، كان هؤلاء المتعاقدون حتى وقت قريب قادرين على "تخطي" بعض المطالبات، وبالتالى إلغاء الاشتراك فى تقييم الاستجابات المختلفة المكتوبة بواسطة الذكاء الاصطناعي لتلك المطالبات، إذا كانت المطالبة خارج نطاق خبرتهم، وعلى سبيل المثال، يمكن تخطى مطالبة تطرح سؤالًا متخصصًا حول أمراض القلب.
و فى الأسبوع الماضى، أعلنت شركة GlobalLogic عن تغيير من جانب جوجل، حيث لم يعد يُسمح بتخطى مثل هذه المطالبات، بغض النظر عن خبراتهم الخاصة، حيث تُظهر المراسلات الداخلية أنه فى السابق، كانت الإرشادات تنص على ما يلي: "إذا لم تكن لديك خبرة مهمة (مثل البرمجة والرياضيات) لتقييم هذه المطالبة، فيرجى تخطى هذه المهمة"، ولكن الآن تنص الإرشادات على ما يلي: "يجب إلا تتخطى المطالبات التى تتطلب معرفة متخصصة بالمجال"، وبدلًا من ذلك، يُطلب "تقييم أجزاء المطالبة التى تفهمها" وإدراج ملاحظة مفادها أنهم ليس لديهم معرفة بالمجال.
و أدى ذلك إلى مخاوف مباشرة بشأن دقة Gemini فى موضوعات معينة، حيث يتم تكليف المستخدمين أحيانًا بتقييم استجابات الذكاء الاصطناعى عالية التقنية حول قضايا مثل الأمراض النادرة التى ليس لديهم خلفية عنها.
تم أضافة تعليقك سوف يظهر بعد المراجعة