مايكروسوفت تحذر موظفيها: لا تشاركوا معلومات حساسة مع ChatGPT

الأربعاء، 01 فبراير 2023 03:00 م
مايكروسوفت تحذر موظفيها: لا تشاركوا معلومات حساسة مع ChatGPT مايكروسوفت - صورة أرشيفية
وكالات

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
في وقت سابق من هذا الشهر، سأل أحد موظفي Microsoft في منتدى داخلي عما إذا كان ChatGPT مسموحًا باستخدامه في العمل حسبما نقلت CNBC.
 
ردت Microsoft أنه مسموح لهم، طالما أن الموظفين لا يشاركون المعلومات السرية مع أداة الذكاء الاصطناعي، قائلة: "من فضلكم لا ترسلوا بيانات حساسة إلى أي من برامج OpenAI، لأنها قد تستخدمها لتدريب النماذج المستقبلية".
 
وتسبب هوس العالم المفاجئ بـ ChatGPT في جعل بعض شركات التكنولوجيا تتدافع لتحذير الموظفين من التفاعل بحرية مع التكنولوجيا.
 
اللافت هذه المرة هو أن Microsoft داعم وشريك رئيسي لـ OpenAI، حيث أعلنت الأسبوع الماضي Microsoft عن جولة جديدة من التمويل للشركة الناشئة.
 
وتخطط شركة البرمجيات العملاقة أيضًا لدمج تقنية OpenAI في بعض منتجاتها الأخرى، مثل محرك بحث Bing وتطبيقات Office، حسبما ذكرت The Information سابقًا.
 
قد تؤدي العلاقة الوثيقة بين الشركتين إلى تضارب محتمل في المصالح لشركة Microsoft، حيث يمكنها الاستفادة من حصول OpenAI على المزيد من بيانات التدريب، وفقًا لفنسنت كونيتسر أستاذ علوم الكمبيوتر ومدير مختبر الذكاء الاصطناعي في جامعة كارنيجي ميلون.
 
يكمن مصدر الخوف في أنه يمكن للعاملين مشاركة معلومات الشركة السرية عن غير قصد - مثل رمز البرنامج الداخلي - مع روبوت المحادثة لطلب النصائح حول كيفية تحسين عملهم.
 
يمكن لـ ChatGPT بدوره معالجة البيانات لتدريب نفسه، وربما مشاركة نسخ من المعلومات السرية التي يتلقاها في عمليات التبادل المستقبلية مع مستخدمين آخرين.









مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة