تجاوز الذكاء الاصطناعي كونه مجرد كلمة طنانة، حيث ينتشر ببطء في جميع أنحاء صناعة التكنولوجيا في جميع أنحاء العالم، وفي حين أن مزايا الذكاء الاصطناعي هائلة، فإن مخاطره كذلك، ولهذا السبب تخطط الصين لفرض قيود صارمة على كيفية استخدام الذكاء الاصطناعي، وفقًا لتقرير نشرته صحيفة South China Morning Post، ووفقًا للتقرير، تتطلع السلطات الصينية إلى تحقيق التوازن بين مخاطر وفوائد الذكاء الاصطناعي.
ونشرت الصين مسودة توجيهات جديدة وتتطلع إلى تحسين جانبين، أولاً، كيفية استخدام بيانات التدريب وما إذا كانت آمنة وأمن نماذج اللغات الكبيرة (LLMs)، والتي تُستخدم لتقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT أو Ernie Bot من Baidu.
ما تريد الصين أن تفعله
تريد السلطات في الصين التأكد من أن أي بيانات تُستخدم لتدريب نماذج الذكاء الاصطناعي لا ينبغي أن تنطوي على أي انتهاك لحقوق الطبع والنشر، كما أنه لا ينبغي أن ينتهك أي بيانات شخصية، ووفقًا للتقرير، يجب أن تتم معالجة كل التدريبات التي يتم تقديمها في دايا "من قبل واضعي البيانات والمراجعين المعتمدين لاجتياز عمليات التحقق الأمني أولاً".
وبمعنى آخر، يجب أن تمر البيانات من خلال عيون الإنسان أولاً قبل أن يتم إنشاؤها بشكل مصطنع، وأيضًا، عندما يقوم المطورون ببناء شهادات الماجستير في القانون الخاصة بهم، "يجب أن يعتمدوا على النماذج التأسيسية المودعة لدى السلطات والمرخصة لها"، ومرة أخرى، سيضمن هذا معرفة السلطات بالمعلومات التي يتم تغذيتها لهذه النماذج المستخدمة في الذكاء الاصطناعي التوليدي.
لا يوجد "محتوى غير قانوني"
تعريف الصين للمحتوى غير القانوني واسع إلى حد ما ويتضمن معلومات سياسية حساسة، وعلى سبيل المثال، تعتبر الأسئلة المتعلقة بتايوان محتوى غير قانوني، وعلاوة على ذلك، تعتبر الأخبار المزيفة أو الترويج للخرافات أو المواد الإباحية محتوى غير قانوني أيضًا.
وتريد مسودة الاقتراح حظر جميع بيانات تدريب الذكاء الاصطناعي التي ستحتوي على أكثر من "5% من المحتوى غير القانوني"، وذلك لأن المعلومات ستعتبر خطيرة، وفقًا لقوانين الأمن السيبراني الصينية، وقد قدمت الصين مسودة الاقتراح وتسعى للحصول على تعليقات عامة حتى 25 أكتوبر.
تم أضافة تعليقك سوف يظهر بعد المراجعة