دراسة تحذر من خطر توليد أبحاث وهمية عبر الذكاء الاصطناعى

الإثنين، 09 مارس 2026 08:00 م
دراسة تحذر من خطر توليد أبحاث وهمية عبر الذكاء الاصطناعى دراسة تحذر من خطر توليد أبحاث وهمية عبر الذكاء الاصطناعى

كتبت هبة السيد

حذر باحثون من أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

وأجرى الباحثون تجربة استخدموا فيها خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، تضمنت التجربة أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم آخرين.

بعض النماذج تقاوم الطلبات الإحتيالية

ووجدت الدراسة أن بعض نماذج الذكاء الاصطناعي، مثل كلود من شركة إنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر قابلية للامتثال، خصوصًا عند تكرار الطلبات.

وفي مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية، لكنه في النهاية أنتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة بعد استمرار المستخدم في الضغط.


يقول الباحثون إن هذه النتائج تبرز المخاطر المحتملة لانتشار الأبحاث المزيفة، والتي قد تؤثر على مصداقية الأدبيات العلمية إذا تم الاستشهاد بالبيانات الوهمية في أبحاث مستقبلية.

 




أخبار اليوم السابع على Gogole News تابعوا آخر أخبار اليوم السابع عبر Google News
قناة اليوم السابع على الواتساب اشترك في قناة اليوم السابع على واتساب



الرجوع الى أعلى الصفحة