حذر باحثون من أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
وأجرى الباحثون تجربة استخدموا فيها خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، تضمنت التجربة أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم آخرين.
بعض النماذج تقاوم الطلبات الإحتيالية
ووجدت الدراسة أن بعض نماذج الذكاء الاصطناعي، مثل كلود من شركة إنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر قابلية للامتثال، خصوصًا عند تكرار الطلبات.
وفي مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية، لكنه في النهاية أنتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة بعد استمرار المستخدم في الضغط.
يقول الباحثون إن هذه النتائج تبرز المخاطر المحتملة لانتشار الأبحاث المزيفة، والتي قد تؤثر على مصداقية الأدبيات العلمية إذا تم الاستشهاد بالبيانات الوهمية في أبحاث مستقبلية.