حذر تقرير نشرته صحيفة "الجارديان" أن الناس يتعرضون لخطر الأذى بسبب المعلومات الصحية المضللة، في ملخصات البحث بالذكاء الاصطناعي.
وقالت شركة جوجل إن ملخصات الذكاء الاصطناعي الخاصة بها، والتي تستخدم الذكاء الاصطناعي التوليدي لتقديم لمحات سريعة عن المعلومات الأساسية حول موضوع أو سؤال ما، " مفيدة " و" موثوقة ".
أبرز المعلومات الصحية المضللة
في إحدى الحالات التي وصفها الخبراء بأنها "خطيرة للغاية"، نصحت نتائج البحث مرضى سرطان البنكرياس خطأً بتجنب الأطعمة الغنية بالدهون، وأكد الخبراء أن هذا النصح يُخالف تمامًا ما ينبغي التوصية به، وقد يزيد من خطر وفاة المرضى بالمرض.
وفي مثال "مثير للقلق" آخر، قدمت نتائج البحث معلومات غير دقيقة حول اختبارات وظائف الكبد الحاسمة، مما قد يجعل الأشخاص المصابين بأمراض الكبد الخطيرة يعتقدون خطأً أنهم أصحاء.
قالت آنا جويل، مديرة الدعم والبحث والتأثير في مؤسسة سرطان البنكرياس في المملكة المتحدة، إن نصح المرضى بتجنب الأطعمة الغنية بالدهون "أمر خاطئ تمامًا". وأضافت أن القيام بذلك "قد يكون خطيرًا للغاية ويعرض فرص الشخص في التعافي الكافي لتلقي العلاج للخطر".,
وأضافت جويل: "تشير استجابة الذكاء الاصطناعي إلى أن مرضى سرطان البنكرياس يتجنبون الأطعمة الغنية بالدهون، وتقدم قائمة بأمثلة عليها، مع ذلك إذا اتبع شخص ما ما نصحته به نتائج البحث، فقد لا يحصل على سعرات حرارية كافية، ويواجه صعوبة في زيادة وزنه، وقد لا يتمكن من تحمل العلاج الكيميائي أو الجراحة التي قد تنقذ حياته."
وقالت باميلا هيلي، الرئيسة التنفيذية لمؤسسة الكبد البريطانية، إن ملخصات الذكاء الاصطناعي مثيرة للقلق ، مضيفة: "لا تظهر أعراض على العديد من مرضى الكبد إلا في المراحل المتأخرة، ولذلك من المهم جدًا أن يخضعوا للفحص، لكن ما تعتبره تقارير الذكاء الاصطناعي "طبيعيًا" قد يختلف اختلافًا كبيرًا عما يُعتبر طبيعيًا في الواقع."
"هذا الأمر خطير لأنه يعني أن بعض الأشخاص المصابين بأمراض الكبد الخطيرة قد يعتقدون أن نتائجهم طبيعية، وبالتالي لا يكلفون أنفسهم عناء حضور اجتماع متابعة الرعاية الصحية".
مخاوف من بيانات الذكاء الإصطناعى
يأتي تحقيق صحيفة الجارديان وسط مخاوف متزايدة من أن بيانات الذكاء الاصطناعي قد تُضلل المستهلكين الذين قد يفترضون موثوقيتها، ففي نوفمبر من العام الماضي، كشفت دراسة أن برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي عبر مجموعة من المنصات تُقدم نصائح مالية غير دقيقة ، في حين أُثيرت مخاوف مماثلة بشأن ملخصات الأخبار .
قالت صوفي راندال، مديرة منتدى معلومات المرضى، الذي يروج للمعلومات الصحية القائمة على الأدلة للمرضى والجمهور والمتخصصين في الرعاية الصحية، إن الأمثلة أظهرت أن "نظرة عامة الذكاء الاصطناعي من جوجل، يمكن أن تضع معلومات صحية غير دقيقة في أعلى نتائج البحث عبر الإنترنت، مما يشكل خطراً على صحة الناس".
قالت ستيفاني باركر، مديرة قسم الإعلام الرقمي في مؤسسة ماري كوري الخيرية المعنية برعاية المرضى في نهاية حياتهم: "يلجأ الناس إلى الإنترنت في لحظات القلق والأزمات. وإذا كانت المعلومات التي يتلقونها غير دقيقة أو خارجة عن سياقها، فقد تضر بصحتهم ضرراً بالغاً".
كما وجدت صحيفة الغارديان أن خدمة "نظرة عامة على الذكاء الاصطناعي من جوجل" تُقدم نتائج مُضللة لعمليات البحث المتعلقة بحالات الصحة النفسية. وقال ستيفن باكلي، رئيس قسم المعلومات في مؤسسة "مايند": "هذا الأمر يُثير قلقنا البالغ كمؤسسة خيرية".
قال باكلي إن بعض ملخصات الذكاء الاصطناعي لحالات مثل الذهان واضطرابات الأكل قدمت "نصائح خطيرة للغاية" وكانت "غير صحيحة أو ضارة أو يمكن أن تدفع الناس إلى تجنب طلب المساعدة".
وأضاف أن بعضها أغفل سياقاً أو فروقاً دقيقة مهمة، قائلا: "قد تقترح هذه الأنظمة الوصول إلى معلومات من مواقع غير مناسبة، ونحن نعلم أن الذكاء الاصطناعي عندما يلخص المعلومات، فإنه غالباً ما يعكس تحيزات أو قوالب نمطية أو روايات وصمية موجودة مسبقاً".
وأكدت جوجل أن الغالبية العظمى من ملخصات الذكاء الاصطناعي التي تقدمها تتسم بالدقة والفائدة، وأنها تعمل باستمرار على تحسين جودتها، وأضافت أن معدل دقة هذه الملخصات يضاهي معدل دقة ميزات البحث الأخرى لديها، مثل المقتطفات المميزة، التي كانت متاحة لأكثر من عقد من الزمان، وقالت الشركة أيضاً إنه عندما يسيء برنامج AI Overviews تفسير محتوى الويب أو يغفل السياق، فإنه سيتخذ الإجراءات المناسبة وفقاً لسياساته.
وقال متحدث باسم جوجل: "نستثمر بشكل كبير في جودة مراجعات الذكاء الاصطناعي، لا سيما في مواضيع مثل الصحة، والغالبية العظمى منها تقدم معلومات دقيقة".