حروب غير شريفة على أجساد الأبرياء.. كيف تدمر الصور الإباحية المزيفة حياة المراهقين؟ المشاهير فى المقدمة وغياب القوانين يزيد الانتشار.. وإحصائية صادمة: 415 ألف صورة مُعدلة خلال عام بما يفوق حصيلة 5 سنوات سابقة

الإثنين، 06 نوفمبر 2023 04:36 م
حروب غير شريفة على أجساد الأبرياء.. كيف تدمر الصور الإباحية المزيفة حياة المراهقين؟ المشاهير فى المقدمة وغياب القوانين يزيد الانتشار.. وإحصائية صادمة: 415 ألف صورة مُعدلة خلال عام بما يفوق حصيلة 5 سنوات سابقة التزييف الإباحى - تعبيرية
كتب مؤنس حواس

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

فى ظل التقدم السريع لتكنولوجيا الذكاء الاصطناعى، أصبحت التحديات الأخلاقية والاجتماعية تتجاوز الحدود التقليدية، إذ يعد التزييف العميق واحدًا من الجوانب الهامة التى يثيرها الذكاء الاصطناعى، حيث ساعد فى انتشار صور إباحية مزيفة للأفراد، مما يثير قضايا حقوق الخصوصية والسلامة الشخصية، حيث تعتمد هذه الظاهرة على القدرة المتزايدة للبرمجيات على توليد صور وفيديوهات واقعية بشكل لا يمكن تمييزه عن الواقع.

 

ويتم استخدام تقنيات التزييف العميق لإنشاء مشاهد إباحية وتركيب وجوه أفراد على أجساد أخرى بشكل يبدو وكأنه حقيقى، هذا الأمر لا يؤثر فقط على الأشخاص الذين يتعرضون لهذه التزويرات، ولكنه يلقى بظلاله على المجتمع بأكمله.

 

وبحسب صحيفة "واشنطن بوست"، فإن إحدى الفتيات تعرف بـ "غابى بيل" اكتشفت وجود صور عارية لها متداولة على الإنترنت، وهى الصور التى تم تزييفها لها، ولكن عندما أرسلت بيل، رسالة إلى زميلتها تطلب فيها المساعدة فى إزالة الصورة، أخبرتها أن هناك ما يقرب من 100 صورة مزيفة منتشرة عبر الويب، معظمها موجود على مواقع ويب معروفة باستضافة المواد الإباحية التى تم إنشاؤها بواسطة الذكاء الاصطناعي.

 

وقالت بيل أنه تم حذفها فى يوليو، لكن ظهرت بالفعل صور جديدة تصورها فى مواقف جنسية مصورة، وقالت بيل فى مقابلة: "شعرت بالغثيان والانتهاك"، "هذه الأجزاء الخاصة ليس من المفترض أن يراها العالم لأننى لم أوافق على ذلك لذلك من الغريب حقًا أن يقوم شخص ما بالتقاط صور لي”.

 

تعديل الصور3
 

الاذكاء الاصطناعى ونشر الصور المزيفة

يغذى الذكاء الاصطناعى طفرة غير مسبوقة هذا العام فى الصور ومقاطع الفيديو الإباحية المزيفة، حيث تم تمكين ذلك من خلال ظهور أدوات الذكاء الاصطناعى الرخيصة وسهلة الاستخدام التى يمكنها "خلع ملابس" الأشخاص فى الصور الفوتوغرافية - تحليل شكل أجسادهم العارية وفرضها فى صورة - أو تبديل الوجه بسلاسة إلى مقطع فيديو إباحي.

 

نمو الصور الإباحية المزيفة:

وبحسب التقرير ففى أفضل 10 مواقع تستضيف صورًا إباحية تم إنشاؤها بواسطة الذكاء الاصطناعى، تضخمت الصور العارية المزيفة بأكثر من 290% منذ عام 2018، وفقًا لجينيفيف أوه، محللة الصناعة، تضم هذه المواقع مشاهير وشخصيات سياسية مثل النائبة عن ولاية نيويورك ألكساندريا أوكاسيو كورتيز إلى جانب فتيات مراهقات عاديات، تم الحصول على صورهن من قبل ممثلين سيئين للتحريض على العار أو ابتزاز الأموال أو العيش فى خيالات خاصة.

 

غياب القوانين

الضحايا ليس لديهم سوى القليل من الموارد، فلا يوجد قانون فيدرالى يحكم المواد الإباحية العميقة، ولم يقم سوى عدد قليل من الدول بسن لوائح، ففى الولايات المتحدة يوصى الأمر التنفيذى الذى أصدره الرئيس بايدن بشأن الذكاء الاصطناعى يوم الاثنين، ولكنه لا يطلب من الشركات تصنيف الصور ومقاطع الفيديو والصوت التى تم إنشاؤها بواسطة الذكاء الاصطناعى للإشارة إلى العمل الذى تم إنشاؤه بواسطة الكمبيوتر.

 

وفى الوقت نفسه، يحذر علماء القانون من أن الصور المزيفة التى تعتمد على الذكاء الاصطناعى قد لا تندرج تحت حماية حقوق الطبع والنشر للتشابهات الشخصية، لأنها مستمدة من مجموعات البيانات المملوءة بملايين الصور، وقالت تيفانى لى، أستاذة القانون فى جامعة سان فرانسيسكو: "من الواضح أن هذه مشكلة خطيرة للغاية".


خطر على النساء والمراهقين

يمثل ظهور صور الذكاء الاصطناعى خطرًا خاصًا على النساء والمراهقين، حيث أن الكثير منهم غير مستعدين لمثل هذا الظهور، وقد وجدت دراسة أجرتها شركة Sensity AI عام 2019، وهى شركة تراقب الصور المزيفة، أن 96% من الصور المزيفة هى مواد إباحية، وأن 99% من تلك الصور تستهدف النساء.

 


تعديل الصور 2

 

وقالت صوفى مادوكس، الباحثة والمدافعة عن الحقوق الرقمية فى جامعة بنسلفانيا: "إنها الآن تستهدف الفتيات بشكل كبير"، "الفتيات والنساء الصغيرات اللاتى لسن فى نظر الجمهور."

 

تزييف صور إباحية لطلبة المدارس

فى 17 سبتمبر، كانت إحدى الطالبات "تبلغ 14 عاما" عائدة إلى منزلها فى جنوب إسبانيا من رحلة عندما تم اكتشاف صور اباحية مزيفة لها، ورغم أنها لم تظهر عارية أبدًا، لكن مجموعة من الأولاد المحليين استولوا على صور بالملابس من الملفات الشخصية على وسائل التواصل الاجتماعى للعديد من الفتيات فى بلدتهم واستخدموا تطبيق قائم على الذكاء الاصطناعى لإنشاء الصور العارية، وفقًا للشرطة.


الفنانون ضمن الضحايا

كذلك كشفت سكارليت جوهانسون عن مقاطع الفيديو الجنسية المزيفة التى تم إنشاؤها بواسطة الذكاء الاصطناعى، وعلقت حينها "لا شيء يمكن أن يمنع أى شخص من قص صورتى ولصقها"، حيث تستخدم التطبيقات صورًا حقيقية لإنشاء صور عارية، والتى غمرت الويب فى الأشهر الأخيرة. 

 

وقال جانج وانج، خبير الذكاء الاصطناعى بجامعة إلينوى فى أوربانا شامبين، إنه من خلال تحليل ملايين الصور، يمكن لبرنامج الذكاء الاصطناعى التنبؤ بشكل أفضل بكيفية ظهور الجسم عاريًا وتغطية الوجه بسلاسة فى مقطع فيديو إباحي.

 

على الرغم من أن العديد من مولدات الصور المستندة إلى الذكاء الاصطناعى تمنع المستخدمين من إنشاء مواد إباحية، فإن البرامج مفتوحة المصدر، تجعل شفرتها علنية، مما يسمح للمطورين الهواة بتكييف التكنولوجيا - غالبًا لأغراض شائنة. 

 

مجموعة من الإحصائات حول التزييف الإباحى:

بحسب تقرير واشنطن بوست، فعند فحص أشهر 10 مواقع تستضيف صورًا إباحية مزيفة، تم اكتشاف تحميل أكثر من 415 ألف موقع هذا العام، وحصلت على ما يقرب من 90 مليون مشاهدة.

 

كما انتشرت مقاطع الفيديو الإباحية التى أنشأها الذكاء الاصطناعى عبر الويب، فبعد البحث فى أكثر 40 موقعًا شيوعًا بحثًا عن مقاطع الفيديو المزيفة، تم إكتشاف أنه تمت إضافة أكثر من 143000 مقطع فيديو فى عام 2023 - وهو رقم يفوق جميع مقاطع الفيديو الجديدة من عام 2016 إلى عام 2022. وقد تلقت مقاطع الفيديو المزيفة أكثر من 4.2 مليار مشاهدة، حسبما وجد أوه.

 

وحذر مكتب التحقيقات الاتحادى الأمريكى فى يونيو من تزايد حالات الابتزاز الجنسى من قبل محتالين يطالبون بدفع أموال أو صور مقابل عدم توزيع الصور الجنسية، فى حين أنه من غير الواضح ما هى النسبة المئوية لهذه الصور التى تم إنشاؤها بواسطة الذكاء الاصطناعى، إلا أن هذه الممارسة آخذة فى التوسع. 

 

وقال مكتب التحقيقات الفيدرالى لصحيفة The Washington Post، أنه حتى سبتمبر، وقع أكثر من 26800 شخص ضحايا لحملات "الابتزاز الجنسي"، بزيادة قدرها 149% عن عام 2019.

 

الوجه الاخر للذكاء الاصطناعي

تكشف هذه الصور المزيفة كيف يعمل الذكاء الاصطناعى على تضخيم أسوأ الصور النمطية لدينا، إذ يعد المشاهير هدفًا شائعًا لمنشئى المحتوى الإباحى المزيفين الذين يهدفون إلى الاستفادة من الاهتمام بالبحث عن صور عارية لممثلين مشهورين. 

 

لكن المواقع الإلكترونية التى تعرض أشخاصًا مشهورين يمكن أن تؤدى إلى زيادة فى أنواع أخرى من العرى، فغالبًا ما تتضمن المواقع محتوى "هواة" من أفراد غير معروفين وتستضيف إعلانات تقوم بتسويق أدوات صنع المواد الإباحية التى تعمل بالذكاء الاصطناعي.

 

دور شركات التكنولوجيا

لدى Google سياسات معمول بها لمنع ظهور الصور الجنسية غير الرضائية فى نتائج البحث، لكن وسائل الحماية التى توفرها للصور المزيفة العميقة ليست قوية، وقال نيد أدريانس، المتحدث باسم جوجل، فى بيان أن الشركة "تعمل بنشاط لتوفير المزيد من الحماية للبحث" وإن الشركة تسمح للمستخدمين بطلب إزالة المواد الإباحية المزيفة بشكل غير طوعي.

 

وقال إن جوجل بصدد "بناء المزيد من الضمانات الشاملة" التى لن تتطلب من الضحايا أن يطلبوا بشكل فردى إزالة المحتوى.

 

وقال لى، من جامعة سان فرانسيسكو، أنه قد يكون من الصعب معاقبة منشئى هذا المحتوى، حيث تحمى المادة 230 فى قانون آداب الاتصالات شركات وسائل التواصل الاجتماعى من المسؤولية عن المحتوى المنشور على مواقعها، مما لا يترك عبئًا كبيرًا على مواقع الويب لمراقبة الصور.

 

يمكن للضحايا أن يطلبوا من الشركات إزالة الصور ومقاطع الفيديو التى تشبههم. ولكن نظرًا لأن الذكاء الاصطناعى يستمد من عدد كبير من الصور فى مجموعة بيانات لإنشاء صورة مزيفة، فمن الصعب على الضحية أن يدعى أن المحتوى مشتق فقط من صورته، على حد قول لي.

 

قال لي: "ربما لا يزال بإمكانك القول: أنه انتهاك لحقوق الطبع والنشر، من الواضح أنهم أخذوا صورتى الأصلية المحمية بحقوق الطبع والنشر ثم أضافوا القليل إليها". "ولكن بالنسبة للتزييف العميق... فليس من الواضح... ما هى الصور الأصلية".

 

غياب القوانين

وفى غياب القوانين، أصدرت تسع ولايات أمريكية على الأقل - بما فى ذلك كاليفورنيا وتكساس وفيرجينيا - تشريعات تستهدف التزييف العميق، لكن هذه القوانين تختلف فى نطاقها: فى بعض الولايات، يمكن للضحايا توجيه اتهامات جنائية، بينما تسمح دول أخرى فقط برفع دعاوى مدنية - على الرغم من أنه قد يكون من الصعب التأكد من الجهة التى سيتم مقاضاتها.









الموضوعات المتعلقة


مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة