تزايدت مخاطر استخدام الذكاء الاصطناعي في إنشاء صور ومقاطع إباحية مفبركة، في ظل إمكانية استخدام أدوات سهلة لتعرية الأشخاص في الصور.
ونتيجة لذلك، حقق انتشار الصور العارية المزيفة زيادة كبيرة بأكثر من 290% منذ عام 2018، عبر أفضل 10 مواقع تستضيف صورا إباحية تم إنشاؤها بواسطة الذكاء الاصطناعي، وفقا لصحيفة “واشنطن بوست” الأمريكية.
وتضم هذه المواقع مشاهير وشخصيات سياسية إلى جانب فتيات مراهقات عاديات، تستخدم صورهن بغرض التحريض على ممارسة الرذيلة أو الابتزاز للحصول على أموال أو العيش في خيالات خاصة.
ويمثل ظهور صور الذكاء الاصطناعي خطرا خاصا على النساء والمراهقات، إذ إن الكثير منهن غير مستعدات لمثل هذا الظهور.
ووجدت دراسة أجرتها Sensity AI عام 2019، وهي شركة تراقب الصور المزيفة، أن 96% من الصور المزيفة هي مواد إباحية، و99% من تلك الصور تستهدف النساء.
وتناول التقرير واقعة المؤثرة على “يوتيوب”، غابي بيل، التي عانت من واقعة انتشار صورة عارية لها على الإنترنت، إذ لم يسبق لها أن التقطت صورة مماثلة وكانت تعلم أنها مفبركة.
وعندما طلبت المساعدة من زميلها لإزالة الصورة، أخبرها أن هناك ما يقرب من 100 صورة مزيفة منتشرة عبر الإنترنت، ومعظمها موجود على مواقع إباحية تستخدم صور وفيديوهات مصممة بواسطة الذكاء الاصطناعي.
ولا تزال بيل غير متأكدة من عدد الصور المزيفة لها المنشورة للعامة، وقالت إن هناك حاجة إلى قواعد أقوى للتعامل مع تجربتها.
وعلق غانغ وانغ، خبير الذكاء الاصطناعي بجامعة إلينوي في “أوربانا شامبين”، أنه من خلال تحليل ملايين الصور يمكن لبرنامج الذكاء الاصطناعي التنبؤ بشكل أفضل بكيفية ظهور الجسم عاريا وتغطية الوجه بسلاسة في مقطع فيديو إباحي.
وعلى الرغم من أن العديد من مولدات الصور المستندة إلى الذكاء الاصطناعي تمنع المستخدمين من إنشاء مواد إباحية، فإن البرامج مفتوحة المصدر تجعل شفرتها علنية، ما يسمح للمطورين الهواة بتكييف التكنولوجيا، غالبا لأغراض شائنة.
وأشار التقرير إلى أن غوغل تعمل على وضع سياسات خاصة لمنع ظهور الصور الجنسية في نتائج البحث، لكن وسائل الحماية التي توفرها للصور المزيفة ليست قوية.
المصدر : العين الاخبارية