-

صور إباحية مزيفة.. الذكاء الاصطناعي يطارد

صور إباحية مزيفة.. الذكاء الاصطناعي يطارد
(اخر تعديل 2024-09-09 15:26:01 )
بواسطة

حذر تقرير نشره موقع صحيفة "واشنطن بوست" من تزايد خطر استخدام الذكاء الاصطناعي في إنشاء صور ومقاطع فيديو إباحية مفبركة.

ويعتمد مروجو هذه الصور على أدوات الذكاء الاصطناعي الرخيصة وسهلة الاستخدام، التي "تعرّي" الأشخاص من ملابسهم في الصور، ما أدى إلى زيادة كبيرة في انتشار الصور العارية المزيفة بمعدل 290% منذ عام 2018، عبر أشهر 10 مواقع تستضيف هذا النوع من الصور.

صورا إباحية تم إنشاؤها بواسطة الذكاء الاصطناعي، وفقا لجينيفيف أوه، محللة الصناعة.

وتضم هذه المواقع مشاهير وشخصيات سياسية إلى جانب فتيات مراهقات عاديات، تستخدم صورهن بغرض التحريض على الإباحية أو الابتزاز للحصول على أموال.

أضاف التقرير إن صور الذكاء الاصطناعي تمثل خطرا على النساء والمراهقات، وقالت دراسة أجرتها Sensity AI عام 2019، وهي شركة تراقب الصور المزيفة، أن 99% من تلك الصور تستهدف النساء.

وقال جانج وانج، خبير الذكاء الاصطناعي بجامعة إلينوي في "أوربانا شامبين"، إنه من خلال تحليل ملايين الصور، يمكن لبرنامج الذكاء الاصطناعي التنبؤ بكيفية ظهور الجسم عاريا وتغطية الوجه بسلاسة في مقطع فيديو إباحي.

وعلى الرغم من أن العديد من مولدات الصور المستندة إلى الذكاء الاصطناعي تمنع المستخدمين من إنشاء مواد إباحية، فإن البرامج مفتوحة المصدر تجعل شفرتها علنية، ما يسمح للمطورين الهواة بتكييف التكنولوجيا، غالبا لأغراض سيئة.

وبمجرد أن تصبح هذه التطبيقات عامة، فإنها تستخدم برامج تشجع المستخدمين على مشاركة هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، على وسائل التواصل الاجتماعي مقابل المال.

وأشار التقرير إلى أن جوجل تعمل على وضع سياسات خاصة لمنع ظهور الصور الجنسية في نتائج البحث، لكن وسائل الحماية التي توفرها للصور المزيفة ليست قوية.

وقال نيد أدريانس، المتحدث باسم جوجل، إن الشركة "تعمل بنشاط لتوفير المزيد من الحماية للبحث" وتسمح للمستخدمين بطلب إزالة المواد الإباحية المزيفة.