ظهرت العديد من الإبتكارات في مجال الذكاء الإصطناعي خلال الفترة الأخيرة ، مثلت معظمها نقطة تحول مذهلة في حياة الإنسان بهدف تعزيز الإستخدام الآمن للتكنولوجيا واعتماد برامج الذكاء الإصطناعي المجانية منها والمدفوعة لتجنب التهديدات الأمنية التي قد تحيط بالمراهقين من خلال استخدامهم الخاطئ لهذه البرامج ، حيث ظهرت بعض المعايير التوجيهية للتخفيف من المخاطر المحتملة مثل "استخدام الصور في المقاطع الإباحية".
في تحقيق حديث:
كشف الباحثون في مجال مكافحة الإساءة عن أن مولدات الصور المعتمدة على الذكاء الإصطناعي المستخدمة على نطاق واسع تخفي عيباً مثيراً للقلق "آلاف الصور التي تصور الإعتداء الجنسي على الأطفال".
تأتي هذه النتائج المثيرة للقلق من تقرير صادر عن مرصد الإنترنت بجامعة Stanford ، والذي يحث الشركات على معالجة وتصحيح هذه المشكلة المثيرة للقلق ضمن التكنولوجيا التي تطورها.
ويكشف التقرير أن أنظمة الذكاء الإصطناعي هذه ، المحصنة بصور استغلال الأطفال ، لا تولد محتوى صريحاً يظهر أطفالاً مزيفين فحسب ، بل يمكنها أيضاً التلاعب بصور المراهقين الذين يرتدون ملابس كاملة وتحويلها إلى شيء غير مناسب.
حتى الآن ، افترض الباحثون في مجال مكافحة إساءة الإستخدام أن أدوات الذكاء الإصطناعي التي تنتج صوراً مسيئة تجمع معلومات من المواد الإباحية للبالغين مع صور غير ضارة للأطفال عن طريق انتزاعها من مكان آخر على الإنترنت. ومع ذلك ، اكتشف مرصد الإنترنت بجامعة Stanford أكثر من 3300 صورة لإعتداء جنسي على الأطفال ضمن نفس قاعدة بيانات Laion Ai ، الفهرس ضخم للصور والتسميات التوضيحية عبر الإنترنت ، لتدريب نماذج صنع الصور البارزة المدعومة بالذكاء الاصطناعي.
رداً على التقرير:
قامت Laion Ai بإزالة مجموعات البيانات الخاصة بها مؤقتاً. تؤكد المنظمة على سياسة عدم التسامح مطلقاً مع المحتوى غير القانوني ، وتنص على أن الإزالة هي إجراء إحترازي لضمان سلامة مجموعات البيانات قبل إعادة نشرها.
ويحث تقرير Stanford على اتخاذ تدابير جذرية ، بما في ذلك إزالة مجموعات التدريب المستمدة من Laion Ai واختفاء الإصدارات القديمة من نماذج الذكاء الإصطناعي المرتبطة بالمحتوى الصريح. كما يدعو منصات مثل CivitAi و Hugging Face إلى تنفيذ ضمانات وآليات إبلاغ أفضل لمنع إنشاء وتوزيع الصور المسيئة ومزيداً من الإهتمام الصارم بمنع التضمين غير المقصود للمحتوى غير القانوني في مجموعات بيانات تدريب الذكاء الإصطناعي.
واستجابة للنتائج:
يتم حث شركات التكنولوجيا ومجموعات سلامة الأطفال على اعتماد تدابير مماثلة لتلك المستخدمة لتتبع وإزالة مواد الإعتداء على الأطفال في مقاطع الفيديو والصور. يقترح التقرير تعيين توقيعات رقمية فريدة لنماذج الذكاء الإصطناعي لتتبع حالات سوء الإستخدام وإزالتها.