الذكاء الاصطناعي أمام اختبار أخلاقي جديد

0

وترافق نمو القدرات المذهلة التي توفرها تقنيات الذكاء الاصطناعي في تحرير وتوليد الصور والفيديوهات، بزيادة غير مسبوقة في المحتوى الإباحي المرتبط بالأطفال على الإنترنت، الأمر الذي يمثل تهديدا خطيرا لسلامة هذه الفئة الضعيفة في المجتمع، ويعيق الجهود التي تبذلها سلطات إنفاذ القانون في مكافحة الانتهاكات التي تطالها، وتتبعها في العالم الحقيقي.

ودخلت العديد من أدوات الذكاء الاصطناعي التوليدية ضمن ما يمكن أن نصفه بـترسانة “أسلحة افتراس الأطفال”، التي تُستخدم في “الويب المظلم” والذي يسمح بإصدار المواقع الإلكترونية ونشر المعلومات بدون الكشف عن هوية الناشر أو موقعه، ويمكن الوصول إليه خلال خدمات معينة مثلTor، حيث تنتج خلال زمن قصير موادا تصنف على أنها “إباحية”.

ورصدت مؤسسات معنية بحماية الأطفال على الإنترنت مؤخرا، آلاف الصور “غير اللائقة” لأطفال، أنتجت بالاستعانة بالذكاء الاصطناعي، وعكست الدور الخطير لهذه التقنية عندما تخدم فكرا مريضا لشخص ما.

وحذرت مجموعة “ثورن” المراقبة لنشاطات استغلال الأطفال على الإنترنت، مؤخرا، من زيادة شهرية في أعداد الصور الإباحية المنتجة بتطبيقات الذكاء الاصطناعية لهذه الفئة، منذ خريف العام 2022.

كذلك قال مكتب التحقيقات الفيدرالي في تحذير هذا الشهر، إنه شهد زيادة في التقارير المتعلقة بالأطفال الذين تم تغيير صورهم الطبيعية إلى أخرى “ذات طابع جنسي”.

ومن الأدوات المستخدمة في توليد مثل هذا المحتوى، تلك التي لا تتطلب سوى كتابة وصف قصير لما يريد الشخص رؤيته، ليقوم التطبيق بإنتاجه، بالاستعانة بمليات الصور البريئة المنتشرة على الإنترنت، والتي تعود لأطفال حقيقيين في مواقف ووضعيات طبيعية، وفي زمن قصير مقارنة بالأساليب القديمة التي كانت تستغرق وقتا طويلا لتركيب وتزييف الصور.

ويُخشى من دور هذه “النزعة الإجرامية” السلبي في تعقيد مهمة سلطات إنفاذ القانون في مكافحة الجريمة الإلكترونية، وتضييق الخناق على منتهكي القوانين الخاصة بالإساءة للأطفال عبر الشبكة العنكبوتية.

كذلك يؤدي تدفق مثل هذه الصور إلى إرباك نظام التتبع المركزي المُصمم لمنع مثل هذه المواد من الإنترنت، لأنه مصمم فقط لالتقاط الصور المعروفة لسوء المعاملة، وليس اكتشاف الصور التي تم توليدها حديثا بالذكاء الاصطناعي.

كما يهدد هذا التوجه الخطير بإرباك مسؤولي إنفاذ القانون الذين سيعملون على تحديد الأطفال الضحايا، وسيضطرون إلى قضاء المزيد من الوقت في تحديد ما إذا كانت الصور حقيقية أم مزيفة.

وإلى جانب ذلك، يجادل البعض فيما إذا كان علينا تصنيف مثل هذه الصور على أنها تنتهك قوانين حماية الطفل في الدول على اعتبار أنها تمثل أطفالا غير موجودين أصلا في حالات كثيرة بالعالم الحقيقي، فهم نتاج أدوات الذكاء الاصطناعي.

وتكمن خطورة هذا التوجه أيضا في تغذية وتدريب أدوات الذكاء الاصطناعي على توليد المزيد من هذه الصور، فضلا عن كون بعض هذه التطبيقات مفتوحة المصدر، ولجوء البعض إلى استخدام لغات غير الإنجليزية أقل عرضة للكشف.

قد يكون الحل للتصدي لهذه الظاهرة الخطيرة إلى جانب سنّ قوانين وتشريعات لمجابهتها، تدريب نموذج للذكاء الاصطناعي على إنشاء أمثلة لصور مزيفة لاستغلال الأطفال حتى تعرف أنظمة الكشف عبر الإنترنت ما يجب إزالته، أو تطوير أنظمة تضيف رمزا أو علامة مائية تحدد منشأ الصور بحيث تكشف اللقطات التي تولدت عنها لردع إساءة الاستخدام.

لا شك أن توليد الصور الإباحية للأطفال بأدوات الذكاء الاصطناعي يسبب ضررا مجتمعيا فظيعا، يتطلب وقفة حازمة أمام هذه السلوكيات البغيضة، وتدخلا من مطوري هذه التطبيقات وناشريها للتدقيق والفحص في المخرجات وسد الثغرات ونقاط الضعف التي يمكن للبعض استغلالها في أغراض وممارسات لا أخلاقية.

شاركها.

اترك تعليقاً