यूनिसेफ ने एआई के माध्यम से तैयार की जा रही बच्चों की यौन तस्वीरों, उन्हें साझा किए जाने के मामलों में आए तेज़ उछाल पर गहरी चिन्ता जताई है। इस पर लगाम कसने के लिए यूनिसेफ ठोस सुरक्षा उपायों की मांग की है।

डीपफ़ेक ऐसी तस्वीर, वीडियो या ऑडियो होते हैं जिन्हें एआई की मदद से मूल सामग्री में छेड़छाड़ के बाद तैयार किया जाए। इसके ज़रिए, इस सामग्री को वास्तविक रूप में प्रस्तुत किया जाता है। इन दिनों बच्चों को निशाना बनाकर, उनकी तस्वीरों व वीडियों को यौन रूप (sexualized) में प्रस्तुत किए जाने के मामलों में उछाल आ रहा है।
जानकारी में कहा गया है कि इनमें बड़ी संख्या में ऐसे मामले भी हैं, जिनमें बच्चों की तस्वीरों में छेड़छाड़ के ज़रिए उन्हें यौन रूप (sexualized) में प्रस्तुत किया गया है। बुधवार को जारी अपने एक वक्तव्य में यूनीसेफ़ ने अफ़सोस जताया कि एआई से तैयार झूठी तस्वीरों व वीडियो (डीपफ़ेक) के ग़लत इस्तेमाल से वास्तविक नुक़सान हो रहा है। “बच्चे इससे निपटने के लिए क़ानून की प्रतीक्षा नहीं कर सकते हैं।”
एक अध्ययन के अनुसार, कम से कम 12 लाख युवाओं ने बताया है पिछले वर्ष उनकी तस्वीरों कों डीपफ़ेक के ज़रिए ग़लत ढंग से, यौन रूपों में तब्दील कर दिया गया था।
यूनिसेफ, अन्तरराष्ट्रीय पुलिस एजेंसी (INTERPOL) और बच्चों के यौन शोषण को रोकने के लिए प्रयासरत, ECPAT नामक एक वैश्विक नैटवर्क ने 11 देशों में सामने आए मामलों के विश्लेषण के बाद यह निष्कर्ष साझा किया है।
कुछ देशों में, हर 25 में से एक बच्चे के प्रभावित होने की बात कही गई है, जोकि अक्सर एक आम कक्षा का आकार होता है।
यूनीसेफ़ ने आगाह किया है कि जब किसी बच्चे की तस्वीर या पहचान का इस्तेमाल किया जाता है, तो प्रभावित बच्चा, सीधे तौर पर इससे पीड़ित होता है। यूनिसेफ ने इसे शोषणकारी बताया है।
यूनीसेफ़ ने एआई को विकिसत कर रहे विशेषज्ञों के उन प्रयासों का स्वागत किया है, जो अपने डिज़ाइन में ही सुरक्षा तौर-तरीक़ों को अपनाने की कोशिशें कर रहे हैं। साथ ही, ऐसी किसी टैक्नॉलॉजी के ग़लत इस्तेमाल को रोकने के रास्ते विकसित कर रहे हैं। हालाँकि ये प्रयास नाकाफ़ी साबित हुए हैं और बड़ी संख्या में एआई मॉडलों को बिना पर्याप्त सुरक्षा उपायों के ज़रिए ही तैयार किया जा रहा है।
यूनीसेफ़ के अनुसार, बच्चे भी इन जोखिमों के प्रति जागरुक हैं, और अध्ययन में शामिल कुछ देशों में दो-तिहाई से अधिक युवाओं ने चिन्ता जताई कि एआई के ज़रिए उनकी झूठी, यौन तस्वीरों या वीडियों को तैयार किया जा सकता है।
यूनीसेफ़ ने इस ख़तरे का सामना करने के लिए कुछ सुझाव दिए है-
देशों की सरकारों को बाल यौन दुर्व्यवहार सामग्री की परिभाषा का विस्तार करने की आवश्यकता है, ताकि एआई के ज़रिए तैयार सामग्री को शामिल किया जा सके। इसके लिए, ऐसी सामग्री को बनाने, ख़रीदने, अपने पास रखने और उसके वितरण को अपराध के दायरे में लाना होगा।
एआई टूल विकसित कर रहे विशेषज्ञों को डिज़ाइन में ही सुरक्षा उपायों को शामिल करना होगा और एआई मॉडल के ग़लत इस्तेमाल को रोकने के लिए ठोस क़दम उठाने होंगे।
डिजिटल कम्पनियों को एआई द्वारा तैयार की गई, बाल यौन सामग्री को न केवल रोकना होगा, बल्कि उसे साझा किए जाने से भी रोकना होगा। साथ ही, पता लगाने की टैक्नॉलॉजी में निवेश करना होगा ताकि सामग्री की देखरेख की जा सके।















