नई दिल्ली (New Delhi) । सोशल मीडिया प्लेटफॉर्म्स (social media platforms) पर डीपफेक वीडियोज (deepfake videos) इन दिनों चिंता का सबब बने हुए हैं, जिनमें किसी और के शरीर पर किसी और का चेहरा लगाया जा सकता है। इस तरह के वीडियोज से सच और झूठ का पता लगा पाना मुश्किल हो रहा है और सरकार ने इसे लेकर नाराजगी जताई है। मिनिस्ट्री ऑफ इलेक्ट्रॉनिक्स एंड इन्फॉर्मेशन टेक्नोलॉजी (Ministry of Electronics and Information Technology) ने सोशल मीडिया प्लेटफॉर्म्स के लिए एडवाइजरी जारी की है और उन्हें चेतावनी दी है।
सरकार ने फेसबुक, इंस्टाग्राम और X (पहले Twitter) जैसे सोशल मीडिया प्लेटफॉर्म्स के लिए मंगलवार को एक एडवाइजरी जारी की है और कहा है कि मौजूदा IT नियमों के तहत उन्हें डीपफेक वीडियोज के खिलाफ कार्रवाई करनी चाहिए। इस एडवाइजरी में कहा गया है कि अगर प्लेटफॉर्म्स ऐसे फेक वीडियोज को समय रहते नहीं रोकते और हटाते तो उनके खिलाफ कड़ी कानूनी कार्रवाई की जाएगी।
सरकार ने एडवाइजरी में क्या कहा?
सरकार ने प्लेटफॉर्म्स को बताया है कि मौजूदा IT रूल के किस हिस्से में इस तरह के कंटेंट पर लगाम लगाने के निर्देश दिए गए हैं। IT रूल्स का नियम 3(1)(b) ऐसे किसी भी कंटेंट को रोकने के निर्देश देना है, जो किसी के अधिकारों का हनन करे। इसमें प्राइवेट, अभद्र या पॉर्न कंटेंट रोकने को भी कहा गया है। इसके अलावा ऐसा कंटेंट भी रोका जाना चाहिए, जो यूजर्स को भ्रमित करता है और किसी व्यक्ति की पहचान इस्तेमाल करते हुए झूठ को तथ्य की तरह पेश करता है।
इसलिए चर्चा में आए डीपफेक वीडियो
पिछले महीने बॉलीवुड के महानायक अमिताभ बच्चन ने अभिनेत्री रश्मिका मंदाना का एक डीपफेक वीडियो शेयर करते हुए इसपर चिंता जताई थी। केंद्रीय मंत्री अश्विनी वैष्णव ने उस वक्त कहा था कि सोशल मीडिया प्लेटफॉर्म्स को ऐसे वीडियोज पर कार्रवाई करते हुए इन्हें प्लेटफॉर्म से हटाना चाहिए। यह चर्चा तेज इसलिए भी हुई है क्योंकि डीपफेक वीडियोज के जरिए ब्लैकमेलिंग और फ्रॉड के मामले भी सामने आने लगे हैं।
आखिर क्या होते हैं डीपफेक वीडियोज?
डीपफेक वीडियोज में खास टेक्नोलॉजी की मदद से वीडियो में दिख रहे शख्स का चेहरा किसी और के चेहरे से बदल दिया जाता है। इस तरह किसी सिलेब्रिटी या लोकप्रिय चेहरे को ऐसा करते हुए दिखाया जा सकता है, जो उसने कभी किया ही नहीं। डीपफेक टेक्नोलॉजी आपको किसी वीडियो में मारपीट या चोरी करते हुए भी दिखा सकती है। किसी घटना का साक्ष्य समझे जाने वाले वीडियोज की विश्वसनीयता पर डीपफेक की वजह से सवाल खड़े हो रहे हैं।
©2024 Agnibaan , All Rights Reserved