डीपफेक के नियमन के लिए एक समग्र दृष्टिकोण को प्लेटफ़ॉर्म और एआई विनियमन के बीच परस्पर क्रिया और उभरती प्रौद्योगिकियों के लिए सुरक्षा उपायों को अधिक व्यापक रूप से शामिल करने के तरीकों पर ध्यान केंद्रित करना चाहिए।
अंततः, डीपफेक का उपयोग छवि-आधारित जेनरेटर एआई के साथ हमारे सामने आने वाली समस्याओं और अन्य प्रकार की समस्याग्रस्त सामग्री के ऑनलाइन फैलने के पैमाने और गति को प्रतिबिंबित करता है। (फेसबुक/रश्मिका मंदाना)
5 नवंबर को, फैक्ट-चेकर ऑल्ट न्यूज़ ने पोस्ट किया कि अभिनेत्री रश्मिका मंदाना का लिफ्ट में प्रवेश करने का वायरल वीडियो एक डीपफेक था। वीडियो ने बहुत बहस छेड़ दी, अन्य अभिनेताओं ने डीपफेक वीडियो के कानूनी विनियमन की मांग की। जवाब में, इलेक्ट्रॉनिक्स और आईटी राज्य मंत्री राजीव चंद्रशेखर ने आईटी अधिनियम के तहत नियमों के बारे में बात की, जो ऐसे वीडियो के प्रसार से निपट सकते हैं। हालाँकि, डीपफेक के नियमन के लिए एक समग्र दृष्टिकोण को प्लेटफ़ॉर्म और एआई विनियमन के बीच परस्पर क्रिया और उभरती प्रौद्योगिकियों के लिए सुरक्षा उपायों को अधिक व्यापक रूप से शामिल करने के तरीकों पर ध्यान केंद्रित करना चाहिए।
डीपफेक सामग्री उन्नत एआई तकनीक का उपयोग करके बनाई गई है।
हालाँकि
इसका उपयोग नकली वीडियो बनाने के लिए किया जा सकता है, लेकिन इसका उपयोग मित्रों या प्रियजनों का रूप धारण करके व्यक्तियों को धोखेबाजों को पैसे भेजने के लिए धोखा देने के लिए भी किया जा सकता है। लेकिन अंतर्निहित तकनीक के वैध उपयोग भी हो सकते हैं – उदाहरण के लिए, पत्रकारों की आवाज़ और चेहरों को गुमनाम करना और उन्हें दमनकारी शासन में सुरक्षित रहने में मदद करना। इसलिए, एक नियामक प्रतिक्रिया जिसका उद्देश्य ऐसी तकनीक के उपयोग पर पूर्ण प्रतिबंध लगाना है, असंगत और संभवतः अप्रभावी होने की संभावना है।
वायरल ‘रश्मिका मंदाना वीडियो’ एक बार फिर बिग टेक की डीपफेक समस्या पर प्रकाश डालता है
डीपफेक के जीवन चक्र को तीन भागों में विभाजित किया जा सकता है – निर्माण, प्रसार और पता लगाना।
एआई विनियमन का उपयोग गैरकानूनी या गैर-सहमति वाले डीपफेक के निर्माण को कम करने के लिए किया जा सकता है। चीन जैसे देश जिन तरीकों से इस तरह के विनियमन का रुख कर रहे हैं उनमें से एक यह है कि डीपफेक प्रौद्योगिकियों के प्रदाताओं को अपने वीडियो में मौजूद लोगों की सहमति प्राप्त करने, उपयोगकर्ताओं की पहचान सत्यापित करने और उन्हें सहारा देने की आवश्यकता है। डीपफेक से होने वाले नुकसान को रोकने के लिए कनाडाई दृष्टिकोण में बड़े पैमाने पर जन जागरूकता अभियान और संभावित कानून शामिल हैं जो दुर्भावनापूर्ण इरादे से डीपफेक बनाने और वितरित करने को अवैध बना देंगे। हालांकि समस्या को ठीक करने का कोई आसान तरीका नहीं है, लेकिन सभी एआई-जनरेटेड वीडियो में वॉटरमार्क जोड़ने जैसे उपाय प्रभावी पहचान की दिशा में एक अच्छा पहला कदम हो सकते हैं।
डीपफेक वीडियो का पता लगाना लगातार कठिन होता जा रहा है। एआई सामग्री निर्माण में प्रगति के कारण, डीपफेक की नई पीढ़ी को पहचानना लगभग असंभव है। इससे वीडियो में मौजूद लोगों को काफी नुकसान हो सकता है और वीडियो साक्ष्य की विश्वसनीयता पर भरोसा कम हो सकता है। यह इस तथ्य से और अधिक जटिल है कि सामान्य तौर पर डीपफेक या झूठी सामग्री बनाना अपने आप में गैरकानूनी नहीं है, और इसे संविधान के तहत संरक्षित भाषण भी दिया जा सकता है। कुछ सामग्री स्पष्ट रूप से गैरकानूनी हो सकती है
– उदाहरण के लिए, पहचान की चोरी या इंटरनेट पर अंतरंग गोपनीयता का उल्लंघन करने वाली सामग्री प्रकाशित करना। अन्य मामलों में, वर्तमान वीडियो के संदर्भ से स्पष्ट है कि यह स्पष्ट नहीं है कि वीडियो को अश्लील, अपमानजनक या केवल व्यंग्यपूर्ण प्रतिरूपण माना जाएगा या नहीं। नतीजतन, डीपफेक से संबंधित कई नियम ऐसी सामग्री के साझाकरण और प्रसार पर ध्यान केंद्रित करते हैं।
भारत में, आईटी
अधिनियम और संबंधित नियम ऑनलाइन प्लेटफ़ॉर्म पर सामग्री मॉडरेशन दायित्वों को संबोधित करते हैं। हालाँकि यह ढाँचा डीपफेक पर भी लागू होगा, लेकिन यह पूरी तरह से स्पष्ट नहीं है कि इस संदर्भ में प्लेटफ़ॉर्म को क्या कार्रवाई करने की आवश्यकता है।
समझाया
‘डीपफेक’ वीडियो में दिखाया गया है कि रश्मिका मंदाना: नकली वीडियो की पहचान कैसे करें
आमतौर पर, प्लेटफ़ॉर्म को अदालत या सरकार द्वारा अधिसूचित होने के 36 घंटों के भीतर गैरकानूनी सामग्री को हटाना होगा। यदि किसी व्यक्ति को यौन कृत्यों या आंशिक नग्नता या अन्यथा प्रतिरूपित शिकायतों में चित्रित किया जाता है, तो प्लेटफार्मों को 24 घंटों के भीतर ऐसी सामग्री को हटाने की आवश्यकता होती है। उन्हें सेवा की शर्तों को प्रकाशित करने की भी आवश्यकता होती है जो उपयोगकर्ताओं को ऐसी सामग्री अपलोड करने से रोकती है जो अन्य व्यक्तियों का प्रतिरूपण करती है, और ऐसी सामग्री जो जानबूझकर “गलत सूचना” का संचार करती है। ऑनलाइन प्लेटफ़ॉर्म को भी “उपयोगकर्ता को अपने प्लेटफ़ॉर्म पर ऐसी सामग्री अपलोड न करने के लिए उचित प्रयास करने” चाहिए, और 72 घंटों के भीतर उपयोगकर्ता की शिकायतों पर “कार्रवाई” करनी चाहिए।
उपयोगकर्ताओं को ऐसी सामग्री अपलोड न करने के लिए “उचित प्रयास करना” अस्पष्ट और अस्पष्ट है। संभवतः, किसी प्रकार की सामग्री मॉडरेशन प्रयास करने से यह आवश्यकता पूरी हो जाएगी, जिसका अर्थ है कि अधिकांश बड़े सोशल मीडिया प्लेटफ़ॉर्म अनुपालन में होंगे। इसी तरह, यह स्पष्ट नहीं है कि उपयोगकर्ता की शिकायतों पर “कार्यवाही” का क्या मतलब होगा, और क्या डाउन-रैंकिंग जैसी कार्रवाइयां पर्याप्त होंगी। यह महत्वपूर्ण है क्योंकि इन नियमों का अनुपालन न करने का परिणाम संभावित रूप से प्लेटफ़ॉर्म को ऐसी सामग्री के लिए उत्तरदायी बना सकता है।
यह भी पढ़ें |
रश्मिका मंदाना ने अपने वायरल डीपफेक वीडियो पर प्रतिक्रिया दी: ‘यह बेहद डरावना है…’
अंततः, डीपफेक का उपयोग छवि-आधारित जेनरेटर एआई के साथ हमारे सामने आने वाली समस्याओं और अन्य प्रकार की समस्याग्रस्त सामग्री के ऑनलाइन फैलने के पैमाने और गति को प्रतिबिंबित करता है। डीपफेक के प्रसार को लक्षित करने वाले विशेष विनियमन के लिए प्रतिक्रियावादी कॉल से बचना सबसे अच्छा हो सकता है, और इसके बजाय एक बहु-आयामी नियामक प्रतिक्रिया पर विचार करें जो एआई और प्लेटफ़ॉर्म विनियमन दोनों के साथ संलग्न हो। आगामी डिजिटल इंडिया अधिनियम, जो कथित तौर पर ऑनलाइन प्लेटफ़ॉर्म के साथ-साथ एआई और उभरती प्रौद्योगिकियों को विनियमित करेगा, इनमें से कुछ मुद्दों को संबोधित करने का अवसर प्रदान करता है।
https://reportbreak.in/2023/11/07/डीपफेक-वीडियो-में-दिखाया/