नई दिल्ली: डीपफेक वीडियो बनने के मामले लगातार सामने आ रहे हैं, इसमें आर्टिफिशियल इंटेलिजेंस (AI) के जरिए ऐसे वीडियो तैयार किए जा रहे हैं, जिनका वास्तविकता से कोई लेना देना नहीं है। इस चुनौती ने निपटने के लिए केंद्र सरकार अब सख्त कदम उठाने जा रही है। केंद्र सरकार ने इस तरह के कंटेंट पर लगाम लगाने की पूरी तैयारी कर ली है।
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने डीपफेक सहित AI-जनरेटेड सामग्री से होने वाले नुकसान से निपटने के लिए IT नियमों में बदलाव का प्रस्ताव दिया है। इसका उद्देश्य वास्तविक जानकारी से सिंथेटिक सामग्री को अलग करना है। दरअसल, सरकार यह सुनिश्चित करना है कि सोशल मीडिया प्लेटफॉर्म पर इस तरह का कंटेंट न फैले, जिसे लोग सही मान लें।
10 फीसदी हिस्से को करना होगा कवरनए नियमों के तहत 50 लाख से ज्यादा यूजर्स वाले बड़े सोशल मीडिया प्लेटफॉर्म्स को यूजर्स से पूछना होगा कि वो जो कंटेंट अपलोड कर रहे हैं, वह सिंथेटिक तो नहीं है। इन दावों की जांच के लिए उचित कदम उठाने होंगे और सभी सिंथेटिक कंटेंट पर स्पष्ट रूप से लेबल लगाना होगा। ताकी यूजर्स को पता चले कि वह असली नहीं है। ये लेबल या मार्कर स्पष्ट रूप से दिखाई देने या सुनाई देने वाले होने चाहिए, जो वीडियो स्क्रीन के कम से कम 10% या ऑडियो क्लिप के पहले 10% हिस्से को कवर करते हों। प्लेटफॉर्म इन मार्करों को हटा या बदल नहीं सकते।
6 नवंबर तक दे सकते हैं प्रतिक्रियाये नियम उन प्लेटफॉर्म को भी कानूनी सुरक्षा प्रदान करते हैं, जो शिकायतों या उचित प्रयासों के आधार पर सिंथेटिक सामग्री को हटाने या ब्लॉक करने के लिए सद्भावनापूर्वक काम करते हैं। मंत्रालय के मुताबिक इन संशोधनों का उद्देश्य उपयोगकर्ताओं को अधिक जागरूक बनाना, जवाबदेही में सुधार करना और सिंथेटिक सामग्री का पता लगाना है, साथ ही कृत्रिम बुद्धिमत्ता (एआई) में नवाचार को भी बढ़ावा देना है। मसौदे पर प्रतिक्रिया 6 नवंबर तक खुली है।
फैल रहे हैं जनरेटिव AI उपकरणयह मसौदा ऐसे समय आया है, जब जनरेटिव एआई उपकरण तेजी से फैल रहे हैं, जिससे गलत सूचना, छद्म पहचान, चुनाव में हस्तक्षेप और धोखाधड़ी जैसे जोखिम बढ़ रहे हैं। भारत और विदेशों में नीति-निर्माता इस बात को लेकर चिंतित हैं कि कृत्रिम मीडिया का दुरुपयोग फर्जी खबरों, धोखाधड़ी या गैर-सहमति वाली सामग्री के लिए किया जा रहा है।
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने डीपफेक सहित AI-जनरेटेड सामग्री से होने वाले नुकसान से निपटने के लिए IT नियमों में बदलाव का प्रस्ताव दिया है। इसका उद्देश्य वास्तविक जानकारी से सिंथेटिक सामग्री को अलग करना है। दरअसल, सरकार यह सुनिश्चित करना है कि सोशल मीडिया प्लेटफॉर्म पर इस तरह का कंटेंट न फैले, जिसे लोग सही मान लें।
10 फीसदी हिस्से को करना होगा कवरनए नियमों के तहत 50 लाख से ज्यादा यूजर्स वाले बड़े सोशल मीडिया प्लेटफॉर्म्स को यूजर्स से पूछना होगा कि वो जो कंटेंट अपलोड कर रहे हैं, वह सिंथेटिक तो नहीं है। इन दावों की जांच के लिए उचित कदम उठाने होंगे और सभी सिंथेटिक कंटेंट पर स्पष्ट रूप से लेबल लगाना होगा। ताकी यूजर्स को पता चले कि वह असली नहीं है। ये लेबल या मार्कर स्पष्ट रूप से दिखाई देने या सुनाई देने वाले होने चाहिए, जो वीडियो स्क्रीन के कम से कम 10% या ऑडियो क्लिप के पहले 10% हिस्से को कवर करते हों। प्लेटफॉर्म इन मार्करों को हटा या बदल नहीं सकते।
6 नवंबर तक दे सकते हैं प्रतिक्रियाये नियम उन प्लेटफॉर्म को भी कानूनी सुरक्षा प्रदान करते हैं, जो शिकायतों या उचित प्रयासों के आधार पर सिंथेटिक सामग्री को हटाने या ब्लॉक करने के लिए सद्भावनापूर्वक काम करते हैं। मंत्रालय के मुताबिक इन संशोधनों का उद्देश्य उपयोगकर्ताओं को अधिक जागरूक बनाना, जवाबदेही में सुधार करना और सिंथेटिक सामग्री का पता लगाना है, साथ ही कृत्रिम बुद्धिमत्ता (एआई) में नवाचार को भी बढ़ावा देना है। मसौदे पर प्रतिक्रिया 6 नवंबर तक खुली है।
फैल रहे हैं जनरेटिव AI उपकरणयह मसौदा ऐसे समय आया है, जब जनरेटिव एआई उपकरण तेजी से फैल रहे हैं, जिससे गलत सूचना, छद्म पहचान, चुनाव में हस्तक्षेप और धोखाधड़ी जैसे जोखिम बढ़ रहे हैं। भारत और विदेशों में नीति-निर्माता इस बात को लेकर चिंतित हैं कि कृत्रिम मीडिया का दुरुपयोग फर्जी खबरों, धोखाधड़ी या गैर-सहमति वाली सामग्री के लिए किया जा रहा है।
You may also like
Bihar Election 2025: आरजेडी, कांग्रेस और लेफ्ट को मल्लाह वोट मिलेंगे? बिहार चुनाव में VIP की सबसे बड़ी चुनौती
High Security Number Plate: हाई सिक्योरिटी नंबर प्लेट लगाने में पुणे RTO सबसे आगे, क्या है लास्ट डेट? जुर्माने का खाका तैयार
प्रेमानंद महाराज के लिए दुआ: सूफियान इलाहाबादी का वीडियो विवाद
सुबह उठते ही लार के लाभ: आयुर्वेदिक दृष्टिकोण
सस्ता लोन लेने के लिए अपनाएं ये टिप्स झटपट होगा पास,` क्लिक करके जाने पूरी खबर