20 फरवरी 2026 से देश में डिजिटल दुनिया के लिए नए नियम लागू हो गए हैं। अब अगर कोई फोटो, वीडियो या ऑडियो आर्टिफिशियल इंटेलिजेंस (AI) की मदद से बनाया गया है, तो उस पर साफ तौर पर ‘लेबल’ लगाना जरूरी होगा। इसके साथ ही सोशल मीडिया कंपनियों को किसी भी आपत्तिजनक या गैरकानूनी कंटेंट को शिकायत मिलने के सिर्फ 3 घंटे के भीतर हटाना होगा। इन नियमों की अधिसूचना 10 फरवरी को जारी की गई थी।
सरकार का कहना है कि इन बदलावों का मकसद इंटरनेट को ज्यादा सुरक्षित, भरोसेमंद और जिम्मेदार बनाना है।
प्रधानमंत्री ने भी दिया था ‘लेबल’ का सुझाव
नए नियम लागू होने से एक दिन पहले, 19 फरवरी को आयोजित AI समिट में प्रधानमंत्री नरेंद्र मोदी ने भी डिजिटल कंटेंट पर ‘ऑथेंटिसिटी लेबल’ की जरूरत बताई थी। उन्होंने कहा था कि जैसे खाने के पैकेट पर ‘न्यूट्रिशन लेबल’ लगा होता है, वैसे ही डिजिटल सामग्री पर भी लेबल होना चाहिए। इससे लोगों को समझ में आएगा कि क्या असली है और क्या AI से बनाया गया है।
AI लेबल क्या होगा?
सरकार के नए नियमों के अनुसार, हर AI से बनी फोटो, वीडियो या ऑडियो पर साफ-साफ लिखा होना चाहिए कि यह “AI-जनरेटेड” है।
- डिजिटल स्टैंप की तरह लेबल
जैसे खाने के पैकेट पर ‘शाकाहारी’ या ‘मांसाहारी’ लिखा होता है, वैसे ही अब AI से बनी सामग्री पर पहचान जरूरी होगी। उदाहरण के तौर पर, अगर किसी नेता का भाषण AI से तैयार किया गया वीडियो है, तो उसके कोने में स्पष्ट रूप से “AI-generated” लिखा होना चाहिए।
मेटाडेटा होगा ‘डिजिटल डीएनए’
नियमों में सिर्फ दिखने वाला लेबल ही नहीं, बल्कि एक तकनीकी पहचान भी जरूरी की गई है।
- टेक्निकल मार्कर
हर डिजिटल फाइल में एक छिपी हुई जानकारी होती है, जिसे मेटाडेटा कहते हैं। इसे आप उस फाइल का ‘डिजिटल डीएनए’ समझ सकते हैं।
इसमें यह दर्ज रहेगा:
- कंटेंट कब बनाया गया
- किस AI टूल से तैयार हुआ
- सबसे पहले किस प्लेटफॉर्म पर अपलोड किया गया
अगर कोई व्यक्ति AI का इस्तेमाल कर अपराध करता है, तो जांच एजेंसियां इस तकनीकी जानकारी के जरिए उसके स्रोत तक पहुंच सकेंगी।
लेबल हटाने की कोशिश गैरकानूनी
पहले कई लोग AI से बनी तस्वीरों या वीडियो से वॉटरमार्क हटाकर उन्हें असली बताने की कोशिश करते थे। अब यह गैरकानूनी माना जाएगा।
- छेड़छाड़ रोकने की व्यवस्था
सरकार ने निर्देश दिया है कि सोशल मीडिया कंपनियां ऐसी तकनीक अपनाएं जिससे:
- अगर कोई लेबल हटाने या मेटाडेटा से छेड़छाड़ करने की कोशिश करे,
- तो वह कंटेंट खुद ही हट जाए या प्लेटफॉर्म उसे डिलीट कर दे।
इसका मकसद फर्जी और भ्रामक सामग्री को रोकना है।

36 घंटे से घटाकर 3 घंटे की समय सीमा
आईटी नियमों में सबसे बड़ा बदलाव कंटेंट हटाने की समय सीमा में हुआ है।
पहले किसी गैरकानूनी सामग्री को हटाने के लिए 36 घंटे का समय मिलता था। अब इसे घटाकर सिर्फ 3 घंटे कर दिया गया है।
अगर अदालत या सरकार की ओर से आदेश आता है, तो सोशल मीडिया प्लेटफॉर्म को 3 घंटे के भीतर कंटेंट हटाना होगा। इस प्रक्रिया के लिए पुलिस विभाग में कम से कम DIG रैंक का अधिकारी अधिकृत होगा।
गलत जानकारी देने पर प्लेटफॉर्म भी जिम्मेदार
अब जब कोई यूजर सोशल मीडिया पर कुछ पोस्ट करेगा, तो प्लेटफॉर्म को उससे यह घोषणा लेनी होगी कि कंटेंट AI से बना है या नहीं।
कंपनियों को ऐसे टूल लगाने होंगे जो यूजर के दावे की जांच कर सकें।
अगर कोई प्लेटफॉर्म बिना खुलासा किए AI कंटेंट को प्रकाशित होने देता है, तो उसकी भी जिम्मेदारी तय होगी।
आईटी संशोधन नियम, 2026 क्या हैं?
सरकार ने 2021 के आईटी नियमों को मजबूत करने के लिए 2026 में संशोधन किया है। इनका मुख्य उद्देश्य है:
- AI से बनी भ्रामक सामग्री (Synthetically Generated Information – SGI) को नियंत्रित करना
- ऑनलाइन नुकसान को रोकना
ये नियम पूरे देश में 20 फरवरी 2026 से लागू हो चुके हैं।
SGI क्या है?
SGI यानी ऐसी जानकारी जो AI या एल्गोरिदम से बनाई गई हो और जो किसी असली व्यक्ति या घटना जैसी दिखे, जिससे लोग भ्रमित हो सकते हैं।
उदाहरण के लिए:
- किसी व्यक्ति का नकली वीडियो
- किसी की आवाज की नकल
- किसी घटना का फर्जी दृश्य
क्या SGI में शामिल नहीं है?
कुछ सामान्य डिजिटल काम SGI नहीं माने जाएंगे, जैसे:
- फोटो की ब्राइटनेस बढ़ाना
- वीडियो को कंप्रेस करना
- बैकग्राउंड शोर कम करना
- PPT या डायग्राम बनाना
- रिसर्च के लिए काल्पनिक केस स्टडी तैयार करना
- सबटाइटल जोड़ना या अनुवाद करना
- ऑडियो को टेक्स्ट में बदलना
लेकिन अगर AI की मदद से नकली मार्कशीट या सरकारी दस्तावेज बनाए जाते हैं, तो यह नियमों के दायरे में आएगा।
क्या सिर्फ वीडियो पर लागू है नियम?
मुख्य रूप से ये नियम फोटो, वीडियो और ऑडियो पर लागू होते हैं।
सिर्फ टेक्स्ट को SGI नहीं माना गया है। हालांकि, अगर टेक्स्ट का इस्तेमाल गैरकानूनी काम में होता है, तो उस पर भी आईटी कानून लागू होंगे।
‘सेफ हार्बर’ सुरक्षा क्या रहेगी?
सोशल मीडिया प्लेटफॉर्म को अब भी ‘सेफ हार्बर’ सुरक्षा मिलेगी, लेकिन शर्तों के साथ।
आसान शब्दों में समझें
- अगर कोई यूजर गैरकानूनी कंटेंट पोस्ट करता है, तो सामान्य तौर पर प्लेटफॉर्म जिम्मेदार नहीं होता।
- लेकिन यह सुरक्षा तभी मिलेगी जब प्लेटफॉर्म नियमों का पालन करे।
- अगर 3 घंटे में SGI नहीं हटाया गया, तो प्लेटफॉर्म अपनी कानूनी सुरक्षा खो सकता है और उसके खिलाफ कार्रवाई हो सकती है।
AI टूल बनाने वाली कंपनियों की जिम्मेदारी
जो कंपनियां AI टूल विकसित करती हैं, उन्हें अपने यूजर्स को साफ चेतावनी देनी होगी कि हानिकारक AI कंटेंट बनाने पर सजा हो सकती है।
अगर कोई नियम तोड़ता है, तो:
- उसका कंटेंट हटाया जा सकता है
- अकाउंट सस्पेंड या बंद किया जा सकता है
सजा का प्रावधान मौजूदा कानूनों में है, जैसे:
- भारतीय न्याय संहिता (BNS) की धारा 353: झूठी जानकारी से डर या नफरत फैलाने पर 3 साल तक की सजा
- BNS धारा 336: AI से किसी की नकल करने पर 2 साल तक की सजा
- आईटी एक्ट 2000 की धारा 79: नियम न मानने पर कानूनी सुरक्षा खत्म
डीपफेक क्या होता है?
डीपफेक वह तकनीक है जिसमें AI की मदद से किसी व्यक्ति का चेहरा या आवाज किसी दूसरे वीडियो में जोड़ दी जाती है, जिससे वह बिल्कुल असली लगे।
इसका गलत इस्तेमाल कर झूठी खबरें, बदनाम करने वाली सामग्री या चुनाव में गड़बड़ी की कोशिश की जा सकती है।
सरकार का दावा
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय का कहना है कि इन नियमों से इंटरनेट को “खुला, सुरक्षित, भरोसेमंद और जवाबदेह” बनाया जाएगा।
सरकार का मानना है कि इससे गलत सूचना, पहचान की चोरी और चुनावी छेड़छाड़ जैसे खतरे कम होंगे।
बड़ा सवाल
AI तकनीक तेजी से आगे बढ़ रही है। इससे रचनात्मक काम आसान हुआ है, लेकिन इसके गलत इस्तेमाल का खतरा भी बढ़ा है। ऐसे में सरकार ने सख्त कदम उठाए हैं।
अब देखने वाली बात यह होगी कि सोशल मीडिया कंपनियां इन नियमों को कितनी तेजी और गंभीरता से लागू करती हैं। साथ ही, क्या ये नियम फर्जी और भ्रामक कंटेंट पर सच में लगाम लगा पाएंगे, या फिर डिजिटल दुनिया में नए तरीके से धोखा देने के रास्ते निकल आएंगे?

