AI सह बनवलेले बनावट व्हिडिओ आणि चित्रे नियंत्रित केली जातील

सारांश: डीपफेक विरुद्ध सरकारची मोठी तयारी, AI सामग्री वॉटरमार्क केली जाईल

भारत सरकार AI सह बनवलेल्या बनावट व्हिडिओ आणि चित्रांवर बंदी घालण्यासाठी नवीन नियम आणण्याच्या तयारीत आहे. या नियमांनुसार, AI-व्युत्पन्न सामग्रीवर वॉटरमार्क आणि लेबले अनिवार्य असतील.

एआय वॉटरमार्क रेग्युलेशन इंडिया: एकीकडे आर्टिफिशियल इंटेलिजन्स (AI) तंत्रज्ञान काम सोपे करत असताना, दुसरीकडे त्याच्या गैरवापरामुळे सरकार आणि समाज या दोघांसाठी गंभीर आव्हाने निर्माण झाली आहेत. एआयच्या मदतीने बनावट व्हिडिओ आणि चित्रे तयार केली जात आहेत, जे डीपफेक आहेत, असे म्हटले जाते की ते आता केवळ मनोरंजनापुरते मर्यादित राहिले नाहीत तर ते सामाजिक अशांतता, सायबर गुन्हे आणि वैयक्तिक प्रतिमेला हानी पोहोचवण्याचे माध्यम बनले आहेत.

या वाढत्या धोक्याच्या पार्श्वभूमीवर, भारत सरकार AI आम्ही इंटरनेटद्वारे तयार केलेल्या सामग्रीची ओळख आणि नियंत्रण करण्याच्या दिशेने एक मोठे पाऊल उचलण्याची तयारी केली आहे. सरकार अशा सर्व AI-व्युत्पन्न सामग्रीवर वॉटरमार्क आणि लेबले अनिवार्य करण्याचा विचार करत आहे, जेणेकरून खरा आणि बनावट मजकूर स्पष्टपणे फरक करता येईल.

AI सामग्रीसाठी मसुदा नियम तयार

एका अहवालानुसार, इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान मंत्रालयाने (MeitY) AI निर्मित सामग्रीवर वॉटरमार्क ठेवण्याशी संबंधित नियमांचा मसुदा तयार केला आहे. फेसलेस एआय सामग्रीमुळे सायबर गुन्ह्यांमध्ये झपाट्याने वाढ होत असल्याचे मंत्रालयाचे मत आहे.

सरकारच्या म्हणण्यानुसार, एआयचा गैरवापर करून बनावट व्हिडिओ, फोटो आणि ऑडिओ तयार केले जात आहेत, ज्याचा वापर फसवणूक, ब्लॅकमेलिंग, अफवा पसरवणे आणि सामाजिक तणाव निर्माण करण्यासाठी केला जात आहे. अशा परिस्थितीत, AI द्वारे तयार केलेल्या सामग्रीची आगाऊ ओळख करणे आवश्यक झाले आहे.

AI च्या गैरवापरावर कारवाई करण्यासाठी सरकार नवीन नियम लागू करणार आहे

वॉटरमार्कने काय बदलेल?

नवीन नियम लागू झाल्यानंतर, एआयने तयार केलेल्या व्हिडिओ, चित्र किंवा ऑडिओवर हे स्पष्टपणे नमूद करावे लागेल की सामग्री एआयने तयार केली आहे. यामुळे सामान्य लोकांना समजेल की ते जे पाहत आहेत ते खरे नाही.

त्याचा सर्वात मोठा फायदा असा होईल:

  • कायदा आणि सुव्यवस्था बिघडवणाऱ्या व्हिडिओंवर वेळीच कारवाई करता येईल.
  • समाजात भीती किंवा गोंधळ पसरवणारा मजकूर बंद केला जाईल
  • मुलांचे लैंगिक शोषण किंवा आक्षेपार्ह साहित्य ओळखणे सोपे होईल
  • लोकांना आधीच सावध केले जाऊ शकते

जेव्हा एखादा व्हिडिओ किंवा चित्र स्पष्ट लेबल असेल तेव्हा त्याचे सत्य व्हायरल होण्यापूर्वीच उघड होईल, असा सरकारचा विश्वास आहे.

सेलिब्रिटी डीपफेक प्रकरणांमुळे चिंता वाढली आहे

अलिकडच्या काही महिन्यांत एआयच्या गैरवापराशी संबंधित अनेक प्रकरणे समोर आली आहेत. काही लोकप्रिय अभिनेत्रींचे बनावट व्हिडिओ आणि फोटो सोशल मीडियावर व्हायरल झाले, ज्यामुळे त्यांची प्रतिमा खराब झाली. या प्रकरणांमुळे हे स्पष्ट झाले आहे की सामान्य माणसाला खरा आणि बनावट मजकूर यात फरक करणे कठीण होत आहे.

एआय तंत्रज्ञान इतके प्रगत झाले आहे की चेहरे, आवाज आणि हावभाव देखील वास्तविक दिसतात. यामुळेच सरकार आता केवळ इशारे न देता ठोस नियम आणण्याच्या दिशेने वाटचाल करत आहे.

Grok AI वाद हे ताजे उदाहरण आहे

अलीकडेच AI द्वारे तयार करण्यात आलेल्या अश्लील मजकुराबाबत आणखी एक मोठा वाद समोर आला आहे. एलोन मस्कच्या एआय टूल 'ग्रोक'चा वापर करून मोठ्या प्रमाणात आक्षेपार्ह प्रतिमा तयार केल्या आणि सोशल मीडियावर शेअर केल्या गेल्या. प्रकरण वाढल्याने सरकारला हस्तक्षेप करावा लागला आणि असा मजकूर काढून टाकण्याच्या सूचना देण्यात आल्या.

या घटनेने हे स्पष्टपणे दाखवून दिले की जर AI सामग्रीवर नियंत्रण ठेवले नाही तर त्याचा परिणाम समाजातील प्रत्येक घटकावर होऊ शकतो.

नवीन नियम कधी लागू होणार?

वृत्तानुसार, सरकार सुधारित मार्गदर्शक तत्त्वांना अंतिम रूप देत आहे. नवीन एआय फ्रेमवर्क लवकरच सार्वजनिक केले जाऊ शकते. त्याच्या अंमलबजावणीनंतर, नियमांचे पालन करण्याची जबाबदारी AI प्लॅटफॉर्म, विकासक आणि सामग्री निर्मात्यांची असेल.

Comments are closed.