डीपफेक ऑडिओ आणि व्हिडिओ शोध साधने: ते खरोखर उपयुक्त आहेत?

हायलाइट्स

  • AI-व्युत्पन्न फसवणूक, बनावट CEO कॉल्स आणि हाताळलेले मीडिया जगभरात वाढत असल्याने डीपफेक ऑडिओ आणि व्हिडिओ शोधणे गंभीर आहे.
  • डीपफेक ऑडिओ आणि व्हिडिओ डिटेक्शन टूल्स चेहऱ्याच्या हालचाली, व्हॉइस पॅटर्न आणि व्हिज्युअल विसंगतींचे विश्लेषण करतात परंतु परिपूर्ण पुराव्याऐवजी संभाव्यता स्कोअरवर अवलंबून असतात
  • डीपफेक ऑडिओ आणि व्हिडिओ शोधण्यासाठी अद्याप मानवी पडताळणी आवश्यक आहे, कारण कोणतेही साधन वास्तविक-जगातील परिस्थितींमध्ये 100% अचूकता देऊ शकत नाही

डीपफेक व्हिडिओ आणि बनावट व्हॉइस रेकॉर्डिंग आता फक्त ऑनलाइन विनोद नाहीत. त्या खऱ्या समस्या बनल्या आहेत. लोक, वृत्तसंस्था, व्यवसाय आणि न्यायालयांनाही त्यांच्याकडून धमक्यांना सामोरे जावे लागते. उदाहरणार्थ, 2019 मध्ये, यूके कंपनीने जवळजवळ $243,000 गमावले कारण कोणीतरी AI वापरून त्यांच्या बॉसचा आवाज कॉपी केला. कार्यकारिणीने त्यावर विश्वास ठेवून पैसे पाठवले.

2024 मध्ये, हाँगकाँगमध्ये असलेली एक कंपनी फसव्या योजनेला बळी पडली जेव्हा तिने चुकीच्या व्हॉईस पडताळणीचे प्रदर्शन करून तिचे मुख्य कार्यकारी अधिकारी (CEO) दर्शविणारा बनावट व्हिडिओ वापरल्यामुळे अनावधानाने लाखो डॉलर्स चुकीच्या खात्यात हस्तांतरित केले. या प्रकारची घटना हे दाखवते की डीपफेक साध्या खोड्या म्हणून विचार करण्यापेक्षा कितीतरी जास्त संभाव्य धोके निर्माण करू शकतात.

प्रतिमा स्त्रोत: freepik.com

डीपफेक तंत्रज्ञानाच्या संभाव्य प्रभावामुळे, अनेक पत्रकार, कायद्याची अंमलबजावणी करणाऱ्या एजन्सी आणि वकिलांना डीपफेक ऑडिओ आणि व्हिडिओ फायली ओळखण्याची क्षमता देण्यासाठी डिझाइन केलेली साधने आणि तंत्रांमध्ये प्रवेश आहे आणि त्यांचा वापर करतात; तथापि, या प्रकारच्या साधने आणि तंत्रांची प्रभावीता सध्या अज्ञात आहे.

डीपफेक म्हणजे काय?

डीपफेक हे आर्टिफिशियल इंटेलिजेंस (AI) द्वारे निर्मित ऑडिओ किंवा व्हिडिओ क्रिएशन आहेत जे एखाद्या व्यक्तीला दुसऱ्याचा चेहरा आणि आवाज पुन्हा तयार करण्यास सक्षम करतात. हे जनरेट केलेले ऑडिओ आणि/किंवा व्हिडिओ रेकॉर्डिंग इतर लोकांच्या व्हिडिओ, फोटोग्राफिक किंवा ऑडिओ रेकॉर्डिंगवर आधारित AI द्वारे तयार केले जातात जे आधीच रेकॉर्ड केले गेले आहेत.

एखादी व्यक्ती कशी हालचाल करते, त्यांच्या चेहऱ्यावरील भाव (व्हिडिओ) आणि ते त्यांचे ओठ कसे हलवतात (व्हिडिओ) बदलून व्हिडिओ डीपफेक तयार केला जातो. ऑडिओ डीपफेक आवाजाचे टोन आणि पिच आणि तो आवाज कसा बोलला जातो (ऑडिओ) सुधारेल. जरी डीपफेक सामग्री ओळखण्यास कठीण तयार करणे शक्य असले तरी, डीपफेक व्हिडिओच्या सरासरी दर्शकांना ते डीपफेक व्हिडिओ पाहत असल्याचे समजू शकत नाही.

डीपफेक ओळख
प्रतिमा स्त्रोत: freepik

आम्हाला शोध साधनांची आवश्यकता का आहे

छद्मनावे अनेकदा चुकून मीम्स आणि ख्यातनाम व्यंग्यांशी संबंधित असतात, डीपफेक आर्थिक घोटाळे, फसव्या क्रियाकलाप, खोटे आणि दिशाभूल करणारे मीडिया अहवाल, डिजिटल राजकीय विधाने आणि ओळख चोरी यासह सर्व प्रकारचे नकारात्मक प्रभाव निर्माण करू शकतात. व्हिडिओ अनेकदा असत्यापित स्त्रोतांद्वारे पत्रकाराकडे येऊ शकतात. सोशल मीडियावर अपलोड केलेल्या कोणत्याही व्हिडिओबद्दल सत्यता शोधण्याची शक्यता कमी आहे. पत्रकारांनी हे सुनिश्चित केले पाहिजे की त्यांनी पोस्ट केलेला कोणताही व्हिडिओ प्रकाशित करण्यापूर्वी अहवाल दिला जात असलेल्या वास्तविक घटना प्रतिबिंबित करतो.

कायद्याची अंमलबजावणी करणाऱ्या एजन्सीज आणि न्यायिक प्रणाली एका चाचणीचा भाग म्हणून ऑडिओ आणि/किंवा व्हिज्युअल पुराव्यावर मोठ्या प्रमाणात अवलंबून असल्याने, कायद्याची अंमलबजावणी अधिकारी आणि न्यायाधीशांनी विश्वसनीय माहिती प्रदान केली आहे याची खात्री करण्यासाठी पुरावा सूचीचा भाग म्हणून वापरल्या जाणाऱ्या कोणत्याही ऑडिओ किंवा व्हिडिओ रेकॉर्डिंगचे काळजीपूर्वक मूल्यांकन करणे आवश्यक आहे. बहुतेक लोक नियमित व्हिडिओंमधून डीपफेक व्हिडिओ ओळखू शकत नाहीत. हे शोध साधने महत्त्वपूर्ण बनवते.

शोध साधने कशी कार्य करतात

शोध साधने लहान चिन्हे शोधतात जी मानव पाहू शकत नाहीत. ते व्हिडिओ फ्रेम्स, व्हॉइस किंवा इमेजमध्ये छोट्या चुका तपासतात.

काही साधने चेहरे कसे हलतात किंवा ओठ शब्दांशी कसे जुळतात ते पाहतात. इतर त्वचा, प्रकाश किंवा ऑडिओ पॅटर्न जसे की श्वासोच्छवास किंवा विराम तपासतात. बरेच लोक सामग्रीची वास्तविक नमुन्यांसोबत तुलना करतात.

बहुतेक साधने साधे होय किंवा नाही देत ​​नाहीत. ते आत्मविश्वास स्कोअर दर्शवितात – एक संख्या दर्शविते की ते बनावट असण्याची शक्यता किती आहे.

व्हिडिओ कॉन्फरन्सिंगमध्ये एआय
प्रतिमा स्त्रोत: freepik

सामान्य शोध साधने

काही सुप्रसिद्ध साधने आहेत:

  • सेन्सिटी AI: बनावट व्हिडिओ, ऑडिओ आणि प्रतिमा शोधते. बातम्या कंपन्या संशयास्पद सामग्री ध्वजांकित करण्यासाठी वापरतात.
  • इंटेल फेककॅचर: बनावट शोधण्यासाठी चेहऱ्यांमधील खरा रक्त प्रवाह शोधतो. रिअल टाइममध्ये काम करू शकते.
  • मायक्रोसॉफ्ट व्हिडिओ ऑथेंटिकेटर: तो AI-निर्मित आहे का याचा अंदाज घेण्यासाठी व्हिडिओ आणि फोटो डेटा तपासतो.
  • रिॲलिटी डिफेंडर आणि डीपवेअर स्कॅनर: बनावट सामग्रीचे अनेक प्रकार शोधा. कंपन्या, पत्रकार आणि काही व्यक्ती वापरतात.

प्रत्येक साधन वेगळ्या पद्धतीने कार्य करते. कोणीही परिपूर्ण नाही. बरेच जण गुण देतात, साधे उत्तर नाही.

साधने किती अचूक आहेत?

प्रयोगशाळांमध्ये, साधने अतिशय अचूक असू शकतात. काही अभ्यास नियंत्रित चाचण्यांमध्ये 95% पेक्षा जास्त योग्य परिणाम दर्शवतात. पण वास्तविक जीवनातील व्हिडिओ गोंधळलेले असतात. सोशल मीडिया व्हिडिओ कॉम्प्रेस करतो किंवा बदलतो, ज्यामुळे शोध घेणे कठीण होते.

ऑडिओ तपासणे कठीण आहे. लहान क्लिप किंवा स्पष्ट आवाजाचे नमुने अगदी मजबूत साधनांना फसवू शकतात. खोटे सकारात्मक देखील घडतात. वास्तविक व्हिडिओ कधीकधी बनावट म्हणून ध्वजांकित केले जातात. उदाहरणार्थ, मोठ्या प्रमाणात संपादित केलेले प्रभावक व्हिडिओ चुकीच्या पद्धतीने ध्वजांकित केले गेले होते, जोपर्यंत मानव तपासत नाही तोपर्यंत गोंधळात टाकले होते. मुख्य मुद्दा: साधने मदत करतात, परंतु एकट्याने निर्णय घेऊ शकत नाहीत.

मानवी तपासणी महत्वाची आहे

व्हिडिओ तपासण्यासाठी पत्रकार साधने वापरतात. ते व्हिडिओ कोठून आले हे देखील तपासतात, इतर पुरावे शोधतात आणि सत्यापित सामग्रीशी त्याची तुलना करतात. उलट प्रतिमा शोध, वेळ आणि मेटाडेटा देखील मदत करतात. साधने वेळ वाचवतात आणि अंदाज कमी करतात. परंतु संपादक आणि अन्वेषक अंतिम कॉल करतात.

डिजिटल जाहिराती फसवणूक
विविध संगणक हॅकिंग | प्रतिमा क्रेडिट: rawpixel.com/freepik

पोलीस आणि न्यायालये

पोलीस आणि न्यायालये तपासाची साधने काळजीपूर्वक वापरतात. परिणाम आश्वासक पुरावे आहेत, पुरावा नाही. कायद्यासाठी पद्धती स्पष्ट आणि पुनरावृत्ती करण्यायोग्य असणे आवश्यक आहे. ब्लॅक-बॉक्स साधने न्यायालयात वापरणे कठीण आहे.

अन्वेषक सामान्यत: AI विश्लेषणास डिव्हाइस तपासणी, साक्षीदारांचे विधान आणि इतर पुराव्यांसह एकत्र करतात. मानवी पुनरावलोकन नेहमीच आवश्यक असते. AI कडून मिळालेले कॉन्फिडन्स स्कोअर हे कोडेचा एक भाग आहे.

वास्तविक प्रकरणे

काही घटना दर्शवतात की ही साधने का महत्त्वाची आहेत:

  • हाँगकाँग, 2024: कंपनीच्या कर्मचाऱ्याने सीईओचा चेहरा आणि आवाजासह बनावट व्हिडिओ कॉल केल्यानंतर लाखो पाठवले.
  • यूके, 2019: त्यांच्या बॉसच्या आवाजाची डीपफेक ऐकल्यानंतर एका कार्यकारीाने $243,000 पाठवले.
  • स्कॅमर फोन फसवणुकीत कुटुंबातील सदस्यांची तोतयागिरी करण्यासाठी क्लोन केलेला आवाज देखील वापरतात.

डीपफेक फसवणुकीचे प्रयत्न वाढत असल्याचे अहवाल दाखवतात. हे शोधणे आणि पडताळणी अत्यंत महत्त्वाचे बनवते.

जागतिक कायदे

देश डीपफेक्सचे नियमन करण्यास सुरवात करत आहेत:

  • युरोपियन युनियन: प्लॅटफॉर्मने AI-व्युत्पन्न मीडिया उघड करणे आवश्यक आहे.
  • युनायटेड स्टेट्स: काही राज्यांमध्ये फसवणूक किंवा राजकारणासाठी डीपफेक वापरण्याविरुद्ध कायदे आहेत.
  • भारत: मसुदा नियम AI गैरवापर आणि तोतयागिरीच्या फसवणुकीविरूद्ध चेतावणी देतात.

हे कायदे दाखवतात की शोध साधने मोठ्या प्रणालीचा भाग आहेत. ते एकटे पुरेसे नाहीत.

भविष्यातील कल्पना

शोध हे एकमेव उत्तर नाही. नवीन पद्धतींमध्ये हे समाविष्ट आहे:

  • डिजिटल वॉटरमार्क: रेकॉर्ड केल्यावर सामग्री वास्तविक म्हणून चिन्हांकित केली जाते.
  • प्लॅटफॉर्म प्रमाणीकरण: सामग्री विश्वसनीय स्त्रोतांकडून येते हे सिद्ध करते.
  • बायोमेट्रिक तपासणी: व्हिडिओमध्ये खरी व्यक्ती असल्याची खात्री करा, एआय चेहरा नाही.
डीपफेक शोधण्याची साधने
प्रतिमा स्त्रोत: freepik

हे खरे काय आहे हे सिद्ध करण्याचा हेतू आहे, फक्त खोटे काय आहे याचा अंदाज लावत नाही.

शोध साधनांच्या मर्यादा

शोध साधनांना मर्यादा आहेत:

  • ते प्रशिक्षण डेटावर अवलंबून असतात. नवीन डीपफेक त्यांना फसवू शकतात.
  • लहान क्लिप तपासणे कठीण आहे.
  • ते हेतू किंवा संदर्भ ठरवू शकत नाहीत.
  • संकुचित किंवा फिल्टर केलेले व्हिडिओ चुकीचे परिणाम देऊ शकतात.
  • तज्ञ म्हणतात की साधने एकट्याने वापरली जाऊ नयेत. ते संकेतक आहेत, पुरावा नाही.

तळ ओळ

डीपफेक शोधण्यासाठी अनेक उपयुक्त साधने आहेत, परंतु कोणतेही साधन निर्दोष नाही. पत्रकार, कायद्याची अंमलबजावणी आणि कॉर्पोरेशन अयोग्य माहिती ओळखण्यासाठी साधनांचा वापर करतात. वापरकर्त्यांना मदत करून, ही साधने वेळेची बचत करतात आणि संसाधन विश्वसनीय आहे की नाही हे ठरवताना मानवी चुका कमी करतात. दुर्दैवाने, कोणत्याही साधनाची 100% अचूकता नसल्यामुळे, व्यक्तींनी सामान्य ज्ञानाचा वापर करून आणि ते ऑनलाइन काय पाहतात याची पडताळणी करणे आवश्यक आहे.

अनेक ऑनलाइन आयटम वास्तविक नसतील आणि डीपफेक शोधण्याची साधने आम्हाला डीपफेक ओळखण्याची परवानगी देतात; तथापि, साधने प्रभावीपणे वापरण्यास सक्षम होण्यासाठी, व्यक्तींना त्यांच्या मर्यादा समजून घेणे आवश्यक आहे.

Comments are closed.