डिजिटल फॉरेन्सिक्स तज्ञ काहीतरी AI आहे की नाही हे सांगण्यासाठी एक सोपी चाचणी शेअर करतात

तंत्रज्ञानामध्ये सुधारणा होत राहिल्याने, काही वेळा AI-व्युत्पन्न केलेली प्रतिमा किंवा व्हिडिओ वास्तविक गोष्टीपासून वेगळे करणे जवळजवळ अशक्य होऊ शकते. प्रगती इतक्या लवकर घडली आहे की प्रशिक्षित निरीक्षकांनाही फसवले जाऊ शकते, अगदी कमी नियमित लोक.

तथापि, एका तज्ञाचा असा विश्वास आहे की एआय द्वारे एखादी गोष्ट केव्हा तयार केली गेली हे सांगण्याचा एक मूर्ख मार्ग आहे आणि एकदा ते लक्षात आले की ते अत्यंत स्पष्ट आहे. याचा अर्थ असा आहे की एखाद्या मित्राची सोशल मीडिया पोस्ट किंवा YouTube वरील व्हिडिओ पाहताना तुम्हाला कधीच आश्चर्य वाटण्याची गरज नाही आणि आश्चर्य वाटू नये, जसे आपण सर्वांनी जंपिंग बनीज सोबत केले होते, ते खरे आहे की नाही.

डिजिटल फॉरेन्सिक तज्ञ म्हणतात की एक सोपी चाचणी आहे जी तुम्हाला सांगते की काहीतरी कृत्रिम बुद्धिमत्तेद्वारे तयार केले गेले आहे.

कॅलिफोर्निया विद्यापीठ, बर्कले येथील प्रमुख तज्ञ हॅनी फरीद यांना अनेकदा पत्रकार आणि वृत्तवाहिन्यांद्वारे फोटो किंवा व्हिडिओमध्ये फेरफार करण्यात आला आहे की नाही हे सत्यापित करण्यासाठी बोलावले जाते. सहकारी त्याला “डिजिटल फॉरेन्सिकचे डीन” मानतात, कारण त्याने 20 वर्षांपूर्वी हे क्षेत्र शोधण्यात मदत केली होती. तो फोटोशॉपची चिन्हे शोधण्यात अत्यंत कुशल आहे, परंतु एआयच्या आगमनाने त्याला त्याच्या नेहमीच्या पद्धतींचा पुनर्विचार करण्यास भाग पाडले आहे.

ग्राउंड पिक्चर | शटरस्टॉक

सुरुवातीला, एआय-व्युत्पन्न माध्यम शोधणे सोपे होते. त्यात अनेकदा अवास्तव सेन्सरचा आवाज आणि अपूर्णता समाविष्ट असते. आता, AI मॉडेल्सनी या नमुन्यांचे पुनरुत्पादन करणे शिकले आहे, ज्यामुळे प्रतिमा आणि व्हिडिओ अधिक वास्तववादी दिसतात, विशेषत: अप्रशिक्षित डोळ्यांना. फरीद यापुढे पिक्सेल-स्तरीय सांख्यिकीय संबंध शोधण्याच्या पद्धतींवर अवलंबून राहू शकत नाही ज्या त्याने पूर्वी हाताळलेल्या प्रतिमांसाठी वापरल्या होत्या.

त्याचा दृष्टीकोन बदलण्यासाठी त्याला आपली विचारसरणी बदलावी लागली. “मला एक गोष्ट समजून घ्यायची होती: जेव्हा कोणीतरी बनावट बनवतो तेव्हा ते काय लक्षात घेत नाहीत?” त्याने शेअर केले. बरं, त्याने केलेल्या मागील संशोधनानुसार, असे दिसून आले आहे की फोटो किंवा व्हिडिओंमध्ये भूमितीचा न्याय करण्यात लोक सहसा वाईट असतात.

संबंधित: नागरिकांना त्यांचे चेहरे आणि ओळख कॉपीराइट करण्याची परवानगी देऊन डेन्मार्कने एआय डीपफेकशी लढा दिला

फरीद म्हणतात की चित्र किंवा व्हिडिओमधील दृश्याची भूमिती हे एआय पिढीचे स्पष्टपणे सांगते.

“जनरेटिव्ह एआयला भौतिकशास्त्राबद्दल माहिती नाही, भूमितीबद्दल माहिती नाही आणि ते सर्व प्रकारचे वेडे करते [things],” फरीद यांनी स्पष्ट केले. प्रतिमा मॉडेल्स अनेकदा भौमितिक विसंगती सोडतात कारण ते त्रिमितीय जागेचे भौतिक नियम पूर्णपणे समजून न घेता व्हिज्युअल पॅटर्नचे अनुकरण करतात.

बाहेर कॅमेरा धरून हसणारी स्त्री प्रतिमांची भूमिती समजते वेलस्टॉक | शटरस्टॉक

प्रामाणिक फोटोंमध्ये, दृष्टीकोनासाठी कठोर नियम आहेत. उदाहरणार्थ, वास्तवात समांतर चालणाऱ्या रेषा (जसे की मजल्यावरील फरशा) सर्व एकाच अदृश्य बिंदूमध्ये भेटल्या पाहिजेत. जर ते सर्व एका बिंदूवर एकमेकांना छेदत नसतील, जसे की या Reddit पोस्टमधील प्रतिमा, प्रतिमा किंवा व्हिडिओ कदाचित वास्तविक नसतील. प्रतिबिंबांबाबतही हेच खरे आहे, कारण वस्तूवरील काही बिंदू नेहमी आरशातील प्रतिबिंबासोबत समांतर असतात, म्हणून ते त्याच प्रकारे एका अदृश्य बिंदूवर भेटले पाहिजेत.

माध्यमाचा भाग खरा आहे की नाही हे निर्धारित करण्यात प्रकाशयोजना देखील मोठी भूमिका बजावते. वास्तविक जीवनातील सावल्या आणि हायलाइट्स प्रकाश स्रोत आणि कॅमेरा यांच्या स्थितीवर आधारित असतात. AI नेहमी या नियमांच्या आधारे वस्तूंवर सावल्या आणि प्रतिबिंब योग्यरित्या ठेवण्यास सक्षम नसते.

त्याभोवती कोणताही मार्ग नाही: AI येथे राहण्यासाठी आहे. यात भविष्यातील अनुप्रयोगांसाठी अविश्वसनीय संधी आहेत, परंतु मुख्य गोष्ट म्हणजे ती जबाबदारीने आणि सत्यतेने वापरणे. हे केवळ सुधारणे आणि कालांतराने अधिक शिकणे सुरू ठेवत असताना, प्रत्येकाला AI-व्युत्पन्न माध्यम पकडण्यासाठी युक्त्या आणि टिपा जाणून घेण्याचा फायदा होईल.

संबंधित: एआयने सर्व नोकऱ्या घेतल्या आणि कोणालाही काहीही परवडणारे नाही

Kayla Asbach या सेंट्रल फ्लोरिडा विद्यापीठातून बॅचलर पदवी घेतलेल्या लेखिका आहेत. ती नातेसंबंध, मानसशास्त्र, स्व-मदत, पॉप संस्कृती आणि मानवी स्वारस्य विषयांचा समावेश करते.

Comments are closed.