एआय म्हटल्यानंतर बूमरने औषधोपचार नाकारला तो एक घोटाळा आहे

तुमच्या लक्षात आले असेल की आपण षड्यंत्र सिद्धांतांच्या सुवर्णयुगात जगत आहोत आणि ChatGPT, Gemini आणि Claude सारख्या AI साधनांच्या आगमनाने तो सुवर्णयुग अधिक तीव्र होत चालला आहे. ChatGPT च्या स्वतःच्या सीईओने लोकांना असे न करण्याचे आवाहन करूनही, लोक या साधनांवर इतका विश्वास ठेवतात की, कार्यक्रम त्यांना जे काही सांगेल, ते कितीही मूर्खपणाचे असले तरीही अनेकांचा विश्वास ठेवण्याची प्रवृत्ती असते.

एआय “रोमान्स” मुळे विवाह उद्ध्वस्त होण्यापासून ते तथाकथित “एआय सायकोसिस” पर्यंत लोकांच्या मेंदूवर धोकादायकपणे कब्जा करणारे काही परिणाम आपण याआधीच पाहिले आहेत. आणि एका Redditor च्या म्हणण्यानुसार, आम्हाला यादीत जोडण्यासाठी एक नवीन समस्या आहे: लोक डॉक्टरांचा सल्ला घेण्याऐवजी AI चा वैद्यकीय सल्ला घेऊन त्यांचे जीवन धोक्यात आणतात.

AI ने थांबायला सांगितल्यानंतर एका महिलेच्या बुमर आजोबांनी इन्सुलिन घेण्यास नकार दिला.

ब्राझिलियन महिलेने तिची कथा “r/BoomersBeingFools” नावाच्या सुप्रेडडिटमध्ये सांगितली, ती अगदी तशीच दिसते: आपल्यातील वृद्धांबद्दलच्या कथा आणि त्यांच्या ऑनलाइन चुकीची माहिती, घोटाळे आणि “AI स्लॉप” यांच्या कुप्रसिद्ध संवेदनशीलतेसह, त्यांच्या विविध दोषांबद्दलच्या कथा.

पण तिच्या आजोबांची परिस्थिती पूर्णपणे नवीन बॉलगेम आहे. “गेल्या आठवड्यात माझी आई माझ्याकडे आली आणि माझ्या आजोबांच्या फोनमधील काही 'कॉन्फिगरेशन्स' बदलण्यास सांगितले, विशेषत: Instagram आणि Youtube च्या संदर्भात,” तिने तिच्या पोस्टमध्ये लिहिले.

सेव्हेंटीफोर | शटरस्टॉक

का? “कारण तिने संपूर्ण आठवडा त्याच्याशी वाद घालण्यात घालवला, कारण तो त्याचे इन्सुलिन घेण्यास नकार देऊ लागला आहे,” तिने स्पष्ट केले, तिचे आजोबा 40 वर्षांपासून मधुमेहासाठी औषध घेत आहेत. अचानक बदल का? तुम्ही अंदाज लावला: कारण AI ने त्याला तसे सांगितले.

संबंधित: जे लोक चॅटजीपीटी एखाद्या भावनिक आधार प्राण्याप्रमाणे वापरण्यास सुरुवात करतात त्यांच्याकडे सहसा ही 3 कारणे असतात

बुमर आजोबांनी AI सामग्री पाहण्यास सुरुवात केली होती की त्यांना इंसुलिन एक घोटाळा आहे आणि वैद्यकीय उद्योग मधुमेहावर खरा इलाज लपवत आहे.

आरोग्यसेवा प्रणाली आणि फार्मास्युटिकल कंपन्यांबद्दल संशय आणि अविश्वास कदाचित कधीच जास्त नव्हता आणि हे योग्य कारणाशिवाय नाही. पर्ड्यू फार्मा, ज्या कंपनीने हेतुपुरस्सर खोटे बोलले की ऑक्सीकॉन्टीन हे औषध किती व्यसनाधीन आहे आणि या प्रक्रियेत ओपिओइड महामारीला सुरुवात केली आहे, हे खरोखरच शैतानी उद्योगाचे अलीकडील उदाहरण आहे.

पण अविश्वास आहे, आणि नंतर भ्रम आहे, आणि या महिलेचे आजोबा नंतरचे बळी पडले आहेत असे दिसते. “त्याला खात्री आहे की 'औषध उद्योग मधुमेहावरील उपचार लपवत आहे',” तिने लिहिले. “त्यांच्या शब्दात 'त्यांनी एक सूक्ष्मदर्शक बनवला जो चंद्र पाहू शकतो, मधुमेहावर अद्याप उपचार कसा होऊ शकत नाही?” आणि तो या दृष्टिकोनावर डगमगणार नाही.

हा मूर्खपणा त्याला कुठून आला? एक जंगली अंदाज घ्या. “दहा मिनिटांपूर्वी तो यूट्यूबवर 'डॉक्टर'चा व्हिडिओ पाहत होता,” तिने लिहिले. “मी ताबडतोब ते AI म्हणून घड्याळात टाकले… आणि तो म्हणाला, 'पण ती काय म्हणते आहे ते अजूनही महत्त्वाचे आहे, बरोबर?'

ब्राझीलचे अपमानित माजी राष्ट्राध्यक्ष जैर बोल्सोनारो, ज्याने निवडून येण्यासाठी षड्यंत्र सिद्धांत मांडण्याची ट्रम्पियन युक्ती वापरली आणि तिचे आजोबा ज्याचा तिरस्कार करतात, असे सांगून ती त्याच्यापर्यंत पोहोचण्याचा एकमेव मार्ग आहे. तथापि, सोशल मीडियावर सतत मधुमेह “उपाय” खरेदी करण्यापासून त्याला थांबवले नाही.

संबंधित: लोक एआय वापरत नाहीत जितके तुम्ही विचार करता, परंतु जे सामायिक करतात ते 3 संबंधित व्यक्तिमत्त्व वैशिष्ट्ये

यासारख्या घटना एक संकटात वाढ होत आहेत ज्याचा परिणाम मृत्यू झाला आहे.

महिलेने लिहिले की तिच्या आजोबांची परिस्थिती “बहुतेक मजेदार” आहे कारण वृद्ध लोक त्यांच्या गोंधळाबद्दल हट्टी असतात. तरीही, तिला काळजी वाटते की त्याच्या एआय “डॉक्टरांच्या” सल्ल्यानुसार इन्सुलिनशिवाय त्याचे एक किंवा दोन दिवस लवकरच थंड-टर्की नकारात बदलतील.

तिच्याकडे काळजी करण्याचे चांगले कारण आहे. AI चॅटबॉट्सने मानसिकदृष्ट्या आजारी लोकांना आत्महत्येसाठी सांगितल्याच्या अनेक घटना घडल्या आहेत आणि एका कुटुंबाने ChatGPT च्या मूळ कंपनी OpenAI वर खटला दाखल केला आहे, जेव्हा त्यांच्या मुलाने चॅटबॉटद्वारे “प्रशिक्षित” केले होते.

लॅपटॉपवर AI सामग्री पाहणारा वृद्ध माणूस गुस्तावो फ्रिंग | पेक्सेल्स | कॅनव्हा प्रो

आणि अमेरिकन हेल्थकेअर सिस्टम अधिक वैयक्तिक, अकार्यक्षम आणि अगम्य बनत असताना, लोक वैद्यकीय सल्ल्यासाठी चॅटजीपीटीकडे वळत आहेत, बहुतेकदा ते त्यांच्या स्वत: च्या डॉक्टरांपर्यंत पोहोचू शकत नाहीत किंवा त्यांच्याशी संपर्क साधल्यावर त्यांना पुरेशी माहिती मिळू शकत नाही.

परंतु या प्रकरणाची साधी वस्तुस्थिती, अनेक हाय-प्रोफाइल खटले, सॉफ्टवेअर रिकॉल्स, आणि अगदी OpenAI च्या स्वतःच्या CEO च्या स्वतःच्या टूल शोवर विश्वास न ठेवण्याचे निर्देश, AI चॅटबॉट्स पूर्णपणे सायकोफॅन्टिक नसल्यास सहमत होण्यासाठी डिझाइन केलेले आहेत. ते नेहमीच चुकीच्या गोष्टी करतात. ते उत्तरे शोधण्यासाठी देखील आढळले आहेत.

त्यांच्यावर विश्वास ठेवता येणार नाही, कालावधी, वैद्यकीय सल्ल्याशिवाय राहू द्या. परंतु या सर्व हाय-प्रोफाइल त्रुटी असूनही साधनांचा वापर ज्या प्रकारे गगनाला भिडत आहे ते पाहता, चॅटजीपीटीने त्यांना सांगितल्यामुळे कोणीतरी सहजपणे आटोक्यात आणता येण्याजोग्या आजाराला बळी पडण्याआधी काही काळाची बाब आहे असे दिसते. काय जग आहे.

संबंधित: पतीने थेरपी सोडण्याची आणि चॅटजीपीटीद्वारे उपचार घेण्याची धमकी दिल्यानंतर पत्नीने सल्ला मागितला

जॉन सुंडहोम हे एक लेखक, संपादक आणि व्हिडीओ व्यक्तिमत्व असून मीडिया आणि करमणूक क्षेत्रातील 20 वर्षांचा अनुभव आहे. तो संस्कृती, मानसिक आरोग्य आणि मानवी स्वारस्य विषयांचा समावेश करतो.

Comments are closed.