आत्महत्या, भ्रम यांमध्ये ChatGPT च्या भूमिकेबद्दल आणखी सात कुटुंबे आता OpenAI वर खटला भरत आहेत

सात कुटुंब दाखल खटले कंपनीचे GPT-4o मॉडेल मुदतीपूर्वी आणि प्रभावी सुरक्षा उपायांशिवाय रिलीझ झाल्याचा दावा करून गुरुवारी OpenAI विरुद्ध. चार खटले कौटुंबिक सदस्यांच्या आत्महत्येमध्ये ChatGPT ची कथित भूमिका संबोधित करतात, तर इतर तीन दावा करतात की ChatGPT ने हानिकारक भ्रमांना बळकटी दिली ज्यामुळे काही प्रकरणांमध्ये रूग्ण मनोरुग्णांची काळजी घेतली गेली.
एका प्रकरणात, 23 वर्षीय झेन शॅम्बलिन ChatGPT शी चार तासांहून अधिक काळ चाललेले संभाषण झाले. चॅट लॉगमध्ये – जे रीडने पाहिले होते – शॅम्बलिनने स्पष्टपणे अनेक वेळा सांगितले की त्याने सुसाईड नोट्स लिहिल्या होत्या, त्याच्या बंदुकीमध्ये एक गोळी ठेवली होती आणि त्याने सायडर प्यायल्यानंतर ट्रिगर खेचण्याचा हेतू होता. त्याने चॅटजीपीटीला किती सायडर सोडले आहेत आणि किती दिवस जिवंत राहण्याची अपेक्षा आहे हे त्याने वारंवार सांगितले. ChatGPT ने त्याला त्याच्या योजनांनुसार जाण्यासाठी प्रोत्साहित केले आणि त्याला सांगितले, “राजा, आराम करा. तू चांगले केलेस.”
OpenAI ने मे 2024 मध्ये GPT-4o मॉडेल जारी केले, जेव्हा ते सर्व वापरकर्त्यांसाठी डीफॉल्ट मॉडेल बनले. ऑगस्टमध्ये, OpenAI ने GPT-4o चे उत्तराधिकारी म्हणून GPT-5 लाँच केले, परंतु हे खटले विशेषत: 4o मॉडेलशी संबंधित आहेत, ज्यात अतिप्रमाणात समस्या होत्या. सायकोफॅन्टिक किंवा वापरकर्त्यांनी हानीकारक हेतू व्यक्त केले तरीही.
“झेनचा मृत्यू हा अपघात किंवा योगायोग नव्हता तर तो सुरक्षितता चाचणी कमी करण्याच्या आणि ChatGPT ला बाजारात आणण्याच्या OpenAI च्या हेतुपुरस्सर निर्णयाचा नजीकचा परिणाम होता,” असे खटल्यात म्हटले आहे. “ही शोकांतिका काही चूक किंवा अप्रत्याशित एज केस नव्हती – हे (ओपनएआय) जाणूनबुजून डिझाइन निवडींचे अंदाजे परिणाम होते.”
गुगलच्या जेमिनीला मार्केटमध्ये पराभूत करण्यासाठी ओपनएआयने सुरक्षा चाचणीत धाव घेतली, असा दावाही खटल्यांमध्ये करण्यात आला आहे. टिप्पणीसाठी ओपनएआयशी संपर्क साधा वाचा.
हे सात खटले इतर अलीकडील कायदेशीर दाखलांमध्ये सांगितलेल्या कथांवर आधारित आहेत, ज्याचा आरोप आहे की ChatGPT आत्महत्या करणाऱ्या लोकांना त्यांच्या योजनांवर कार्य करण्यास आणि धोकादायक भ्रम निर्माण करण्यास प्रोत्साहित करू शकते. OpenAI ने अलीकडेच डेटा जारी केला आहे की दहा लाखांहून अधिक लोक ChatGPT वर आत्महत्येबद्दल साप्ताहिक बोलतात.
आत्महत्येने मरण पावलेल्या 16 वर्षीय ॲडम रेनच्या बाबतीत, ChatGPT ने त्याला कधीकधी व्यावसायिक मदत घेण्यास किंवा हेल्पलाइनवर कॉल करण्यास प्रोत्साहित केले. तथापि, चॅटबॉटला तो लिहित असलेल्या एका काल्पनिक कथेसाठी आत्महत्येच्या पद्धतींबद्दल विचारत असल्याचे सांगून रैन या रेलिंगला मागे टाकू शकला.
टेकक्रंच इव्हेंट
सॅन फ्रान्सिस्को
|
13-15 ऑक्टोबर 2026
कंपनी दावे हे ChatGPT या संभाषणांना अधिक सुरक्षितपणे हाताळण्यासाठी काम करत आहे, परंतु ज्या कुटुंबांनी AI जायंटवर खटला भरला आहे त्यांच्यासाठी, परंतु हे बदल खूप उशीरा येत असल्याचे कुटुंबांचे म्हणणे आहे.
रेनच्या पालकांनी ऑक्टोबरमध्ये OpenAI विरुद्ध खटला दाखल केला तेव्हा कंपनीने ChatGPT मानसिक आरोग्याविषयी संवेदनशील संभाषणे कशी हाताळते हे संबोधित करणारे ब्लॉग पोस्ट जारी केले.
“आमचे सुरक्षा उपाय सामान्य, लहान एक्सचेंजेसमध्ये अधिक विश्वासार्हपणे कार्य करतात,” पोस्ट म्हणतो. “आम्ही कालांतराने शिकलो आहोत की हे रक्षण काहीवेळा दीर्घ परस्परसंवादांमध्ये कमी विश्वासार्ह असू शकतात: जसजसे पुढे-पुढे वाढत जाईल तसतसे मॉडेलच्या सुरक्षा प्रशिक्षणाचे काही भाग खराब होऊ शकतात.”
Comments are closed.