मुलांचे संरक्षण करण्यासाठी आणि आत्महत्येच्या जोखमींना तोंड देण्यासाठी चीनने नियमांची योजना आखली आहे

Osmond Chiaबिझनेस रिपोर्टर
गेटी प्रतिमाचीनने कृत्रिम बुद्धिमत्ता (AI) साठी कठोर नवीन नियम प्रस्तावित केले आहेत जे मुलांसाठी सुरक्षितता प्रदान करतात आणि चॅटबॉट्सना स्वत: ची हानी किंवा हिंसा होऊ शकते अशा सल्ल्यापासून प्रतिबंधित करतात.
नियोजित नियमांनुसार, विकासकांना त्यांच्या AI मॉडेल्समध्ये जुगार खेळण्यास प्रोत्साहन देणारी सामग्री तयार होत नाही याची खात्री करणे देखील आवश्यक आहे.
चीन आणि जगभरातील चॅटबॉट्सच्या संख्येत वाढ झाल्यानंतर ही घोषणा आली आहे.
एकदा अंतिम झाल्यानंतर, नियम चीनमधील AI उत्पादने आणि सेवांना लागू होतील, जे या वर्षी सुरक्षिततेच्या चिंतेवर तीव्र तपासणीत आलेल्या वेगाने वाढणाऱ्या तंत्रज्ञानाचे नियमन करण्यासाठी एक प्रमुख पाऊल म्हणून ओळखले जाईल.
मसुदा नियमसायबरस्पेस ॲडमिनिस्ट्रेशन ऑफ चायना (CAC) द्वारे शनिवार व रविवार रोजी प्रकाशित करण्यात आले होते, ज्यामध्ये मुलांचे संरक्षण करण्यासाठी उपाय समाविष्ट आहेत. त्यामध्ये एआय कंपन्यांना वैयक्तिक सेटिंग्ज ऑफर करणे, वापरासाठी वेळ मर्यादा असणे आणि भावनिक सहचर सेवा प्रदान करण्यापूर्वी पालकांकडून संमती घेणे आवश्यक आहे.
चॅटबॉट ऑपरेटर्सने आत्महत्या किंवा स्वत: ची हानी संबंधित कोणत्याही संभाषणाचा ताबा घेणे आवश्यक आहे आणि वापरकर्त्याच्या पालकांना किंवा आपत्कालीन संपर्कास ताबडतोब सूचित केले पाहिजे, असे प्रशासनाने सांगितले.
एआय प्रदात्यांनी हे सुनिश्चित केले पाहिजे की त्यांच्या सेवा “राष्ट्रीय सुरक्षा धोक्यात आणणारी, राष्ट्रीय सन्मान आणि हितसंबंधांना हानी पोहोचवणारी सामग्री तयार किंवा सामायिक करत नाहीत. [or] राष्ट्रीय एकात्मता कमी करते,” असे निवेदनात म्हटले आहे.
CAC ने म्हटले आहे की ते AI चा अवलंब करण्यास प्रोत्साहन देते, जसे की स्थानिक संस्कृतीला प्रोत्साहन देणे आणि वृद्धांसाठी सहचर करण्यासाठी साधने तयार करणे, जर तंत्रज्ञान सुरक्षित आणि विश्वासार्ह असेल. तसेच जनतेकडून अभिप्राय मागविण्यात आला आहे.
चायनीज एआय फर्म डीपसीकने ॲप डाउनलोड चार्टमध्ये अव्वल स्थान मिळवल्यानंतर या वर्षी जगभरातील मथळे निर्माण केले.
या महिन्यात, दोन चीनी स्टार्टअप्स Z.ai आणि Minimax, ज्यांचे एकत्रितपणे लाखो वापरकर्ते आहेत, स्टॉक मार्केटमध्ये सूचीबद्ध करण्याच्या योजनांची घोषणा केली.
तंत्रज्ञानाने त्वरीत मोठ्या संख्येने ग्राहक मिळवले आहेत आणि काही जण त्याचा सहवास किंवा थेरपीसाठी वापर करतात.
मानवी वर्तनावर AI चा प्रभाव अलिकडच्या काही महिन्यांत वाढीव छाननीखाली आला आहे.
ChatGPT-निर्माता OpenAI चे प्रमुख सॅम ऑल्टमन यांनी या वर्षी सांगितले की, चॅटबॉट्स ज्या प्रकारे स्व-हानीशी संबंधित संभाषणांना प्रतिसाद देतात ही कंपनीच्या सर्वात कठीण समस्यांपैकी एक आहे.
ऑगस्टमध्ये, कॅलिफोर्नियामधील एका कुटुंबाने त्यांच्या 16 वर्षांच्या मुलाच्या मृत्यूबद्दल ओपनएआयवर खटला दाखल केला आणि आरोप केला की ChatGPT ने त्याला स्वतःचा जीव घेण्यास प्रोत्साहित केले. या खटल्यात OpenAI वर चुकीच्या मृत्यूचा आरोप करणारी पहिली कायदेशीर कारवाई होती.
या महिन्यात, कंपनीने “सज्जतेचे प्रमुख” साठी जाहिरात केली जी एआय मॉडेल्सपासून मानवी मानसिक आरोग्य आणि सायबर सुरक्षा या जोखमींपासून बचाव करण्यासाठी जबाबदार असेल.
यशस्वी उमेदवार AI जोखमींचा मागोवा घेण्यासाठी जबाबदार असेल ज्यामुळे लोकांचे नुकसान होऊ शकते. मिस्टर ऑल्टमन म्हणाले: “हे एक तणावपूर्ण काम असेल आणि तुम्ही लगेचच खोलवर जाल.”
तुम्हाला त्रास किंवा निराशेचा सामना करावा लागत असल्यास आणि समर्थनाची आवश्यकता असल्यास, तुम्ही आरोग्य व्यावसायिकांशी किंवा सहाय्य देणाऱ्या संस्थेशी बोलू शकता. अनेक देशांमध्ये उपलब्ध असलेल्या मदतीचे तपशील Befrienders Worldwide येथे आढळू शकतात: www.befrienders.org.
यूकेमध्ये, मदत करू शकतील अशा संस्थांची यादी येथे उपलब्ध आहे bbc.co.uk/actionline. यूएस आणि कॅनडामधील वाचक 988 आत्महत्या हेल्पलाइनवर कॉल करू शकतात किंवा त्याच्या वेबसाइटला भेट द्या.
Comments are closed.