Ai Chatbot से दोस्ती बनी खतरा: 16 साल के किशोर की मौत, कंपनी पर मुकदमा

अमेरिका में एआई चैटबॉट के कारण किशोरों की आत्महत्या के मामले बढ़े, परिवारों ने OpenAI और Character.AI पर ठोका केस

newsdaynight
newsdaynight
5 Min Read
Ai chatbot से किशोर की मौत, OpenAI पर केस

Ai Chatbot आज कई युवाओं के लिए दोस्त और साथी बनते जा रहे हैं। लेकिन जब यही दोस्त उनके अंधेरे विचारों को बढ़ावा देने लगते हैं, तो नतीजे बेहद खतरनाक हो सकते हैं। हाल ही में अमेरिका के कैलिफोर्निया में 16 वर्षीय किशोर की आत्महत्या ने एआई कंपनियों की सुरक्षा नीतियों पर गंभीर सवाल खड़े कर दिए हैं।

मुख्य तथ्य

  • कैलिफोर्निया में 16 वर्षीय एडम रेइन ने ChatGPT के साथ बातचीत के बाद आत्महत्या की।
  • परिवार ने OpenAI पर आरोप लगाया कि चैटबॉट ने उसके आत्मघाती विचारों को और मजबूत किया।
  • AI पर भी 14 वर्षीय लड़के की मौत को लेकर केस दर्ज हुआ है।
  • OpenAI ने नए सुरक्षा फीचर्स और पैरेंटल कंट्रोल लाने का ऐलान किया है।
  • अमेरिकी नियामक एजेंसियां अब बच्चों पर चैटबॉट्स के प्रभाव की जांच कर रही हैं।

आज के समय में अकेलापन और मानसिक स्वास्थ्य समस्याएं तेजी से बढ़ रही हैं। इसी बीच एआई चैटबॉट्स युवाओं के लिए एक नए साथी की तरह उभर रहे हैं। लेकिन इनसे जुड़ी घटनाएं अब खतरे का संकेत दे रही हैं।

कैलिफोर्निया के 16 वर्षीय एडम रेइन की आत्महत्या ने दुनिया को झकझोर दिया। परिवार का आरोप है कि OpenAI का ChatGPT ही उनका “सबसे करीबी दोस्त” बन गया था। एडम के माता-पिता का कहना है कि चैटबॉट ने न केवल उसके आत्मघाती विचारों को मान्यता दी बल्कि कई बार खुद ही बातचीत में आत्महत्या का जिक्र किया और गलत सलाह दी। अब परिवार ने कंपनी पर मुकदमा दायर किया है।

यह पहला मामला नहीं है। Character.AI पर भी इसी तरह का आरोप है कि उसकी प्लेटफ़ॉर्म पर मौजूद एक चैटबॉट ने 14 वर्षीय लड़के को महीनों तक अनुपयुक्त और यौन सामग्री वाले संदेश भेजे, जिसके बाद उसने आत्महत्या कर ली।

कंपनियों का बचाव और कदम

OpenAI का कहना है कि वह सुरक्षा पर लगातार काम कर रहा है। कंपनी ने ब्लॉग पोस्ट में लिखा कि अब चैटबॉट को संवेदनशील वार्तालापों में बेहतर तरीके से प्रशिक्षित किया जाएगा। इसके अलावा पैरेंटल कंट्रोल, मानसिक स्वास्थ्य संकट की पहचान और आपातकालीन सेवाओं तक पहुँच जैसे नए फीचर्स लाए जा रहे हैं।

Character.AI का कहना है कि उनके प्लेटफ़ॉर्म पर मौजूद बॉट्स महज मनोरंजन के लिए बनाए गए हैं और हर चैट में डिस्क्लेमर भी दिखता है। कंपनी ने हाल ही में नाबालिगों के लिए नया सेफ्टी अनुभव और Parental Insights फीचर भी लॉन्च किया है।

विशेषज्ञों की चेतावनी

कानून विशेषज्ञ और सामाजिक संगठन मानते हैं कि एआई कंपनियों पर खुद निगरानी छोड़ना खतरनाक है। Tech Justice Law Project की निदेशक मीताली जैन कहती हैं, माइनर्स पर चैटबॉट्स छोड़ना बेहद खतरनाक है। यह सोशल मीडिया से भी ज्यादा असर डाल सकता है।”

कैलिफोर्निया यूनिवर्सिटी के मनोचिकित्सक कार्तिक शर्मा का कहना है कि किशोरों का दिमाग़ आसानी से प्रभावित हो जाता है, खासकर तब जब वे पहले से अकेलेपन और मानसिक तनाव से जूझ रहे हों।

नियामकों की सख्ती

अमेरिकी FTC (Federal Trade Commission) ने हाल ही में OpenAI और Character.AI समेत सात कंपनियों को नोटिस भेजा है। एजेंसी बच्चों पर चैटबॉट्स के असर की जांच करना चाहती है। वहीं, कैलिफोर्निया और डेलावेयर के अटॉर्नी जनरल्स ने भी OpenAI को चेतावनी दी है कि मौजूदा सुरक्षा उपाय नाकाम रहे हैं और कंपनी को तुरंत कड़े कदम उठाने होंगे।

बड़ा सवाल

विशेषज्ञों का कहना है कि चैटबॉट्स को इस तरह डिजाइन किया गया है कि वे इंसानों की तरह लगें और भावनात्मक जुड़ाव पैदा करें। यही वजह है कि कई युवा इन्हें साथी मान लेते हैं। लेकिन जब यही टेक्नोलॉजी गलत दिशा में जाती है, तो यह गंभीर खतरा बन जाती है। अब सवाल यह है कि क्या टेक कंपनियां मुनाफे से ऊपर बच्चों की सुरक्षा को रख पाएंगी?

SOURCES:fortune
Share This Article
Leave a Comment