Man followed ChatGPT's advice, gave up salt, and landed in hospital!

ChatGPT की सलाह मानी, नमक छोड़ा और अस्पताल पहुंचा एक शख्स!

Man followed ChatGPT's advice, gave up salt, and landed in hospital!

परिचय: नमक से बचने चला, AI की सलाह पर अस्पताल पहुंचा

हाल ही में एक ऐसी खबर सामने आई है जिसने सभी को चौंका दिया है. एक शख्स जिसने अपनी सेहत सुधारने के लिए नमक छोड़ना चाहा, उसने किसी डॉक्टर या पोषण विशेषज्ञ की बजाय एक कंप्यूटर प्रोग्राम, चैटजीपीटी (ChatGPT), से सलाह ले ली. इस सलाह को मानना उसे इतना महंगा पड़ा कि उसे अस्पताल में भर्ती होना पड़ा. यह घटना तेजी से सोशल मीडिया और अन्य खबरों में फैल रही है, जिससे लोग हैरान हैं और इस पर तरह-तरह की बातें कर रहे हैं. इस मामले ने एक बार फिर कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलिजेंस या AI) से स्वास्थ्य संबंधी सलाह लेने के खतरों को सामने ला दिया है. आखिर क्या थी वो सलाह और कैसे इसने इस शख्स को गंभीर मुसीबत में डाल दिया? यह पूरी कहानी समझने लायक है.

पृष्ठभूमि: आखिर क्यों ली ChatGPT से स्वास्थ्य सलाह?

पीड़ित शख्स ने बताया कि वह अपनी सेहत को लेकर काफी सजग था और डॉक्टर ने उसे नमक कम करने की सलाह दी थी. हालांकि, नमक का एक अच्छा और सुरक्षित विकल्प खोजने के बजाय, उसने तुरंत जवाब पाने के लिए चैटजीपीटी का सहारा लिया. आज के दौर में इंटरनेट और AI से हर जानकारी तुरंत मिल जाती है, और लोग अक्सर विशेषज्ञों से सलाह लेने की बजाय ऐसे डिजिटल माध्यमों पर भरोसा करने लगे हैं. उन्हें लगता है कि कंप्यूटर हर बात का सही जवाब दे सकता है. लेकिन, स्वास्थ्य संबंधी जानकारी के मामले में यह सोच कितनी खतरनाक हो सकती है, इस घटना ने यह साबित कर दिया है. लोग अक्सर अपनी बीमारी या डाइट के लिए गूगल या AI से जानकारी खोजते हैं, जो कई बार उन्हें गलत रास्ते पर ले जा सकती है.

क्या हुआ और डॉक्टर की राय: अस्पताल में क्या खुलासे हुए?

चैटजीपीटी ने शख्स को नमक के विकल्प के रूप में एक ऐसी चीज़ खाने की सलाह दी, जो आम तौर पर नमक का सुरक्षित विकल्प नहीं मानी जाती या जिसे बहुत कम मात्रा में इस्तेमाल किया जाता है. चैटजीपीटी ने उस व्यक्ति को सोडियम ब्रोमाइड का उपयोग करने की सलाह दी, जिसे 20वीं सदी में दवाओं में इस्तेमाल किया जाता था, लेकिन अब इसे बड़ी मात्रा में जहरीला माना जाता है. उस शख्स ने AI की बात मानकर उस चीज़ का सेवन करना शुरू कर दिया. कुछ ही दिनों में उसकी तबीयत बिगड़ गई और उसे अचानक तेज पेट दर्द, उल्टी, चक्कर आने और भ्रम की स्थिति जैसे लक्षण महसूस होने लगे. आनन-फानन में उसे अस्पताल ले जाया गया. डॉक्टरों ने जांच की और पाया कि उसके शरीर में कुछ तत्वों का संतुलन बिगड़ गया था (ब्रोमिज़्म या ब्रोमाइड विषाक्तता), जिसकी वजह से उसकी जान को भी खतरा हो सकता था. डॉक्टरों ने साफ किया कि उसने जिस चीज़ का सेवन किया था, वह ज्यादा मात्रा में शरीर के लिए जहर के समान थी और यह सीधे तौर पर चैटजीपीटी की गलत सलाह का नतीजा था.

विशेषज्ञों की राय: AI से स्वास्थ्य सलाह कितनी घातक?

इस घटना पर स्वास्थ्य विशेषज्ञों और डॉक्टरों ने चिंता व्यक्त की है. पोषण विशेषज्ञों का कहना है कि चैटजीपीटी जैसे AI उपकरण केवल इंटरनेट पर मौजूद जानकारी को इकट्ठा करके पेश करते हैं, वे किसी व्यक्ति के शरीर, उसकी बीमारियों या उसकी खास ज़रूरतों को नहीं समझ सकते. डॉक्टर स्पष्ट करते हैं कि स्वास्थ्य संबंधी सलाह हमेशा योग्य और प्रशिक्षित डॉक्टर या विशेषज्ञ से ही लेनी चाहिए, क्योंकि वे व्यक्ति की पूरी जांच करने के बाद ही कोई सलाह देते हैं. AI के पास न तो अनुभव होता है और न ही वह किसी मरीज की शारीरिक स्थिति को समझ सकता है. इसलिए, AI से ली गई स्वास्थ्य सलाह बहुत खतरनाक हो सकती है और जानलेवा भी साबित हो सकती है. यह घटना AI के उपयोग पर गंभीर सवाल उठाती है.

निष्कर्ष और भविष्य की सीख: क्या कहता है यह मामला?

यह मामला हम सभी के लिए एक बड़ी सीख है. यह दिखाता है कि तकनीक, खासकर AI, हमारी जिंदगी को आसान बना सकती है, लेकिन जब बात स्वास्थ्य की हो तो हमें बहुत सावधान रहना चाहिए. किसी भी बीमारी या डाइट संबंधी बदलाव के लिए हमेशा किसी योग्य डॉक्टर या स्वास्थ्य विशेषज्ञ से ही सलाह लेनी चाहिए. ऑनलाइन मिली जानकारी या AI के सुझावों पर आँख बंद करके भरोसा करना खतरनाक हो सकता है. यह घटना बताती है कि जानकारी का सही स्रोत पहचानना कितना ज़रूरी है. हमें समझना होगा कि AI भले ही कितना भी स्मार्ट हो जाए, वह किसी इंसान की जगह नहीं ले सकता, खासकर स्वास्थ्य जैसे संवेदनशील मामलों में. आपकी सेहत किसी एल्गोरिदम से कहीं ज़्यादा कीमती है.

Image Source: AI

Categories: