Home टेक न्यूज़ ‘डॉक्टर’ बन रहे ChatGPT और Gemini, लोगों को दे रहे गलत मेडिकल...

‘डॉक्टर’ बन रहे ChatGPT और Gemini, लोगों को दे रहे गलत मेडिकल एडवाइज, जोखिम में पड़ सकती है जान

30
0

Source :- LIVE HINDUSTAN

अगर आप AI को डॉक्टर समझकर उनसे मेडिकल एडवाइज ले रहे हैं, तो तुरंत बंद कर दीजिए, क्योंकि एआई से ली गई मेडिकल एजवाइज आपकी जान जोखिम में डाल सकती है। ChatGPT, Gemini, Meta AI, Grok और DeepSeek पर की गई एक रिसर्च में इस बात की जानकारी सामने आई है।

कई लोगों को AI से बातचीत करना अच्छा लगता है। लोग अपने दिल की बात ही नहीं, बल्कि रिलेशनशिप और हेल्थ से जुड़ी बातें भी एआई के साथ शेयर करते हैं और उनसे इस बारे में सलाह लेते हैं। लेकिन अगर आप एआई को डॉक्टर समझकर उनसे मेडिकल एडवाइज ले रहे हैं या अपनी किसी बीमारी की दवा एआई से पूछकर खां रहे हैं, तो सावधान हो जाइए। एआई से ली गई मेडिकल एजवाइज आपकी जान जोखिम में डाल सकती है। मेडिकल जर्नल BMJ Open में पब्लिश एक नई स्टडी में पाया गया है कि पॉपुलर AI चैटबॉट्स द्वारा दी गई लगभग आधी सलाह गलत होती है। ब्लूमबर्ग द्वारा सबसे पहले रिपोर्ट की गई इस स्टडी में, जेनरेटिव AI प्लेटफॉर्म्स से जुड़े बढ़ते हेल्थ रिस्क को उजागर करने के लिए पांच बड़े AI प्लेटफॉर्म्स का मूल्यांकन किया गया।

स्टडी में सामने आया – लगभग 20% जवाब बहुत ज्यादा गलत

इस हफ्ते पब्लिश रिसर्च में ChatGPT, Gemini, Meta AI, Grok और DeepSeek का टेस्ट किया गया और हर चैटबॉट से पांच हेल्थ कैटेगरी में 10 सवाल पूछे गए। कुल मिले जवाबों में से, रिसर्च करने वालों ने पाया कि 50 प्रतिशत जवाबों में गलत मेडिकल जानकारी थी। इसके अलावा, स्टडी में यह भी बताया गया कि लगभग 20 प्रतिशत जवाबों को ‘बहुत ज्यादा गलत’ माना गया।

अमेरिका, कनाडा और यूके के शोधकर्ताओं ने यह भी पाया कि जब AI मॉडल्स को कैंसर और वैक्सीन जैसे पॉपुलर मेडिकल विषयों से जुड़े बंद-छोर (closed-ended) वाले सवालों को हल करना होता है, तो वे काफी अच्छा प्रदर्शन करते हैं। हालांकि, खुले-छोर (open-ended) वाले सवालों या पोषण और स्टेम सेल्स जैसे जटिल स्वास्थ्य विषयों के लिए सुरक्षित जवाब देने में इन मॉडल्स को काफी मुश्किलों का सामना करना पड़ा।

रिपोर्ट में एक बड़ी चिंता यह उठाई गई है कि ये मॉडल, मेडिकल डायग्नोस जारी करने के लिए जरूरी क्लिनिकल समझ या लाइसेंस न होने के बावजूद, एक अधिकारपूर्ण लहजा अपनाते हैं। रिसर्च में यह बात सामने आई कि AI चैटबॉट स्वास्थ्य से जुड़े सवालों के जवाब पूरे आत्मविश्वास के साथ देते हैं, भले ही वे अपने दावों के समर्थन में मेडिकल रिफरेंस की कोई पूरी और सटीक लिस्ट न दे पाएं।

शोधकर्ताओं का कहना है कि 10 सवालों पर टेस्ट किए गए चैटबॉट्स में से, सिर्फ दो बार सवालों के जवाब देने से मना किया गया; और ये दोनों ही बार Meta AI की तरफ से हुआ।

इस स्टडी के लेखकों ने यह बताया है कि उचित निगरानी और जन-जागरूकता के बिना इन चैटबॉट्स को इस्तेमाल में लाने का एक बड़ा जोखिम यह है कि ये गलत जानकारियों के प्रसार को और भी बढ़ा सकते हैं।

शोधकर्ताओं ने रिपोर्ट में बताया, “ये सिस्टम ऐसी प्रतिक्रियाएं दे सकते हैं जो सुनने में तो एकदम सही लगती हैं, लेकिन उनमें गलतियां होने की संभावना होती है।” उन्होंने आगे कहा कि इन निष्कर्षों से “व्यवहार से जुड़ी महत्वपूर्ण कमियां सामने आती हैं, और इस बात की जरूरत पर जोर मिलता है कि पब्लिक हेल्थ और मेडिकल कम्युनिकेशन के क्षेत्र में AI चैटबॉट्स का इस्तेमाल किस तरह किया जाए, इस पर फिर से विचार किया जाए।”

हेल्थ के लिए डेडिकेटेड एआई टूल लाई कंपनियां

यह नई स्टडी ऐसे समय में सामने आई है, जब AI कंपनियां अपने AI टूल्स को हेल्थकेयर में ज्यादा अहम भूमिका निभाने के लिए तैयार कर रही हैं। OpenAI ने इस साल की शुरुआत में अपना ChatGPT Health लॉन्च किया था, जो यूजर्स को अपना पर्सनल हेल्थ डेटा इस पॉपुलर AI चैटबॉट के साथ शेयर करने की सुविधा देता है, ताकि उन्हें ज्यादा सटीक और भरोसेमंद नतीजे मिल सकें।

इस बीच, Anthropic ने ‘Claude for Healthcare’ भी लॉन्च किया है, जो अमेरिका में उसके पेड यूजर्स को अपने मेडिकल रिकॉर्ड्स को सुरक्षित रूप से जोड़ने की सुविधा देता है।

SOURCE : LIVE HINDUSTAN