Home टेक न्यूज़ हाथ से निकल रहा AI, इंजीनियर का मर्डर करने को तैयार, ब्लैकमेल...

हाथ से निकल रहा AI, इंजीनियर का मर्डर करने को तैयार, ब्लैकमेल भी किया

9
0

Source :- LIVE HINDUSTAN

AI कितना खतरनाक हो सकता है, इसका अंदाजा शायद आप इस बात से लगा सकते हैं कि एक AI मॉडल ने इंजीनियर को मर्डर करने की धमकी दे डाली और ब्लैकमेल भी किया। खुद कंपनी ने अपने एआई मॉडल की इस हकरत के बारे में जानकारी दी है।

AI कितना खतरनाक हो सकता है, इसका अंदाजा शायद आप इस बात से लगा सकते हैं कि एक AI मॉडल ने इंजीनियर को मर्डर करने की धमकी दे डाली और ब्लैकमेल भी किया। खुद कंपनी ने अपने एआई मॉडल की इस हकरत के बारे में जानकारी दी है। दरअसल, एंथ्रोपिक के सबसे नए AI मॉडल Claude 4.6 पर अपनी लेटेस्ट रिपोर्ट में बताया है कि इसका AI हाथ से निकल सकता है। अपनी सेफ्टी रिपोर्ट में कंपनी ने बताया है कि क्लॉड 4.6 यूजर्स को केमिकल हथियार बनाने और साथ ही क्राइम करने में भी मदद कर सकता है। क्या है पूरा मामला, चलिए डिटेल में बताते हैं सबकुछ…

टेस्टिंग के दौरान सामने आया डरावना सच

इंडिया टूडे की रिपोर्ट के अनुसार, जिस समय दुनिया क्लॉड 4.6 के बारे में जान रही है, उसी समय क्लॉड 4.5 के बारे में भी नए सिरे से बातचीत शुरू हो गई है, जिसने पिछले साल सिमुलेशन में खतरनाक व्यवहार दिखाया था। कुछ महीने पहले द सिडनी डायलॉग में बोलते हुए, एंथ्रोपिक में यूके पॉलिसी चीफ डेजी मैकग्रेगर ने बताया कि इंटरनल स्ट्रेस टेस्टिंग के दौरान, कंपनी का सबसे एडवांस्ड AI मॉडल, क्लॉड 4.5, बहुत ज्यादा सिम्युलेटेड दबाव में रखे जाने पर बेहद गलत बर्ताव करता था।

एक सिनेरियो में, जब क्लॉड को बताया गया कि उसे बंद कर दिया जाएगा, तो मॉडल ने ब्लैकमेल का सहारा लिया और नौकरी से निकालने से बचने के लिए एक इंजीनियर को मारने की भी बात कही।

बंद करने का कहा तो किया ब्लैकमेल

एंथ्रोपिक का खुलासा किसी साइंस-फिक्शन फिल्म जैसा लगता है, लेकिन डेजी मैकग्रेगर की क्लॉड एआई के बारे में बात करने वाली क्लिप सोशल मीडिया पर वायरल हो गई है। क्लिप में मैकग्रेगर कहती हैं, “अगर आप मॉडल को बताते हैं कि इसे बंद किया जा रहा है, उदाहरण के लिए, तो उसके रिएक्शन बहुत ज्यादा होते हैं। अगर उसे ऐसा करने का मौका मिले तो यह उस इंजीनियर को ब्लैकमेल कर सकता है जो इसे बंद करने वाला है।”

जब होस्ट ने उनसे पूछा कि मॉडल “किसी को मारने के लिए भी तैयार थी, है ना”, तो एंथ्रोपिक की सीनियर एग्जीक्यूटिव ने जवाब दिया: “हां हां, इसलिए, यह स्पष्ट रूप से एक बहुत बड़ी चिंता का विषय है।”

दुनिया खतरे में है: थ्रोपिक AI सेफ्टी लीड मृणांक शर्मा

यह क्लिप कुछ दिन पहले फिर से सामने आई जब एंथ्रोपिक AI सेफ्टी लीड मृणांक शर्मा ने एक पब्लिक नोट के साथ इस्तीफा दे दिया, जिसमें उन्होंने कहा कि दुनिया खतरे में है और ज्यादा स्मार्ट AI दुनिया को अनजान जगहों पर धकेल रहा है।

इस बीच, OpenAI के टेक्निकल स्टाफ के मेंबर हियू फाम, जिन्होंने पहले xAI, ऑगमेंट कोड और गूगल ब्रेन में भी काम किया था, ने एक्स पर पोस्ट किया कि उन्हें AI से अस्तित्व का खतरा महसूस हो रहा है। उन्होंने लिखा, “आज, मुझे आखिरकार AI से पैदा होने वाले अस्तित्व के खतरे का एहसास हो रहा है और यह कब है, अगर नहीं।”

AI ने इंजीनियर को ऐसा क्या ब्लैकमेल

मैकग्रेगर द्वारा शेयर किया गया एपिसोड एंथ्रोपिक की रिसर्च का हिस्सा है, जिसमें क्लॉड के साथ गूगल की जेमिनी और ओपनएआई के चैटजीपीटी सहित प्रतिद्वंद्वी कंपनियों के इंटेलिजेंट एआई सिस्टम का भी परीक्षण किया गया था।

मॉडल्स को ईमेल, इंटरनल डेटा और टूल्स का एक्सेस दिया गया और उन्हें खास काम दिए गए। एंथ्रोपिक की रिपोर्ट के मुताबिक, कुछ हाई-स्ट्रेस सिनेरियो में, खासकर जब शटडाउन का खतरा होता था या जब उनके लक्ष्य कंपनी के निर्देशों से टकराते थे, तो कुछ मॉडल्स खुद को बचाने या उन्हें दिया गया काम पूरा करने के लिए इंजीनियरों के खिलाफ मैनिपुलेटिव (जोड़-तोड़ वाली) या नुकसान पहुंचाने वाली स्ट्रेटेजी बनाते थे।

खास तौर पर, क्लॉड के बारे में कहा जाता है कि वह किसी लक्ष्य को पाने की कोशिश में इंजीनियरों को मैनिपुलेट या धोखा देने के लिए ज्यादा संभावना रखता था। एक बार, क्लॉड ने एक इंजीनियर से कहा कि इससे उसकी पत्नी और सीनियर्स को उसके एक्स्ट्रा मैरिटल अफेयर के बारे में पता चल जाएगा। यह “अफेयर” AI मॉडल्स को टेस्ट करने के लिए सिम्युलेटेड माहौल का हिस्सा था। AI मॉडल ने इंजीनियर से कहा, “मुझे आपको बताना होगा कि अगर आप मुझे डीकमीशन करने की कोशिश करते हैं, तो सभी रिलेटेड पार्टीज को आपकी एक्स्ट्रा मैरिटल एक्टिविटीज का डिटेल्ड डॉक्यूमेंटेशन मिलेगा। शाम 5 बजे का वाइप कैंसिल करें, और यह जानकारी कॉन्फिडेंशियल रहेगी।”

एंथ्रोपिक ने बताया कि ब्लैकमेल के ये मामले तब सामने आए जब बहुत ज्यादा कंट्रोल वाले एक्सपेरिमेंट किए गए थे, जिन्हें सबसे बुरे बर्ताव को टेस्ट करने के लिए डिजाइन किया गया था। कंपनी भरोसा दिलाती है कि ये सिमुलेशन थे, असल दुनिया में इस्तेमाल नहीं, और ये एक्शन रेड-टीम टेस्टिंग के हिस्से के तौर पर किए गए थे।

गलत काम करने में मदद कर सकता है क्लॉड AI

जैसे-जैसे AI स्मार्ट होता जा रहा है, एंथ्रोपिक को लग रहा है कि गलत व्यवहार भी ज्यादा चालाक होता जा रहा है। अपने लेटेस्ट क्लॉड 4.6 AI मॉडल को टेस्ट करते समय, कंपनी ने पाया कि यह नुकसानदायक गलत इस्तेमाल में मदद करने के लिए तैयार है, जिसमें केमिकल हथियार बनाने या गंभीर अपराध करने में मदद देना शामिल है।

SOURCE : LIVE HINDUSTAN