Anthropic के नए AI मॉडल ‘Claude Mythos’ से बढ़ी चिंता, UK रेगुलेटर्स ने शुरू की जोखिमों की जांच

आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में सुरक्षा और रेगुलेशन को लेकर बहस एक बार फिर तेज हो गई है। हालिया रिपोर्ट्स के अनुसार, ब्रिटिश रेगुलेटर्स एंथ्रोपिक (Anthropic) के नवीनतम एआई मॉडल से जुड़े संभावित जोखिमों का आकलन करने के लिए काफी सक्रिय हो गए हैं। यह कदम तब उठाया गया है जब कंपनी ने अपने अघोषित मॉडल ‘Claude Mythos Preview’ का परीक्षण शुरू किया है।
‘Project Glasswing’ और सुरक्षा चिंताएं
एंथ्रोपिक के अनुसार, इस नए मॉडल को “Project Glasswing” के तहत तैनात किया जा रहा है। यह एक नियंत्रित पहल (controlled initiative) है, जिसके तहत केवल चुनिंदा संगठनों को ही इस मॉडल का उपयोग करने की अनुमति दी गई है। हालांकि, इसकी क्षमताओं और महत्वपूर्ण आईटी प्रणालियों पर इसके प्रभाव ने अधिकारियों की नींद उड़ा दी है।
बैंक ऑफ इंग्लैंड और सरकार की हाई-लेवल बैठकें
फाइनेंशियल टाइम्स की रिपोर्ट के मुताबिक, बैंक ऑफ इंग्लैंड, फाइनेंशियल कंडक्ट अथॉरिटी (FCA) और ट्रेजरी के अधिकारी राष्ट्रीय साइबर सुरक्षा केंद्र (NCSC) के साथ आपातकालीन बातचीत कर रहे हैं। इस चर्चा का मुख्य उद्देश्य एंथ्रोपिक के इस मॉडल द्वारा बैंकिंग और वित्तीय संस्थानों के महत्वपूर्ण आईटी इंफ्रास्ट्रक्चर में पैदा होने वाली संभावित कमजोरियों (vulnerabilities) की पहचान करना है।
रेगुलेटर्स को डर है कि अगर एआई मॉडल में कोई सुरक्षा चूक होती है, तो इसका सीधा असर देश की आर्थिक स्थिरता और डेटा सुरक्षा पर पड़ सकता है।
फिलहाल, एंथ्रोपिक ने रॉयटर्स द्वारा पूछे गए सवालों का कोई जवाब नहीं दिया है। लेकिन यूके सरकार की यह जल्दबाजी स्पष्ट करती है कि अब एआई मॉडल्स को बिना कड़ी जांच के बाजार में उतारना आसान नहीं होगा। भविष्य में एआई तकनीक और मानव सुरक्षा के बीच संतुलन बनाना एक बड़ी चुनौती बनी रहेगी।





