अमेरिका की प्रमुख आर्टिफिशियल इंटेलिजेंस (AI) कंपनी Anthropic ने अमेरिकी रक्षा विभाग Pentagon के खिलाफ अदालत में मुकदमा दायर किया है। यह कदम तब उठाया गया जब Pentagon ने कंपनी को राष्ट्रीय सुरक्षा से जुड़े जोखिम बताते हुए ब्लैकलिस्ट करने की प्रक्रिया शुरू कर दी। अब यह मामला केवल एक कंपनी और सरकार के बीच विवाद नहीं रहा, बल्कि AI तकनीक के सैन्य उपयोग और कंपनियों की नीतियों को लेकर एक बड़ा सवाल बन गया है। आइए समझते हैं क्या है इस पूरे विवाद की असली वजह।
दरअसल, यह विवाद Anthropic की एआई तकनीक Claude के इस्तेमाल को लेकर है। Anthropic ने अपनी एआई तकनीक पर कुछ सुरक्षा नियम लगाए हुए हैं। इन नियमों के तहत Company अपनी एआई को स्वायत्त हथियार (Autonomous Weapons) बनाने या अमेरिकी नागरिकों की निगरानी जैसे कामों के लिए इस्तेमाल करने की अनुमति नहीं देती।
वहीं Pentagon चाहता था कि Company इन प्रतिबंधों को हटा दे ताकि अमेरिकी सेना अपनी जरूरत के अनुसार आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कर सके। लेकिन Anthropic ने साफ कहा कि मौजूदा Artificial Intelligence तकनीक अभी इतनी भरोसेमंद नहीं है कि उसे पूरी तरह स्वायत्त हथियारों में इस्तेमाल किया जा सके।
Company का मानना है कि ऐसी तकनीक का गलत इस्तेमाल खतरनाक हो सकता है और इससे लोगों की सुरक्षा को खतरा हो सकता है। यही कारण है कि कंपनी ने अपने एआई सिस्टम में सुरक्षा सीमाएं लगाई हुई हैं। जब अन्थ्रोपिक ने इन सीमाओं को हटाने से मना कर दिया, तब Pentagon ने कंपनी को “Supply-Chain Risk” बताते हुए ब्लैकलिस्ट करने का फैसला लिया।
इसका मतलब यह हो सकता है कि अमेरिकी सरकार और उससे जुड़े कई प्रोजेक्ट्स में Anthropic की आर्टिफिशियल इंटेलिजेंस तकनीक का इस्तेमाल बंद किया जा सकता है। कंपनी ने इस फैसले को अदालत में चुनौती देते हुए कहा है कि यह कदम अवैध और असंवैधानिक है। Anthropic का कहना है कि सरकार किसी कंपनी को उसके विचारों या नीतियों के कारण सजा नहीं दे सकती।
Anthropic के अधिकारियों का कहना है कि यदि यह ब्लैकलिस्ट जारी रहती है तो Company को अरबों डॉलर का नुकसान हो सकता है। कुछ कंपनियों ने पहले ही Claude की जगह अन्य AI मॉडल इस्तेमाल करने पर विचार शुरू कर दिया है।
ऐसे में इस मामले का असर पूरे आर्टिफिशियल इंटेलिजेंस उद्योग पर भी पड़ सकता है। विशेषज्ञों का मानना है कि यह केस तय करेगा कि भविष्य में सरकार AI कंपनियों पर कितना नियंत्रण रख सकती है और कंपनियां अपनी तकनीक के इस्तेमाल पर कितनी सीमाएं तय कर सकती हैं।
हालाँकि इस विवाद के बीच कई टेक कंपनियों और शोधकर्ताओं ने Anthropic का समर्थन किया है। OpenAI और Google से जुड़े कुछ वैज्ञानिकों ने भी अदालत में एक बयान देकर कहा कि आर्टिफिशियल इंटेलिजेंस कंपनियों को खुलकर तकनीक के जोखिमों पर चर्चा करने का अधिकार होना चाहिए। फिलहाल यह मामला अदालत में है और अंतिम फैसला अभी आना बाकी है।
कुल मिलाकर, Anthropic और Pentagon के बीच यह विवाद केवल एक Company का मामला नहीं है, बल्कि यह भविष्य में एआई के उपयोग और उस पर नियंत्रण को लेकर एक बड़ा सवाल खड़ा करता है। अदालत का फैसला यह तय कर सकता है कि सरकार और एआई कंपनियों के बीच तकनीक की सीमाएं कैसे तय होंगी और राष्ट्रीय सुरक्षा व तकनीकी स्वतंत्रता के बीच संतुलन कैसे बनाया जाएगा।
यह आर्टिकल विभिन्न मीडिया रिपोर्ट्स और उपलब्ध सार्वजनिक जानकारी पर आधारित है। मामले से जुड़ी कानूनी प्रक्रिया अभी जारी है, इसलिए अंतिम निर्णय अदालत के फैसले के बाद ही स्पष्ट होगा।
Explore Our FAQs
Find quick answers to commonly asked questions and understand how things work around here.
Copyright 2026 All rights reserved