रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती

विषयसूची:

रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती
रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती

वीडियो: रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती

वीडियो: रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती
वीडियो: रोबोट सच मे बोला 😨 #शॉर्ट्स #backtobasics by #arvind_arora 2024, मई
Anonim

जिनेवा में विशेषज्ञ मिले, लेकिन कोई समझौता नहीं हो सका: संयुक्त राज्य अमेरिका और रूस ने सभी कामों को अवरुद्ध कर दिया। शायद यही एकमात्र समय है जब आधिपत्य इतने सामंजस्यपूर्ण ढंग से काम करते हैं।

रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती
रोबोट से लड़ना: निषिद्ध की अनुमति नहीं दी जा सकती

तथाकथित लड़ाकू रोबोटों के भाग्य का फैसला करने के लिए जिनेवा में अमानवीय हथियारों पर कन्वेंशन के प्रारूप में विशेषज्ञों की बैठकें समाप्त हुईं - स्वायत्त हथियार जो लक्ष्यों को हराने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करते हैं। हालांकि, कोई समझौता नहीं हो सका। संयुक्त राज्य अमेरिका, रूस, दक्षिण कोरिया, इज़राइल और ऑस्ट्रेलिया उन अल्पसंख्यक राष्ट्रों में से थे जो हत्यारे रोबोटों पर पूर्ण प्रतिबंध की भावना को अवरुद्ध करने में सफल रहे हैं।

इसलिए, हालांकि दुनिया में अभी भी कोई काम करने वाला स्वायत्त हथियार नहीं है, तकनीक बनी हुई है, इसलिए बोलने के लिए, मानवीय - इसे विकसित और शोध किया जा सकता है। दिलचस्प बात यह है कि स्टॉकहोम पीस रिसर्च इंस्टीट्यूट (एसआईपीआरआई) के अनुसार, संयुक्त राज्य अमेरिका और रूस सबसे बड़े हथियार निर्यातकों की सूची में शीर्ष पर हैं। दक्षिण कोरिया, इज़राइल और ऑस्ट्रेलिया भी इस रैंकिंग में पीछे नहीं हैं - वे बाजार के शीर्ष 20 खिलाड़ियों में शामिल हैं।

और यद्यपि चीन (दुनिया में हथियारों का पांचवां निर्यातक, संयुक्त राष्ट्र सुरक्षा परिषद का एक स्थायी सदस्य लड़ाकू रोबोटों पर प्रतिबंध लगाने की वकालत करता है, लेकिन बैठकों के दौरान इसने अपनी दिशा में पैमानों को मोड़ने का प्रबंधन नहीं किया। आज, 26 देश खुले तौर पर समर्थन करते हैं युद्ध में कृत्रिम बुद्धि के उपयोग पर प्रतिबंध। अन्य एक स्पष्ट स्थिति से कतराते हैं) फ्रांस और जर्मनी (तीसरे और चौथे हथियार निर्यातक) एक दस्तावेज पर हस्ताक्षर करने की पेशकश करते हैं जो कृत्रिम बुद्धि पर मनुष्य की प्रधानता को मजबूत करेगा, लेकिन उनकी अधिक संभावना है उन लोगों के पक्ष में जो स्वायत्त लड़ाकू वाहन विकसित करना चाहते हैं।

"यह निश्चित रूप से निराशाजनक है कि सैन्य दिग्गजों का एक छोटा समूह बहुमत की इच्छा को रोक सकता है," जिनेवा की बैठकों के परिणाम पर किलर रोबोट्स को रोकने के अभियान के समन्वयक मैरी वेरहेम ने टिप्पणी की।

वास्तव में, स्थिति सशस्त्र एकाधिकार टाइकून की साजिश की तरह दिखती है, यह देखते हुए कि संयुक्त राज्य अमेरिका और रूस आमतौर पर महत्वपूर्ण मुद्दों पर कम से कम किसी तरह का समझौता नहीं कर सकते हैं। सीरियाई को लें: इस वसंत में सीरिया में रासायनिक हथियारों का उपयोग करने के बाद वाशिंगटन और मॉस्को ने परस्पर एक दूसरे के प्रस्तावों को अवरुद्ध कर दिया। सैन्य उद्देश्यों के लिए श्वासावरोध गैसों और अन्य विषाक्त पदार्थों को पहले अमानवीय हथियारों पर कन्वेंशन द्वारा प्रतिबंधित कर दिया गया था।

किलर रोबोट के भाग्य पर अगली बैठक नवंबर में जिनेवा में होगी।

वे स्वायत्त हथियारों पर प्रतिबंध क्यों लगाना चाहते हैं

रोबोट युद्ध प्रतिबंध के समर्थक इस बात पर जोर देते हैं कि युद्ध का मैदान कृत्रिम बुद्धिमत्ता का स्थान नहीं है। उनकी राय में, ऐसी प्रौद्योगिकियां एक बड़ा खतरा पैदा करती हैं। कम से कम, आज यह स्पष्ट नहीं है कि मशीन गैर-लड़ाकों (सेना सेवा के कर्मी जो केवल आत्मरक्षा के लिए हथियारों का उपयोग कर सकते हैं) और सामान्य रूप से नागरिकों से लड़ाकों (जो सीधे शत्रुता में शामिल हैं) के बीच अंतर कैसे करेंगे। एक संभावना है कि काम घायलों और आत्मसमर्पण करने वालों को मार देगा, जो युद्ध के मौजूदा नियमों द्वारा निषिद्ध है।

क्या काम को सभी पक्षों को संघर्ष में बाधा डालने से रोकता है, यहां तक कि ऐसे हथियारों के मालिकों को भी? सैन्य उपकरणों, मिसाइलों में कृत्रिम बुद्धिमत्ता तत्वों का पहले ही सफलतापूर्वक उपयोग किया जा चुका है; रोबोट टोही के लिए आकर्षित होते हैं, लेकिन अंतिम शब्द अभी भी मनुष्यों के पास है। स्वायत्त हथियार कमांडरों के आदेशों का पालन नहीं करेंगे - इसलिए वे स्वायत्त हैं। यही कारण है कि विभिन्न देशों के सैन्य जनरलों को कर्मियों के रैंक में मशीनों की शुरूआत के बारे में संदेह है।

और एक और खुला प्रश्न अंतरराष्ट्रीय आतंकवाद है। स्वायत्त हथियार तकनीक गलत हाथों में पड़ सकती है, और अंततः इसे हैक किया जा सकता है। एक साल पहले रूस के राष्ट्रपति व्लादिमीर पुतिन ने कहा था कि दुनिया का शासक वही होगा जो आर्टिफिशियल इंटेलिजेंस के विकास में अग्रणी बनेगा।स्वायत्त हथियारों के मामले में, जो ऐसी तकनीकों तक पहुंच प्राप्त करेगा, वह दुनिया का शासक बन जाएगा। और इसके लिए, वास्तव में, आपको केवल एक कंप्यूटर और एक डोजर की आवश्यकता होती है जो सुरक्षा प्रणालियों से होकर गुजरेगा। वैसे, पेंटागन को एक से अधिक बार हैक किया जा चुका है। नतीजतन, कोई भी गारंटी नहीं दे सकता है कि स्वायत्त हथियार हिंसात्मक रहेंगे।

यह भी स्पष्ट नहीं है कि स्वायत्त हथियार प्रणाली के कामकाज के परिणामस्वरूप युद्ध अपराध होने पर कानूनी रूप से कौन जिम्मेदार होगा। “इंजीनियर, प्रोग्रामर, निर्माता या कमांडर जिसने हथियार का इस्तेमाल किया? यदि जिम्मेदारी को अंतरराष्ट्रीय मानवीय कानून द्वारा आवश्यक के रूप में परिभाषित नहीं किया जा सकता है, तो क्या ऐसी प्रणालियों की तैनाती को कानूनी या नैतिक रूप से उचित माना जा सकता है?”रेड क्रॉस की अंतर्राष्ट्रीय समिति नोट करती है।

दिलचस्प बात यह है कि वैज्ञानिकों ने लड़ाकू रोबोटों पर प्रतिबंध लगाने की भी वकालत की। इस साल जुलाई में, दो हजार से अधिक वैज्ञानिकों, विशेष रूप से टेस्ला और स्पेसएक्स के निर्माता एलोन मस्क और डीपमाइंड के सह-संस्थापकों ने एक दस्तावेज पर हस्ताक्षर किए कि वे घातक स्वायत्त हथियार विकसित नहीं करेंगे। गूगल ने ऐसा ही किया। टेक दिग्गज ने पेंटागन के मावेन प्रोजेक्ट पर काम छोड़ दिया है। और 2017 में, कई वैज्ञानिक पहले ही संयुक्त राष्ट्र से हत्यारे रोबोट के निर्माण पर प्रतिबंध लगाने का आह्वान कर चुके हैं।

वैसे, युद्ध में कृत्रिम बुद्धिमत्ता का मुद्दा संयुक्त राष्ट्र के एजेंडे में 2013 के अंत में दिखाई दिया, लेकिन तब से व्यावहारिक रूप से कुछ भी नहीं बदला है। केवल इस वर्ष, अमानवीय हथियारों पर कन्वेंशन के प्रारूप में विशेषज्ञ बैठकें शुरू हुईं। यानी किसी न किसी व्यावहारिक धरातल पर आने में चार साल से ज्यादा का समय लगा।

वे स्वायत्त हथियारों पर प्रतिबंध क्यों नहीं लगाना चाहते?

कोई फर्क नहीं पड़ता कि यह कितना अटपटा लग सकता है, हथियारों की दौड़ मुख्य कारण है कि वे हत्यारे रोबोट पर प्रतिबंध नहीं लगाना चाहते हैं। पुतिन सही हैं: जो भी पहले स्वायत्त हथियार प्राप्त करेगा वह दुनिया पर हावी होगा। आधिकारिक तौर पर, इस कारण को आवाज दी गई है।

प्रतिबंध के विरोधियों का मुख्य तर्क नागरिक कृत्रिम बुद्धि को सेना से अलग करने की असंभवता है। जैसे, हम रसोई के चाकू को सिर्फ इसलिए प्रतिबंधित नहीं करेंगे क्योंकि आतंकवादी उनका इस्तेमाल कर सकते हैं। वास्तव में, कृत्रिम बुद्धि के नागरिक विकास को सेना से अलग करना व्यावहारिक रूप से असंभव है। लेकिन अब हम इस हथियार के निषेध के बारे में बात कर रहे हैं, जो स्वतंत्र रूप से लक्ष्य निर्धारित करने और हमला करने में सक्षम होगा। यह मावेन परियोजना हो सकती है, जिस पर अमेरिकी रक्षा विभाग बूज़ एलन हैमिल्टन (Google ने अनुबंध से इनकार कर दिया) के साथ मिलकर काम कर रहा है।

मावेन डेवलपर्स ड्रोन को छवियों का विश्लेषण करना सिखाना चाहते हैं, विशेष रूप से उपग्रहों से और - संभावित रूप से - हमले के लिए लक्ष्य की पहचान करना। पेंटागन ने अप्रैल 2017 में परियोजना पर काम करना शुरू किया और वर्ष के अंत तक पहला काम करने वाला एल्गोरिदम प्राप्त करने की उम्मीद की। लेकिन Google कर्मचारियों के सीमांकन के कारण विकास में देरी हुई। इस वर्ष के जून तक, गिज़मोडो के अनुसार, सिस्टम प्राथमिक वस्तुओं - कारों, लोगों के बीच अंतर कर सकता था, लेकिन यह कठिन परिस्थितियों में पूरी तरह से महत्वहीन हो गया। यदि स्वायत्त हथियारों पर प्रतिबंध फिर भी संयुक्त राष्ट्र के स्तर पर अपनाया जाता है, तो परियोजना को समाप्त करना होगा, जबकि पेंटागन का दावा है कि उनके विकास से लोगों की जान बच सकती है, क्योंकि लोगों की तुलना में इसे अधिक सटीक और मज़बूती से काम करने के लिए प्रोग्राम किया जा सकता है।

"आपको यह समझने की आवश्यकता है कि हम प्रौद्योगिकी के बारे में बात कर रहे हैं, कि इसमें ऐसे नमूने नहीं हैं जो काम करेंगे। इस तरह की प्रणालियों का विचार अभी भी बहुत सतही है," रूसी विदेश मंत्रालय में जिनेवा में बैठक की पूर्व संध्या पर नोट किया गया। - हमारी राय में, अंतरराष्ट्रीय कानून, विशेष रूप से मानवीय क्षेत्र, स्वायत्त हथियारों पर लागू किया जा सकता है। उन्हें उन प्रणालियों के आधुनिकीकरण या अनुकूलन की आवश्यकता नहीं है जो अभी तक मौजूद नहीं हैं।”

खैर, और एक और वास्तविक, लेकिन आवाज नहीं उठाई गई, कारण पैसा है। आज, सैन्य कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों का बाजार छह अरब डॉलर से अधिक अनुमानित है। लेकिन अमेरिकी कंपनी मार्केटसैंडमार्केट्स के विश्लेषकों के अनुसार, 2025 तक यह आंकड़ा तिगुना हो जाएगा - लगभग 19 बिलियन।सबसे बड़े हथियार निर्यातकों के लिए, हत्यारे रोबोट के विकास पर किसी भी प्रतिबंध को रोकने के लिए यह एक अच्छी प्रेरणा है।

प्रगति को रोका नहीं जा सकता

स्वायत्त हथियारों पर प्रतिबंध के समर्थकों ने ध्यान दिया कि प्रौद्योगिकी बहुत तेज़ी से विकसित हो रही है और कृत्रिम बुद्धि अंततः एक हथियार बन जाएगी - समय की बात है। उनकी बातों में तर्क है। आर्टिफिशियल इंटेलिजेंस चौथी वैज्ञानिक और तकनीकी क्रांति का एक अभिन्न अंग है, जो अब भी जारी है। यह ध्यान में रखा जाना चाहिए कि तकनीकी प्रगति एक तरह से या किसी अन्य सैन्य अभियानों से जुड़ी है। तीसरी वैज्ञानिक और तकनीकी क्रांति XX सदी के मध्य 50 के दशक तक चली, यानी इसका शिखर द्वितीय विश्व युद्ध की अवधि में गिर गया।

1949 में, जिनेवा ने युद्ध के समय में नागरिक व्यक्तियों के संरक्षण के लिए कन्वेंशन को अपनाया। युद्ध के बाद की अवधि में, उन्होंने 1907 के IV हेग कन्वेंशन को भी पूरक बनाया, जिसने युद्ध के संचालन के नियमों को निर्धारित किया। यानी द्वितीय विश्व युद्ध की भयावहता इस प्रक्रिया के उत्प्रेरक बने। इसलिए, मानवाधिकार रक्षक मानवता को स्वायत्त हथियारों से बचाने के लिए तीसरे विश्व युद्ध की प्रतीक्षा नहीं करना चाहते हैं। इसलिए हत्यारे रोबोटों के भाग्य का फैसला करना अब जरूरी है, वे जोर देते हैं।

ह्यूमन राइट्स वॉच के विशेषज्ञों के अनुसार, लड़ाकू रोबोटों का उपयोग मार्टेंस घोषणा के विपरीत है - युद्ध के कानूनों और सीमा शुल्क पर 1899 हेग कन्वेंशन की प्रस्तावना। दूसरे शब्दों में, हत्यारे रोबोट मानवता के नियमों और सार्वजनिक चेतना की आवश्यकताओं का उल्लंघन करते हैं (चतुर्थ हेग कन्वेंशन में स्थिति की पुष्टि की गई थी)।

ह्यूमन राइट्स वॉच के शस्त्र विभाग के वरिष्ठ शोधकर्ता बोनी डोहर्टी ने कहा, "हमें दुनिया भर में फैलने से पहले इस तरह की हथियार प्रणालियों पर प्रतिबंध लगाने के लिए मिलकर काम करना चाहिए।"

खैर, इस बार हत्यारे रोबोटों पर प्रतिबंध लगाने से काम नहीं चला। जाहिर है, नवंबर में होने वाली बैठकें भी निष्फल होंगी। सच है, लगभग सभी देश सहमत हैं - प्रौद्योगिकी को गुरुत्वाकर्षण द्वारा प्रवाहित करने की अनुमति नहीं दी जा सकती है और लड़ाकू रोबोटों को ऐसे स्टॉप-क्रेन की आवश्यकता होती है। लेकिन यह अभी भी स्पष्ट नहीं है कि जरूरत पड़ने पर मानवता के पास इसे खींचने का समय होगा या नहीं।

सिफारिश की: