Category AI & ML
Post Date Jul-2023-24

भविष्य में आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) के 5 खतरे

Tags भविष्य में आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) के 5 खतरे,5 Dangers of Artificial Intelligence in the Future,dangers that Artificial Intelligence can pose in the future,Artificial Intelligence,ai,Loss of Human Jobs,Autonomous Weapons,कृत्रिम बुद्धिमत्ता आतंकवाद,मानव नौकरियों का नुकसान

आर्टिफिशियल इंटेलिजेंस  (Artificial Intelligence) वर्तमान में विकास का एक बेहतरीन उपकरण है। इसने सभी उद्योगों में प्रौद्योगिकी में क्रांति ला दी है और मानवता के सामने आने वाली कई समस्याओं का समाधान किया है। लेकिन AI अभी शुरुआती चरण में है और अगर इसे ठीक से प्रबंधित नहीं किया गया तो इससे काफी नुकसान भी हो सकता है। ऐसे कई क्षेत्र हैं जिनमें आर्टिफिशियल इंटेलिजेंस इंसानों के लिए खतरा पैदा कर सकता है और बेहतर होगा कि इन खतरों पर अभी चर्चा की जाए ताकि भविष्य में उनका अनुमान लगाया जा सके और उन्हें प्रबंधित किया जा सके।

प्रभावी आर्टिफिशियल इंटेलिजेंस बनाने में सफलता हमारी सभ्यता के इतिहास की सबसे बड़ी घटना हो सकती है। या सबसे ख़राब. इसलिए, हम यह नहीं जान सकते कि क्या हमें एआई द्वारा असीमित मदद मिलेगी, इसके द्वारा अनदेखा किया जाएगा और किनारे कर दिया जाएगा, या इसके द्वारा अनुमानित रूप से नष्ट कर दिया जाएगा।

- स्टीफन हॉकिंग

यह उद्धरण प्रसिद्ध भौतिक विज्ञानी स्टीफन हॉकिंग ने आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) के संबंध में एक तकनीकी सम्मेलन में दिया था। और वह बिल्कुल सही है. इसे ध्यान में रखते हुए, आइए उन 5 खतरों को देखें जो आर्टिफिशियल इंटेलिजेंस भविष्य में पैदा कर सकते हैं।
 

1. गोपनीयता का आक्रमण (Invasion of Privacy)

गोपनीयता एक बुनियादी मानव अधिकार है जिसका हर कोई हकदार है। हालाँकि, आर्टिफिशियल इंटेलिजेंस से भविष्य में गोपनीयता की हानि हो सकती है। आज भी, जब आप अपना दिन बिताते हैं तो आपको आसानी से ट्रैक करना संभव है। चेहरे की पहचान जैसी नवीनतम तकनीकें भीड़ में आपका पता लगा सकती हैं और सभी सुरक्षा कैमरे इससे सुसज्जित हैं। एआई की डेटा एकत्र करने की क्षमताओं का मतलब यह भी है कि विभिन्न सोशल नेटवर्किंग साइटों से आपके डेटा तक पहुंच कर आपकी दैनिक गतिविधियों की एक समयरेखा बनाई जा सकती है।

दरअसल, चीन इस वक्त एक सोशल क्रेडिट सिस्टम पर काम कर रहा है जो आर्टिफिशियल इंटेलिजेंस से संचालित होगा। यह प्रणाली सभी चीनी नागरिकों को उनके व्यवहार के आधार पर एक अंक देगी। इसमें ऋण चुकाना, ट्रेनों में तेज संगीत बजाना, धूम्रपान रहित क्षेत्रों में धूम्रपान करना, बहुत अधिक वीडियो गेम खेलना आदि जैसे व्यवहार शामिल हो सकते हैं। और कम स्कोर होने का मतलब यात्रा पर प्रतिबंध, कम सामाजिक स्थिति होना आदि हो सकता है। यह इस बात का एक प्रमुख उदाहरण है कि कैसे आर्टिफिशियल इंटेलिजेंस जीवन के सभी हिस्सों तक पहुंच और गोपनीयता की कुल हानि का कारण बन सकता है।
 

2. स्वायत्त हथियार (Autonomous Weapons)

स्वायत्त हथियार (Autonomous Weapons) या "हत्यारे रोबोट(killer robots) सैन्य रोबोट हैं जो पूर्व-क्रमादेशित निर्देशों के अनुसार अपने लक्ष्य की खोज कर सकते हैं और स्वतंत्र रूप से निशाना लगा सकते हैं। और दुनिया के लगभग सभी तकनीकी रूप से उन्नत देश इन रोबोटों का विकास कर रहे हैं। वास्तव में, एक चीनी रक्षा फर्म के एक वरिष्ठ कार्यकारी ने यहां तक कहा कि भविष्य के युद्ध मनुष्यों द्वारा नहीं लड़े जाएंगे और घातक स्वायत्त हथियारों का उपयोग अपरिहार्य था।

लेकिन इन हथियारों को रखने में कई खतरे भी हैं. क्या होगा यदि वे दुष्ट हो जाएं और निर्दोष लोगों को मार डालें। या इससे भी अधिक दुखद बात यह है कि क्या होगा यदि वे अपने लक्ष्य और निर्दोष लोगों के बीच अंतर नहीं कर पाते और गलती से उन्हें मार देते हैं। तो फिर उस स्थिति का जिम्मेदार कौन होगा? इससे भी बड़ी समस्या यह होगी कि ये "हत्यारे रोबोट" उन सरकारों द्वारा विकसित किए जाएंगे जिन्हें मानव जीवन की परवाह नहीं है। तब इन रोबोटों को नष्ट करना बहुत कठिन होगा! इन समस्याओं को ध्यान में रखते हुए, 2018 में यह निर्णय लिया गया कि स्वायत्त रोबोटों को हमला करने के लिए अभी भी मानव से अंतिम आदेश लेना होगा। लेकिन भविष्य में टेक्नोलॉजी के बढ़ने से यह समस्या तेजी से बढ़ सकती है।
 

3. मानव नौकरियों का नुकसान (Loss of Human Jobs)

जैसे-जैसे आर्टिफिशियल इंटेलिजेंस अधिक से अधिक उन्नत होता जाएगा, यह स्पष्ट रूप से उन कार्यों पर कब्ज़ा कर लेगा जो कभी मनुष्यों द्वारा किए जाते थे। मैकिन्से ग्लोबल इंस्टीट्यूट द्वारा प्रकाशित एक रिपोर्ट के अनुसार, 2030 तक स्वचालन के कारण दुनिया भर में लगभग 800 मिलियन नौकरियां खत्म हो सकती हैं। लेकिन फिर सवाल उठता है कि "उन इंसानों का क्या जो इसके कारण बेरोजगार हो गए हैं?" वैसे, कुछ लोगों का मानना है कि आर्टिफिशियल इंटेलिजेंस की वजह से भी कई नौकरियां पैदा होंगी और इससे तराजू थोड़ा संतुलित हो सकता है। लोग भौतिक और दोहराव वाली नौकरियों से ऐसी नौकरियों की ओर जा सकते हैं जिनके लिए वास्तव में रचनात्मक और रणनीतिक सोच की आवश्यकता होती है। और लोगों को कम शारीरिक मांग वाली नौकरियों के साथ अपने दोस्तों और परिवार के साथ बिताने के लिए अधिक समय मिल सकता है।

लेकिन ऐसा उन लोगों के साथ होने की अधिक संभावना है जो पहले से ही शिक्षित हैं और अमीर वर्ग में आते हैं। इससे अमीर और गरीब के बीच की खाई और भी बढ़ सकती है. यदि रोबोट को कार्यबल में नियोजित किया जाता है, तो इसका मतलब है कि उन्हें मानव कर्मचारियों की तरह भुगतान करने की आवश्यकता नहीं है। इसलिए एआई-संचालित कंपनियों के मालिक सारा मुनाफा कमाएंगे और अमीर हो जाएंगे, जबकि जिन इंसानों की जगह ली गई है, वे और भी गरीब हो जाएंगे। इसलिए एक नई सामाजिक व्यवस्था तैयार करनी होगी ताकि सभी मनुष्य इस परिदृश्य में भी पैसा कमाने में सक्षम हो सकें।
 

4. कृत्रिम बुद्धिमत्ता आतंकवाद (Artificial Intelligence Terrorism)

जबकि आर्टिफिशियल इंटेलिजेंस दुनिया में बहुत बड़ा योगदान दे सकता है, दुर्भाग्य से यह आतंकवादियों को आतंकी हमले करने में भी मदद कर सकता है। कई आतंकी एजेंसियां पहले से ही दूसरे देशों में हमले करने के लिए ड्रोन का इस्तेमाल करती हैं। दरअसल, आईएसआईएस ने 2016 में अपना पहला सफल ड्रोन हमला किया था, जिसमें इराक में 2 लोगों की मौत हो गई थी। यदि केवल चुनिंदा प्रकार के लोगों को मारने के लिए प्रोग्रामिंग के साथ एक ही ट्रक या कार से हजारों ड्रोन लॉन्च किए गए, तो यह एक बहुत ही डरावना प्रकार का आतंकवादी हमला होगा जिसे प्रौद्योगिकी द्वारा मदद की जाती है।

आतंकवादी एजेंसियाँ बम पहुंचाने और विस्फोट करने या ऐसी बंदूकें बनाने के लिए स्वायत्त वाहनों का भी उपयोग कर सकती हैं जो बिना किसी मानवीय सहायता के गतिविधियों और गोलीबारी को ट्रैक कर सकती हैं। इन तोपों का इस्तेमाल उत्तर और दक्षिण कोरियाई सीमा पर पहले से ही किया जा रहा है। एक और डर यह है कि आतंकवादी ऊपर उल्लिखित "हत्यारे रोबोटों" तक पहुंच सकते हैं और उनका उपयोग कर सकते हैं। हालाँकि सरकारें अभी भी नैतिक हो सकती हैं और निर्दोष मनुष्यों के नुकसान को रोकने की कोशिश कर सकती हैं, आतंकवादियों के पास ऐसी कोई नैतिकता नहीं होगी और वे इन रोबोटों का उपयोग आतंकवादी हमलों के लिए करेंगे।
 

5. कृत्रिम बुद्धिमत्ता पूर्वाग्रह (Artificial Intelligence Bias)

यह एक दुर्भाग्यपूर्ण तथ्य है कि मनुष्य कभी-कभी अन्य धर्मों, लिंगों, राष्ट्रीयताओं आदि के प्रति पक्षपाती होता है और यह पूर्वाग्रह अनजाने में मानव द्वारा विकसित आर्टिफिशियल इंटेलिजेंस सिस्टम में भी प्रवेश कर सकता है। मानव द्वारा उत्पन्न त्रुटिपूर्ण डेटा के कारण सिस्टम में पूर्वाग्रह भी सकता है। उदाहरण के लिए, अमेज़ॅन को हाल ही में पता चला कि उनका मशीन लर्निंग आधारित भर्ती एल्गोरिदम महिलाओं के प्रति पक्षपाती था। यह एल्गोरिदम पिछले 10 वर्षों में प्रस्तुत किए गए बायोडाटा और नियुक्त किए गए उम्मीदवारों की संख्या पर आधारित था। और चूंकि अधिकांश उम्मीदवार पुरुष थे, इसलिए एल्गोरिदम ने भी महिलाओं की तुलना में पुरुषों को प्राथमिकता दी।

एक अलग घटना में, Google फ़ोटो ने चेहरे की पहचान का उपयोग करके दो अफ़्रीकी-अमेरिकी लोगों को 'गोरिल्ला' के रूप में टैग किया। यह नस्लीय पूर्वाग्रह का एक स्पष्ट संकेत था जिसके कारण एल्गोरिदम ने मनुष्यों को गलत तरीके से लेबल किया। तो सवाल यह है कि "इस पूर्वाग्रह से कैसे निपटा जाए?" यह कैसे सुनिश्चित किया जाए कि आर्टिफिशियल इंटेलिजेंस (AI) इस दुनिया के कुछ इंसानों की तरह नस्लवादी या लिंगवादी नहीं है। खैर, इसे संभालने का एकमात्र तरीका यह है कि एआई शोधकर्ता एआई सिस्टम को विकसित और प्रशिक्षित करते समय और डेटा का चयन करते समय मैन्युअल रूप से पूर्वाग्रह को दूर करने का प्रयास करें।

Source By:geeksforgeeks