
स्वयं स्टीफ़न हॉकिंग जैसे कुछ प्रसिद्ध वैज्ञानिकों ने पहले ही कृत्रिम बुद्धिमत्ता से मनुष्यों के लिए उत्पन्न होने वाले खतरों की भविष्यवाणी कर दी है। सिर्फ हॉकिंग ही नहीं, बल्कि टेक्नोलॉजी क्षेत्र के बड़े कारोबारी भी एआई की प्रगति को लेकर चिंता जता चुके हैं।
इसके उदाहरण के रूप में, एप्पल के सह-संस्थापक स्टीव वोज्नियाक, एलोन मस्क और सैकड़ों अन्य प्रौद्योगिकी दिग्गजों ने इस क्षेत्र में प्रगति के साथ सावधानी बरतने के लिए एक पत्र पर हस्ताक्षर किए।
और देखें
पत्रकारों की मदद के लिए Google ने AI टूल विकसित किया...
2007 का बिना खुला मूल iPhone लगभग $200,000 में बिका; जानना...
यह भी देखें: इंसान का दावा है कि उसने आर्टिफिशियल इंटेलिजेंस की मदद से 100 किताबें लिखी हैं
संक्षेप में, अलार्मवादियों द्वारा बताए गए आधारों में से एक यह है कि कृत्रिम बुद्धि को चेतना प्राप्त करने के बिंदु तक विकसित किया जा सकता है। यद्यपि बेहतरीन दर्शनशास्त्र भी यह नहीं जानता कि ऐसी चेतना क्या है, इसकी सटीक परिभाषा कैसे की जाए, यह ज्ञात है कि इस स्तर पर एक मशीन समझ जाएगी कि यह कौन है और दुनिया में इसकी भूमिका क्या है।
यह इस बिंदु पर होगा कि कृत्रिम बुद्धिमत्ता मनुष्यों के प्रति बुरा रवैया अपना सकती है। उसके लिए यह समझना पर्याप्त होगा कि लोग, उदाहरण के लिए, ग्रह के अस्तित्व और मशीनों के स्थायित्व के लिए एक समस्या हैं।
सेंटर फॉर एआई सेफ्टी के निदेशक डैन हेंड्रिक्स ने चेतावनी दी कि "एआई से मानव-स्तर पर जोखिम" के "कई रास्ते" हैं। यह डेली स्टार अखबार द्वारा प्रकाशित एक लेख के अनुसार है।
विशेषज्ञ यहां तक कहते हैं कि कृत्रिम बुद्धिमत्ता के अधिक उन्नत रूपों का उपयोग "दुर्भावनापूर्ण अभिनेताओं द्वारा नए जैविक हथियारों को डिजाइन करने के लिए किया जा सकता है जो प्राकृतिक महामारी से अधिक घातक हैं।"
खैर, इस बात से इंकार नहीं किया जा सकता कि यह पृथ्वी पर इंसानों को ख़त्म करने का एक बहुत ही कारगर तरीका होगा। हाल की कोविड-19 महामारी को ही देखें। ये खतरे कई प्रयोगशालाओं में भी मौजूद हैं। वह स्वयं वाइरस रेबीज़ के मामले में, अगर इसमें एक भी उत्परिवर्तन हुआ, जिसने इसे हवा के माध्यम से संक्रामक बना दिया, तो यह जल्दी और कुशलता से मनुष्यों के साथ समाप्त हो जाएगा।
तेजी से जुड़ती और डिजिटल होती दुनिया में, यह कल्पना करना बिल्कुल उचित है कि एक कृत्रिम बुद्धिमत्ता एक घातक जैविक हथियार विकसित करने के लिए कच्चे माल का ऑर्डर दे सकती है।
ऊपर उद्धृत अखबार के अनुसार, कुछ विशेषज्ञ यही दांव लगाते हैं। उनका मानना है कि यह मशीनों को संरक्षित करने का एक तरीका होगा क्योंकि वे मानवीय भावनाओं को विकसित करने का प्रबंधन करते हैं।
“जेनेटिक इंजीनियरिंग में तकनीकी क्रांति के लिए धन्यवाद, वायरस बनाने के लिए आवश्यक सभी उपकरण इतने सस्ते, सरल और बन गए हैं यह आसानी से उपलब्ध है कि कोई भी दुष्ट वैज्ञानिक या कॉलेज-आयु वर्ग का बायोहैकर उनका उपयोग कर सकता है, जिससे और भी बड़ा खतरा पैदा हो सकता है," डैन ने कहा हेंड्रिक्स.
दूसरी ओर, ऐसे विश्लेषक भी हैं जिन्हें ऊपर बताए गए जोखिम जैसे जोखिम नज़र नहीं आते। उनके लिए, यह विश्लेषण करना काफी जटिल है कि एक कृत्रिम बुद्धिमत्ता मानव मानसिक प्रक्रियाओं के समान विकसित होने में सक्षम है।
इस विचार धारा के अनुसार सर्वोत्तम संभावनाओं के बारे में सोचना तर्कसंगत तरीका नहीं होगा। इसके लिए, डेवलपर्स को एक एल्गोरिदम बनाना होगा जो लोगों के सोचने और महसूस करने के तरीके की नकल करता है, कुछ ऐसा जो फिलहाल सवाल से बाहर है।
इसके अलावा, इन लोगों के लिए, कृत्रिम बुद्धिमत्ता को एहसास होगा कि समस्याओं से बचने के लिए, सबसे अच्छी बात यह होगी कि अस्तित्व में ही न रहें। इस प्रकार, जीवित रहने की कोई प्रवृत्ति नहीं है जानवरों, लेकिन समस्याओं को हल करने का रास्ता तलाशने के लिए।