توقع بعض العلماء المشهورين ، مثل ستيفن هوكينج نفسه ، بالفعل المخاطر التي يمكن أن يشكلها الذكاء الاصطناعي على البشر. ليس هوكينج فقط ، ولكن رجال الأعمال الكبار في قطاع التكنولوجيا أعربوا أيضًا عن قلقهم بشأن تقدم الذكاء الاصطناعي.
وكمثال على ذلك ، وقع ستيف وزنياك ، المؤسس المشارك لشركة Apple ، وإيلون ماسك ، ومئات من أباطرة التكنولوجيا الآخرين ، خطابًا لطلب الحذر بشأن التطورات في هذا المجال.
شاهد المزيد
تطور Google أداة الذكاء الاصطناعي لمساعدة الصحفيين في...
آيفون 2007 الأصلي غير المفتوح يبيع ما يقرب من 200000 دولار ؛ يعرف...
نرى أيضا: يدعي الإنسان أنه كتب 100 كتاب بمساعدة الذكاء الاصطناعي
باختصار ، أحد المقدمات التي يشير إليها دعاة التحذير هو أن الذكاء الاصطناعي يمكن تطويره إلى درجة اكتساب الوعي. على الرغم من أن حتى أفضل الفلسفة لا تعرف كيف تحدد بالضبط ما هو هذا الوعي ، فمن المعروف أنه في هذه المرحلة ستفهم الآلة من هو وما هو دورها في العالم.
سيكون في هذه المرحلة أن الذكاء الاصطناعي يمكن أن يتخذ مواقف سيئة تجاه البشر. سيكون كافياً لها أن تفهم أن الناس يمثلون مشكلة لوجود الكوكب وديموم الآلات ، على سبيل المثال.
حذر دان هيندريكس ، مدير مركز أمان الذكاء الاصطناعي ، من وجود "مسارات متعددة" لـ "المخاطر البشرية من الذكاء الاصطناعي". جاء ذلك في مقال نشرته صحيفة الديلي ستار.
حتى أن الخبير يقول إن أشكالًا أكثر تقدمًا من الذكاء الاصطناعي "يمكن أن يستخدمها الفاعلون الخبثاء لتصميم أسلحة بيولوجية جديدة أكثر فتكًا من الأوبئة الطبيعية".
حسنًا ، لا يمكن إنكار أن هذه ستكون طريقة فعالة للغاية لإبادة البشر على الأرض. ما عليك سوى إلقاء نظرة على جائحة Covid-19 الأخير. توجد هذه التهديدات حتى داخل العديد من المعامل. نفسه فايروس من داء الكلب ، إذا عانى من طفرة واحدة ، مما جعله ينتقل عبر الهواء ، سينتهي به الأمر إلى البشر بسرعة وكفاءة.
في عالم يتزايد فيه الترابط والرقمنة ، من المعقول تمامًا أن نتخيل أن الذكاء الاصطناعي يمكنه طلب المواد الخام لتطوير سلاح بيولوجي فتاك.
هذا هو الرهان الذي يقوم به بعض المتخصصين ، بحسب الصحيفة المذكورة أعلاه. إنهم يعتقدون أنها ستكون وسيلة للحفاظ على الآلات أثناء تمكنهم من تطوير المشاعر البشرية.
"بفضل الثورة التكنولوجية في الهندسة الوراثية ، أصبحت جميع الأدوات اللازمة لإنشاء فيروس رخيصة جدًا وبسيطة و متاحة بسهولة بحيث يمكن لأي عالم مارق أو قرصان بيولوجي في سن الكلية استخدامها ، مما يخلق تهديدًا أكبر "، قال دان هندريكس.
من ناحية أخرى ، هناك محللون لا يرون مخاطر مثل تلك المذكورة أعلاه. بالنسبة لهم ، من المعقد جدًا تحليل قدرة الذكاء الاصطناعي على التطور بشكل مشابه للعمليات العقلية البشرية.
وفقًا لتيار الفكر هذا ، لن تكون طريقة منطقية للتفكير في أفضل الاحتمالات. لهذا ، سيتعين على المطورين إنشاء خوارزمية تحاكي طريقة تفكير الناس وشعورهم ، وهو أمر غير وارد حاليًا.
علاوة على ذلك ، بالنسبة لهؤلاء الأشخاص ، سيدرك الذكاء الاصطناعي أنه لتجنب المشاكل ، فإن أفضل ما يمكن فعله هو ببساطة عدم الوجود. وبالتالي ، لا يوجد ميل للبقاء كما هو الحال في الحيوانات، ولكن للبحث عن طريقة لحل المشاكل.