ზოგიერთმა ცნობილმა მეცნიერმა, როგორიცაა თავად სტივენ ჰოკინგმა, უკვე იწინასწარმეტყველა ის რისკები, რაც ხელოვნურმა ინტელექტმა შეიძლება შეუქმნას ადამიანებს. ხელოვნური ინტელექტის წინსვლასთან დაკავშირებით შეშფოთება გამოთქვეს არა მხოლოდ ჰოკინგმა, არამედ ტექნოლოგიური სექტორის მსხვილმა ბიზნესმენებმა.
ამის მაგალითად, სტივ ვოზნიაკმა, Apple-ის თანადამფუძნებელმა, ელონ მასკმა და ასობით სხვა ტექნოლოგიის მაგნატმა ხელი მოაწერეს წერილს, რომ მოეთხოვათ სიფრთხილე ამ სფეროში მიღწევების მიმართ.
მეტის ნახვა
Google ავითარებს ხელოვნური ინტელექტის ინსტრუმენტს, რათა დაეხმაროს ჟურნალისტებს…
2007 წლის გაუხსნელი ორიგინალი iPhone თითქმის 200 000 დოლარად იყიდება; ვიცი...
იხილეთ ასევე: ადამიანი აცხადებს, რომ დაწერა 100 წიგნი ხელოვნური ინტელექტის დახმარებით
მოკლედ, ერთ-ერთი წინაპირობა, რომელსაც განგაშისტები აღნიშნავენ, არის ის, რომ ხელოვნური ინტელექტი შეიძლება განვითარდეს ცნობიერების მოპოვებამდე. მიუხედავად იმისა, რომ საუკეთესო ფილოსოფიამაც კი არ იცის ზუსტად როგორ განსაზღვროს რა არის ასეთი ცნობიერება, ცნობილია, რომ ამ ეტაპზე მანქანა მიხვდება ვინ არის და რა როლი აქვს სამყაროში.
სწორედ ამ მომენტში ხელოვნურმა ინტელექტს შეეძლო ცუდი დამოკიდებულება ჰქონდეს ადამიანების მიმართ. მისთვის საკმარისი იქნებოდა იმის გაგება, რომ ადამიანები პრობლემაა პლანეტის არსებობისთვის და, მაგალითად, მანქანების მუდმივობისთვის.
დენ ჰენდრიკსმა, AI უსაფრთხოების ცენტრის დირექტორმა, გააფრთხილა, რომ არსებობს "მრავალჯერადი გზა" "ადამიანური მასშტაბის რისკებისკენ AI-დან". ამის შესახებ გაზეთი Daily Star-ის მიერ გამოქვეყნებულ სტატიაში ნათქვამია.
ექსპერტი ისიც კი ამბობს, რომ ხელოვნური ინტელექტის უფრო მოწინავე ფორმები „შეიძლება გამოიყენონ მავნე აქტორებმა ახალი ბიოლოგიური იარაღის შესაქმნელად, რომლებიც უფრო ლეტალურია, ვიდრე ბუნებრივი პანდემიები“.
ისე, უდაოა, რომ ეს იქნება ძალიან ეფექტური გზა დედამიწაზე ადამიანების განადგურების მიზნით. უბრალოდ გადახედეთ ბოლო Covid-19 პანდემიას. ეს საფრთხეები რამდენიმე ლაბორატორიაშიც კი არსებობს. თვითონ ვირუსი ცოფის შემთხვევაში, თუ მას განიცადა ერთი მუტაცია, რამაც იგი ჰაერით გადამდები გახადა, ის სწრაფად და ეფექტურად დასრულდებოდა ადამიანებთან.
სულ უფრო მეტად დაკავშირებულ და ციფრულ სამყაროში სავსებით გონივრულია წარმოვიდგინოთ, რომ ხელოვნურ ინტელექტს შეუძლია შეუკვეთოს ნედლეული ლეტალური ბიოლოგიური იარაღის შესაქმნელად.
ეს არის ფსონი, რომელსაც ზოგიერთი სპეციალისტი დებს, ზემოხსენებული გაზეთის ცნობით. მათ მიაჩნიათ, რომ ეს იქნება მანქანების შენარჩუნების გზა, რადგან ისინი ახერხებენ ადამიანის ემოციების განვითარებას.
„გენეტიკურ ინჟინერიაში ტექნოლოგიური რევოლუციის წყალობით, ვირუსის შესაქმნელად საჭირო ყველა ინსტრუმენტი გახდა ასე იაფი, მარტივი და ადვილად ხელმისაწვდომია, რომ ნებისმიერ თაღლით მეცნიერს ან კოლეჯის ასაკის ბიოჰაკერს შეუძლია მათი გამოყენება, რაც კიდევ უფრო დიდ საფრთხეს ქმნის“, - თქვა დენმა. ჰენდრიკსი.
მეორე მხრივ, არიან ანალიტიკოსები, რომლებიც ვერ ხედავენ ისეთ რისკებს, როგორიც ზემოთ იყო აღნიშნული. მათთვის საკმაოდ რთულია იმის გაანალიზება, რომ ხელოვნურ ინტელექტს შეუძლია ადამიანის ფსიქიკური პროცესების მსგავსად განვითარდეს.
ამ აზროვნების მიმდინარეობის მიხედვით, საუკეთესო შესაძლებლობებზე ფიქრი არ იქნება ლოგიკური გზა. ამისთვის დეველოპერებს უნდა შეექმნათ ალგორითმი, რომელიც მიბაძავს ადამიანების აზროვნებასა და გრძნობებს, რაც ამჟამად გამორიცხულია.
გარდა ამისა, ამ ადამიანებისთვის ხელოვნური ინტელექტი მიხვდება, რომ პრობლემების თავიდან აცილების მიზნით, საუკეთესო რამ იქნებოდა უბრალოდ არ არსებობა. ამრიგად, არ არსებობს გადარჩენის ტენდენცია, როგორც აქ ცხოველები, არამედ პრობლემების გადაჭრის გზების ძიება.