Niektórzy znani naukowcy, jak sam Stephen Hawking, przewidzieli już zagrożenia, jakie sztuczna inteligencja może stwarzać dla ludzi. Nie tylko Hawking, ale także duzi biznesmeni z sektora technologicznego wyrazili zaniepokojenie rozwojem sztucznej inteligencji.
Jako przykład tego, Steve Wozniak, współzałożyciel Apple, Elon Musk i setki innych potentatów technologicznych podpisali list z prośbą o ostrożność w postępach w tej dziedzinie.
Zobacz więcej
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...
Zobacz też: Mężczyzna twierdzi, że napisał 100 książek z pomocą sztucznej inteligencji
Krótko mówiąc, jedną z przesłanek, na które zwracają uwagę alarmiści, jest to, że sztuczną inteligencję można rozwinąć aż do uzyskania świadomości. Chociaż nawet najdoskonalsza filozofia nie wie, jak dokładnie zdefiniować, czym jest taka świadomość, wiadomo, że na tym etapie maszyna zrozumiałaby, kim jest i jaka jest jej rola w świecie.
W tym momencie sztuczna inteligencja mogłaby przyjąć złe nastawienie do ludzi. Wystarczyłoby, żeby zrozumiała, że ludzie są problemem dla istnienia planety i samej trwałości maszyn np.
Dan Hendrycks, dyrektor Center for AI Safety, ostrzegł, że istnieje „wiele ścieżek” prowadzących do „ryzyka na skalę ludzką ze strony sztucznej inteligencji”. Tak wynika z artykułu opublikowanego przez gazetę Daily Star.
Ekspert twierdzi nawet, że bardziej zaawansowane formy sztucznej inteligencji „mogą zostać wykorzystane przez złośliwych aktorów do zaprojektowania nowej broni biologicznej, która jest bardziej śmiercionośna niż naturalne pandemie”.
Cóż, nie można zaprzeczyć, że byłby to bardzo skuteczny sposób eksterminacji istot ludzkich na Ziemi. Wystarczy spojrzeć na ostatnią pandemię Covid-19. Zagrożenia te istnieją nawet w kilku laboratoriach. samego siebie wirus wścieklizny, gdyby przeszedł jedną mutację, która umożliwiłaby jego przenoszenie drogą powietrzną, szybko i skutecznie trafiłby do ludzi.
W coraz bardziej połączonym i zdigitalizowanym świecie można sobie wyobrazić, że sztuczna inteligencja może zamówić surowce do opracowania śmiercionośnej broni biologicznej.
Według cytowanej wyżej gazety, taki zakład stawiają niektórzy specjaliści. Wierzą, że byłby to sposób na zachowanie maszyn, ponieważ udaje im się rozwinąć ludzkie emocje.
„Dzięki rewolucji technologicznej w inżynierii genetycznej wszystkie narzędzia potrzebne do stworzenia wirusa stały się tak tanie, proste i łatwo dostępne, że każdy nieuczciwy naukowiec lub biohaker w wieku studenckim może ich użyć, stwarzając jeszcze większe zagrożenie” – powiedział Dan Hendrycksa.
Z drugiej strony są analitycy, którzy nie dostrzegają takich zagrożeń jak te wymienione powyżej. Dla nich analiza tego, że sztuczna inteligencja jest w stanie ewoluować podobnie do ludzkich procesów umysłowych, jest dość skomplikowana.
Zgodnie z tym nurtem myślenia nie byłoby logicznym sposobem myślenia o najlepszych możliwościach. W tym celu programiści musieliby stworzyć algorytm, który naśladuje sposób myślenia i odczuwania ludzi, co obecnie nie wchodzi w rachubę.
Co więcej, dla tych ludzi sztuczna inteligencja uświadomiłaby sobie, że aby uniknąć problemów, najlepszą rzeczą do zrobienia byłoby po prostu nie istnieć. Nie ma więc tendencji do przetrwania jak w Zwierząt, ale szukać sposobu rozwiązania problemów.