Неки познати научници, попут самог Стивена Хокинга, већ су предвидели ризике које би вештачка интелигенција могла да представља за људе. Не само Хокинг, већ и велики бизнисмени у технолошком сектору такође су изразили забринутост због напретка вештачке интелигенције.
Као пример овога, Стив Вознијак, суоснивач Епла, Елон Маск и стотине других технолошких тајкуна потписали су писмо у којем траже опрез у погледу напретка у овој области.
види више
Гоогле развија АИ алат за помоћ новинарима у…
Неотворени оригинални иПхоне из 2007. продаје се за скоро 200.000 долара; знам...
Погледајте такође: Човек тврди да је написао 100 књига уз помоћ вештачке интелигенције
Укратко, једна од премиса на коју узбуњивачи истичу је да би се вештачка интелигенција могла развити до тачке стицања свести. Иако ни најфинија филозофија не зна тачно да дефинише шта је таква свест, познато је да би у овој фази машина разумела ко је и каква је њена улога у свету.
У овом тренутку би вештачка интелигенција могла да заузме лоше ставове према људима. Било би јој довољно да схвати да су људи проблем за постојање планете и за саму постојаност машина, на пример.
Ден Хендрикс, директор Центра за безбедност вештачке интелигенције, упозорио је да постоји „више путева“ до „ризика од вештачке интелигенције на нивоу човека“. Ово је према чланку објављеном у новинама Даили Стар.
Експерт чак каже да би напредније облике вештачке интелигенције „злонамерни актери могли да користе за дизајнирање новог биолошког оружја које је смртоносније од природних пандемија“.
Па, неоспорно је да би ово био веома ефикасан начин да се истребе људска бића на Земљи. Погледајте само недавну пандемију Цовид-19. Ове претње постоје чак иу неколико лабораторија. Он сам вирус беснила, ако би претрпео једну мутацију, која га је учинила преносивим ваздухом, брзо и ефикасно би завршила код људи.
У свету који се све више повезује и дигитализује, сасвим је разумно замислити да вештачка интелигенција може наручити сировине за развој смртоносног биолошког оружја.
Ово је опклада коју чине неки специјалисти, према горе цитираним новинама. Верују да би то био начин да се сачувају машине док успевају да развију људске емоције.
„Захваљујући технолошкој револуцији у генетском инжењерингу, сви алати потребни за стварање вируса постали су тако јефтини, једноставни и лако доступни да их било који лажни научник или биохакер са факултетом може користити, стварајући још већу претњу“, рекао је Дан Хендрицкс.
С друге стране, постоје аналитичари који не виде ризике попут горе наведених. За њих је прилично сложено анализирати да је вештачка интелигенција способна да се развија слично људским менталним процесима.
Према овој струји мишљења, не би био логичан начин размишљања о најбољим могућностима. За ово, програмери би морали да направе алгоритам који опонаша начин размишљања и осећања људи, нешто што тренутно не долази у обзир.
Штавише, за ове људе, вештачка интелигенција би схватила да би, да би се избегли проблеми, најбоље било да једноставно не постоји. Дакле, не постоји тенденција преживљавања као у Животиње, већ да тражи начин за решавање проблема.