А ОпенАИ, ЦхатГПТ-ова матична компанија, суочава се са данима административне нестабилности са доласком и одласком свог творца, Сема Алтмана.
Као да то није било довољно, информација је изашла на видело нешто пре отпуштање Алтмана, који је у међувремену враћен на посао, одбор директора компаније је добио извештај алармантно.
види више
Нестле најављује диверсификацију Цхамито Бок линије на североистоку
Ускоро ће Виво понудити 5Г везу путем фиксног интернета; знате више!
У документу, истраживачи су истакли да је АИ програм под називом К*, или К-Стар, који је бив развијала паралелно, могла би представљати озбиљан ризик за стабилност човечанства у будућност.
Према новинској агенцији Ројтерс, која је објавила ове информације, К* користи велику рачунарску моћ да у основи одговори на математичка питања основног нивоа.
На први поглед, истраживачи који развијају технологију били су узбуђени чињеница да она може да одговори на питања у релативно кратком времену и потпуно аутономна.
Међутим, опасност коју ова нова вештачка интелигенција представља не лежи у овој основној концептуализацији. На крају крајева, чак и једноставни калкулатори могу изводити мање компликоване математичке операције.
Оно што је заиста узнемирило стручњаке је начин на који К-Стар одговара на њихова питања. Уместо да користи статичке обрасце израчунавања, попут бинарних кодова конвенционалних калкулатора, АИ користи јединствене обрасце у сваком одговору који даје.
Другим речима, К* може дати неколико различитих одговора на свако питање које му се постави, што оставља простор за „измишљотине“, па чак и давање обмањујућих података.
(Слика: Фреепик/репродукција)
Упркос тренутној фанфари, ово понашање уочено у К-Стар-у није ново у свету вештачке интелигенције.
Други интелигентни цхат ботови, укључујући и ваш сопствени ЦхатГПТ, већ су били „ухваћени на лицу места” у неуспесима који произилазе из њихове сопствене методе обуке.
Уопштено говорећи, АИ су обучени да буду баш као људски мозак. Другим речима, они треба да анализирају информације које су им дате како би покушали да идентификују обрасце и раде на њима. То је та логика која нам, људским бићима, омогућава да учимо и преносимо знање.
Међутим, делегирање такве моћи „расуђивања“ машинама могло би поставити опасан преседан за неку врсту „побуне“ против човечанства.
То је зато што ништа не спречава вештачку интелигенцију да закључи, кроз анализу образаца било, да је човечанство претња, или да одређена особа треба да буде елиминисана, јер пример.
Још горе од тога, АИ могу да користе криминалци да почине злочине, да се мешају у политичке и комерцијалне одлуке, да окаљају имиџ људи итд.
Да бисте „упрљали“ имиџ одређене особе, једноставно доставите АИ негативне информације о тој особи. С друге стране, цхат ботови попут ЦхатГПТ-а могу се на неки начин упутити да утичу на људе да се придржавају овог или оног политичког аспекта.
Како вештачка интелигенција напредује и шири се у свим секторима друштва, забринутост око њене етичке и мирољубиве употребе треба да буде у центру дискусије.
Циљ вештачке интелигенције треба да буде да подигне човечанство на следећи ниво, а не да помаже криминалцима или служи као оружје за даљу дестабилизацију људских односа.
Дипломирао историју и технологију људских ресурса. Страствен за писање, данас живи сан да професионално ради као писац веб садржаја, пишући чланке у неколико различитих ниша и формата.