А OpenAI, компанията майка на ChatGPT, е изправена пред дни на административна нестабилност с идванията и заминаванията на нейния създател, Сам Алтман.
Сякаш това не беше достатъчно, на бял свят излезе информация, че малко преди уволнението на Алтман, който оттогава е възстановен, бордът на директорите на компанията получи доклад тревожно.
виж повече
Nestlé обявява диверсификация на линията Chamyto Box в Североизток
Скоро Vivo ще предлага 5G връзка чрез фиксиран интернет; знам повече!
В документа изследователите посочват, че AI програма, наречена Q* или Q-Star, която се намира развивани паралелно, биха могли да представляват сериозен риск за стабилността на човечеството в бъдеще.
Според новинарската агенция Ройтерс, която публикува тази информация, Q* използва обширна изчислителна мощност, за да отговори основно на математически въпроси от фундаментално ниво.
На пръв поглед изследователите, разработващи технологията, бяха развълнувани от фактът, че тя може да отговаря на въпроси за относително кратко време и напълно автономен.
Въпреки това, опасността, която представлява този нов изкуствен интелект, не се крие в тази основна концептуализация. В крайна сметка дори простите калкулатори могат да извършват по-малко сложни математически операции.
Това, което наистина разтревожи експертите, е начинът, по който Q-Star отговаря на техните въпроси. Вместо да използва статични модели за изчисление, като двоичните кодове на конвенционалните калкулатори, AI използва уникални модели във всеки отговор, който дава.
С други думи, Q* може да даде няколко различни отговора на всеки поставен пред него въпрос, което оставя място за „изобретения“ и дори предоставяне на подвеждащи данни.
(Изображение: Freepik/репродукция)
Въпреки настоящите фанфари, това поведение, наблюдавано в Q-Star, не е ново в света на изкуствения интелект.
Други интелигентни чатботове, включително вашите собствени ChatGPT, вече са били „хванати на местопрестъплението“ в провали, произтичащи от техния собствен метод на обучение.
Най-общо казано, ИИ са обучени да бъдат точно като човешкия мозък. С други думи, те трябва да анализират предоставената им информация, за да се опитат да идентифицират модели и да работят върху тях. Именно тази логика позволява на нас, човешките същества, да учим и предаваме знания.
Въпреки това, делегирането на такава „разсъждаваща“ власт на машини може да създаде опасен прецедент за един вид „бунт“ срещу човечеството.
Това е така, защото нищо не пречи на изкуствения интелект да заключи чрез анализ на модели всеки, че човечеството е заплаха или че определено лице трябва да бъде елиминирано, за пример.
По-лошото от това е, че ИИ могат да бъдат използвани от престъпници за извършване на престъпления, намеса в политически и търговски решения, опетняване на имиджа на хората и т.н.
За да „замърсите“ имиджа на определен човек, просто предоставете на AI отрицателна информация за този човек. От друга страна, чатботове като ChatGPT могат да бъдат инструктирани по някакъв начин да повлияят на хората да се придържат към този или онзи политически аспект.
Тъй като изкуственият интелект напредва и се разпространява във всички сектори на обществото, опасенията около неговата етична и мирна употреба трябва да бъдат в центъра на дискусията.
Целта на AI трябва да бъде да тласне човечеството към следващото му ниво, а не да помага на престъпниците или да служи като оръжие за по-нататъшно дестабилизиране на човешките взаимоотношения.
Завършил история и технологии на човешките ресурси. Страстен към писането, днес той живее мечтата да работи професионално като писател на уеб съдържание, като пише статии в няколко различни ниши и формати.