A OpenAI, spółka matka ChatGPT, stoi w obliczu dni niestabilności administracyjnej związanej z działalnością jej twórcy, Sama Altmana.
Jakby tego było mało, na światło dzienne wyszła informacja, że tuż przed godz o zwolnieniu Altmana, który został już przywrócony na stanowisko, zarząd spółki otrzymał sprawozdanie niepokojące.
Zobacz więcej
Nestlé ogłasza dywersyfikację linii Chamyto Box na północnym wschodzie
Wkrótce Vivo zaoferuje połączenie 5G za pośrednictwem Internetu stacjonarnego; wiedzieć więcej!
W dokumencie badacze wskazali, że program sztucznej inteligencji o nazwie Q* lub Q-Star, który jest tworzony rozwijane równolegle, może stanowić poważne zagrożenie dla stabilności ludzkości w Europie przyszły.
Według agencji prasowej Reuters, która opublikowała tę informację, Q* wykorzystuje rozległą moc obliczeniową, aby zasadniczo odpowiadać na pytania matematyczne na poziomie podstawowym.
Na pierwszy rzut oka badacze opracowujący tę technologię byli podekscytowani fakt, że potrafi odpowiedzieć na pytania w stosunkowo krótkim czasie i wyczerpująco autonomiczny.
Jednak niebezpieczeństwo, jakie stwarza ta nowa sztuczna inteligencja, nie leży w tej podstawowej konceptualizacji. Przecież nawet proste kalkulatory potrafią wykonywać mniej skomplikowane operacje matematyczne.
Tym, co naprawdę zaniepokoiło ekspertów, jest sposób, w jaki Q-Star odpowiada na ich pytania. Zamiast używać statycznych wzorców obliczeń, takich jak kody binarne w konwencjonalnych kalkulatorach, sztuczna inteligencja wykorzystuje unikalne wzorce w każdej udzielanej odpowiedzi.
Innymi słowy, Q* może udzielić kilku różnych odpowiedzi na każde postawione przed nią pytanie, co pozostawia miejsce na „wynalazki”, a nawet podanie wprowadzających w błąd danych.
(Zdjęcie: Freepik/reprodukcja)
Pomimo obecnych fanfar, takie zachowanie zaobserwowane w Q-Star nie jest nowością w świecie sztucznej inteligencji.
Inne inteligentne chatboty, w tym Twoje własne CzatGPT, zostali już „przyłapani na gorącym uczynku” w wyniku niepowodzeń wynikających z ich własnej metody szkoleniowej.
Ogólnie rzecz biorąc, sztuczną inteligencję szkoli się tak, aby działała dokładnie tak, jak ludzki mózg. Innymi słowy, muszą przeanalizować przekazane im informacje, aby spróbować zidentyfikować wzorce i pracować nad nimi. To właśnie ta logika pozwala nam, ludziom, uczyć się i przekazywać wiedzę.
Jednakże przekazanie takiej mocy „rozumowania” maszynom mogłoby stworzyć niebezpieczny precedens dla pewnego rodzaju „buntu” przeciwko ludzkości.
Dzieje się tak, ponieważ nic nie stoi na przeszkodzie, aby sztuczna inteligencja wyciągała wnioski na podstawie analizy wzorców żadnego, że ludzkość stanowi zagrożenie lub że należy wyeliminować pewną osobę przykład.
Co gorsza, przestępcy mogą wykorzystywać sztuczną inteligencję do popełniania przestępstw, ingerowania w decyzje polityczne i handlowe, niszczenia wizerunku ludzi itp.
Aby „zabrudzić” wizerunek konkretnej osoby, wystarczy przekazać AI negatywne informacje na jej temat. Z drugiej strony chatboty takie jak ChatGPT można w jakiś sposób poinstruować, aby wpływały na ludzi, aby trzymali się tego czy innego aspektu politycznego.
W miarę rozwoju i rozprzestrzeniania się sztucznej inteligencji we wszystkich sektorach społeczeństwa, w centrum dyskusji powinny znaleźć się obawy dotyczące jej etycznego i pokojowego wykorzystania.
Celem sztucznej inteligencji powinno być wyniesienie ludzkości na wyższy poziom, a nie pomaganie przestępcom lub służenie jako broń do dalszej destabilizacji relacji międzyludzkich.
Absolwent historii i technologii kadr. Pasjonuje się pisaniem, dziś spełnia swoje marzenie o pracy zawodowej jako autor treści internetowych, pisząc artykuły w kilku różnych niszach i formatach.