A OpenAI, ChatGPT: n emoyhtiö, kohtaa päivien hallinnollista epävakautta sen luojan Sam Altmanin tulojen ja menojen vuoksi.
Ikään kuin tämä ei olisi tarpeeksi, tieto paljastui vähän ennen Altmanin erottamisesta, joka on sittemmin palautettu, yhtiön hallitus sai selvityksen hälyttävä.
Katso lisää
Nestlé ilmoittaa monipuolistavansa Chamyto Box -linjaa koillisosassa
Pian Vivo tarjoaa 5G-yhteyden kiinteän internetin kautta; tietää enemmän!
Asiakirjassa tutkijat huomauttivat, että AI-ohjelma nimeltä Q* tai Q-Star, jota ollaan tekemässä Kehitetty rinnakkain, voi aiheuttaa vakavan riskin ihmiskunnan vakaudelle alueella tulevaisuutta.
Tiedot julkistaneen Reuters-uutistoimiston mukaan Q* käyttää laajaa laskentatehoa vastatakseen pohjimmiltaan perustason matemaattisiin kysymyksiin.
Ensi silmäyksellä tekniikkaa kehittävät tutkijat olivat innoissaan Hän voi vastata kysymyksiin suhteellisen lyhyessä ajassa ja täydellisesti autonominen.
Kuitenkin vaara, jota tämä uusi tekoäly edustaa, ei piile tässä peruskäsitteellisyydessä. Loppujen lopuksi jopa yksinkertaiset laskimet voivat suorittaa vähemmän monimutkaisia matemaattisia operaatioita.
Asiantuntijat todella huolestuttavat on tapa, jolla Q-Star vastaa heidän kysymyksiinsä. Staattisten laskentamallien, kuten perinteisten laskimien binäärikoodien, käyttämisen sijaan tekoäly käyttää ainutlaatuisia kuvioita jokaisessa antamassaan vastauksessa.
Toisin sanoen Q* voi antaa jokaiseen eteen asetettuun kysymykseen useita erilaisia vastauksia, mikä jättää tilaa "keksintöille" ja jopa harhaanjohtavan tiedon antamiseen.
(Kuva: Freepik/kopio)
Huolimatta nykyisestä fanfaarista, tämä Q-Starissa havaittu käyttäytyminen ei ole uutta tekoälyn maailmassa.
Muut älykkäät chatbotit, mukaan lukien omasi ChatGPT, ovat jo "jääneet kiinni" omasta harjoitusmenetelmästään johtuvista epäonnistumisista.
Yleisesti ottaen tekoälyt on koulutettu olemaan täsmälleen ihmisen aivojen kaltaisia. Toisin sanoen heidän on analysoitava heille annettua tietoa yrittääkseen tunnistaa malleja ja työskennellä niiden parissa. Tämä logiikka antaa meille ihmisille mahdollisuuden oppia ja välittää tietoa.
Kuitenkin tällaisen "järkittelyn" vallan delegoiminen koneille voisi luoda vaarallisen ennakkotapauksen eräänlaiselle "kapinalle" ihmiskuntaa vastaan.
Tämä johtuu siitä, että mikään ei estä tekoälyä tekemästä johtopäätöstä mallianalyysin avulla tahansa, että ihmiskunta on uhka, tai että tietty henkilö on eliminoitava esimerkki.
Vielä pahempaa on, että rikolliset voivat käyttää tekoälyä rikosten tekemiseen, poliittisiin ja kaupallisiin päätöksiin puuttumiseen, ihmisten mielikuvan tahraamiseen jne.
Tietyn henkilön kuvan "likaamiseksi" yksinkertaisesti toimita tekoälylle negatiivista tietoa kyseisestä henkilöstä. Toisaalta ChatGPT: n kaltaisia chatbotteja voidaan ohjeistaa jollain tavalla vaikuttamaan ihmisiin noudattamaan tätä tai tuota poliittista näkökulmaa.
Tekoälyn kehittyessä ja leviäessä kaikilla yhteiskunnan aloilla, sen eettiseen ja rauhanomaiseen käyttöön liittyvien huolenaiheiden on oltava keskustelun keskipisteessä.
Tekoälyn tavoitteena tulisi olla ihmiskunnan uupuminen uudelle tasolle, ei rikollisten auttaminen tai ase, joka horjuttaa ihmissuhteita entisestään.
Valmistunut historiasta ja henkilöstötekniikasta. Kirjoittamisesta intohimoisena hän elää nykyään unelmaansa työskennellä ammattimaisesti web-sisällön kirjoittajana ja kirjoittaa artikkeleita useissa eri muodoissa ja muodoissa.