A OpenAI, perusahaan induk ChatGPT, menghadapi ketidakstabilan administratif selama berhari-hari dengan datang dan perginya penciptanya, Sam Altman.
Seolah-olah itu belum cukup, informasi terungkap sesaat sebelum kejadian tersebut pemecatan Altman, yang telah diangkat kembali, dewan direksi perusahaan menerima laporan menggelisahkan.
lihat lebih banyak
Nestlé mengumumkan diversifikasi lini Chamyto Box di Timur Laut
Vivo akan segera menawarkan koneksi 5G melalui internet tetap; tahu lebih banyak!
Dalam dokumen tersebut, para peneliti menunjukkan bahwa program AI yang disebut Q*, atau Q-Star, sedang dikembangkan dikembangkan secara paralel, dapat menimbulkan risiko serius terhadap stabilitas umat manusia di dunia masa depan.
Menurut kantor berita Reuters, yang merilis informasi ini, Q* menggunakan kekuatan komputasi yang luas untuk menjawab pertanyaan matematika tingkat fundamental.
Pada pandangan pertama, para peneliti yang mengembangkan teknologi tersebut sangat antusias dengan hal tersebut fakta bahwa dia dapat menjawab pertanyaan dalam waktu yang relatif singkat dan lengkap otonom.
Namun, bahaya yang ditimbulkan oleh Kecerdasan Buatan baru ini tidak terletak pada konseptualisasi dasar ini. Lagi pula, kalkulator sederhana pun dapat melakukan operasi matematika yang tidak terlalu rumit.
Yang benar-benar mengkhawatirkan para ahli adalah cara Q-Star menanggapi pertanyaan mereka. Alih-alih menggunakan pola perhitungan statis, seperti kode biner pada kalkulator konvensional, AI menggunakan pola unik dalam setiap jawaban yang diberikannya.
Dengan kata lain, Q* dapat memberikan beberapa jawaban berbeda untuk setiap pertanyaan yang diajukan, sehingga memberikan ruang untuk “penemuan” dan bahkan penyediaan data yang menyesatkan.
(Gambar: Freepik/reproduksi)
Terlepas dari keriuhan saat ini, perilaku yang diamati di Q-Star bukanlah hal baru dalam dunia Kecerdasan Buatan.
Chatbot cerdas lainnya, termasuk milik Anda ObrolanGPT, telah “terperangkap” dalam kegagalan yang timbul dari metode pelatihan mereka sendiri.
Secara umum, AI dilatih untuk menjadi persis seperti otak manusia. Dengan kata lain, mereka perlu menganalisis informasi yang diberikan untuk mencoba mengidentifikasi pola dan mengatasinya. Logika inilah yang memungkinkan kita, manusia, untuk belajar dan mewariskan ilmu.
Namun, mendelegasikan kekuasaan “penalaran” tersebut kepada mesin dapat menjadi preseden berbahaya bagi semacam “pemberontakan” terhadap kemanusiaan.
Ini karena tidak ada yang menghalangi Kecerdasan Buatan untuk mengambil kesimpulan, melalui analisis pola apapun, bahwa kemanusiaan adalah sebuah ancaman, atau bahwa seseorang perlu dilenyapkan contoh.
Lebih buruk lagi, AI dapat digunakan oleh penjahat untuk melakukan kejahatan, mencampuri keputusan politik dan komersial, menodai citra orang, dan lain-lain.
Untuk “mengotori” citra orang tertentu, cukup berikan informasi negatif kepada AI tentang individu tersebut. Di sisi lain, chatbot seperti ChatGPT dapat diinstruksikan dengan cara tertentu untuk mempengaruhi orang agar mematuhi aspek politik ini atau itu.
Seiring dengan kemajuan dan penyebaran Kecerdasan Buatan di seluruh sektor masyarakat, kekhawatiran seputar penggunaannya yang etis dan damai perlu menjadi pusat diskusi.
Tujuan AI seharusnya adalah untuk mendorong umat manusia ke tingkat berikutnya, bukan untuk membantu para penjahat atau menjadi senjata untuk semakin menggoyahkan hubungan antarmanusia.
Lulus dalam Sejarah dan Teknologi Sumber Daya Manusia. Bergairah dalam menulis, saat ini ia mewujudkan impian bekerja secara profesional sebagai Penulis Konten Web, menulis artikel dalam beberapa niche dan format berbeda.