Para pemimpin dari OpenAI, organisasi yang bertanggung jawab untuk mengembangkan ChatGPT, menyerukan regulasi kecerdasan "superintelijen".
Mereka menganjurkan pembentukan badan pengawas yang mirip dengan Badan Energi Internasional Energi Atom untuk melindungi umat manusia dari risiko menciptakan kecerdasan yang mampu kehancuran.
lihat lebih banyak
Google mengembangkan alat AI untuk membantu jurnalis di…
IPhone asli tahun 2007 yang belum dibuka dijual seharga hampir $200.000; tahu...
Dalam pernyataan singkat yang diposting di situs web perusahaan, co-founder Greg Brockman dan Ilya Sutskever, bersama dengan CEO Sam Altman, panggilan untuk pembentukan badan pengawas internasional untuk memulai pekerjaan otentikasi sistem intelijen palsu.
Proposal tersebut bertujuan untuk melakukan audit, uji kepatuhan dengan standar keamanan dan implementasi pembatasan dalam penyebaran dan tingkat keamanan. Langkah-langkah ini bertujuan untuk mengurangi risiko eksistensial yang terkait dengan sistem ini, berupaya melindungi umat manusia dari potensi bahaya.
Selama beberapa dekade, para peneliti telah menyoroti potensi risiko yang terkait dengan superintelligence, di mana kita benar-benar telah melihat sebuah evolusi. Namun, seiring perkembangan AI yang pesat, risiko ini menjadi semakin nyata.
HAI Pusat Keamanan AI (CAIS), yang berbasis di AS, didedikasikan untuk memitigasi risiko sosial yang terkait dengan kecerdasan buatan dan telah mengidentifikasi delapan kategori risiko yang dianggap “bencana” dan “eksistensial” terkait dengan perkembangan AI, oleh contoh. Ada risiko serius dan kami terpapar pada mereka.
Bisa dibayangkan, dalam 10 tahun ke depan, sistem AI akan mencapai tingkat keahlian khusus di beberapa domain dan menjadi seproduktif beberapa perusahaan terbesar di luar sana saat ini, sebagai ahli di OpenAI.
Evolusi AI yang cepat ini berpotensi mengubah banyak industri secara signifikan sambil mempertahankan efisiensi dan otomatisasi dalam banyak aktivitas produktif.
Dalam hal potensi keuntungan dan perlindungan, superintelligence dianggap sebagai teknologi yang lebih maju. lebih kuat daripada yang pernah dihadapi umat manusia di masa lalu, kata pesan para pemimpin itu.
Ada prospek masa depan yang jauh lebih sejahtera, tetapi penting untuk secara hati-hati mengelola risiko yang terlibat dalam mencapai skenario ini. Menghadapi kemungkinan risiko eksistensial, seperti yang dilaporkan dalam catatan, sangat penting untuk mengambil sikap proaktif, daripada hanya menanggapi situasi yang muncul.
Dalam konteks langsung, kelompok tersebut menekankan perlunya “beberapa tingkat koordinasi” antara perusahaan yang terlibat dalam penelitian lanjutan. di AI, untuk memastikan kelancaran integrasi model yang semakin kuat di masyarakat, dengan prioritas khusus pada keamanan.
Koordinasi semacam itu dapat dilakukan melalui inisiatif atau kesepakatan bersama yang berupaya membatasi peningkatan kemampuan AI. Pendekatan ini akan menjadi kunci untuk memastikan pengembangan AI diizinkan secara terkendali dan bertanggung jawab, dengan mempertimbangkan risiko yang ada.
Pencinta film dan serial dan segala sesuatu yang melibatkan sinema. Rasa ingin tahu yang aktif di jaringan, selalu terhubung dengan informasi tentang web.