قادة أوبن إيه آي، المنظمة المسؤولة عن تطوير ChatGPT ، تدعو إلى تنظيم الذكاءات "فائقة الذكاء".
إنهم يدافعون عن إنشاء هيئة تنظيمية مماثلة لوكالة الطاقة الدولية الطاقة الذرية لحماية البشرية من مخاطر خلق ذكاء قادر تراجع.
شاهد المزيد
تطور Google أداة الذكاء الاصطناعي لمساعدة الصحفيين في...
آيفون 2007 الأصلي غير المفتوح يبيع ما يقرب من 200000 دولار ؛ يعرف...
في بيان موجز نُشر على موقع الشركة على الإنترنت ، قام المؤسسان المشاركان جريج بروكمان وإيليا سوتسكيفر ، جنبًا إلى جنب مع الرئيس التنفيذي سام التمان ، الدعوة إلى إنشاء هيئة تنظيمية دولية لبدء أعمال توثيق أنظمة الاستخبارات صناعي.
يهدف الاقتراح إلى إجراء عمليات تدقيق واختبارات الامتثال للمعايير الأمنية وتنفيذ القيود في مستويات النشر والأمن. تهدف هذه الإجراءات إلى تقليل المخاطر الوجودية المرتبطة بهذه الأنظمة ، سعيًا إلى حماية البشرية من الأخطار المحتملة.
لعدة عقود ، كان الباحثون يسلطون الضوء على المخاطر المحتملة المرتبطة بالذكاء الخارق ، حيث رأينا بالفعل تطورًا. ومع ذلك ، مع التقدم السريع في تطوير الذكاء الاصطناعي ، أصبحت هذه المخاطر ملموسة أكثر فأكثر.
ا مركز أمان الذكاء الاصطناعي (CAIS) ، ومقرها الولايات المتحدة ، مكرسة للتخفيف من المخاطر المجتمعية المرتبطة بالذكاء الاصطناعي وقد حددت ثماني فئات من المخاطر تعتبر "كارثية" و "وجودية" المتعلقة بتطوير الذكاء الاصطناعي ، من قبل مثال. هناك مخاطر جدية ونحن نتعرض لها.
من الممكن أن نتخيل أنه في السنوات العشر القادمة ، ستصل أنظمة الذكاء الاصطناعي إلى مستوى من المهارة المتخصصة في العديد من المجالات وأصبحت منتجة مثل بعض أكبر الشركات الموجودة اليوم ، مثل الخبراء في أوبن إيه آي.
هذا التطور السريع للذكاء الاصطناعي لديه القدرة على إحداث تحول كبير في العديد من الصناعات مع الحفاظ على الكفاءة والأتمتة في العديد من الأنشطة الإنتاجية.
من حيث المزايا والحماية المحتملة ، يعتبر الذكاء الخارق تقنية أكثر تقدمًا. أقوى من تلك التي تعاملت معها الإنسانية في الماضي ، قالت رسالة القادة.
هناك احتمال لمستقبل أكثر ازدهارًا بشكل ملحوظ ، ولكن من الضروري إدارة المخاطر التي ينطوي عليها تحقيق هذا السيناريو بعناية. في مواجهة احتمال وجود مخاطر وجودية ، كما ذكروا في مذكرة ، من الأهمية بمكان تبني موقف استباقي ، بدلاً من مجرد الاستجابة للمواقف عند ظهورها.
في السياق المباشر ، تؤكد المجموعة على الحاجة إلى "مستوى معين من التنسيق" بين الشركات المشاركة في البحث المتقدم. في الذكاء الاصطناعي ، من أجل ضمان التكامل السلس للنماذج المتزايدة القوة في المجتمع ، مع إعطاء أولوية خاصة لـ حماية.
يمكن إنشاء هذا التنسيق من خلال المبادرات أو الاتفاقات الجماعية التي تسعى إلى الحد من تقدم قدرات الذكاء الاصطناعي. ستكون هذه الأساليب أساسية لضمان السماح بتطوير الذكاء الاصطناعي بطريقة خاضعة للرقابة ومسؤولة ، مع مراعاة المخاطر التي تنطوي عليها.
من محبي الأفلام والمسلسلات وكل ما يتعلق بالسينما. نشط فضولي على الشبكات ، متصل دائمًا بمعلومات حول الويب.