أ OpenAI، الشركة الأم لـ ChatGPT، تواجه أيامًا من عدم الاستقرار الإداري مع مجيء وذهاب منشئها، Sam Altman.
وكأن ذلك لم يكن كافيًا، فقد ظهرت المعلومات إلى النور قبل وقت قصير من وقوع الحادث إقالة ألتمان، الذي أعيد إلى منصبه منذ ذلك الحين، تلقى مجلس إدارة الشركة تقريرا مثيرة للقلق.
شاهد المزيد
تعلن نستله عن تنويع خط إنتاج Chamyto Box في الشمال الشرقي
قريبًا، ستوفر Vivo اتصال 5G عبر الإنترنت الثابت؛ تعرف أكثر!
وفي الوثيقة، أشار الباحثون إلى أن برنامج الذكاء الاصطناعي يسمى Q*، أو Q-Star، يجري وضعت بالتوازي، يمكن أن تشكل خطرا جديا على استقرار البشرية في العالم مستقبل.
وفقًا لوكالة رويترز للأنباء، التي نشرت هذه المعلومات، يستخدم Q* قوة حسابية واسعة النطاق للإجابة بشكل أساسي على الأسئلة الرياضية ذات المستوى الأساسي.
للوهلة الأولى، كان الباحثون الذين طوروا التكنولوجيا متحمسين للفكرة حقيقة أنها تستطيع الإجابة على الأسئلة في وقت قصير نسبيًا وبشكل كامل واثق من نفسه.
ومع ذلك، فإن الخطر الذي يمثله هذا الذكاء الاصطناعي الجديد لا يكمن في هذا التصور الأساسي. ففي النهاية، حتى الآلات الحاسبة البسيطة يمكنها إجراء عمليات حسابية أقل تعقيدًا.
ما أثار قلق الخبراء حقًا هو الطريقة التي تستجيب بها شركة Q-Star لأسئلتهم. بدلاً من استخدام أنماط الحساب الثابتة، مثل الرموز الثنائية للآلات الحاسبة التقليدية، يستخدم الذكاء الاصطناعي أنماطًا فريدة في كل إجابة يقدمها.
بمعنى آخر، يمكن لـ Q* أن يعطي عدة إجابات مختلفة لكل سؤال يوضع أمامه، مما يترك مجالاً لـ”الاختراعات” وحتى تقديم بيانات مضللة.
(الصورة: Freepik / الاستنساخ)
على الرغم من الضجة الحالية، فإن هذا السلوك الذي لوحظ في Q-Star ليس جديدًا في عالم الذكاء الاصطناعي.
روبوتات الدردشة الذكية الأخرى، بما في ذلك الخاصة بك ChatGPT، لقد "تم القبض عليهم متلبسين" بالفعل في حالات الفشل الناجمة عن أسلوب التدريب الخاص بهم.
بشكل عام، يتم تدريب الذكاء الاصطناعي ليكون تمامًا مثل الدماغ البشري. بمعنى آخر، يحتاجون إلى تحليل المعلومات المقدمة لهم لمحاولة تحديد الأنماط والعمل عليها. وهذا المنطق هو الذي يسمح لنا، نحن البشر، بالتعلم ونقل المعرفة.
ومع ذلك، فإن تفويض مثل هذه القوة "العقلية" للآلات يمكن أن يشكل سابقة خطيرة لنوع من "التمرد" ضد الإنسانية.
وذلك لأنه لا شيء يمنع الذكاء الاصطناعي من التوصل إلى نتيجة من خلال تحليل الأنماط أي أن الإنسانية تشكل تهديدًا، أو أن شخصًا معينًا يحتاج إلى القضاء عليه مثال.
والأسوأ من ذلك، أنه يمكن للمجرمين استخدام الذكاء الاصطناعي لارتكاب جرائم، والتدخل في القرارات السياسية والتجارية، وتشويه صور الناس، وما إلى ذلك.
"لتلطيخ" صورة شخص معين، ما عليك سوى تزويد الذكاء الاصطناعي بمعلومات سلبية عن هذا الشخص. من ناحية أخرى، يمكن توجيه روبوتات الدردشة مثل ChatGPT بطريقة ما للتأثير على الأشخاص للالتزام بهذا الجانب السياسي أو ذاك.
مع تقدم الذكاء الاصطناعي وانتشاره في جميع قطاعات المجتمع، يجب أن تكون المخاوف بشأن استخدامه الأخلاقي والسلمي في قلب المناقشة.
يجب أن يكون هدف الذكاء الاصطناعي هو دفع البشرية إلى المستوى التالي، وليس مساعدة المجرمين أو العمل كسلاح لمزيد من زعزعة استقرار العلاقات الإنسانية.
حاصل على بكالوريوس التاريخ وتكنولوجيا الموارد البشرية. شغوف بالكتابة، وهو يعيش اليوم حلم العمل بشكل احترافي ككاتب محتوى ويب، وكتابة المقالات في العديد من المجالات والأشكال المختلفة.