นักวิทยาศาสตร์ที่มีชื่อเสียงบางคน เช่น Stephen Hawking เองก็ได้ทำนายความเสี่ยงที่ปัญญาประดิษฐ์อาจก่อให้เกิดกับมนุษย์แล้ว ไม่เพียงแต่ฮอว์คิงเท่านั้น แต่นักธุรกิจรายใหญ่ในภาคส่วนเทคโนโลยีก็แสดงความกังวลเกี่ยวกับความก้าวหน้าของ AI ด้วยเช่นกัน
จากตัวอย่างนี้ Steve Wozniak ผู้ร่วมก่อตั้ง Apple, Elon Musk และเจ้าพ่อด้านเทคโนโลยีอีกหลายร้อยรายได้ลงนามในจดหมายเพื่อขอให้ระมัดระวังเกี่ยวกับความก้าวหน้าในด้านนี้
ดูเพิ่มเติม
Google พัฒนาเครื่องมือ AI เพื่อช่วยนักข่าวใน...
iPhone 2007 ของแท้ที่ยังไม่เปิดขายในราคาเกือบ 200,000 ดอลลาร์; ทราบ...
ดูเพิ่มเติม: ชายคนนี้อ้างว่าเขียนหนังสือ 100 เล่มโดยใช้ปัญญาประดิษฐ์
กล่าวโดยสรุป หนึ่งในหลักฐานที่กลุ่มผู้ตื่นตระหนกชี้ให้เห็นก็คือ ปัญญาประดิษฐ์สามารถพัฒนาไปถึงจุดที่รับรู้ได้ แม้ว่าปรัชญาที่ดีที่สุดจะไม่รู้วิธีนิยามว่าจิตสำนึกดังกล่าวคืออะไร แต่เป็นที่ทราบกันดีว่าในขั้นตอนนี้เครื่องจักรจะเข้าใจว่าใครคือใครและมีบทบาทอย่างไรในโลกนี้
เมื่อถึงจุดนี้ปัญญาประดิษฐ์อาจมีทัศนคติที่ไม่ดีต่อมนุษย์ คงจะเพียงพอสำหรับเธอที่จะเข้าใจว่าผู้คนเป็นปัญหาสำหรับการดำรงอยู่ของโลกและสำหรับความคงทนของเครื่องจักร เป็นต้น
Dan Hendrycks ผู้อำนวยการ Center For AI Safety เตือนว่ามี "เส้นทางหลายทาง" ไปสู่ "ความเสี่ยงในระดับมนุษย์จาก AI" ตามบทความที่ตีพิมพ์โดยหนังสือพิมพ์ Daily Star
ผู้เชี่ยวชาญยังกล่าวอีกว่ารูปแบบขั้นสูงของปัญญาประดิษฐ์ "สามารถใช้โดยผู้ประสงค์ร้ายเพื่อออกแบบอาวุธชีวภาพใหม่ที่ร้ายแรงกว่าการระบาดตามธรรมชาติ"
ปฏิเสธไม่ได้ว่านี่เป็นวิธีที่มีประสิทธิภาพมากในการกำจัดมนุษย์บนโลก เพียงแค่ดูที่การระบาดใหญ่ของ Covid-19 ล่าสุด ภัยคุกคามเหล่านี้มีอยู่ในห้องทดลองหลายแห่งด้วยซ้ำ ตัวเขาเอง ไวรัส ของโรคพิษสุนัขบ้า ถ้ามันเกิดการกลายพันธุ์เพียงครั้งเดียว ซึ่งทำให้แพร่เชื้อได้ทางอากาศ มันจะจบลงที่มนุษย์อย่างรวดเร็วและมีประสิทธิภาพ
ในโลกดิจิทัลที่เชื่อมโยงกันมากขึ้น การจินตนาการว่าปัญญาประดิษฐ์สามารถสั่งซื้อวัตถุดิบเพื่อพัฒนาอาวุธชีวภาพที่ร้ายแรงได้นั้นสมเหตุสมผลอย่างยิ่ง
นี่เป็นการเดิมพันที่ผู้เชี่ยวชาญบางคนทำขึ้นตามหนังสือพิมพ์ที่อ้างถึงข้างต้น พวกเขาเชื่อว่ามันจะเป็นวิธีการรักษาเครื่องจักรไว้ในขณะที่พัฒนาอารมณ์ความรู้สึกของมนุษย์
“ต้องขอบคุณการปฏิวัติเทคโนโลยีด้านพันธุวิศวกรรม เครื่องมือทั้งหมดที่จำเป็นในการสร้างไวรัสจึงมีราคาถูก เรียบง่าย และ พร้อมใช้งานที่นักวิทยาศาสตร์อันธพาลหรือไบโอแฮ็กเกอร์วัยเรียนในมหาวิทยาลัยสามารถใช้มันได้ ซึ่งสร้างภัยคุกคามที่ยิ่งใหญ่กว่านั้น” แดนกล่าว เฮนดริกส์.
ในทางกลับกัน มีนักวิเคราะห์ที่มองไม่เห็นความเสี่ยงเช่นที่กล่าวมาข้างต้น สำหรับพวกเขาแล้ว มันค่อนข้างซับซ้อนที่จะวิเคราะห์ว่าปัญญาประดิษฐ์มีความสามารถในการพัฒนาคล้ายกับกระบวนการทางจิตของมนุษย์
ตามกระแสความคิดนี้ มันคงไม่ใช่วิธีเชิงตรรกะที่จะคิดเกี่ยวกับความเป็นไปได้ที่ดีที่สุด สำหรับสิ่งนี้ นักพัฒนาจะต้องสร้างอัลกอริทึมที่เลียนแบบวิธีคิดและความรู้สึกของผู้คน ซึ่งเป็นสิ่งที่เป็นไปไม่ได้ในขณะนี้
นอกจากนี้ สำหรับคนเหล่านี้ ปัญญาประดิษฐ์จะตระหนักว่าเพื่อหลีกเลี่ยงปัญหา สิ่งที่ดีที่สุดที่ควรทำคือการไม่มีอยู่จริง จึงไม่มีแนวโน้มจะรอดเหมือนใน สัตว์แต่เพื่อมองหาวิธีแก้ปัญหา