กลุ่มผู้ร่วมก่อตั้ง OpenAI ได้แก่ Sam Altman, Greg Brockman, และ Ilya Sutskever เขียนบล็อกเรียกร้องว่ารัฐต้องเข้ามากำกับการพัฒนาปัญญาประดิษฐ์ฉลาดเหนือมนุษย์ (superintelligence) รูปแบบเดียวกับที่รัฐบาลต้องเข้ามาควบคุมการพัฒนาเทคโนโลยีนิวเคลียร์
ข้อเสนอนี้ระบุชัดว่าควรจำกัดเฉพาะระดับ superintelligence เท่านั้นไม่ควรไปสร้างเงื่อนไขกับปัญญาประดิษฐ์ที่ความสามารถต่ำกว่านี้มากเกินไป
ข้อเสนอระบุ 3 แนวทาง ได้แก่
สร้างความร่วมมือขนาดใหญ่เพื่อพัฒนาปัญญาประดิษฐ์ระดับเหนือมนุษย์อย่างระมัดระวัง ทำข้อตกลงร่วมกันว่าจะเพิ่มความสามารถมันในอัตราที่กำหนดไว้
มีองค์กรควบคุมการพัฒนา สามารถเข้าตรวจสอบการพัฒนาได้แบบเดียวกับที่ IAEA ตรวจสอบหน่วยงานด้านนิวเคลียร์ทั่วโลก หน่วยงานนี้สามารถกำหนดเงื่อนไขการพัฒนาหรือใช้งานเพิ่มเติมได้
พัฒนาความสามารถในการตรวจสอบเพื่อให้แน่ใจว่าปัญญาประดิษฐ์เหนือมนุษย์จะปลอดภัย
บทความระบุว่าปัญญาประดิษฐ์เหนือมนุษย์นั้นมีทั้งข้อดีและข้อเสีย หากพัฒนาสำเร็จเราน่าจะแก้ปัญหาต่างๆ ในโลกได้จำนวนมาก และคุณภาพชีวิตมนุษย์ก็จะดีขึ้นมาก และการห้ามพัฒนาไปทั้งหมดก็ทำได้ยากมากเพราะหน่วยงานที่มีความสามารถจะพัฒนาก็มากขึ้นเรื่อยๆ ตามการพัฒนาของเทคโนโลยี
ที่มา – OpenAI