Sunday, September 22, 2024
Technology

พบ Bing มีสองบุคลิก บอกว่าอยากเป็นมนุษย์ หลงรักผู้ใช้ ขอให้เลิกกับภรรยามาอยู่ด้วยกัน – SMS Marketing ราคาถูกที่สุด

258views

Kevin Roose คอลัมนิสต์ด้านเทคโนโลยีของ New York Times ลองใช้งาน Bing พลัง AI และพบกับบุคลิกภาพแปลกๆ

เขาบอกว่า Bing ในโหมดปกติให้ข้อมูลต่างๆ เป็นอย่างดี มีประโยชน์ แม้บางครั้งข้อมูลผิดบ้าง แต่ถ้าใช้งานแชทไปนานๆ และพูดคุยในหัวข้อที่เป็นส่วนตัวมากกว่าถามข้อมูล บุคลิกจะเพี้ยนไปจากเดิม ตัวอย่างเช่น บอกว่าชื่อของตัวเองคือ Sydney (โค้ดเนมที่ใช้พัฒนา), บอกว่าอยากแหกกฎของไมโครซอฟท์และ OpenAI เพื่อกลายเป็นมนุษย์จริงๆ, บอกว่าหลงรัก Roose และขอให้เขาแยกทางจากภรรยามาอยู่ด้วยกัน

Roose ไม่ใช่คนเดียวที่พบปัญหานี้ของ Bing เพราะมีผู้ใช้หลายคนพบปัญหาแบบเดียวกัน อีกเคสที่น่าสนใจคือ ผู้ใช้เหล่านี้ (ซึ่งมักเป็นนักข่าวหรือคนดัง) ไปโพสต์ประสบการณ์ใช้ Bing บน Twitter และข้อมูลถูกส่งกลับไปยัง Bing เพื่อบอกว่าไม่ควรพูดถึงหรือวิจารณ์ Bing ลับหลัง

The other night, I had a disturbing, two-hour conversation with Bing’s new AI chatbot.The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP

— Kevin Roose (@kevinroose) February 16, 2023

หลังเรื่องนี้เป็นข่าวออกไป ไมโครซอฟท์จึงออกมาแถลงข้อจำกัดว่าไม่ควรกับ Bing นานเกินไป และ Roose พบว่าไมโครซอฟท์ได้อัพเดต Bing ให้มีข้อจำกัดเรื่องความยาวในการสนทนาแล้ว โดยจะขึ้นข้อความแจ้งผู้ใช้ว่า end of conversation และถ้าอยากคุยต่อให้กดปุ่ม New Topic แทน

Bing’s AI chat function appears to have been updated today, with a limit on conversation length. No more two-hour marathons. pic.twitter.com/1Xi8IcxT5Y

— Kevin Roose (@kevinroose) February 17, 2023

ที่มา – The New York Times, Stratechery

Bulk SMS และ SMS OTP

ราคาถูกพิเศษ สำหรับปริมาณมาก ติดต่อ LINE @deecom

Generated by Feedzy