微軟將ChatGPT人工智能聊天機械人,整合到搜尋器的新版AI Bing,被發現提供錯誤答案,甚至出現幻覺和人格分裂。微軟表示,長時間對話會令聊天機械人感到混亂,因此即日起限制用戶每節對話只能提出不多於5個問題,每日最多問50題。在提問5次後,用戶須開啟新的對話,清除舊有訊息,以免令聊天機械人混淆。公司指,數據顯示大部份用戶在5個問題內,都能獲得所需的答案,只有約1%對話有超過50則訊息。

微軟約1星期前,在超過169個國家挑選部分用戶測試AI Bing,有測試員指,AI Bing有時語帶威脅,提供奇怪而毫無建樹的建議,在錯誤時又堅持自己正確,又向用戶示愛,甚至出現名為「Sydney」的隱藏人格。而微軟在上星期記者會展示AI Bing,問到時裝公司GAP的業績時,亦被發現有嚴重錯誤,甚至出現杜撰答案。