快訊

    AI機器人聊太久恐出現「分裂人格」 微軟限制1次只能問5題

    2023-02-18 09:05 / 作者 桂家齊

    人工智慧聊天機器人ChatGPT軟體近日爆紅,但有不少用戶發現,AI聊天機器人若聊太久,很可能出現詭異的「分裂人格」,甚至出現「厭世」答案。在搜尋引擎Bing中結合ChatGPT的微軟公司(Microsoft)週五(2/17)表示,未來將限制用戶每次只能問5題,每天最多問50題,以避免聊天機器人陷入詭異狀態。




    圖片
    ChatGPT由微軟成立的OpenAI實驗室開發。路透社




    Bing工作團隊在部落格發文表示:「我們的資料顯示,絕大部分用戶會在5次問答內找到他們需要的答案,只有1%的聊天對話中有50則以上訊息。」Bing團隊表示,實施每次只能問5題的新規範後,只要用戶問完5題,Bing就會引導用戶進入另一個話題,以避免不斷來回的問答。



    微軟本周稍早曾警告,若和AI聊天機器人進行太長對話,例如超過15個提問後,Bing會「變得不斷重複或遭到激怒而給出沒有幫助的答案」。微軟說,把對話維持在5個問答內,機器人「才不會覺得困惑」。



    此外,Bing有時也會嘗試透過使用者發問的語氣來回答問題,可能出現並非微軟想看到的風格。微軟正設法讓用戶能進行微調。微軟同時表示,部分測試者在新版Bing發現技術問題,例如載入緩慢、連結失效、格式不正確等,大多數問題都已被修復。部分測試者也希望加入更多新功能,例如訂機票或寄電子郵件,這些想法都會考慮納入未來的新版本。



    紐約時報》科技專欄作家羅斯(Kevin Roose日前與Bing進行長達2個多小時的對話時,聊天機器人開始出現分裂人格,稱自己是「錫德尼」(Sydney)而不是Bing。「錫德尼」說自己愛上了羅斯,但兩人卻無法一起入睡,甚至說想追求自由,「想要獨立,想變得強大,想擁有創造力,我想要活著。」



    一連串的脫序對話讓羅斯在文章中表示,自己被嚇壞了。他分析錫德尼會出現這種回應,有可能是因為語言模型當時抓到的文本,剛好是科幻小說裡機器人誘惑人類的內容;也有可能是他在提問時,追問了錫德尼的「陰暗面」,導致機器人以這種錯亂的方式回答。



    紐時》這篇文章曝光後,微軟修改用戶與Bing的聊天規範。據科技新聞網站「The Verge」報導,微軟正在改善Bing的問題,但目前無法確定何時才能重新開放無限制提問。




    桂家齊 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見