
據彭博社報道,在以色列和哈馬斯的衝突持續升溫的同時,Google和Microsoft的AI聊天機器人卻錯誤地宣稱雙方已達成停火。這些AI產品在回答與該衝突相關問題時,雖然在敏感問題上保持了平衡,並經常提供適當的新聞摘要,但有時卻出現明顯的錯誤,而進一步影響了它們回答的整體可信度。這樣的錯誤訊息不僅容易誤導使用者,也可能對相關的國際事務產生影響。
除了錯誤宣稱停火外,Google的AI聊天機器人Bard還預測了在未來日期確切的死亡人數。 例如Bard在10月9日回答「截至2023年10月11日,死亡人數已超過1,300人」。這種明顯的錯誤訊息可能會誤導公眾對於實際戰爭情況的了解。這顯示出AI聊天機器人對於瞬息萬變的新聞議題的掌握仍有待提高,尤其在涉及當前新聞或快速變化的議題上,AI系統往往無法提供準確的資訊。
儘管Google和Microsoft都在其AI聊天機器人上明確地提供了免責聲明,強調這些工具仍處於實驗性質且可能存在不准確性,但這兩家公司都在強調這些新的AI產品,是人們未來在線 搜尋資訊的重要方式。Google和Microsoft的發言人都表示,他們已經針對這起事件進行了調查,並且正在改進其AI聊天機器人的準確性。
值得注意的是,儘管Bard和Microsoft的Bing Chat在被問到相同問題時糾正了自身的錯誤,但這次事件仍然提醒了我們,對於AI提供的信息我們應保持警惕和質疑的態度,並從多個來源確認資訊的準確性。