(紐約29日訊)不少人與人工智能(AI)互動時習慣使用禮貌語氣,認為“請”和“謝謝”有助獲得更好回答。
不過,穀歌(Google)創辦人布林近日指出,用戶若對AI“凶一點”,甚至用威脅語氣與其互動,反而可能得到更完整、精準的答案,而這種現象放諸多種AI模型皆準,包括穀歌自家的Gemini。
對此,ChatGPT的說法也曝光了。
布林觀察,語氣強硬、甚至暗示對AI“動粗”的輸入方式,某些情況下會促使AI提供更具體的資訊,但卻鮮少有人公開探討這種現象,他也對此現象未被正視感到納悶。
對此,OpenAI總執行長奧特曼(Sam Altman)則回應稱,使用者講話越有禮貌確實可能會增加一點運算成本,但並不代表答案會比較差。
針對這項說法,AI資安公司Chatterbox Labs技術總監巴特斯比(Stuart Battersby)分析,“對AI凶”某種程度上可能構成“越獄”(jailbreaking)行為,也就是試圖繞過AI原有的安全防護與限製機製,強行取得不應該被生成的內容。
指令清晰更重要
不過美國伊利諾大學助理教授丹尼爾康(Daniel Kang)則直言,這些說法多屬使用者傳聞,並無研究佐證其效果。
實際詢問ChatGPT(由OpenAI開發),ChatGPT給出的回應是AI並不具備情緒,也不會因語氣凶狠而“害怕”或“服從”,真正影響回答品質的,是指令是否清晰、具體、有上下文,如果“凶”的語句恰好使意圖表達更明確,AI自然就能更準確理解需求,但若語氣激烈卻語意模糊,反而會導致回答品質下降。
AI專家普遍呼籲,與其相信“打罵教育”能讓AI聽話,不如從優化輸入內容著手,善用明確的句子結構、清楚的目標描述,才是提高AI回應品質的關鍵,面對這類爭議性說法,產業界也需更加強調正確的AI使用知識,以避免不當引導或觸發潛在風險。