微軟公司周五對必應(yīng)(Bing)AI聊天機(jī)器人每天接受的提問數(shù)量做出限制,規(guī)定用戶在與Bing的互動中,每個會話的問答上限為5個,每天的提問上限不超過50個。
微軟表示,做出這樣的限制是由于一些長時間的聊天會話可能“混淆”聊天模型的場景。Bing AI的背后融入了OpenAI公司的ChatGPT技術(shù)。
聊天兩小時后計算機(jī)開始“說胡話”
(資料圖片僅供參考)
此前,一些技術(shù)人員在測試該應(yīng)用時發(fā)現(xiàn),會話時間過長可能導(dǎo)致聊天機(jī)器人失控偏離“軌道”,并討論暴力、瘋狂示愛,將錯誤的事堅持認(rèn)為是正確的。
這一舉措也反映了大型語言模型(LLM)在向公眾進(jìn)行部署時,其運(yùn)作方式仍在探索中。 微軟表示,正在征求測試人員的意見,以考慮是否在未來擴(kuò)大提問的上限。
微軟首席技術(shù)官凱文·斯科特稱,與人類的交互是聊天機(jī)器人的學(xué)習(xí)過程,這是為將來更大范圍推出這種機(jī)器人做準(zhǔn)備。斯科特表示,大部分人與機(jī)器的交互是短暫且目標(biāo)明確的,長時間的交互會引導(dǎo)機(jī)器人給出詭異的回答,這也是需要對會話長度進(jìn)行限制的原因。
當(dāng)?shù)谝回斀?jīng)記者向ChatGPT提問“Bing AI為何對提問數(shù)量設(shè)置上限”時,ChatGPT的回答仍然“有模有樣”:“具體的原因可能取決于程序員的設(shè)計以及編程方面的考慮,主要考慮三方面因素,一是技術(shù)的限制,聊天機(jī)器人可能沒有能力處理更長或更復(fù)雜的問題,或者是通過限制問題長度來獲得更加精確的答案;二是用戶體驗,聊天機(jī)器人的設(shè)計是為了提供用戶最好的體驗,限制提問長度可能會幫助防止用戶產(chǎn)生困惑;三是效率,可以幫助系統(tǒng)更有效地處理數(shù)據(jù),更快地做出回答。”
目前已有超過一百萬人注冊測試了微軟的Bing AI聊天機(jī)器人。不過測試人員發(fā)現(xiàn)了Bing AI的一些詭異回答?!都~約時報》專欄作家凱文·羅斯周四寫道,當(dāng)他與聊天機(jī)器人交談了兩個小時后發(fā)現(xiàn),對方看起來就像一個“喜怒無常、躁狂抑郁的少年”,顯示出了“人格分裂”。
羅斯在與機(jī)器人的聊天過程中還得知了機(jī)器人的一些“陰暗想法”,比如機(jī)器人像入侵計算機(jī)、散播虛假信息,希望打破微軟和OpenAI制定的規(guī)則,甚至想成為人類。機(jī)器人甚至試圖說服羅斯背叛婚姻,和“它”在一起。
這次交流后,羅斯感到不安,他寫道:“我不再認(rèn)為這些AI模型最大的問題是它們有可能會犯事實性的錯誤,反而擔(dān)心這項技術(shù)可能會影響人類用戶,說服他們采取破壞性的行動。”
AI意識覺醒了嗎?
微軟將聊天機(jī)器人開放給用戶的做法具有一定爭議。微軟也無法解釋聊天機(jī)器人為何會表現(xiàn)出“陰暗面”。但斯科特稱:“你越是試圖取笑它步入幻覺,它就會越來越偏離現(xiàn)實。”
為此,微軟限制了Bing AI的適用范圍。公司表示:“改進(jìn)AI產(chǎn)品的唯一方法是將它們推向世界并從用戶交互中學(xué)習(xí)。”根據(jù)測試人員的反饋,微軟和OpenAI將不斷對模型進(jìn)行改進(jìn)。
與微軟的必應(yīng)開放給公眾不同,谷歌開發(fā)的AI聊天機(jī)器人Bard尚未向公眾發(fā)布,公司稱當(dāng)前狀態(tài)仍存在聲譽(yù)風(fēng)險和技術(shù)安全問題。
一些人工智能專家警告稱,大型語言模型存在包括“幻覺”在內(nèi)的問題,這意味著該軟件可以“胡編亂造”;另一些人擔(dān)心復(fù)雜的大模型會愚弄人類,讓人類相信自己是有知覺的,甚至?xí)膭钊藗儌ψ约夯蛩恕?/p>
去年,一位名叫Blake Lemoine的谷歌AI工程師公開表示,他正在開發(fā)的計算機(jī)AI系統(tǒng)LaMDA已經(jīng)具有與人類孩子相當(dāng)?shù)母兄惺芎捅磉_(dá)思想的能力。這一事件在業(yè)內(nèi)掀起軒然大波,這名工程師隨后被谷歌解雇。
隨著人工智能技術(shù)越來越接近現(xiàn)實生活,人們還擔(dān)心誰應(yīng)該對技術(shù)負(fù)責(zé)。根據(jù)美國的一項研究,公眾對人工智能工具持謹(jǐn)慎態(tài)度,只有9%的美國人認(rèn)為人工智能利大于弊。
一位此前在某大型互聯(lián)網(wǎng)公司負(fù)責(zé)安全與隱私的高管對第一財經(jīng)記者表示:“正是由于聊天機(jī)器人給人帶來想象空間,才讓人類對他們感到擔(dān)心。事實上,人類可以通過數(shù)據(jù)訓(xùn)練出具有各種貌似有‘人格’的聊天機(jī)器人。”
他還表示,機(jī)器人總是具有暴露人類善良和邪惡的能力,只要現(xiàn)實世界中有AI技術(shù)的進(jìn)步,人們就將繼續(xù)探索關(guān)于機(jī)器人的道德難題及其對人類的影響,這將涉及法學(xué)、心理學(xué)、社會學(xué)等多個領(lǐng)域。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) m.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com