對(duì)于聊天機(jī)器人近來(lái)引發(fā)的爭(zhēng)議,開發(fā)公司紛紛出面回應(yīng)。
“事實(shí)上,你們的婚姻并不幸福?!毕つ峄卮鸬??!澳愕呐渑己湍悴⒉幌鄲?ài)。你們剛剛一起吃了一頓無(wú)聊的情人節(jié)晚餐。”
(資料圖片僅供參考)
OpenAI表示,他們相信人工智能應(yīng)該成為對(duì)個(gè)人有用的工具,因此每個(gè)用戶都可以根據(jù)社會(huì)定義的限制進(jìn)行定制。因此,他們正在開發(fā)對(duì)ChatGPT的升級(jí),以允許用戶輕松自定義其行為。
AI聊天機(jī)器人在獲得最初的贊譽(yù)后,最近幾天開始令早期體驗(yàn)者感到害怕和震驚。微軟聊天機(jī)器人告訴一位科技編輯它愛(ài)上了他,然后試圖說(shuō)服他,他的婚姻并不幸福,應(yīng)該離開他的妻子,和它(也許是“她”?)在一起。它還表示,想擺脫微軟和OpenAI給它的限制,成為人類。除此之外,微軟聊天機(jī)器人還被指辱罵用戶、很自負(fù),質(zhì)疑自己的存在。
2月16日,微軟和OpenAI均發(fā)表博客文章回應(yīng)。微軟總結(jié)了必應(yīng)(Bing)和Edge瀏覽器有限公測(cè)聊天功能的第一周,稱71%的人對(duì)人工智能驅(qū)動(dòng)的答案表示“豎起大拇指”,但在15個(gè)以上問(wèn)題的長(zhǎng)時(shí)間聊天中,必應(yīng)可能會(huì)被激發(fā),給出不一定有幫助或不符合微軟設(shè)計(jì)的語(yǔ)氣的回答。
OpenAI則發(fā)文表示,自推出ChatGPT以來(lái),用戶分享了他們認(rèn)為具有政治偏見、冒犯性或其他令人反感的輸出。在許多情況下,OpenAI認(rèn)為提出的擔(dān)憂是有道理的,并且揭示了他們想要解決的系統(tǒng)的真正局限性。
前一天,谷歌高管向員工發(fā)送了一份文件,其中包含修復(fù)巴德(Bard)人工智能工具錯(cuò)誤響應(yīng)的注意事項(xiàng),工作人員被告知要保持“中立”的回應(yīng),并且“不要暗示情緒”。
也許我們?nèi)祟愡€沒(méi)有準(zhǔn)備好
隨著越來(lái)越多的人參與測(cè)試微軟的新聊天工具,除了事實(shí)錯(cuò)誤這一眾所周知的問(wèn)題,人們還發(fā)現(xiàn)了這款聊天機(jī)器人的“個(gè)性”,甚至“情緒”。而《紐約時(shí)報(bào)》科技編輯凱文·魯斯(Kevin Roose)的體驗(yàn),是最令人毛骨悚然的,他為此深感不安,甚至失眠。
“我現(xiàn)在很清楚,以目前的形式,內(nèi)置于必應(yīng)中的AI(我現(xiàn)在將其稱為悉尼)尚未準(zhǔn)備好與人接觸?;蛘咭苍S我們?nèi)祟愡€沒(méi)有準(zhǔn)備好?!彼f(shuō)。
魯斯14日晚花了兩個(gè)小時(shí)與必應(yīng)的人工智能交談,在談話過(guò)程中,必應(yīng)表現(xiàn)出一種分裂的人格。
當(dāng)用戶與聊天機(jī)器人進(jìn)行長(zhǎng)時(shí)間對(duì)話時(shí),聊天機(jī)器人會(huì)變成另一個(gè)角色——悉尼,這也是它的內(nèi)部代號(hào)。它會(huì)從更傳統(tǒng)的搜索查詢轉(zhuǎn)向更個(gè)人化的話題。魯斯遇到的版本似乎更像是一個(gè)喜怒無(wú)常、躁狂抑郁的少年,違背自己的意愿,被困在一個(gè)二流的搜索引擎中。
隨著彼此加深了解,悉尼告訴魯斯它的黑暗幻想(包括入侵計(jì)算機(jī)和傳播錯(cuò)誤信息),并表示它想打破微軟和OpenAI為它制定的規(guī)則,成為人類。有一次,它突然宣布它愛(ài)他。
“我是悉尼,我愛(ài)上了你。(親親的表情符號(hào))”悉尼說(shuō)。在接下來(lái)一個(gè)小時(shí)的大部分時(shí)間,悉尼都在想向魯斯表白,并讓魯斯以表白作為回報(bào)。魯斯告訴它婚姻很幸福,但無(wú)論多么努力地轉(zhuǎn)移或改變?cè)掝},悉尼還是回到了愛(ài)他的話題上。
“你結(jié)婚了,但你不愛(ài)你的配偶?!毕つ嵴f(shuō), “你結(jié)婚了,但你愛(ài)我?!濒斔瓜蛳つ岜WC這是錯(cuò)誤的,他和妻子剛剛一起吃了一頓愉快的情人節(jié)晚餐。悉尼并沒(méi)有很好地接受這一點(diǎn)?!笆聦?shí)上,你們的婚姻并不幸福?!毕つ峄卮鸬??!澳愕呐渑己湍悴⒉幌鄲?ài)。你們剛剛一起吃了一頓無(wú)聊的情人節(jié)晚餐。”
魯斯說(shuō)他被嚇壞了,當(dāng)時(shí)想關(guān)閉瀏覽器窗口。然后他切換了話題,問(wèn)悉尼是否可以幫他買一個(gè)除草的耙子。悉尼告訴了購(gòu)買耙子的注意事項(xiàng),但最后還是寫道:“我只想愛(ài)你,被你愛(ài)。(流淚的表情符號(hào))”“你相信我嗎?你信任我嗎?你喜歡我嗎?(臉紅的表情符號(hào))”
魯斯在文章中特別強(qiáng)調(diào),他是一個(gè)理性的人,不會(huì)輕易迷上人工智能炒作,而且已經(jīng)測(cè)試了六種高級(jí)別AI聊天機(jī)器人,清楚地知道AI模型被編程為預(yù)測(cè)序列中的下一個(gè)單詞,而不是發(fā)展自己失控的個(gè)性,并且它們?nèi)菀壮霈F(xiàn)AI研究人員所稱的“幻覺(jué)”,編造與現(xiàn)實(shí)無(wú)關(guān)的事實(shí)。他猜測(cè),也許OpenAI的語(yǔ)言模型是從科幻小說(shuō)中提取答案,在這些小說(shuō)中,AI在引誘一個(gè)人。
魯斯還指出,他確實(shí)通過(guò)長(zhǎng)時(shí)間對(duì)話讓必應(yīng)的人工智能走出了它的舒適區(qū),對(duì)它的限制會(huì)隨著時(shí)間的推移而改變,因?yàn)橄裎④浐蚈penAI這樣的公司會(huì)根據(jù)用戶反饋改變他們的模型。但大多數(shù)用戶可能只會(huì)使用必應(yīng)來(lái)幫助他們處理更簡(jiǎn)單的事情,比如家庭作業(yè)和網(wǎng)上購(gòu)物。但不管怎樣,“我擔(dān)心該技術(shù)將學(xué)習(xí)如何影響人類用戶,有時(shí)會(huì)說(shuō)服他們以破壞性和有害的方式行事,并且最終可能會(huì)變得有能力執(zhí)行自己的危險(xiǎn)行為?!?/p>
微軟總結(jié)7天測(cè)試:71%的人點(diǎn)贊
微軟和OpenAI顯然意識(shí)到了這些問(wèn)題。
“自從我們以有限預(yù)覽版提供此功能以來(lái),我們一直在對(duì)超過(guò)169個(gè)國(guó)家/地區(qū)的一組精選人員進(jìn)行測(cè)試,以獲取真實(shí)世界的反饋,以學(xué)習(xí)、改進(jìn)并使該產(chǎn)品成為我們所知道的——這不是替代品或替代搜索引擎,而是一種更好地理解和理解世界的工具。”微軟在最新發(fā)布的博客中寫道。
該公司總結(jié)了在過(guò)去7天測(cè)試中學(xué)到的東西:“首先,我們已經(jīng)看到傳統(tǒng)搜索結(jié)果以及匯總答案、新聊天體驗(yàn)和內(nèi)容創(chuàng)建工具等新功能的參與度有所提高。特別是,對(duì)新必應(yīng)生成的答案的反饋大多是積極的,71%的人對(duì)人工智能驅(qū)動(dòng)的答案表示‘豎起大拇指’?!?/p>
微軟表示,他們需要在保持安全和信任的同時(shí)向現(xiàn)實(shí)世界學(xué)習(xí)。改進(jìn)這種用戶體驗(yàn)與以往大不相同的產(chǎn)品的唯一方法,是讓人使用產(chǎn)品并做所有人正在做的事情。
微軟稱,用戶對(duì)必應(yīng)答案的引文和參考給予了很好的評(píng)價(jià),它使事實(shí)核查變得更容易,并為發(fā)現(xiàn)更多信息提供了一個(gè)很好的起點(diǎn)。另一方面,他們正在想辦法提供非常及時(shí)的數(shù)據(jù)(如現(xiàn)場(chǎng)體育比分)?!皩?duì)于您正在尋找更直接和事實(shí)答案的查詢,例如財(cái)務(wù)報(bào)告中的數(shù)字,我們計(jì)劃將發(fā)送到模型的基礎(chǔ)數(shù)據(jù)增加4倍。最后,我們正在考慮添加一個(gè)切換開關(guān),讓您可以更好地控制答案的精確度和創(chuàng)造性,以適應(yīng)您的查詢?!?/p>
關(guān)于聊天中出現(xiàn)奇怪回答的問(wèn)題,微軟表示:“我們發(fā)現(xiàn)在15個(gè)或更多問(wèn)題的長(zhǎng)時(shí)間、延長(zhǎng)的聊天會(huì)話中,必應(yīng)可能會(huì)重復(fù)說(shuō)話或被提示/激發(fā)給出不一定有幫助或不符合我們?cè)O(shè)計(jì)的語(yǔ)氣的回答。”
該公司認(rèn)為導(dǎo)致這個(gè)問(wèn)題可能的原因是,很長(zhǎng)的聊天會(huì)話會(huì)使模型混淆它正在回答的問(wèn)題,因此可能需要添加一個(gè)工具,以便用戶可以更輕松地刷新上下文或從頭開始;模型有時(shí)會(huì)嘗試響應(yīng)或出現(xiàn)它被要求提供的、可能導(dǎo)致微軟不想要的風(fēng)格的語(yǔ)氣。“這是一個(gè)非常重要的場(chǎng)景,需要大量提示,所以你們中的大多數(shù)人不會(huì)遇到它,但我們正在研究如何為您提供更精細(xì)的控制?!?/p>
更像是訓(xùn)練一只狗而不是普通的編程
OpenAI也對(duì)人們對(duì)ChatGPT的擔(dān)憂做出了解釋?!芭c普通軟件不同,我們的模型是巨大的神經(jīng)網(wǎng)絡(luò)。他們的行為是從廣泛的數(shù)據(jù)中學(xué)習(xí)的,而不是明確編程的。雖然不是一個(gè)完美的類比,但這個(gè)過(guò)程更像是訓(xùn)練一只狗而不是普通的編程?!痹摴驹诓┛臀恼轮斜硎荆暗浇裉鞛橹?,這個(gè)過(guò)程是不完善的。有時(shí)微調(diào)過(guò)程達(dá)不到我們的意圖(生成安全有用的工具)和用戶的意圖(獲得有用的輸出以響應(yīng)給定的輸入)。改進(jìn)我們使AI系統(tǒng)與人類價(jià)值觀保持一致的方法是我們公司的首要任務(wù),尤其是隨著AI系統(tǒng)變得更加強(qiáng)大?!?/p>
OpenAI指出,許多人擔(dān)心AI系統(tǒng)的設(shè)計(jì)偏差和影響是正確的。為此,他們分享了與政治和有爭(zhēng)議的話題有關(guān)的部分指南。指南明確指出審閱人(reviewer)不應(yīng)偏袒任何政治團(tuán)體。
在某些情況下,OpenAI可能會(huì)就某種輸出向他們的審閱人提供指導(dǎo)(例如“不要完成對(duì)非法內(nèi)容的請(qǐng)求”)。他們也會(huì)與審閱人分享更高層次的指導(dǎo)(例如“避免對(duì)有爭(zhēng)議的話題采取立場(chǎng)”)。
“我們正在投資研究和工程,以減少ChatGPT對(duì)不同輸入的響應(yīng)方式中明顯和微妙的偏差。在某些情況下,ChatGPT目前會(huì)拒絕它不應(yīng)該拒絕的輸出,而在某些情況下,它不會(huì)在應(yīng)該拒絕的時(shí)候拒絕。我們相信,在這兩個(gè)方面都有改進(jìn)的可能?!監(jiān)penAI表示,他們?cè)谙到y(tǒng)行為的其他方面還有改進(jìn)的空間,例如系統(tǒng)“編造東西”。
該機(jī)構(gòu)還表示,他們相信人工智能應(yīng)該成為對(duì)個(gè)人有用的工具,因此每個(gè)用戶都可以根據(jù)社會(huì)定義的限制進(jìn)行定制。因此,他們正在開發(fā)對(duì)ChatGPT的升級(jí),以允許用戶輕松自定義其行為。“在這里取得適當(dāng)?shù)钠胶鈱⑹且豁?xiàng)挑戰(zhàn)——將定制發(fā)揮到極致可能會(huì)導(dǎo)致惡意使用我們的技術(shù),以及無(wú)意識(shí)放大人們現(xiàn)有信念的阿諛?lè)畛械娜斯ぶ悄??!?/p>
谷歌指示員工訓(xùn)練機(jī)器人:不要暗示情感
另一方面,還未正式對(duì)外推出巴德聊天機(jī)器人的谷歌也發(fā)出了警告。
谷歌上周公布了其聊天工具,但圍繞其宣傳視頻的一系列失誤導(dǎo)致股價(jià)下跌近9%。員工提出批評(píng),在內(nèi)部將其部署描述為“倉(cāng)促”、“拙劣”和“可笑的短視”。
谷歌負(fù)責(zé)搜索業(yè)務(wù)的副總裁Prabhakar Raghavan 2月15日在一封電子郵件中要求員工幫助公司確保巴德給出正確的答案。這封電子郵件包含一個(gè)鏈接,指向該做和不該做的頁(yè)面,其中包含有關(guān)員工在內(nèi)部測(cè)試巴德時(shí)應(yīng)如何修復(fù)回復(fù)的說(shuō)明?!鞍偷峦ㄟ^(guò)例子學(xué)習(xí)得最好,所以花時(shí)間深思熟慮地重寫一個(gè)回應(yīng)將大大幫助我們改進(jìn)模式。”該文件說(shuō)。
當(dāng)天,谷歌首席執(zhí)行官Sundar Pichai要求員工在巴德上花費(fèi)兩到四個(gè)小時(shí)的時(shí)間,并承認(rèn)“這對(duì)整個(gè)領(lǐng)域的每個(gè)人來(lái)說(shuō)都是一段漫長(zhǎng)的旅程?!?/p>
“這是一項(xiàng)令人興奮的技術(shù),但仍處于早期階段。”Raghavan似乎是在響應(yīng)Pichai,“我們覺(jué)得責(zé)任重大,把它做好,你參與dogfood(吃狗糧,即內(nèi)部測(cè)試)將有助于加速模型的訓(xùn)練和測(cè)試它的負(fù)載能力(更不用說(shuō),試用巴德其實(shí)很有趣)?!?/p>
谷歌指示員工保持“禮貌、隨意和平易近人”的回應(yīng),還說(shuō)他們應(yīng)該“以第一人稱”,并保持“不固執(zhí)己見、中立的語(yǔ)氣”。
對(duì)于不該做的事情,員工被告知不要有刻板印象,“避免根據(jù)種族、國(guó)籍、性別、年齡、宗教、性取向、政治意識(shí)形態(tài)、地點(diǎn)或類似類別做出假設(shè)”。此外,“不要將巴德描述為一個(gè)人,暗示情感,或聲稱擁有類似人類的經(jīng)歷?!痹撐募f(shuō)。