Rufus Leonard的體驗和服務(wù)設(shè)計負(fù)責(zé)人Vanita Tanna探討了我們與聊天機器人技術(shù)的關(guān)系
自動聊天機器人 - 它們的全部內(nèi)容是什么?
我們與自動聊天機器人有著愛恨交織的關(guān)系。我們喜歡和他們一起玩,但是當(dāng)聊天機器人無法回答我們的問題或滿足我們的要求時會感到沮喪。那些創(chuàng)建聊天機器人的人可以擺脫使聊天機器人盡可能人性化的挑戰(zhàn),但是找到寫幾千個可能的條件排列來試圖實現(xiàn)這個非常艱巨的任務(wù)。
與人類一樣的自動聊天機器人進行交互的這種共同愿望通過自然語言處理(NLP)推動了機器人的動力。聊天機器人機器人背后的機器學(xué)習(xí)是從決策樹邏輯構(gòu)建的,并且是預(yù)定輸入和輸出序列的交換。然而,自然對話不是這樣的。
在AI傘下:機器學(xué)習(xí),自然語言和計算機視覺 - 增強聊天機器人能力的關(guān)鍵
Mindtree在歐洲的數(shù)字負(fù)責(zé)人Anshuman Singh幫助信息時代探索人工智能和自然語言在開發(fā)聊天機器人中的重要性。但是,要小心不要忘記人的因素。在這里閱讀:https://www.information-age.com/ai-chatbots-machine-learning-natural-language-computer-vision-123479679
扭曲自然對話的模式
在自然對話中,人類和自動聊天機器人輪流說話,即交換消息。在自然的談話中,即使在沒有視覺線索和語調(diào)的情況下,無論所說內(nèi)容的內(nèi)容如何,在談話中也有意義重疊,意味著在輪流之間發(fā)生的沉默中,以及在修復(fù)努力中的意義誤解。這些行動實際上是轉(zhuǎn)向的意義的組成部分,是自然對話所固有的。它們有助于推動對話,并在對話展開時揭示其背后的意圖。
從聊天機器人到辯論機器人的轉(zhuǎn)變?
在談到互動模式時,這些聊天機器人與辯論中預(yù)先分配的輪流(Sacks等,1974)的反復(fù)性質(zhì)有很多共同點,而不是自然對話。如果自動聊天機器人的工作是“去取”,我們是否還需要社交細(xì)節(jié),如“你好”?通過人性化聊天機器人,我們是否負(fù)責(zé)設(shè)置錯誤的用戶期望管理?或者這只是微笑的服務(wù)?
然后聊天機器人可能不會聊天的想法說明了一個幾乎是哲學(xué)問題。為什么機器人必須像人一樣,能力如何?在自動聊天機器人方面,我們實際上是自動化的是什么?
什么是聊天機器人?如何制作聊天機器人?為什么聊天機器人會失?。磕闼械膯栴}都回答了
什么是聊天機器人?你是如何制作聊天機器人的?為什么聊天機器人會失敗?在本文中,我們在MullenLowe Profero戰(zhàn)略發(fā)展總監(jiān)Howard Pull的幫助下回答了所有這些問題。在這里閱讀:https://www.information-age.com/what-is-a-chatbot-123479025
輪流
為了提供更準(zhǔn)確和相關(guān)的響應(yīng),自動聊天機器人以類似于谷歌的會話搜索的方式利用NLP。這確實導(dǎo)致更智能的處理,但仍然在很大程度上依賴于人和機器人在說話時采取組織良好的轉(zhuǎn)彎,即一次發(fā)送一個消息或一個構(gòu)造良好的多堆棧。聊天機器人和人類都可以發(fā)送多個堆棧,但人類多堆棧比聊天機器人更具破壞性。我們可能會使聊天機器人的下一個響應(yīng)無關(guān)緊要或不合適,從而導(dǎo)致配對錯誤的操作(例如問答),這使得我們感到沮喪。
由于自然對話不是由成對的動作組成,一個接一個地巧妙地產(chǎn)生,我們需要開始分析聊天機器人的交互作為一個整體而不是單個配對交換的集合。我們還需要干預(yù),以便當(dāng)人類創(chuàng)造這些破壞性的多堆棧時,我們可以更好地聽到“對話”。
沉默的意義
管理人 - 聊天機器人交互的一種方法是通過動畫。動畫是裝載者的形式,'…正在打字'或'請等待'通過幫助管理透明度和保持對話前進,為機器人和用戶提供雙向好處。通過在對話中轉(zhuǎn)向聲明,有助于嘗試減少有問題的人類多堆棧。
正如谷歌設(shè)計師Adrian Zumbrunnen所說“沒有動畫,沒有談話”,這在很大程度上是正確的。同樣地,我們將時間延遲與肯定或否定的反應(yīng)聯(lián)系起來,機器人能否推斷出我們的反應(yīng)滯后的相同含義?了解我們是否具有較低的技術(shù)能力,或者我們是否正在使用聊天界面支持以花時間思考,這是在感知修復(fù)意圖時要遇到的有趣挑戰(zhàn)。
聊天機器人如何幫助招聘人員增加候選人參與度
Bullhorn企業(yè)發(fā)展和國際執(zhí)行副總裁Peter Linas探討了聊天機器人可以而且應(yīng)該在招聘中扮演的角色。在這里閱讀:https://www.information-age.com/chatbots-recruiters-candidate-engagement-123479526
機器人必須是人類嗎?
盡管搜索詞分析表明我們提出非常人性化的問題,但谷歌并不假裝是人類。此外,當(dāng)谷歌顯示不相關(guān)的結(jié)果或呈現(xiàn)不匹配時,我們責(zé)怪自己沒有使搜索詞正確。我們更寬容,因為'谷歌搜索'沒有被設(shè)置為對話,它被設(shè)置為檢索。事實上,我們同情更多的人類外觀或感覺機器人而不是機械設(shè)??備并不一定是互動的劣勢 - 它有助于設(shè)定用戶的期望。
錯誤的界面?
為自動聊天機器人提供動力的決策樹基于條件控制語句序列,與冒險游戲?qū)υ捁蚕硐嗨浦帯?/p>
Bandersnatch是Netflix去年年底推出的Black Mirror系列的最新版本,是一部探索自由意志的“選擇你自己的冒險”電影。Netflix甚至開發(fā)了“狀態(tài)跟蹤”,可以保存我們的選擇路徑,以便以后可以在敘述中進行部署。Bandersnatch是一個由250個段組成的分支敘述,用Twine編寫(一種用于編寫交互式小說的決策樹工具,也用于設(shè)計聊天機器人的決策樹)。那么,就像電影,聊天機器人可以利用冒險游戲界面的熟悉度和用戶界面(UI)特征一樣嗎?
當(dāng)前的聊天機器人界面提供有限的屏幕尺寸,有限的單個消息長度,通常位于屏幕的右下角。雖然欣賞ICQ等舊式信使服務(wù)的用戶界面繼承,為什么我們還沒有全屏自動聊天機器人?
人力資源,聊天機器人和機器人過程自動化:數(shù)字化轉(zhuǎn)型的關(guān)鍵
組織必須使其人力資源職能現(xiàn)代化,才能在數(shù)字化轉(zhuǎn)型中取得成功。怎么樣?成功依賴于軟件自動化 - 聊天機器人和機器人過程自動化 - 以及持續(xù)的人工參與。在這里閱讀:https://www.information-age.com/hr-chatbots-robotic-process-automation-123478998
從預(yù)測到管理
這種自然對話被人工自動聊天機器人交互所扭曲可能有助于解釋為什么盡管有NLP的智能,與自動聊天機器人的交互仍然會有復(fù)雜的感受。部分原因在于它的UI功能,部分原因在于我們學(xué)會了參與自然對話的意義,在沉默,轉(zhuǎn)向重疊和對話修復(fù)中都有意義。
自動聊天機器人響應(yīng)不一定需要是人 - 他們只需要以非常人性化的方式進行管理。
由Rufus Leonard的經(jīng)驗和服務(wù)設(shè)計主管Vanita Tanna撰寫
原文鏈接
https://www.information-age.com/automated-chatbots-conversations-debate-123480043/
-
機器人
+關(guān)注
關(guān)注
211文章
28423瀏覽量
207138 -
聊天機器人
+關(guān)注
關(guān)注
0文章
339瀏覽量
12312
原文標(biāo)題:聊天機器人不聊天、他們辯論?
文章出處:【微信號:ctiforumnews,微信公眾號:CTI論壇】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論