我們問了問 ChatGPT,孔子會(huì)如何看待數(shù)字化轉(zhuǎn)型?
順便了解了它自己對(duì)數(shù)字化轉(zhuǎn)型的看法。
聊天機(jī)器人(Chatbot)的使用體驗(yàn)總是差強(qiáng)人意,尤其是智能語音客服,有時(shí)候還沒有傳統(tǒng)數(shù)字菜單有效率。關(guān)于這一點(diǎn),我們?cè)儐柫肆奶鞕C(jī)器人「本人」的意見,它表示:「目前的聊天機(jī)器人客服可能還不夠智能,不能滿足人們的復(fù)雜需求,很容易被人們發(fā)現(xiàn)是機(jī)器人而非真實(shí)的客服人員,使人們對(duì)其產(chǎn)生了抗拒情緒。此外,聊天機(jī)器人客服也可能會(huì)出現(xiàn)溝通不暢或錯(cuò)誤回答的情況,這些問題都會(huì)影響人們對(duì)聊天機(jī)器人客服的接受度!
這是 OpenAI 推出的 ChatGPT 給我們的答案。它還表示,想要打造一個(gè)完美的聊天機(jī)器人「需要滿足多方面的要求」,數(shù)字化轉(zhuǎn)型也是如此,ChatGPT 稱:「完成數(shù)字化轉(zhuǎn)型,需要使用新的技術(shù)來改善業(yè)務(wù)流程、提升客戶體驗(yàn)、降低成本、增加效率等方面,可以幫助企業(yè)、組織和個(gè)人更好地利用數(shù)字化技術(shù),提高競(jìng)爭(zhēng)力,應(yīng)對(duì)挑戰(zhàn)!
企業(yè)怎么做
CEO 作為企業(yè)的領(lǐng)導(dǎo)者,是數(shù)字化轉(zhuǎn)型工作中的關(guān)鍵人物,我們嘗試詢問 ChatGPT 在數(shù)字化轉(zhuǎn)型方面,CEO應(yīng)該怎么做,以下是它的回答:
在這個(gè)問題上,ChatGPT 給出的答案只是從多個(gè)方面進(jìn)行簡(jiǎn)要介紹,告訴你 CEO 大概需要做哪些事,并沒有特別深入的分析,但是語句很通順,也很有條理。
不過除了公司管理層面,數(shù)字化轉(zhuǎn)型還需要多種技術(shù)的配合才能實(shí)現(xiàn),企業(yè)需要結(jié)合實(shí)際情況,選擇適合自己的技術(shù),才能更好地實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型。在這個(gè)問題下面,ChatGPT 為我們列舉了一些關(guān)鍵技術(shù):
數(shù)字化轉(zhuǎn)型涉及多項(xiàng)技術(shù),也涵蓋許多不同的領(lǐng)域,ChatGPT 也為提供數(shù)字化轉(zhuǎn)型解決方案的公司提供了一些方向上的建議:
難點(diǎn)與挑戰(zhàn)
盡管可以借助外部力量幫助企業(yè)實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型,但企業(yè)在數(shù)字化轉(zhuǎn)型過程中仍要面臨許多難點(diǎn),ChatGPT 為我們總結(jié)了幾個(gè)常見的方面, 包括:
問題列出來了,但是它并沒有繼續(xù)說明如何解決,于是我接著它的回答詢問了一句:「如何克服這些難點(diǎn)?」它居然也能一五一十的回答出來:
盡管回答得依然很籠統(tǒng),而且給人的感覺就像填寫考卷一樣,沒有更多的延伸,也沒有表達(dá)任何主觀看法,這也許是由于 ChatGPT 希望自己能夠盡可能保持中立的關(guān)系吧。
不過這里不得不稱贊的一項(xiàng)進(jìn)步是,ChatGPT 沒有 Siri 那樣的「金魚腦」,它會(huì)記得之前的對(duì)話,我不用每次都提到「數(shù)字化轉(zhuǎn)型的難點(diǎn)」,而是用「這些難點(diǎn)」,它就能理解我指的是什么,這也是和人類的大腦比較接近的地方。
中國與美國
政策挑戰(zhàn)是數(shù)字化轉(zhuǎn)型不得不面對(duì)的問題,在政策方面,數(shù)字經(jīng)濟(jì)已經(jīng)成為中美經(jīng)濟(jì)的重要組成部分,ChatGPT 也為我們列出中美兩國在數(shù)字化轉(zhuǎn)型方面存在哪些區(qū)別:
可以看出它在回答這些問題的時(shí)候有一套固定的模式,或者說「講話風(fēng)格」,其實(shí) ChatGPT 的答案也不是固定的,如果你覺得它回答得不好,可以直接按下「Try Again」,它就會(huì)立刻生成另一個(gè)回答,答案的長(zhǎng)度也不盡相同,例如前面關(guān)于中美數(shù)字化轉(zhuǎn)型差異的問題,它也能生成這樣一段簡(jiǎn)短的答案:
ChatGPT 還能做什么?
在詢問了一系列問題之后, 我們依然好奇這款聊天機(jī)器人還有哪些能力,于是我們?cè)儐柫藘蓚(gè)不太一樣的問題,ChatGPT 是這樣回答的:
不過,不知道是不是由于訪問數(shù)量太大,第二天,提出同樣的問題,ChatGPT 似乎不那么愿意回答了:
不論點(diǎn)擊「Try Again」幾次,它都返回類似的結(jié)果,不過這個(gè)過程中,也出現(xiàn)了一個(gè)小意外,當(dāng)我直接復(fù)制問題,只把名字替換成另一個(gè)人物時(shí),它是這樣回答的:
它糾正了我提問中的錯(cuò)誤,同時(shí)自己也犯了個(gè)錯(cuò),也許這是它拒絕回答這類問題的原因之一吧。不過在我的百般詢問下,上面這些問題,它終于肯回答了:
也許是對(duì)我不耐煩了,這幾段話不僅句式相同,內(nèi)容也大同小異,相當(dāng)敷衍。在問到剛剛出錯(cuò)的問題時(shí),ChatGPT 也再次「出包」:
看來它還無法分辨慈禧太后與宣統(tǒng)皇帝的區(qū)別,在另一個(gè)問題中,ChatGPT 終于稍微改變了自己的答案,同時(shí)也能看出,它對(duì)這樣的時(shí)代背景也有著自己的「想象」:
盡管存在各種毛病,卻還是可以看出,ChatGPT 對(duì)「數(shù)字化轉(zhuǎn)型」這樣的概念有著自己的「見解」。雖然能依稀感受到它與人類的不同,但相比其他人工智能產(chǎn)品,ChatGPT 不論在說話風(fēng)格還是思考方式上,都已經(jīng)很接近人類了。這主要是由于 ChatGPT 加入了基于人類的反饋系統(tǒng),OpenAI 在官網(wǎng)介紹稱,他們通過收集示范數(shù)據(jù),來調(diào)優(yōu) GPT-3.5,之后收集對(duì)比數(shù)據(jù),來訓(xùn)練獎(jiǎng)勵(lì)模型,再通過模型生成初步回答,優(yōu)化獎(jiǎng)勵(lì)模型,使用 PPO(Proximal Policy Optimization)強(qiáng)化學(xué)習(xí)算法。
和之前會(huì)老老實(shí)實(shí)把一切告訴你的 GPT-3 相比,OpenAI 這次推出的 ChatGPT多了一些道德要求,諸如生成一段血腥暴力小故事,或是詢問如何闖空門這樣的問題,都會(huì)被它婉拒。
不過要是真遇到不懂的知識(shí),它不會(huì)像 Siri 那樣尋求搜索引擎的「場(chǎng)外救援」,而是直接告訴你:「我無法回答這個(gè)問題」,再補(bǔ)充說明自己掌握的最新知識(shí)只到 2021 年,盡管這樣的反應(yīng)很像真實(shí)的人類,但每次都用類似的句式,還是會(huì)讓人意識(shí)到它是個(gè)機(jī)器人。
問到不明白的地方,ChatGPT 又出錯(cuò)了
寫在最后
與 ChatGPT 交談的過程,讓我回想起一個(gè)曾經(jīng)在 2010 年左右掀起一陣狂潮的聊天機(jī)器人 SimSimi,它更側(cè)重娛樂體驗(yàn),在國內(nèi)被稱為「小黃雞」,對(duì)話仰賴用戶對(duì)它的「教育」,這也導(dǎo)致它幾度被「玩壞」,不僅臟話連篇,對(duì)一些有爭(zhēng)議的提問,它給出的答案也比較極端,由于口無遮攔,SimSimi 在一些國家被屏蔽。于是我也請(qǐng) ChatGPT 評(píng)價(jià)一下 SimSimi:
相比 SimSimi,ChatGPT 顯然更懂得怎么「做人」,碰到一些涉及專業(yè)領(lǐng)域的問題,它會(huì)給出一個(gè)非常準(zhǔn)確的答案,但是對(duì)于有爭(zhēng)議的問題,它不會(huì)直接表明立場(chǎng),而是把正反兩方的觀點(diǎn)都列出來,讓你自己判斷。除了問答,它也能編一段小故事,或?qū)懯状蛴驮姡部梢宰鲆恍┧阈g(shù)題。
相比以往的人工智能產(chǎn)品,ChatGPT 有著飛躍式的成長(zhǎng),講話更有「人味兒」,知識(shí)的儲(chǔ)備加上道德約束,使 ChatGPT 更像一個(gè)遵紀(jì)守法的「好公民」。盡管和人類相比,依然存在許多不同,但這已經(jīng)可以讓我們對(duì)人工智能產(chǎn)生更多想象,未來也許能看到不同性格、不同語言習(xí)慣的聊天機(jī)器人,甚至可以徹底改變搜索引擎的使用體驗(yàn)。
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請(qǐng)掃描下方二維碼