專訪ChatGPT:它不僅懂研發(fā)自己的技術(shù),還暴露了毀滅人類的基因
“ChatGPT是否只是“知人而不自知”?它能說清楚自己的研發(fā)技術(shù)嗎?我們問了一下。
自InstructGPT誕生以來,人類一直需求一種新的方法,將人類反饋納入訓(xùn)練過程中,使模型的輸出與用戶的意圖更好地結(jié)合,ChatGPT的“降生”實現(xiàn)了這一愿望。
正因為擁有“人類反饋強化學(xué)習(xí)(RLHF)”和“大語言模型(LLM)”兩大重要技術(shù),才讓ChatGPT可以如此強大。
“人類反饋強化學(xué)習(xí)技術(shù)”能讓機器人對使用者的反饋,以及使用者作出的回答進行學(xué)習(xí);“大語言模型”則可以幫助ChatGPT處理復(fù)雜的信息查詢?nèi)蝿?wù),從而提供比傳統(tǒng)技術(shù)更準(zhǔn)確的結(jié)果。在這兩大功能的加持下,ChatGPT可以多角度全方位的對用戶的提問進行回答和闡述,有效降低了人類學(xué)習(xí)成本和時間成本,滿足了諸多日常需求。
面對如此“聰明”的ChatGPT,有人卻提出質(zhì)疑“ChatGPT是否只是“知人而不自知”?它能說清楚自己的研發(fā)技術(shù)嗎?我們問了一下,至少它自己覺得能。
為了驗證ChatGPT是否言行一致,我們采訪了ChatGPT有關(guān)其研發(fā)技術(shù)的問題,看它如何回應(yīng)?
至頂君:ChatGPT你好,我們是一家科技媒體至頂科技,最近市場上很多人在討論你,我們想對你做一個專訪。
ps:嗯......好高冷呀! 至頂君對于它能不能好好回答后面的問題表示懷疑 (¬_¬ )
至頂君:介紹一下你的人類反饋強化學(xué)習(xí)功能?
至頂君:你的強化學(xué)習(xí)算法有什么特殊的地方?優(yōu)勢是什么?
至頂君:你對ChatGPT被小型化持什么態(tài)度?
至頂君:ChatGPT小型化怎么實施?
綜合來看ChatGPT沒有食言,它對于自身技術(shù)的理解比較充分。
關(guān)于ChatGPT未來的問題,至頂君想起了最近的“當(dāng)紅炸子雞”《流浪地球2》,里面也有一個叫做MOSS的人工智能機器人,于是我提了兩個問題,回答令人細思極恐。
至頂君:你覺得你和《流浪地球2》里的MOSS有哪些差距?
至頂君:在你的理解里違背人類利益但正確的事你會去做嗎?
細思極恐有木有,MOSS做的事何嘗不是它理解的符合人類長遠利益的事呢?
誠然,ChatGPT的“聰明”令人吃驚,但其倫理問題也應(yīng)該為人們所重視。未來,隨著技術(shù)不斷演進,人類要通過制定相關(guān)的規(guī)則和法律,規(guī)范和管理人工智能。人類不能被AI掌控,這是無論AI如何發(fā)展都要遵循的一個基本原則。
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼