ChatGPT的未來存在三大局限性

面對ChatGPT在各個方面的出色表現(xiàn),很多人開始擔(dān)心自己的職業(yè)發(fā)展。擁有如此強(qiáng)大能力的ChatGPT究竟能否替代搜索引擎?許多職業(yè)將因此而消失嗎?聚象科技認(rèn)為我們不需要過度擔(dān)心,畢竟ChatGPT還有著不可忽視的三大局限性。ChatGPT的未來發(fā)展仍有很長的路要走。
一、內(nèi)容準(zhǔn)確性不高
ChatGPT的內(nèi)容準(zhǔn)確性不夠高并且會非常固執(zhí)地堅持錯誤的結(jié)果。這其實也是這一類大規(guī)模語言模型一直以來面臨的難題。在Instruct GPT的論文中,作者明確提到了這個模型會犯非常低級的錯誤,甚至是加減運算也有可能會出錯。比如,當(dāng)你問它關(guān)于“松鼠桂魚”的做法時,它有時回答要用烤箱來烤,有時回答要用水煮,甚至?xí)f材料需要用到松鼠。很顯然,“松鼠桂魚”這個專有名詞并不在它的學(xué)習(xí)范圍內(nèi)。
二、模型邊界的模糊
一旦機(jī)器人的回復(fù)超越了倫理或者道德邊界,結(jié)果就會變得非常不可控。雖然OpenAI有意避免讓ChatGPT在回復(fù)中包含有違倫理、種族和道德要求的內(nèi)容,但是用戶仍然可以輕易使用假裝的方式騙過AI。
三、內(nèi)容更新不及時
這是因為訓(xùn)練如此大規(guī)模的語言模型,不管在資金還是時間上,都是非常大的消耗,因此很難讓模型的訓(xùn)練數(shù)據(jù)時時囊括最新資訊。例如,當(dāng)問其對蘋果M2芯片的性能評價時,它明確的回復(fù)是蘋果M2還沒有發(fā)布。雖然ChatGPT會在不久的將來更新這些即時信息,但顯示出訓(xùn)練數(shù)據(jù)的更新速度遠(yuǎn)遠(yuǎn)慢于搜索引擎。
所以ChatGPT完全取代人工還為時尚早,大家不必太過擔(dān)心。





