自動駕駛向ChatGPT下手了!
去年底,ChatGPT 橫空出世。真實自然的人機對話、比擬專家的回答以及一本正經的胡說八道,使它迅速走紅,風靡全世界。
不像之前那些換臉、捏臉、詩歌繪畫生成等紅極一時又很快熱度退散的 AIGC 應用,ChatGPT 不僅保持了熱度,而且還有全面爆發的趨勢。現如今,谷歌、百度的 AI 聊天機器人已經在路上。
ChatGPT 到底是個啥?它是個基于上千億超大語料參數組成的 GPT3.0 架構訓練出來的一個自然語言處理聊天工具。ChatGPT 的算法采用了 Transformer 神經網絡架構,具有很好的時序數據處理能力,說大白話就是能很好處理上下文的語法關系。
Transformer 是一種結構簡單的編解碼器,幾乎可以無限堆疊,從而形成一種大規模的預訓練語言模型。基于 Transformer 模型構成的 GPT 架構可以很好地完成多種語言處理任務,填空、造句、分段、翻譯等等,隨著數據集和模型參數的大規模增長,等到 GPT3.0 的時候已經有了千億規模,GPT 就表現出來了非常強的文本生成能力。
自然而然,一問一句的對話模式也就應運而生了。但 GPT3.5 還不是 ChatGPT。
ChatGPT 還需要使用監督學習和強化學習來實現。具體來說,ChatGPT 使用了一種叫「人類反饋強化學習(RLHF)」的訓練方法,在訓練中可以根據人類反饋,保證對無益、失真或偏見信息的最小化輸出。
簡單來說,GPT 只能保證有問就有答,不保證回答的正確,而 ChatGPT 既要保證有的聊,還要保證聊的對。就跟小孩子一樣,必須在大人一遍遍糾正發音、糾正語法和用詞的訓練中,學會真正的有效對話。
ChatGPT 就是利用人類反饋進行強化學習的產物。
既然 ChatGPT 這么好用。我們不妨來問它一個問題:能不能把 ChatGPT 用在自動駕駛技術訓練當中?答案是:可以。
毫末顧維灝:把 ChatGPT 引入自動駕駛,毫末走了這三步
我估計 ChatGPT 還沒涉獵過這個問題,因為關于 ChatGPT 和自動駕駛關聯的內容是缺少的。不過,如果 ChatGPT 最近在中文網絡中收錄過相關報道的話,那么,它就會知道中國的一家人工智能技術公司已經開始思考這個問題了。
在 1 月的毫末智行的 AI DAY 上,毫末 CEO 顧維灝非常隆重地提到了 ChatGPT,并且直言,毫末已經展開對于 ChatGPT 背后的技術的研究。
顧維灝說:「實現 GPT3 到 ChatGPT 的龍門一躍最重要的是 ChatGPT 模型使用了『利用人類反饋強化學習 RLHF』的訓練方式,更好地利用了人類知識,讓模型自己判斷其答案的質量,逐步提升自己給出高質量答案的能力?!?/span>
那這對自動駕駛有什么啟發呢?毫末認為,ChatGPT 的技術思路和自動駕駛認知決策的思路是不謀而合。
毫末在認知駕駛決策算法的進化上分成了以下三個階段:
第一個階段是引入了個別場景的端到端模仿學習,直接擬合人駕行為。
第二個階段是通過大模型,引入海量正常人駕數據,通過 Prompt 的方式實現認知決策的可控可解釋。
第三個階段就是引入了真實接管數據,在其中嘗試使用「人類反饋強化學習(RLHF)」。一般來說,人類司機的每一次接管,都是對自動駕駛策略的一次人為反饋;這個接管數據可以被簡單當成一個負樣本來使用,就是自動駕駛決策被糾正的一次記錄。同時也可以被當作改進認知決策的正樣本來學習。
為此,毫末構建了一個 < 舊策略、接管策略、人工 label 策略 > 的 pairwise 排序模型?;谶@個模型,毫末構建了自動駕駛決策的獎勵模型(reward model),從而在各種情況下做出最優的決策。
毫末將這一模型稱之為人駕自監督認知大模型。簡單來說,就是為了讓自動駕駛系統能夠學習到老司機的優秀開車方法,讓毫末的認知大模型要從人類反饋中學會選擇和辨別,并穩定地輸出最優解。通過這種方式,毫末在掉頭、環島等公認的困難場景,通過率提升 30% 以上。
當然,如果 ChatGPT 再繼續搜索和學習下去,它就會知道在 1 月初的 HAOMO AI DAY 上,毫末不僅發布了這個人駕自監督大模型,還一口氣發布了另外四個大模型。這五個大模型可以幫助毫末實現車端感知架構跨代升級,將過去分散的多個下游任務都集成到一起,形成一個更加端到端架構,包括紅綠燈、局部路網、預測等任務,實現跨代升級。
總得來說,人工智能技術是當前許多舊產業的改造器,也是新產業的助力器。正如當年互聯網喊出的「所有行業都要被互聯網重塑一番」一樣,今天的一切行業都要被「AI+」改造一番。
而實際上,人工智能的這場變革并不是必然發生,它有賴于一個天才算法結構的橫空出世,有賴于海量數據和算力的成本下降與容易獲得,也依賴于人工智能技術從業者的勇敢嘗試。ChatGPT 的出現是如此,自動駕駛的實現也是如此。
>>點擊查看今日優惠<<