“二次創造”增強AI普惠性
清華大學計算機系長聘副教授劉知遠接受記者採訪時說,部分海外研究團隊使用DeepSeek-R1、o1等高性能推理大模型來構建、篩選高質量長思維鏈數據集,再用這些數據集微調模型,可低成本快速獲得高階推理能力。
相關專家認為,這是AI研發的有益嘗試,以“二次創造”方式構建模型增強了AI普惠性。但有三點值得注意:
首先,所謂“幾十美元的低成本”,並未納入開發基座大模型的高昂成本。這就好比蓋房子,只算了最後裝修的錢,卻沒算買地、打地基的錢。AI智庫“快思慢想研究院”院長田豐告訴記者,幾十美元成本只是最後一個環節的算力成本,並未計算基座模型的預訓練成本、數據采集加工成本。
其次,“二次創造”構建的模型,整體性能尚無法比肩成熟大模型。TinyZero僅在簡單數學任務、編程及數學益智遊戲等特定任務中有良好表現,但無法適用於更複雜、多樣化的任務場景。而s1模型也只能通過精心挑選的訓練數據,在特定測試集上超過早期版本o1 preview,而遠未超過o1正式版或DeepSeek-R1。
最後,開發性能更優越的大模型,仍需強化學習技術。劉知遠說,就推動大模型能力邊界而言,“知識蒸餾”技術意義不大,未來仍需探索大規模強化學習技術,以持續激發大模型在思考、反思、探索等方面的能力。 |