AI模型訓練新突破:量化不確定性,讓預測更可靠
就像訓練不佳的狗狗會不聽指令、行為失控一樣,訓練不足的人工智慧(AI)模型也會產生不可靠的預測結果。但與狗狗不同的是,要找出AI模型訓練過程中的問題點,往往沒那麼容易。
全球研究人員正運用各種AI模型,透過實驗與理論資料進行訓練,目標是在投入大量時間與成本實際製造測試前,就能預測材料的特性。這種方法讓開發新藥與工業化學品的效率大幅提升,遠勝傳統的試錯法。
然而,如何確保AI模型提供的答案值得信賴?這不僅是學術問題,更關係到數百萬美元的投資決策。現在,美國能源部太平洋西北國家實驗室(PNNL)的研究團隊開發出一套新方法,能評估「神經網路勢能」這類AI模型的訓練品質。
這項由資料科學家Jenna Bilbrey Pope和Sutanay Choudhury領導的研究,發表在《npj Computational Materials》期刊上。團隊將這套「不確定性量化」方法開源,收錄在GitHub的SNAP(可擴充套件神經網路原子勢能)資源庫中,供各界自由運用。
「我們發現某些不確定性模型容易過度自信,即使預測誤差很大時也是如此。」Bilbrey Pope解釋,「這是深度神經網路的通病。但透過SNAP訓練的模型能提供修正指標,同時考量預測不確定性與訓練資料不確定性,才能全面評估模型表現。」
雖然AI模型能在幾秒內完成超級電腦需12小時的運算,但化學與材料科學家仍視其為黑盒子。PNNL團隊的不確定性測量方法,正是要解決這個信任問題。
「AI應該能準確辨識自己的知識邊界。」Choudhury強調,「我們希望AI模型能提供信心保證,例如『根據您的需求,有85%信心認為催化劑A優於催化劑B』這樣的明確陳述。」
研究團隊選用當前最先進的材料化學基礎模型MACE進行基準測試,評估其計算特定材料家族能量的訓練成效。這些驗證對理解AI模型能否替代耗時的傳統方法至關重要。
研究人員指出,建立這種預測信任機制,是實現AI融入日常實驗工作、打造自主實驗室的關鍵。Choudhury補充:「我們讓任何化學領域的神經網路勢能模型都能『打包』進我們的框架,瞬間具備不確定性感知能力。」
現在,要是訓練小狗也能這麼簡單就好了。
[end]