當前位置:
首頁 > 科技 > AI其實不「學習」—瞭解真相讓你更負責任地使用它

AI其實不「學習」—瞭解真相讓你更負責任地使用它

如果我們告訴你,像ChatGPT這樣的人工智慧(AI)系統其實並不會「學習」,你會感到驚訝嗎?許多人聽到這個說法時,都會感到意外。甚至AI系統本身也常常自信地告訴你,它們是學習系統。許多報告甚至學術論文也這樣說。但這其實是一種誤解,或者說,是對AI中「學習」一詞的寬鬆理解。

然而,更精確地瞭解AI系統如何以及何時「學習」(以及何時不學習),將讓你成為一個更高效且更負責任的AI使用者。許多關於AI的誤解,源自於我們使用了一些對人類有意義的詞彙,例如「學習」。我們知道人類如何學習,因為我們每天都在經歷。我們有經驗、失敗、遇到新事物、閱讀令人驚訝的內容,從而記住並更新或改變我們的行為方式。

但AI系統的「學習」方式與人類截然不同。主要有兩個差異:首先,AI系統並不會從特定經驗中學習,因此無法像人類一樣理解事物。相反,它們是透過從大量資料中編碼模式來「學習」,僅僅依賴數學。這發生在它們被建構的訓練過程中。

以大型語言模型(如GPT-4,ChatGPT的技術基礎)為例,它透過編碼單詞(實際上是token)之間的數學關係來「學習」,目的是預測哪些文字會與其他文字相關。這些關係是從大量資料中提取的,並在計算密集的訓練階段進行編碼。這種「學習」方式顯然與人類的學習方式大不相同。

這種方式有其缺點,例如AI常常難以掌握人類透過生活經驗自然獲得的常識。但AI訓練也有其強大之處,因為大型語言模型「看過」的文字規模遠遠超過任何人類的理解範圍。這就是為什麼這些系統在語言相關任務(如寫作、摘要、編碼或對話)中如此有用。雖然它們不像我們一樣學習,但由於規模龐大,它們在擅長的領域表現出色。

大多數人使用的AI系統(如ChatGPT)在建構完成後並不會繼續學習。你可以說AI系統根本不會「學習」—訓練只是它們的建構過程,而不是運作方式。GPT中的「P」字面意思就是「預訓練」(pre-trained)。從技術角度來看,像ChatGPT這樣的AI系統只進行「訓練時學習」,這是它們開發過程的一部分,而不是「執行時學習」。

「預訓練」意味著大型語言模型總是停留在某個時間點。任何對其訓練資料的更新都需要成本高昂的重新訓練,或者至少是所謂的微調。這意味著ChatGPT不會從你的提示中持續學習。而且,大型語言模型本身並不會記住任何東西。它只會保留單次聊天會話中的內容。關閉視窗或開始新會話時,它每次都像一張白紙。

有一些變通方法,例如儲存使用者資訊,但這些是在應用層面實現的;AI模型本身並不會學習,並且在重新訓練之前保持不變。首先,要清楚你從AI助手那裡得到的是什麼。從文字資料中「學習」意味著像ChatGPT這樣的系統是語言模型,而不是知識模型。雖然透過數學訓練過程編碼的知識量令人驚嘆,但這些模型在回答知識問題時並不總是可靠。

它們的真正優勢在於處理語言。因此,當回應中包含過時資訊,或者ChatGPT不記得你告訴它的事實時,不要感到驚訝。好訊息是,AI開發者已經想出了一些巧妙的變通方法。例如,某些版本的ChatGPT現在可以連線到網際網路。為了提供更及時的資訊,它們可能會進行網路搜尋並將結果插入你的提示中,然後生成回應。

另一個變通方法是,AI系統現在可以記住有關你的資訊,以個性化其回應。但這是一種技巧。大型語言模型本身並不會即時學習或更新。有關你的資訊儲存在一個單獨的資料庫中,並在每次提示時以不可見的方式插入。這意味著當模型出錯時,你無法糾正它(或教它一個事實),因為它不會記住並為其他使用者修正答案。模型可以在一定程度上個性化,但它仍然不會即時學習。

瞭解AI如何「學習」—或不學習—的使用者,會更投入於開發有效的提示策略,並將AI視為一個始終需要檢查的助手。讓AI協助你,但確保你自己在每次提示中進行學習。