由輕量化「人工智慧模型」主導的世界

全國話題 熱門話題
字體大小-+=
喜歡嗎?快按讚、留言、分享出去哦!

5
(1)

文/金洪基

「AI模型越大越好」的信念不再有效。最近以少數參數和精煉的少量數據等為基礎的sLM代替大規模LLM。不僅在IT行業, 而且在對AI解決方案的依賴日益增大的整個產業界中,對模型輕量化或sLM的偏好已在增加。

GPT出現以來,AI模型一直展開了瘋狂似地擴大規模的競爭。然而,人們擔心基於這種盲目信任的生成式AI革命可能很快就會陷入停滯。越深入瞭解眼前的現實, 就越能明白以LLM為基礎的生成AI模式的侷限性, 領先地位的開放AI也在擴張規模上已投入数十億美元。為了將芯片和數據堆積如山, 使未來的大規模語言模型比今天更大,竭盡全力。但是,彭博社等專家們卻不安地表示:「這種危險的賭注可能會失敗。」 「AI懷疑論」並非空穴來風。

模型越大,性能是否也與此成正比呢? 對此,開發者連自己也沒有完全確信。 開放AI的開發者對新一代旗艦模型「Orion」持有懷疑態度。也就是說,性能不會比之前GPT-4顯著提高。 在全球人工智慧產業中,每當下一代模型出現時,人們往往會因為結果不如預期而感到焦慮。 谷歌和開放AI的競爭公司Anthropic也是如此。 彭博社報導說:「這些企業在開發野心勃勃提出的新一代(LLM基礎)模型過程中經歷著挫折和延遲。 」

大型模型存在一個更大的問題。 演算能力不是無限的,增加演算能力會消耗大量的金錢和電力。 更重要的事實是「數據有限」。 今天的AI模型已經幾乎耗盡大部分可用的優質數據。 因此,擅自使用他人的創作物或信息,有時會遭到法律上的問題。 然而,人工智慧產生的合成數據無法解決數據短缺問題。 用虛擬、假數據的合成數據訓練的模型,其品質和可靠性必然會隨之下降。 因此,很多開發者和企業已開始研究或實施可以代替「無限地做得更大」的方法的技術。

於是出現了一種簡化模型的方法。目標是開發像Altoran這樣的sLM,它耗損較少資源並且針對特定目的進行客製化並且性能良好。全球IT業界已開始共享「小東西珍貴」的認識。 一年前,比爾·蓋茨也表示,「GPT-4的後續版本將令人失望」,指出了LLM的侷限性。 長期以來預測生成式人工智慧發展將陷入停滯的人工智慧評論家加里·馬庫斯(Gary Marcus)也發布了一份同意這一觀點的報告。

特別是AGI,據說體現了與人類相似的智慧水平,在這方面也存在爭議。 很明顯,LLM有其局限性,但問題是它是否能夠實現如此雄心勃勃的目標。 有些人已經在研究各種替代技術,包括將支援生成人工智慧的神經網與硬知識相結合。 然而,這種方法也有其限制。 坦白說,大型LLM的未來越來越不確定。

沉浸在「越大越好」的信念中的AI生態界也出現了一絲覺醒。 儘管如此,除了醫療、教育等特定領域外,輕量化的應用模型仍然不活躍。 這是由於無法擺脫大模型可以取代一切的「錯誤」預期。 這根本不是夢,只是魯莽的慾望和貪婪。 即使像現在的 GPT 這樣的模型也無法滿足這種貪婪和渴望。 相反,簡單但經濟的「客製化人工智慧模型」更實用。可以說現在是一個小東西更有用的時代。

本文作者金洪基

您喜歡這個觀點嗎?

請給新評分哦!

網友平均滿意度 5 / 5. 評分人數 1

目前還沒有人評分哦!快成為第一個吧!

如果你覺得這篇文章很棒

歡迎追蹤閱政治!


喜歡嗎?快按讚、留言、分享出去哦!