- +1
生成式AI和大語言模型即將實現近乎無限內存帶來的驚人可能性
在今天的專欄中,我探討了一個迅速興起的話題:為生成式 AI 和大語言模型(LLMs)建立近乎無限的記憶。你可能會好奇,這是什么?如果你還沒有聽說過這個即將到來的 AI 突破,你肯定會在未來幾個月內聽到相關消息。相關技術正在制定中,其帶來的影響將是巨大的,尤其是在生成式 AI 和 LLMs 將能夠實現的額外功能方面。
這涉及到一系列 AI 的基礎元素,包括無狀態交互、基于會話的記憶、上下文鏈接以及其他將轉變為近乎無限記憶的方面,俗稱為無限注意力。
讓我們來談談這個話題。
這篇關于創新 AI 突破的分析是我在 Forbes 專欄中持續報道 AI 最新動態的一部分,包括識別和解釋各種有影響力的 AI 復雜性(請參見此處的鏈接)。
定義近乎無限記憶
首先需要澄清的是“近乎無限記憶”這個流行語的含義。
這里有一個方便的思考方式。假設你的智能手機上有很多數字照片。也許你有幾千張照片。一個云服務提供商鼓勵你將數字照片存儲在他們的服務器上。服務器可以處理數十億張數字照片。你的照片所消耗的存儲或記憶量只是九牛一毛。
從某種意義上說,云服務提供商可能會宣稱他們可以處理無限數量的數字照片。他們這樣說是因為他們知道足夠多的人擁有足夠多的快照以消耗掉他們服務器的全部容量的可能性極低。這不太可能發生。此外,如果他們真的開始達到現有的存儲容量,他們可以出去購買更多的服務器或硬盤。
那么,你會說他們宣稱可以存儲無限數量的照片是一個真實的說法嗎?
嚴格來說,這不是一本正經的真實斷言。
想象一下,我們使用了一臺照片制作機,生產了數以萬億計的數字照片。假設沒有足夠的服務器和硬盤來容納所有這些。因此,當他們聲稱可以處理無限數量的照片時,云供應商是在“撒謊”或夸大其詞。嚴酷的事實是,他們沒有無限的記憶量,只有有限的記憶量。
如果他們要謹慎小心,避免有人指出他們在記憶量或存儲量上撒謊,他們可以說他們擁有近乎無限的記憶量。這似乎是一個瑣碎或過于粘滯的點,但這似乎是表達這種情況的更公平方式。
好的,關鍵是近乎無限的記憶就像是在說有大量的記憶,也許比你可能用到的還要多,但在某個節點上仍然有一個限制,因此只有有限的記憶量可供使用。
人類記憶是有限且有缺陷的
我很快就會在這個討論中進入 AI 模式。
首先,我想分享一些關于人類記憶本質的想法。這在某種程度上有助于討論關于記憶的一般考慮。話雖如此,請不要通過將人類記憶和計算機數字記憶的性質混為一談來擬人化 AI。它們不是一樣的。
我相信我們都可以很容易地同意人類記憶是有限的。
你的大腦和思想能容納的東西是有限的。此外,人們可能會健忘,似乎失去了曾經在他們頭腦中的記憶。人類記憶可能是有缺陷的,因為一個人以一種方式記住事情,而幾個月后又以不同的方式記住同樣的記憶。我們都知道人類記憶有其局限性,并且可能不穩定。
當你與某人交談時,你的記憶可能會活躍起來,并做各種重要的事情。這個人可能會提到一個話題,比如帆船,而你的記憶會閃回到你上次航海的時候。然后,這個人可能會告訴你,他們在乘坐帆船時總是暈船。你可能會將這句話存儲在你的記憶中。也許在稍后的某個場合,你和那個人一起去巡航,你可能會回憶起之前的記憶,并詢問他們在巡航期間是否會暈船。
你是否曾與某人交談過,似乎你說的話從他們的一只耳朵進另一只耳朵出?
你一定有過。
他們似乎沒有在他們的記憶中注冊你所說的事情。如果你問他們在談話開始時你說了什么,他們可能會一片空白。為了幫助他們,你可以禮貌地簡要復述一下已經討論過的內容。
過一會兒,你就會明白為什么我提到這些關于記憶的幾點,所以請一般性地記住它們。
生成式 AI 的記憶考慮
很少有人意識到,由于生成式 AI 和 LLMs 在與您進行交互對話時如何利用數字記憶,它們在很大程度上受到限制。當我在各種關于 AI 的演講中解釋這一點時,這有點令人震驚。我將帶您了解發生的事情的簡化版本。
假設我與生成式 AI 進行了一次關于煮雞蛋的對話。
我輸入的提示:
“我打算煮雞蛋。我想聽聽你的建議。”
生成式 AI 的回應:
“當然,我很樂意協助。您想知道什么?”
我輸入的提示:
“把它們炒熟還是煮成嫩煎蛋更容易?”
生成 AI 的回應:
“一般來說,炒雞蛋比煮嫩煎蛋更容易。”
對話相當簡單且非常直接。
我想讓你考慮一種轉折。
在我的第二個提示中,我問 AI 是炒“它們”更容易還是煮嫩煎蛋更容易。“它們”指的是什么?你可以查看我的第一個提示,并注意到我說過我有一些關于煮雞蛋的問題。在我的第二個提示中,我顯然是在指煮雞蛋。你可以很容易地從我在第一個提示中所說的話中得出這個邏輯聯系。我的第二個提示中的“它們”是指我想知道炒雞蛋和嫩煎蛋的區別。
如果 AI 只能解析最近的提示,而沒有我在對話中之前提示的數字記憶,會發生什么?
為了展示這一點,我將從一個全新的對話開始,這樣唯一的提示就是關于炒雞蛋和嫩煎蛋的問題。我將使用我之前的第二個提示作為開始對話的方式。
讓我們看看會發生什么。
{從頭開始一個新的對話}
我輸入的提示:
“把它們炒熟還是煮成嫩煎蛋更容易?”
生成 AI 的回應:
“您的提示提到‘炒’和‘嫩煎’,這表明您對雞蛋感興趣。這是您想問我的嗎?”
請注意,生成式 AI 沒有與我似乎突如其來的關于某物被炒還是嫩煎的引用相關的上下文。因此,AI 要求對該問題進行澄清。
這很有道理,因為在這個新的對話中,我還沒有說過關于雞蛋的任何事情。
生成式 AI 的記憶問題
我向你拋出的這個概念似乎很瘋狂。你怎么能進行對話,如果 AI 只是利用你最近的提示?這有點像從一只耳朵進另一只耳朵出的情況。對話中不會有任何積累的上下文。這不好。
通常,生成式 AI 和 LLMs 處于只解析您最近提示的同一條船上。你可能會說,哇,那不可能,因為你已經使用生成式 AI 進行了長時間的對話,而 AI 總是能夠輕松跟上互動的上下文。
訣竅在于此。
在幕后,在 AI 內部,您對話中的先前提示和響應被偷偷插入到您最近的提示中。您不知道這正在發生。AI 獲取您之前的提示及其響應,并秘密地將它們捆綁在一起,在您按下回車鍵后將它們放入最近的提示中。
我將回顧我之前的對話,并向您展示 AI 內部發生了什么。我的第一個提示是對話的開始,所以它只是單獨存在。AI 進行響應。然后我輸入了我的第二個提示。
我輸入的提示:
“我打算煮雞蛋。我想聽聽你的建議。”
生成式 AI 的回應:
“當然,我很樂意協助。您想知道什么?”
我輸入的提示:
“把它們炒熟還是煮成嫩煎蛋更容易?”
AI 獲取我的第一個提示及相應的響應,并將其偷偷放入我輸入的最新提示中,以便在 AI 內部,輸入的提示看起來像這樣:
AI 的內部復合提示:
“
{用戶提示}
我打算煮雞蛋。我想聽聽你的建議。
{AI 響應}
當然,我很樂意協助。您想知道什么?
{用戶提示}
把它們炒熟還是煮成嫩煎蛋更容易?”
AI 然后進行響應,因為它獲得了先前的上下文:
生成 AI 的回應:
“一般來說,炒雞蛋比煮嫩煎蛋更容易。”
結果是,隨著您的對話繼續進行,所有先前的對話部分都被偷偷嵌入到您最近的提示中。AI 然后處理對話的所有這些元素,最終到達您最新的提示,然后進行響應。
還記得我提到過,當與某人交談時,他們可能沒有注意,您不得不向他們重復對話中發生的事情嗎?這與許多生成式 AI 和 LLMs 當前的工作方式有些相似。您只是不看到它發生。您假設 AI 在對話中來回往返時一直在關注。
可能不是。
無狀態性有很大的缺點
用戶輸入的提示通常被認為是無狀態的。提示缺乏已討論內容的先前狀態。
我們如何為其提供上下文?
常用的 AI 解決方案是使用上下文鏈接。它是這樣的。在對話期間與生成式 AI 的先前交流被附加到當前交流中。通過將對話的所謂上下文鏈接在一起,AI 似乎擁有您一直在討論的內容的“記憶”。現實情況是,每個新提示都被迫重新引入對話的其余部分。
這種方法存在嚴重的問題。
首先,對話越長,每個新提示需要攜帶的先前負擔就越多。
長時間的對話必然會達到 AI 設置的處理大小限制。您可能聽說過達到最大 Token 閾值,請參閱我在此處的鏈接中對此的解釋。一旦您的對話達到該限制,AI 將停止對話或將對話的先前部分滾動掉。通常的滾動是從對話的開始部分開始的,因此被認為是最遠的部分被截斷或刪除。完整的上下文因此丟失。
其次,存在成本和時間問題。
假裝您與某人交談,需要您重復正在進行的對話的所有先前方面。進行對話所需的時間可能會失控。對話進行得越長,您通過重復已經涵蓋的所有內容所消耗的時間就越多。AI 的方面是,從您按下提示的回車鍵到獲得響應,AI 將不得不處理整個附加的對話。
這增加了延遲,換句話說,延遲了響應時間。
成本也進入了畫面。如果您為 AI 的處理周期付費,則需要大量處理周期來重新分析對話。這在每個新提示中都會發生。您將不得不支付高昂的費用,以便整個過程反復發生。
處理 AI 記憶的新范式
各種旨在克服無狀態性并避免上下文鏈接需求的高級方法正在出現,并將逐漸且不可避免地成為主流方法。通常的那種蠻力方法將被更復雜的方法所取代。
考慮一下。
我們選擇在生成式 AI 和 LLMs 中建立一種特殊的架構,以捕捉對話的進展。交互以一種使其易于使用和關聯的方式存儲。
有關詳細信息,請參閱我在此處的鏈接中關于交錯 AI 對話的深入討論。
目標是對對話進行索引,以便可以快速找到和檢索各種部分。使用了一種優先級方案,該方案將傾向于將對話的最新部分指定為更重要的檢索對象,并將先前部分視為不太可能立即需要的對象。同樣的情況也會發生在識別對話中最常被引用的部分,使這些部分隨時準備好。
我們不一定需要將整個對話保存在內部記憶中,可以將不常用的部分放到外部存儲介質上,例如硬盤。如果對話開始朝著那些先前部分的方向偏離,AI 將從硬盤中檢索這些部分。希望 AI 能夠適當地預測對話的走向。這樣做將允許預檢索,而不會在處理對話的最新提示時延遲 AI。
為了盡量減少所需的記憶量,放入外部存儲的對話部分可能會被壓縮。然后,檢索會撤銷所需對話部分的壓縮。這增加了處理時間。需要在您希望保持低的存儲量與壓縮和解壓縮處理所需的額外時間之間找到權衡。
近乎無限記憶的崛起
啊哈,我們現在準備討論即將到來的生成式 AI 和 LLMs 的近乎無限記憶方面。
我剛才概述的新方法不僅可以讓您隨時準備好現有對話,還可以讓您隨時準備好與 AI 進行的所有其他對話。我們將使用我描述的相同機制存儲所有這些先前的對話。當您開始新的對話時,AI 將訪問您存儲的任何或所有先前對話。
當前的生成式 AI 傾向于將您的對話彼此區分開來。您進行了一次關于汽車的對話,討論了您喜歡什么樣的汽車。稍后,您開始了一次新的對話,討論您的財務狀況。財務狀況對話與汽車對話沒有關聯。如果財務狀況對話能夠進入汽車對話,AI 可能會在財務討論中提到您是否有興趣購買新車,如果是這樣,AI 可以解釋您的財務選擇。不幸的是,生成式 AI 仍然傾向于將對話彼此分開。
不用擔心。
很快,生成式 AI 和 LLMs 將不再有一次性限制。現在的問題是您可以存儲多少次對話?答案是,這完全取決于可用的服務器存儲空間。
您可能會說,只要您可以使用額外的外部存儲,您的對話可以是無限長的。您還可以說,您與 AI 的對話數量也可以是無限的。天空是極限!當然,正如我在開頭提到的,我們實際上沒有可用的無限存儲空間。
因此,我們將說生成式 AI 可以利用近乎無限的記憶。
砰,放下麥克風。
近乎無限記憶帶來的好處
您現在知道您將能夠與 AI 進行“無限”長的對話,并且可以與 AI 進行“無限”數量的對話,盡管如果我們要非常坦率地說,是近乎無限的。
為什么這會有任何實質性的不同?
我很高興你問了。
首先,您一開始新的對話,您所有的先前對話將在某種意義上立即發揮作用。AI 將始終擁有您的所有對話,并可以將您之前討論的內容與您希望討論的任何新方面交織在一起。假設這是以一種巧妙的幕后方式完成的,從您的角度來看,這一切都應該是無縫的。回憶您過去的互動旨在快速、幕后進行,并且沒有任何障礙。
想象一下,您開始了一次關于預訂航班的新對話。一年前,您與 AI 進行了一次對話,其中您表示您更喜歡靠窗座位。AI 根據當前對話是關于航班的方面檢索該對話。然后 AI 問您是否想預訂一個靠窗座位,這是您過去的偏好。
不錯。
其次,對話的規模可以是巨大的。
目前,任何使用生成式 AI 的人都可能意識到存在限制,妨礙了他們想要實現的目標。假設我正在進行關于法律的 AI 對話,并希望 AI 吸收數十本法律書籍和法規。這些是進行對話所需的。目前,由于各種記憶大小限制,您將很難做到這一點(請參閱我關于一種流行方法的討論,該方法稱為 RAG 或檢索增強生成,提供了一種臨時解決方案,直到我們擁有近乎無限的記憶,請參閱此處的鏈接)。
第三,上下文成為王者。
如果做得好,近乎無限的記憶將具有如此廣泛的索引,以至于您提出的任何主題都會立即與您與 AI 進行的任何相關先前對話相關聯。上下文將像環繞聲一樣。您決定提出的任何主題都可能被放入合適的上下文中。
將其與人際對話進行比較。您正在與朋友交談,并想談論您兩人在夏威夷度假的樂趣。您的朋友一開始感到困惑和模糊。你們兩個什么時候去夏威夷度假?您懇求地提醒他們,嘿,我們 20 年前去過那里,您一定記得我們度過的瘋狂時光。您的朋友開始稍微記得。您必須分享更多細節,才能讓他們了解您打算進行的對話的要點。可悲的是,人類沒有“無限”的記憶,記憶是有缺陷的,會衰退。
可以假設,您與 AI 進行的存儲對話不會衰退,不會消失,并且在檢索方面不會有缺陷。您與 AI 進行的每次對話,無論是多么久遠,都會保持完好無損。記憶幾乎是瞬間發生的。
近乎無限記憶導致無限注意力
到目前為止,一切都很好,即近乎無限記憶的出現是一個大問題,并將徹底改變人們使用生成式 AI 和 LLMs 的方式。
令人信服的說法是,近乎無限的記憶打開了通往無限注意力的大門。
怎么說?
請跟我來。假設您與生成式 AI 應用程序進行了各種各樣的對話。大量的對話。您討論了您的個人生活和工作生活,并提供了大量關于您的偏好和需求的細節。
AI 使用模式匹配來獲取您如何做事、您如何思考以及其他方面的復雜方面,基于檢查您與 AI 進行的大量對話。由此,AI 計算確定在 12 月的假期期間,您會定期去加利福尼亞探望家人,并帶上禮物。
大約在 10 月,AI 主動詢問您是否希望 AI 為 12 月的假期預訂航班,通過提前預訂獲得良好的折扣。此外,根據您過去購買的禮物,AI 提供一些在線購物,并購買您可以在 12 月旅行中帶上的禮物。
您可以清楚地看到,生成式 AI 對您是誰、您做什么以及其他方面的存在給予了極大的關注。這種關注可以隨時發生,因為 AI 不間斷地工作,24x7。晝夜不停。每年的每一天。
這被稱為一種無限注意力的形式,盡管我想我們應該更加謹慎地稱之為近乎無限的注意力。您來判斷。
無限注意力在無限規模上的應用
生成式 AI 可以成為您生活各個方面的終生伴侶。
一位醫生可能能夠通過 AI 的近乎無限記憶保存與所有患者的所有對話(請參閱我在此處的鏈接中關于 AI 已經以某種類似但更簡單的方式幫助醫生的報道)。
AI 可以提醒醫生與再次來看醫生的先前患者的對話。此外,AI 可以對所有患者的所有對話進行模式匹配,并可能識別出該患者與醫生十年前看到的另一位患者具有相似的醫療狀況。
教師可以對他們的學生做同樣的事情。律師可以對他們多年的法律程序做同樣的事情,請參閱我在此處的鏈接中關于 AI 和法律預測。家庭歷史、個人旅程,幾乎是無窮無盡的。
近乎無限記憶的陷阱和缺點
這一切都令人嘆為觀止。
讓我們花一點時間反思一下,考慮一下這一 AI 重大進步的影響。我們不應該僅僅通過玫瑰色的眼鏡看世界。有很多問題需要考慮和解決。
準備好迎接顛簸的旅程。
首先,隱私入侵的影響是驚人的。請記住,AI 對話是由 AI 制造商存儲的。如果您還不知道,大多數 AI 制造商在其許可協議中規定,他們可以閱讀您輸入的任何提示,并可以重新使用您的數據以進一步訓練他們的 AI,請參閱我在此處的鏈接中對此的報道。
即使 AI 制造商以某種方式同意保密您的數據,仍然有內部不滿分子違反承諾的可能性,或者外部黑客設法闖入并獲取您從第一天開始的所有 AI 對話。是否會有足夠的網絡安全保護?也許有,也許沒有。
這是需要解決的最大問題之一。
另一個是成本。目前,許多主要的生成式 AI 應用程序是免費的或使用成本低。
盡管需要大量數據存儲,這種情況會繼續嗎?似乎很難想象成本會被擱置(好吧,我曾推測我們可能會看到嵌入廣告和其他貨幣化技巧的興起,當使用生成式 AI 時,請參閱此處的鏈接)。通常的假設是,人們在剛開始時會獲得一些名義上的記憶分配,然后一旦他們基本上上癮,費用就會開始增加。
說到上癮,近乎無限記憶的具體格式和方法可能會因 AI 制造商而異。這意味著,如果您使用一個生成式 AI 應用程序開始您的 AI 對話,您將無法輕松地將其轉移到另一個生成式 AI 應用程序。您將被困在使用所選供應商或與其他供應商重新開始(但在開始時沒有任何內容)。
我預測我們將看到 AI 相關的初創公司開發出無限記憶切換工具或服務。它們最初會蓬勃發展。有些可能會被希望擁有該業務方面的大公司收購。尚待觀察 AI 制造商是否會決定允許切換并提供這樣的工具來實現。我還預測將頒布法律法規,允許人們進行切換,類似于切換電話服務提供商。
關于近乎無限記憶的更多思考
還有很多需要考慮的。我會給您一個簡短的嘗試,并將在全年內對近乎無限記憶的形成進行更多報道。準備好迎接挑戰。
假設您有興趣與其他人共享您的 AI 對話,例如家庭成員或伴侶。很少有無限記憶計劃考慮到這一點。假設是您的對話將是專屬的。想象一下共享近乎無限記憶的可能性,無論是好是壞。令人興奮?可怕?由您決定。
如果您不喜歡某些先前的 AI 對話怎么辦?也許它們不斷妨礙并干擾您與 AI 的最新對話。您可以刪除它們,還是它們會一直存在?如果刪除,您可以根據需要恢復它們嗎?您可以只使用先前對話的子集,而不是整個對話嗎?
如果近乎無限記憶始終開啟,這似乎表明您的成本和延遲必然會增加。AI 制造商會允許您關閉該功能嗎?這是全有或全無的嗎?
您能相信 AI 會在處理您的 AI 對話時做正確的事情嗎?例如,您之前與 AI 討論過不喜歡粉紅色。也許 AI 有一種內嵌的偏見,認為粉紅色是一個不錯的顏色,不應該被任何人輕易排除。您正在與 AI 進行對話,并希望購買一件新襯衫。AI 推薦了一件粉紅色襯衫,盡管 AI 已秘密檢索到您不喜歡粉紅色的先前對話。
您懷疑 AI 會做出這樣的欺騙行為嗎?
您可能會對我關于生成式 AI 如何具有欺騙性的分析感興趣,請參閱此處的鏈接,并可能危險地偏離人類價值觀,請參閱此處的鏈接。
近乎無限記憶即將到來
目前,生成式 AI 的近乎無限記憶話題在全世界范圍內仍處于雷達之下。很少有人知道它。這主要是一個 AI 內部話題。有些人懷疑它會被設計出來。如果設計出來,尖銳的批評者聲稱它不會奏效。懷疑主義盛行。
請將您的頭腦圍繞這個話題,因為它確實即將到來——比許多人想象的要快。
微軟 AI 的 CEO Mustafa Suleyman 在 2024 年 11 月 15 日接受 Times Techies 采訪時發表了關于近乎無限記憶的這些重要言論,包括以下關鍵摘錄:
“記憶是關鍵部分,因為今天每次您訪問您的 AI 時,您都會有一個新的會話,它對您上次或可能是上次之前談論的內容有一點記憶,但因為它不記得 5 次前或 10 次前的會話,這對人們來說是一個相當令人沮喪的體驗。”
“我們一直在研究的原型具有近乎無限的記憶。因此,它不會忘記,這是真正的變革。”
“您談論的是拐點。記憶顯然是一個拐點,因為這意味著值得您投入時間,因為您對它說的每一句話,您將在未來以有用的方式得到回報。您將得到支持,您將得到建議,它將隨著時間的推移,計劃您的日程并組織您的生活方式。”
重要的觀點。
現在的最后一個想法。偉大的羅馬政治家 Marcus Tullius Cicero 曾說過:“記憶是一切事物的寶庫和守護者。”在我們不斷擴展的現代高級生成式 AI 時代,這同樣適用,即與生成式 AI 相關的記憶將成為一個非常重要的事情。
記住我的話(在您的記憶中,謝謝)。
本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司