Anthropic 推出快取技術,降低 AI 軟件成本
近期,Anthropic 推出了一項名為 Prompt Caching 的新技術,這項技術在 AI 內容生成領域引起了廣泛關注。隨著這種快取技術的應用,某些類型的 AI 軟件可能會大幅降低成本。
什麼是 Prompt Caching?
Prompt Caching 是一種利用快取技術來優化 API 調用的方式。通常,我們在使用 AI 生成內容時需要經過多次 API 請求,這樣不但耗時,也會消耗大量的 token。而有了 Prompt Caching,我們可以將常見的請求結果保存下來,下次調用時不用再從伺服器獲取,這樣不但加快了速度,也降低了成本。
成本與效率的提升
根據資料,使用 Prompt Caching 技術後,生成一篇幾千字的文章所需的時間從原本的 11 秒縮短到 2.4 秒,成本也降低了約九成。這對於依賴 AI 生成內容的公司來說,是一個極大的利好。
如何影響 AI 軟件市場?
對於一些專門用來創建 AI 文章的軟件,Prompt Caching 可以大大降低 API 的使用成本。這意味著開發者可以更頻繁地進行內容生成和調整,而不必擔心高昂的 API 成本。儘管目前這項技術僅限於 Anthropic 的 Claude 平台,但未來有望推廣至更多平台,進一步促進市場競爭。
結語
Prompt Caching 的推出,無疑是 AI 技術的一次重大進步。隨著成本的降低,更多公司將會投入資源進行 AI 內容創作,這將進一步推動行業發展。期待未來有更多的創新技術出現,讓 AI 服務變得更加高效和經濟。