本文已收錄在Github,關注我,緊跟本系列專欄文章,咱們下篇再續!

  • 🚀 魔都架構師 | 全網30W技術追隨者
  • 🔧 大廠分佈式系統/數據中台實戰專家
  • 🏆 主導交易系統百萬級流量調優 & 車聯網平台架構
  • 🧠 AIGC應用開發先行者 | 區塊鏈落地實踐者
  • 🌍 以技術驅動創新,我們的征途是改變世界!
  • 👉 實戰乾貨:編程嚴選網

在蘋果平台上使用語言模型的開發者常常面臨一個分散的生態系統。本地模型(通過 Core ML 或 MLX)具備隱私保護和離線運行的優勢,而云端服務(如 OpenAI、Anthropic 或 Google Gemini)則提供更強大的功能。新的 Swift 包 AnyLanguageModel 通過提供一個統一的 API,使本地與遠程模型的集成變得更加簡單。

AnyLanguageModel 能與蘋果的 Foundation Models 框架無縫配合,開發者幾乎無需修改代碼即可在不同模型間切換,同時保持會話與響應結構一致。它支持 Core ML、MLX、llama.cpp/llama.swift、Ollama 託管模型,以及 OpenAI、Anthropic、Google Gemini 和 Hugging Face 等雲服務。藉助 Swift 包的特性,開發者可以只引入所需的後端,避免多餘的依賴。

AnyLanguageModel 的功能還超越了當前 Foundation Models 的範圍,支持多模態輸入(圖文混合提示)。開發者可以同時發送圖像與文字,實現如圖像描述、文字提取、視覺分析等功能。例如,它可以與 Anthropic 的 Claude 等模型互動,讓這些功能無需等待蘋果官方框架更新即可實現。

該包的作者 Mattt 在 推文 中解釋了為何以 Foundation Models API 為目標:

大多數應用都會混合使用來自不同提供商的本地與雲端模型,而讓它們協同工作往往很麻煩。蘋果的 Foundation Models 提供了一種“公共選項”——一個內置於所有 macOS 和 iOS 設備的後備方案。既然只有通過 Foundation Models 才能使用這一功能,那麼以它為統一 API 的基礎來支持其他提供商也是合理的選擇。

該庫目前尚未發佈 1.0 版本,仍在積極開發中,計劃加入工具調用、結構化輸出生成以及本地推理性能優化等功能。配套的演示應用 chat-ui-swift 展示了流式響應、聊天記錄保存、Apple Foundation Models 集成以及 Hugging Face OAuth 認證等特性。該應用旨在為開發者提供一個起點,方便他們探索、擴展並將該 API 應用於自己的項目。

社區早期反饋十分積極。Krzysztof Zabłocki 在 評論 中寫道:

幹得漂亮,我已經在一個新項目中使用了它,期待你支持 OpenAI 的分支儘快上線。

AnyLanguageModel 及其演示項目 chat-ui-swift 均已在 GitHub 上開源,開發者可以自由試用、提交問題或貢獻改進。這個項目代表了減少 AI 應用開發摩擦、推動蘋果平台多供應商 LLM 統一工作流的重要一步。