Ollama 0.12.6-rc0 が試験的なサポートを受けました Vulkan AMDとIntel向け GPU
人気のフレームワーク オラマローカル実行用に設計 大規模言語モデル (法学修士) 新しいテストバージョンがリリースされました 0.12.6-rc0。 主なイノベーションは、 実験的なサポート Vulkan APIは、長い間開発が続けられてきましたが、今回初めてユーザーに提供されることになりました。
Ollamaはモデルの立ち上げが容易なため、愛好家に広く使用されています。 ラマ 3/4, ジェマ, GPT-OSS, ディープシーク このプロジェクトは、 ラマ.cppライブラリとアプリケーションに高いパフォーマンスと幅広いサポートを提供します。しかし、サポートはまだ不足しています。 GPU 制限があり、使用するにはROCm、CUDA、またはSYCLが必要でした。実装のおかげで Vulkan、LLMの起動が可能になりました 広いスペクトル GPU AMDとIntelから他の解決策は利用できません。
サポート Vulkan 現在のみ利用可能 ソースコードからビルドするこれは実験的な機能です。開発者は、残りの制限事項の解決に取り組んでおり、この機能を バイナリアセンブリ 未来のオラマ。
実施申請 Vulkan すでに進行中だった 一年半そして今日、リリースをもって正式に終了した。 リリース候補これは、Ollamaをあらゆるタイプのビデオカードでより広く利用できるようにする重要なステップです。 時代遅れと代替 GPU従来の API が利用できない環境です。




