Ollamaは、Apple M5チップでハードウェアアクセラレーションをサポートします。32GBのRAMが搭載されている場合に限ります
Ollamaは、ローカルでAIモデルを実行するアプリケーションで、M5チップ搭載のMacでさらに高速化されました
概要
新バージョンOllama 0.19
対応OS:Windows、macOS、Linux
ハードウェアイーサレーション:Apple M5(M5 Pro、M5 Max)専用
メモリ要件:最低32 GBのユニファイドRAM
変更点
OllamaはユーザーがAIモデルを自分のコンピュータにダウンロードして実行できるようにします。ChatGPTなどのクラウドサービスとは異なり、常時インターネット接続は不要です。
バージョン0.19から開発者はApple MLX(機械学習フレームワーク)とユニファイドメモリアーキテクチャをサポートするようにしました。これにより、Apple M5チップ上でモデルの動作が高速化され、最初のトークン生成時間が短縮され、全体的な生成速度が向上します。
仕組み
* ニューラルアクセラレータ:OllamaはM5チップ内の専用ニューラルネットワークブロックにアクセスし、トークン出力を高速化します。
* モデル:個人用AIエージェント(例:OpenClaw)から大規模システム(OpenCode、Anthropic Claude Code、OpenAI Codexなど)まで、すべてが速く動作します。
制限
1. アクセラレーションはApple M5チップ(M5 Pro/Max)のみで利用可能です。
2. コンピュータに32 GB以上のユニファイドメモリが搭載されていないと、アクセラレーションは機能しません。
したがって、M5チップを搭載し十分なRAM容量を持つMacをお使いの場合、ローカルAIアプリケーションOllamaのパフォーマンスを大幅に向上させることができます
コメント (0)
感想を共有してください。礼儀正しく、話題に沿ってお願いします。
コメントするにはログイン