Apple MLXを利用しDeepSeek R1やMeta Llama 3.3などをサポートしたMac用ローカルAIサーバー「Pico AI Homelab powered by MLX」がプレオーダーが開始されています。詳細は以下から。
中国のDeepSeekは現地時間2025年01月20日、OpenAIのo1と同等の性能を持つ大規模言語モデル「DeepSeek R1」をオープンソース(MITライセンス)で公開し話題になっていますが、このDeepSeek R1やMetaのLLama 3.3、MicrosoftのPhi 4などローカルLLMをダウンロード&管理できるMac用ローカルAIサーバーアプリ「Pico AI Homelab powered by MLX」のプレオーダーがMac App Storeで開始されています。
最新のAIモデルDeepSeek R1に対応。推論と数学機能を搭載。
ホーム&オフィス用AIサーバー小規模チームや個人プロに最適。インストール簡単。コマンドライン不要、クリックするだけ。最新モデル搭載:DeepSeek R1、Llama 3.3、Microsoft Phi 4、Sky T1、Google Gemma 2、Mistral。ローカルで動作、無料です。Pico AI Homelab powered by MLX – Mac App Store
Pico AI Homelabは、MacやiPhone対応のAIクライアント「Pico LLM frontend AI Assistant」を開発するRonald Mannakさんが昨年末から開発を続けていたローカルLLM環境構築クライアント「Ollama」のGUI版のようなアプリで、HuggingFaceなどで公開されているLLMモデルをダウンロード&管理することができるそうです。
また、Pico AI Homelabはサーバー機能を備えチームやホームネットワークで利用することが可能で、Appleの機械学習フレームワーク(Apple MLX)をサポートし、Ollamaと互換性があるためフロントエンドはOpen WebUI、Ollamac、EnchantedなどOllamaをサポートしたクライアントを利用することが可能。
Pico AI Homelabのシステム要件はmacOS 15.0 Sequoia以降とApple M1チップ以降を搭載したMacで、昨日Appleのレビューを通過し、価格は現在のところ無料で、現地時間2025年01月28日にもリリースするそうなので、気になる方はMac App Storeでプレオーダーしてみてください。
O1-level AI with DeepSeek R1 on your Mac for free.
Designed for Apple Silicon, Powered by MLX.
Coming soon to the macOS App Store with Pico AI Homelab. 100% Ollama compatible pic.twitter.com/7TAYlFKeOt— Ronald Mannak (@ronaldmannak) January 25, 2025
Install DeepSeek R1 using Pico AI Homelab
Install DeepSeek R1 Distill on your Mac using Pico AI Homelab for free in just three clicks.
App Store link in the next tweet pic.twitter.com/dsqMUmfRUh— Ronald Mannak (@ronaldmannak) January 26, 2025
- Pico AI Homelab powered by MLX – Mac App Store
コメント