DeepSeek R1やMeta Llama 3.3などをサポートしたMac用ローカルAIサーバー「Pico AI Homelab powered by MLX」がプレオーダーを開始。

Pico AI Homelab powered by MLX ChatGPT&AI
記事内に広告が含まれています。This article contains advertisements.
スポンサーリンク

 Apple MLXを利用しDeepSeek R1やMeta Llama 3.3などをサポートしたMac用ローカルAIサーバー「Pico AI Homelab powered by MLX」がプレオーダーが開始されています。詳細は以下から。

Pico AI Homelab powered by MLX

 中国のDeepSeekは現地時間2025年01月20日、OpenAIのo1と同等の性能を持つ大規模言語モデルDeepSeek R1をオープンソース(MITライセンス)で公開し話題になっていますが、このDeepSeek R1やMetaのLLama 3.3、MicrosoftのPhi 4などローカルLLMをダウンロード&管理できるMac用ローカルAIサーバーアプリ「Pico AI Homelab powered by MLX」のプレオーダーがMac App Storeで開始されています。

Pico AI Homelab

最新のAIモデルDeepSeek R1に対応。推論と数学機能を搭載。
ホーム&オフィス用AIサーバー小規模チームや個人プロに最適。インストール簡単。コマンドライン不要、クリックするだけ。最新モデル搭載:DeepSeek R1、Llama 3.3、Microsoft Phi 4、Sky T1、Google Gemma 2、Mistral。ローカルで動作、無料です。

Pico AI Homelab powered by MLX – Mac App Store

 Pico AI Homelabは、MacやiPhone対応のAIクライアント「Pico LLM frontend AI Assistant」を開発するRonald Mannakさんが昨年末から開発を続けていたローカルLLM環境構築クライアントOllamaのGUI版のようなアプリで、HuggingFaceなどで公開されているLLMモデルをダウンロード&管理することができるそうです。

About Pico AI Homelab

 また、Pico AI Homelabはサーバー機能を備えチームやホームネットワークで利用することが可能で、Appleの機械学習フレームワーク(Apple MLX)をサポートし、Ollamaと互換性があるためフロントエンドはOpen WebUI、Ollamac、EnchantedなどOllamaをサポートしたクライアントを利用することが可能。

Pico AI Homelab

 Pico AI Homelabのシステム要件はmacOS 15.0 Sequoia以降とApple M1チップ以降を搭載したMacで、昨日Appleのレビューを通過し、価格は現在のところ無料で、現地時間2025年01月28日にもリリースするそうなので、気になる方はMac App Storeでプレオーダーしてみてください。

Install DeepSeek R1 using Pico AI Homelab

コメント

タイトルとURLをコピーしました