Apple MLXを利用したiPhone/iPad用ローカルAIクライアント「Locally AI」がMacに対応。

‎Locally AI for Apple Silicon Mac ChatGPT&AI
記事内に広告が含まれています。This article contains advertisements.
スポンサーリンク

 Apple MLXを利用したiPhone/iPad用ローカルAIクライアント「Locally AI」がMacに対応しています。詳細は以下から。

‎Locally AI for Apple Silicon Mac

 Locally AIはマッッチングサイトTinderなどを運営する米Match Group Inc.でiOSアプリを開発するAdrien Grondinさんが、iPhone/iPad向けに開発したローカルAIクライアントで、LamaやGemma, QwenなどのモデルをダウンロードしてiPhone/iPad上で実行できますが、このLocally AIがMacに対応しています。

Locally AI

Run Al models like Lama, Gemma, Qwen, and more on your iPhone and iPad. Offline. Private. No login. No data collection. Powered by Apple MLX.Meet Locally Al, the Al app that respects your privacy. No login. No data collection. Just pure intelligence, running entirely on your iPhone and iPad.

‎Locally AI – App Store

 Locally AIはAppleの機械学習フレームワークApple MLXを利用し、Apple Siliconに最適化されており、Ollamaなど他のAIクライアントと同じくLamaやGemma, SmolLM、DeepSeek、QwenなどのAIモデルをワンクリックでHugging Faceからダウンロードしてローカルで実行できるようにしてくれます。

‎Locally AI – App Store

 また、先日リリースされたLocally AI v1.35/1.38では、Qwen 3 VL 2BモデルやIBM Granite-4.0-H-1Bと350Mに加え、iOS/iPadOS 26でサポートされた「Apple Foundation Model」*にも対応しており、アプリのシステム要件はmacOS 26.0 Tahoe以降のMacとiOS/iPadOS 18.0以降のiPhone/iPadとなっており、アプリは無料でApp Storeに公開されているので、気になる方は試してみてください。

*iOS/iPadOS 26.1以降が必要で、現在のところMac版は日本語入力に不具合があるようです。

コメント

タイトルとURLをコピーしました