iOSやmacOS、visionOSに対応したオープンソースのローカルLLMクライアント「fullmoon」がリリース。

fullmoon by Mainframe ChatGPT&AI
記事内に広告が含まれています。
スポンサーリンク

 オープンソースのローカルLLMクライアント「Fullmoon for iOS/macOS/visionOS」がリリースされています。詳細は以下から。

fullmoon local llm app

 元MetaのShivkanth Bagavathyさんらが設立したMainframe Computer, Inc.は現地時間2025年01月14日、iPhoneやMac、Vision Pro上でプライベート&ローカルに大規模言語モデル(LLM)を動作させることができるクライアント「fullmoon」を新たにリリースしたと発表しています。

fullmoon by Mainframe Computer

a billion parameters in your pocket: use fullmoon to chat with private and local large language models like llama 3.2.
the simplest way to use private LLMs: works fully offline and private when you don’t have internet. runs models on-device optimized for Apple silicon.works on every platform: iOS, iPadOS, macOS, visionOS

fullmoon: local intelligence – App Store

 Mainframe Computer, Inc.のJordan Singerさんによると、fullmoonはApple Siliconに最適化されたAppleのMLX (MLX Swift)フレームワークとを利用したLLMクライアントで、iOSやiPadOS、macOS、visionOSに対応しており、アプリのテーマやフォント、システムプロンプトを設定可能で、

現在のところサポートしているローカルLLMはMetaのLlama 3.2 1B(10億)と3B(30億)パラメータのみですが、ソースコードはオープンソース(MIT)で公開されており、アプリもAppleのApp Storeに無料で公開されています。

fullmoon

 fullmoonのシステム要件はiOS/iPadOS 17.6以降のiPhoneとiPad、macOS 14 Sonoma以降のApple Silicon Mac、visionOS 2.0以降のVision Proとなっているので、興味のある方は試してみてください。

コメント

タイトルとURLをコピーしました