📚 Paper | 🤗 Hugging Face | 📝 Blog
完全オフラインで動作するTinySwallow-1.5Bのチャットデモです。GradioのUIを用いて、ローカルからモデルの重みを直接読み込んでチャットができます。
特徴:
- 📱 モデルの重みを直接ローカルから読み込み、完全オフラインで会話することも可能です。
- 🔐 すべての処理がローカルで実行されるため、データが外部に送信されることはありません。
- 💬 UIにはGradioを用いており、すべてPythonで作成されています。
モデルの重みをダウンロードするために、GitおよびGit LFSをインストールします。 お使いのOSの指示に従ってインストールしてください。
--recursive
オプションをつけてクローンすることで、モデルの重みも同時にダウンロードされます。
git lfs install
git clone --recursive https://github.com/SakanaAI/TinySwallow-ChatUI-Local.git
cd TinySwallow-ChatUI-Local
uvをインストールします。お使いのOSに合わせて、以下のコマンドを実行します。
macOSの場合:
ターミナルを開き、以下のコマンドを実行します。
curl -LsSf https://astral.sh/uv/install.sh | sh
Windowsの場合:
PowerShellを開き、以下のコマンドを実行します。
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
uv sync
以下を実行すると、自動でアプリがブラウザに開かれます。
uv run app.py
このWebアプリケーションでは、Pythonのライブラリを用いて、モデルの重みをローカルから読み込み、完全オフラインでチャットが可能です。
より手軽に試せるバージョンとして、HTMLとJavaScriptのみで動作するTinySwallow-ChatUIも公開しています。 デモはこちらからお試しいただけます。
本アプリケーションは実験段階のプロトタイプであり、研究開発の目的でのみ提供されています。商用利用や、障害が重大な影響を及ぼす可能性のある環境(ミッションクリティカルな環境)での使用には適していません。 本アプリケーションの使用は、利用者の自己責任で行われ、その性能や結果については何ら保証されません。 Sakana AIは、本アプリケーションの使用によって生じた直接的または間接的な損失に対して、結果に関わらず、一切の責任を負いません。 利用者は、本アプリケーションの使用に伴うリスクを十分に理解し、自身の判断で使用することが必要です。