私は長年クラウドベースのチャットボットを使ってきました。大規模な言語モデルの実行には膨大な計算能力が必要なため、これらのプログラムしか選択肢がありませんでした。しかし、LM StudioとLLM Quantum Modelsを使えば、既存のハードウェアを使って優れたモデルをオフラインで実行できるようになりました。ローカルAIへの好奇心から始まったものが、今ではコストがかからず、オフラインでも動作し、AIとのやり取りを完全に制御できる強力な代替手段へと進化しました。
この変化は、クラウドAIに機密情報を誤って共有するとどうなるかを実際に体験した後に必要になりました。まるで普通の会話をしているかのように感じていたのに、ChatGPTにPINコードを共有してしまいました。この不注意な瞬間に、私はクラウドAIをセキュリティ上の影響を考慮せずにデジタルノートブックのように扱っていたことに気づきました。LM Studioは、LLM AIの機能をデスクトップに直接提供することで、これらの根本的な問題に対処し、プライバシーリスクと継続的なコストを排除します。
クイックリンク
LM Studio はローカル AI の複雑さを解決します。
ローカル LLM モデルの実行がこれまで以上に簡単になりました。
発見前 LMスタジオ新しく作られたオープンソースツールに数え切れないほどの時間を費やしました。GitHubリポジトリに没頭し、長々とした技術ドキュメントを読み、アップデートのたびに壊れてしまうPython環境の設定をし、Hugging Faceのoobaboogaページで適切なテンプレートを探し回ることに没頭していました。ようやく使える環境ができたと思ったら、基盤となるツールが廃止されたり、大幅な変更が加えられたりして、最初からやり直さなければならなくなったのです。
LM Studioは、洗練されたデスクトップアプリケーションにすべてをまとめることで、この体験を完全に変えました。これにより、大規模な言語モデルのダウンロードと実行が、他のソフトウェアのインストールと同じくらい簡単になりました。AIをオフラインで実行するには、量子AIモデルとLM Studioのようなインターフェースツールの16つが必要です。量子モデルは、本格的なAIモデルのコンパクト版であり、その機能の大部分を維持しながら、使用するコンピューティングリソースを大幅に削減します。高価なサーバークラスのハードウェアを必要とせず、適切なCPUとXNUMXGBのRAMを搭載した一般的なノートパソコンで、高度なAIモデルを実行できます。LM Studioを使えば、 古いデバイスでもAIチャットボットを実行できる!
LM Studioで使える私のお気に入りの定量モデルの一つはDolphin3です。広範なコンテンツフィルタリングが付随する主流のAIモデルとは異なり、Dolphin3は恣意的な制限なしに真に有用なものになるように設計されています。他のモデルでは拒否される可能性のあるリクエストにも応答し、潜在的な悪用について説教することなく、率直な回答を提供します。フォレンジック調査、法務業務、あるいは深い会話やアドバイスなど、この教師なしAIモデルはすぐに私のお気に入りの一つになりました。
Dolphin3を数分で実行
クイック&イージースタートガイド
AIアシスタントをオフラインでセットアップするのに、想像するほど技術的な専門知識は必要ありません。全体のプロセスは約20分ほどで、そのほとんどはダウンロードが完了するのを待つ時間です。
初め、 LM Studioをダウンロード 公式ウェブサイトからダウンロードし、他のアプリケーションと同様にインストールしてください。このプログラムはWindows、Mac、Linuxに対応しており、Apple Silicon搭載MacはこれらのAI推論タスクにおいて非常に優れたパフォーマンスを発揮します。インストールすると、LM Studioはモデルを見つけるための検索バーを備えたすっきりとしたインターフェースで開きます。

「Dolphin3」を検索すると、利用可能なバージョンがいくつか表示されます。8GBのRAMを搭載している場合は16億パラメータバージョン、3GBのRAMを搭載している場合は8億パラメータの小型バージョンから始めることをお勧めします。ダウンロードサイズは、選択したバージョンによって2GBから6GBの範囲です。LM Studioは、各モデルに必要なメモリ容量を正確に表示するため、ハードウェアの互換性について推測する必要がありません。

ダウンロードが完了したら、インターフェースに移動します。 チャット サイドバーの右上にあるボタンをクリックします 読み込むモデルを選択 ウィンドウ上部の中央に、ダウンロードしたモデルがドロップダウンリストとして表示されます。Dolphin3を選択すると、モデルのアップロードが開始されます。アップロードには約XNUMX秒かかり、その後はチャットを開始できます。インターフェースはChatGPTを使ったことがある人なら誰でも馴染みのあるもので、下部にメッセージボックス、上部に会話履歴が表示されます。

ここでDolphin3に質問をしてみましたが、パフォーマンスは良好でした。ChatGPTやClaudeほど驚くほど速くはありませんが、十分に許容できるレベルです。ご覧の通り、約11語(320文字)の回答に対して約453秒で応答し、会話は目立った遅延なくスムーズに進みました。すべての処理はローカルで行われるため、インターネット接続状況に関わらず応答時間は一定です。

会話が終わったら、ボタンをクリックできます。 イジェクト Dolphin3をメモリから完全に削除します。これにより、会話の痕跡がすべて即座に消去され、システムリソースが解放されます。チャット履歴を無期限に保持する可能性のあるクラウドサービスとは異なり、フォームを削除することで、会話が完全に削除されるタイミングを完全に制御できます。
Dolphin3が好きな理由
高速、特別、そして驚くほど有能。
それはそうではないのは事実だ ChatGPTの優れた代替品 複雑な結論や最新のウェブ関連情報を提供してくれるわけではありませんが、他の点でそれを補っています。プライバシーに配慮した会話がリストのトップを占めており、データ保持ポリシーや企業の監視を気にすることなく、自分の心の奥底にある考えや懸念を共有できます。これには、個人的な考察、感情的な問題、職場でのデリケートな状況などが含まれますが、私はクラウドサービスでは決してそのようなことは信頼しません。
沢山あります 今すぐ試せる他のオフライン大規模言語モデル(LLM)しかし、私はコンテンツモデレーションへのアプローチが優れているため、依然としてDolphin3を使い続けています。モデルが教師なし学習であるからといって、倫理や文脈を無視しているわけではありません。大規模で多様なデータセットで学習されたLLaMAをベースとしているため、善悪の判断基準をしっかりと理解しています。「教師なし学習」とは、物議を醸す政治やデリケートな歴史的出来事など、他のモデルが避けるようなトピックにも対応できることを意味します。多くのAIアシスタントは、常に言葉遣いを監視しているように感じますが、Dolphin3は不必要な制限なしに、正直で率直な回答を提供します。その結果、企業によってサニタリー化されたチャットボットとのやり取りというよりも、知識豊富な友人と話しているような会話が生まれます。複雑な話題を掘り下げたり、気まずい質問をしても、安全に関する講義を受けることはありません。

Dolphin3に搭載されているLM StudioのRAG機能も気に入っています。機密情報を含む契約書、法的文書、プライバシーポリシーを分析できます。これらの文書には、秘密保持条項、専有条項、クラウドサービスと共有すべきではない個人データが含まれていることがよくあります。複雑な法的用語を解析しながらも、すべてをローカルで処理できるAIアシスタントがあれば、フリーランサーや私のような中小企業の経営者にとって、機密文書を扱う際に非常に大きなメリットがあります。

簡単なプログラミングヘルプも非常に役立ち、特にデバッグの迅速な支援や馴染みのないコードパターンの説明に役立ちます。複雑な開発プロジェクトでネイティブAIに頼ることはありません。しかし、プライベートコードを外部サーバーに公開することなく、的を絞った技術的な質問に非常に優れています。
最後に、旅行中の状況は、オフラインAIのもう一つの重要な利点となります。長時間の通勤、リモートワーク、あるいはインターネット接続の悪い場所では、フル機能のAIアシスタントの存在が極めて重要です。私はDolphin3を使って、完全にオフラインの状態でもメールの作成、データ分析、問題解決を行いました。これはクラウドベースの代替手段では不可能なことです。
私は今でもクラウド AI を使っています。
クラウドAIを完全に無視することはできませんし、そもそもそれが目標だったわけでもありません。実のところ、真に強力なモデルを実行するにはクラウドAIが必要であり、クラウドAIこそが最適な選択肢です。個人的には、最新の情報と大規模な知識データベースを必要とする研究やWebベースのタスクにPerplexityを使うのが好きです。これらのサービスは、膨大な計算リソース、リアルタイムデータ、最新のトレーニングを必要とするタスクに優れています。
最も重要なのは、クラウドAIとオフラインAIの適切なバランスを見つけることです。そうすることで、プライバシーとセキュリティを最大限に確保し、インフラへの依存を最小限に抑えることができます。高度な機能やウェブ検索との連携が必要な場合、あるいは機密情報が関係しない場合は、クラウドサービスを利用します。それ以外の場合、特に個人情報や専有データに関する会話や、可用性の保証が必要な状況では、オンプレミス環境が優先されます。


