コンピュータ上でコードを実行する言語モデル。
OpenAIのコードインタープリタのオープンソースで、ローカルに実行される実装。
デスクトップアプリケーションの早期アクセスを取得する。
pip install open-interpreter
interpreter
Open Interpreterは、LLMを使用してコード(Python、Javascript、Shellなど)をローカルで実行できます。インストール後に$ interpreter
を実行することで、ターミナルでChatGPTのようなインターフェースを介してOpen Interpreterとチャットできます。
これにより、コンピュータの一般的な目的の機能に自然言語のインターフェースを提供できます。
- 写真、動画、PDFなどの作成や編集。
- Chromeブラウザの制御とリサーチ実行。
- 大規模なデータセットのプロット、クリーニング、分析。
- ...等。
Open.Interpreter.Demo.mp4
pip install open-interpreter
インストール後、interpreter
を実行するだけ:
interpreter
import interpreter
interpreter.chat("AAPLとMETAの正規化された株価をプロットする") # 一つのコマンドを実行
interpreter.chat() # インタラクティブなチャットを開始
OpenAIがGPT-4でCode Interpreterをリリースすることで、ChatGPTで実際のタスクを達成する素晴らしい機会が提供されました。
しかし、OpenAIのサービスはホスティングされ、クローズドソースで、かつ大きな制限があります:
- インターネットアクセス不可。
- インストールされているパッケージのセットが限定されている。
- 100 MBの最大アップロード、120.0秒のランタイム制限。
- 環境が終了すると状態がクリアされます。
Open Interpreterは、ローカル環境で実行することでこれらの制約を克服します。インターネットに完全にアクセスでき、時間やファイルサイズに制限されず、任意のパッケージやライブラリを使用することができます。
GPT-4のCode Interpreterの力と、ローカルの開発環境の柔軟性を組み合わせることができます。
ターミナルでインタラクティブなチャットを開始するには、コマンドラインからinterpreter
を実行します。
interpreter
または、.pyファイルからinterpreter.chat()
を使用します。
interpreter.chat()
より精確な制御のために、メッセージを直接.chat(message)
に渡すことができます。
interpreter.chat("/videos内のすべての動画に字幕を追加する。")
# ... ターミナルに出力をストリームし、タスクを完了 ...
interpreter.chat("これは素晴らしいですが、字幕を大きくできますか?")
# ...
Pythonでは、Open Interpreterは会話の履歴を覚えています。新鮮な気持ちで始めたい場合は、リセットできます:
interpreter.reset()
interpreter.chat()
は、return_messages=True のときにメッセージのリストを返します。これを使用して、interpreter.load(messages)
で会話を再開することができます。
messages = interpreter.chat("私の名前はKillianです。", return_messages=True) # 'messages'にメッセージを保存
interpreter.reset() # インタープリタをリセット("Killian"は忘れられる)
interpreter.load(messages) # 'messages'からチャットを再開("Killian"は覚えられる)
Open Interpreterのシステムメッセージを調査し、機能を拡張、権限を変更、またはより多くのコンテキストを提供するために設定できます。
interpreter.system_message += """
ユーザーがそれらを確認する必要がないように、-yでシェルコマンドを実行します。
"""
print(interpreter.system_message)
ⓘ ローカルでの実行に問題がありますか? 新しいGPUセットアップガイドとWindowsセットアップガイドを読んでください。
Code Llama
を使用するには、コマンドラインからローカルモードで interpreter
を実行します。
interpreter --local
gpt-3.5-turbo
の場合は、fastモードを使用します。
interpreter --fast
Pythonでは、手動でモデルを設定する必要があります。
interpreter.model = "gpt-3.5-turbo"
Azureデプロイメントに接続するには、--use-azure
フラグでこれを設定します。
interpreter --use-azure
Pythonでは、次の変数を設定します:
interpreter.use_azure = True
interpreter.api_key = "あなたの_openai_api_key"
interpreter.azure_api_base = "あなたの_azure_api_base"
interpreter.azure_api_version = "あなたの_azure_api_version"
interpreter.azure_deployment_name = "あなたの_azure_deployment_name"
interpreter.azure_api_type = "azure"
寄稿者がOpen Interpreterを調査するのを助けるために、--debug
モードは非常に詳細です。
フラグ(interpreter --debug
)を使用してデバッグモードを有効にするか、チャット中に有効にできます:
$ interpreter
...
> %debug # <- デバッグモードをオンにする
Open Interpreterは、.envファイルを使用してデフォルトの動作を設定することを許可しています。これにより、毎回コマンドライン引数を変更することなく、インタープリタを設定する柔軟な方法が提供されます。
サンプルの.env設定は次のとおりです:
INTERPRETER_CLI_AUTO_RUN=False
INTERPRETER_CLI_FAST_MODE=False
INTERPRETER_CLI_LOCAL_RUN=False
INTERPRETER_CLI_DEBUG=False
INTERPRETER_CLI_USE_AZURE=False
これらの値を.envファイルで変更して、Open Interpreterのデフォルトの動作を変更できます。
生成されたコードはローカル環境で実行されるため、ファイルやシステム設定と対話することができ、データロスやセキュリティリスクなどの予期しない結果が生じる可能性があります。
確認を回避する
ために interpreter -y
を実行するか、interpreter.auto_run = True
を設定できます。その場合:
- ファイルやシステム設定を変更するコマンドを要求するときは注意してください。
- Open Interpreterを自動運転車のように注意深く見て、ターミナルを閉じることでプロセスを終了する準備をしてください。
- Google ColabやReplitのような制限された環境でOpen Interpreterを実行することを検討してください。これらの環境はより孤立しており、任意のコードを実行することに関連するリスクを減少させます。
Open Interpreterは、exec()
関数を備えた関数呼び出し言語モデルを装備しており、実行するlanguage
("python"や"javascript"など)とcode
を受け入れます。
その後、モデルのメッセージ、コード、およびシステムの出力をMarkdownとしてターミナルにストリームします。
貢献に興味を持っていただき、ありがとうございます!コミュニティからの関与を歓迎しています。
詳しくは、貢献ガイドラインを参照してください。
Open InterpreterはMITライセンスの下でライセンスされています。ソフトウェアの使用、コピー、変更、配布、サブライセンス、および販売のコピーが許可されています。
注意: このソフトウェアはOpenAIとは関連していません。
あなたの指先の速さで動く初級プログラマーにアクセスできることは... 新しいワークフローを努力なく効率的にすることができ、プログラミングの恩恵を新しい観客に開くことができます。
— OpenAIのコードインタープリタリリース
注意: この翻訳は人工知能によって作成されました。誤りが含まれていることが確実です。 Open Interpreterが世界中を旅するのを助けるため、訂正を含むプルリクエストをしてください!