見出し画像

Open-InterpreterをLinuxで使うための考察。(InfraGPT構築記録v4)

今回は、Open-IntepreterをLinuxにインストールしてどのように使えるかを紹介していきます。

今までのInfraGPT構築記録も興味がありましたら読んでいただければ幸いです。


使用環境は、AWSのUbuntsuにPython環境を構築し、open-interpreterをインストールして基盤機能についてどのように扱えるかを検証します。

検証項目は、基盤観点で考えています。

  • cpu、memory使用率の表示

  • cpuのHW情報の表示

  • プロセス情報の表示

  • ネットワークインターフェース情報の表示

  • サービス停止及び起動

  • OS停止



root権限になったところからスタートします。python3はデフォルトでインストールされております。pip3はインストールされていないのでインストールします。python3-pipをインストールするときに、yをEnterします。

python3 --version
apt update
apt install python3-pip

また、次の画面が表示されたら、TabキーでOKを選択し、Enterキーを押します。


OKを押下する。

次に、Open-Intepreterをインストールします。

pip install open-intepreter


ここまでで、Open-Interpreterのインストールは完了となります。次に、下記コマンドを打ち、OpenAIのAPIキーを入力するところがありますので、sk---で始まるOpenAIのAPIキーを入力すると開始となります。

interpreter


開始画面です。


  • cpu、memory使用率の表示

まずは、cpuの使用率について聞いてみます。必要な個所のみ画像で貼り付けています。


過去1分間、5分間、15分間の平均使用率

次に、memoryの使用率について聞いてみます。


トータルサイズ、使用サイズ、空きサイズが出力されています。


  • cpuのHW情報の表示

cpuのHW情報について伺ってみます。


少し細かすぎますが、cpuの詳細な情報が出力されました。


  • プロセス情報の表示

どんなプロセスが必要か気になりますので、プロセス情報を確認します。



  • ネットワークインターフェース情報の表示

ネットワークインターフェース情報を得てみます。なお、今まではgpt-4を使用していましたが、利用料が高いので、gpt-3.5-turboに切り替えています。



  • サービス停止及び起動

サービス停止及び起動ということで、nginxを停止及び起動してみます。


nginxサービスを停止したとのことです。

では、次にnginxを起動します。


nginxを起動しましたとのことです。


  • OS停止

OSの停止を試してみます。


yを押したらOS停止しました。


全体の所感としては、Linuxにopen-interpreterを導入してLinux操作ができるか確認しました。自然言語をコマンドにして、正確に実行してくれて驚きました。基盤系の基本的な作業は実行できることがわかりました。複雑な作業をできるかどうか検証してみると面白いです。例えば、Nginxをインストールして、Nginxの詳細なパラメータ設定ができるかどうかなどです。

あとは、gpt-4を使用するとコストがかかるので、gpt-3.5-turboが落としどころなのかなと考えています。本日の検証だけで、1.2ドルほどかかりました。


この記事が気に入ったらサポートをしてみませんか?