マガジンのカバー画像

とりあえずやってみる

6
とりあえずやってみた記録です。
運営しているクリエイター

記事一覧

TripoSRをとりあえず使ってみる

HuggingFaceで簡単に試せるので使ってみる HuggingFaceで試した後にダウンロードできるobjがmacのプレビュー上ではちゃんと色がついているのだがBlenderでは色がついていない。 シェーダーノードで頂点カラーを使うように設定してあげたら色がついた。もっといい方法もあるのかもしれないとは思うがとりあえず。

Midjourney V6のVary (Region)をとりあえず試してみる

こんな感じで領域を選択してプロンプトを入力して修正できる機能。 ちょっとよくわからないところがあって、 公式ドキュメントだと、プロンプトを入力しないで領域選択だけをする操作と、プロンプトを入力できるものが、UIが違うことになっている。 Remix modeにするかどうかでそこが変わるって公式にも書いてあるし、他にもそう書いてあるブログも多いのだけど、自分の場合はなぜかRemix Modeをオンにしなくても最初からプロンプト入力欄が表示されている。よくわからない。 とり

StreamDiffusionのサンプルとデモをWindowsでとりあえず動かしてみる

環境構築公式のGitHubのInstallationのまま進める 新しいwindows環境なので色々入っていない まずpythonが入っていない、入れる 仮想環境構築はvenvでもcondaでも両方書いてあるが、とりあえずcondaにした。 condaも入っておらず入れる。 CUDAは12.2が入っていた、とりあえず12.1の方のインストール手順をやる。 以上、特につまづくところはなかった。 samples/screen/を試すStreamDiffusion/e

Marigoldの深度推定をとりあえずやってみる

画像から深度推定するMarigold Stable Diffusionベース Hugging Faceですぐに試せる 画像をMidjourneyで生成 Marigoldで深度画像を生成 深度画像をダウンロード Blenderで可視化してみる デプスマップから頂点を移動させる方法 他にも試す

glif.appをとりあえず使ってみる

どこかで見かけて触ってみようと思っていたやつ。 ノーコードでフォーム作成から画像生成の流れ(Glifと呼ぶのかな)を作れる。 作ったGilfを公開できる。 公開されているGlifをRemix(要はフォーク)して解像して自作のGlifとして公開できる。 試したやつ。 まだ処理の流れに使えるパーツは多くないけど、テキスト入力からStable Diffusionへの流れを簡単に組めるのはすごくいい。単純に既存のGlifで遊んでいるのでも面白い。

StreamDiffusionをColabでとりあえず動かしてみる

手元にWindowsがなかったのでColabで動かしてみる。 主にこれを参考にした。 補助的にこれを参考にした。 ランタイムのタイプはT4に変更。 上記の記事の途中でpywin32のエラーが出るので、何か間違ってるのかな、と思って何度かやり直してしまったが、気にせずに記事の通りにやると良い。 メニュー「ランタイム→セッションを再開する」 のあたり。 この環境だとリアルタイム変換は試せないので、Video-to-Videoを試す。 TouchDesignerで映