ダイアーⅢ

ダイアーⅢ

最近の記事

動画生成モデル(zeroscope_v2_576w)を利用してGPU別の生成時間を比較してみた

最近GPU(NVIDIA GeForce RTX4090)を積んだPCを購入したので、せっかくなので色々と試したいと思っていました。 そこで今回は、zeroscope_v2_576w という動画生成モデルを活用して、動画生成にかかる時間を GoogleColab/ローカルPC で比較してみました。 zeroscope_v2_576w以下のようなコードで、GoogleColab上でもGPUを利用することで動画生成を試すことができます。 import time!pip ins

    • ChatGPTさんと食材を分析したりして創作料理を考えてみますよ

      はじめにChatGPTさんと色々遊んでみようシリーズ 「ChatGPTのcodeinterpreterを、なんか試してみたいなぁ」と思っていました。 そこで、ChatGPTさんにデータを自分で準備してもらって、それを利用して分析を試してみる事にしました。 何かテーマをと考えまして、思いついたのが… 「食材の相性を分析して、新たね創作料理を検討する」 でした! 紆余曲折の過程もご紹介したく、あまり過程をカットせず、なるべくそのままをあえて記載してあります。 読みずらい所多いか

      • AR/VR_色々お試し(Oculus/IPad LiDAR/Amazon Sumerian)

        今回は VRデバイス(Oculus Quest2)※いまは Metaですが LiDARスキャン​(iPad pro) Amazon Sumerian これらを利用した​AR/VR の活用を色々お試し VRデバイス上で3DモデリングOculus Quest2上で GravitySketch というアプリを利用して簡単なモデリングをしてみる。 VR上で3D空間に直接絵をかくような感覚のような、粘土細工をつくるような感覚のような、 そんなイメージで直観的に3Dモデリングができる。

        • 脳波デバイス『Muse2』を試してみる_アニメを視聴時の脳波を測定してみた

          スマートフォンとペアリングして脳波を測定 試してみる今回は『Mind Monitor』というアプリを利用して脳波を測定してみます。 アプリで生成されたCSVは下記サイトに投入するとグラフ化してくれて便利です。 ↓Mind Monitor Online Charts from CSV Mind Monitor (mind-monitor.com) 今回は試しに癒し系アニメ『ARIA』視聴時と、ちょっと激しめのアニメ『進撃の巨人』を視聴していた際の脳波を測定して、比較してみた

        動画生成モデル(zeroscope_v2_576w)を利用してGPU別の生成時間を比較してみた

          キン肉マンのタッグ組み合わせをNW図化

          キン肉マンのタッグ組み合わせをNW図化

          単語のイメージ可視化

          きっかけ展望・目標言葉の響きをパラメータ化できるか? 単語のイメージを可視化できるか? このように抽象的な言葉のイメージを可視化するにはどうしよう? と思ったときに、私が真っ先に思いついたのが 言葉をベクトル化して扱う W2Vでした。 Word2Vecを用いて単語に各要素の類似度を抽出する学習済 W2Vのモデルを活用。 ▽Chive GitHub – WorksApplications/chiVe: Japanese word embedding with Sudach

          単語のイメージ可視化

          ウマ娘のキャラクターをアンケート取得→分析してみる

          友人・知人に協力をお願いし、 Cygames『ウマ娘 プリティーダービー』のキャラクター(60人分)の好み度をアンケートで収集。 (好みじゃない:1 <ー・・・・ー> 好み:10  といった感じ) 対象者は 既プレイ / 未プレイ などは特に限らず集めさせていただきました。 どちらかというと直感的に、なるべく外見の好みで評価をつけてもらうようにお願いしています。 (今回集まった回答数は計24人分。ご協力いただいた皆様ありがとうございました!) 引用:キャラクター一覧 | ウ

          ウマ娘のキャラクターをアンケート取得→分析してみる