しば🐕AI

しば🐕AI

最近の記事

海外旅行に向けて準備 ~chatGPTとともに~

初めに今回は、海外旅行への準備として、実際にレストランで利用される英会話のシーンを身につけるための教材作りをしてみましょう。 今回利用するのは以下の2つ ・chatGPT ・elevanlabs この2つを使えばあなたも簡単にリスニング教材を作れます! 使い方さえ変えれば試験問題だってお手のもの リンク実際に今回の教材作りに利用しているgoogle colabのノートブックと、それに簡単な解説をつけたgithubのリンクを載せておきます。 notebook gith

    • 海外旅行英会話 〜街中編〜

      扱うシーン街中でのシーンを扱います。道案内してほしいとか、、チケットはどうするかとか、、 英会話サンプル以下は、海外旅行中の街中でのシーンを英語で再現する例。このシーンでは、あなた(T:Traveler)、通行人(P:Passerby)、電車駅の券売機(M:Machine)、警察官(O:Officer)との会話 シーン: 街中での道案内、電車のチケット購入、荷物の紛失T: (通行人に声をかけながら) Excuse me, could you please help me

      • 海外でのお役立ち英会話 〜空港編〜

        扱うシーン空港での英会話 英会話シーン以下は、海外旅行中の空港でのシーンを英語で再現する例。このシーンでは、あなた(T:Traveler)、入国審査官(I:Immigration Officer)、荷物受け取りの担当者(B:Baggage Handler)、空港の案内係(A:Airport Attendant)との会話 シーン: 空港での入国手続きとアドバイスを求めるT: (到着ゲートで) Excuse me, where can I find the immigrati

        • 海外でのお役立ち英会話 〜レストラン編〜

          今日扱うシーンレストランでの注文シーン サンプル英会話集シーンとそれに付随する英会話です。 登場人物: あなた (Y) とウェイター (W)シーン:あなたがレストランに着き、テーブルに座りました。ウェイターがメニューを持ってきます。Y: Good evening. Could you recommend any specialties of the house?W: Of course! Our chef's specials tonight are the seafoo

        海外旅行に向けて準備 ~chatGPTとともに~

          huggingface autotrainをgoogle colabで試してみた

          huggingface autotrainとは huggingface autotrainとは、データセットさえあれば誰でも簡単にLLMやStable diffusionを学習することができるprojectです。 今回はstable diffusion xlを対象にやってみようと思います。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築

          huggingface autotrainをgoogle colabで試してみた

          huggingface candleに入門してみた

          Huggingface candleとは Huggingface candleは、whisperやstable diffusion, LLMをRust上で利用できようにしたライブラリです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 Rustの環境構築です。 !curl --proto '=https' --tlsv1.2 -sSf

          huggingface candleに入門してみた

          exllama+GPTQをgoogle colabで試してみた

          exllamaとは exllamaはローダーのライブラリであり、Llamaベースの大規模言語モデルの推論が早くなる模様 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !git clone https://github.com/oobabooga/text-generation-webui%cd text-gen

          exllama+GPTQをgoogle colabで試してみた

          text-generation-webuiでloraを利用してみた。

          text-generation-webuiとは text-generation-webuiは簡単にLLMのためのchatやAPIをWebUI形式で利用することができるOSSです。 いつも通常のモデルや4bitのものをよく利用していたので、もう一つの省メモリの手段であるloraの利用手順について試したいと思います。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変

          text-generation-webuiでloraを利用してみた。

          DragDiffusionをgoogle colabで試してみた

          DragDiffusionとは Drag Diffusionは、New Photoshopとして話題の編集型生成AIであるDragGANをGANのモデルではなく、Diffusion Modelで構築したものです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !git clone https://github.

          DragDiffusionをgoogle colabで試してみた

          Whisper-Atをgoogle colabで試してみた

          Whisper-Atとは Whisper-ATは、音声タグ付けと音声認識の両方を可能にした音声文字起こしモデルです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !pip install whisper-at 推論 (1)デモデータの準備 !pip -q install wgetimport wget,

          Whisper-Atをgoogle colabで試してみた

          UniDiffusersをgoogle colabで試してみた

          UniDiffusersとは UniDiffusersとは、1つのstable diffusionのモデルでText2Image, Image2Text, Image2Image, Text2Textをやってしまおうというもの。すごく便利、、 diffusersにもv0.17.0から追加されています。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。

          UniDiffusersをgoogle colabで試してみた

          ControlAVideoをgoogle colabで試してみた

          ContorlAVideoとは Diffusion modelを用いたText2Videoです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !git clone https://github.com/Weifeng-Chen/control-a-video.git!pip install diffusers

          ControlAVideoをgoogle colabで試してみた

          LEDTISをgoogle colabで試してみた。

          LEDTISとは LEDTISは、PromptベースでImg2Imgを可能にしたstable diffusionモデルです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !pip install -q transformers diffusers accelerateimport torchdevice =

          LEDTISをgoogle colabで試してみた。

          MERTをgoogle colabで試してみた。

          MERTとは MERTは、Acoustic Music Understanding Modelという音楽理解のためのモデルになっています。 今回は楽曲分類とかdownstream taskでできないのかやってみたいと思います。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !pip install transf

          MERTをgoogle colabで試してみた。

          orcaLLM13Bをgoogle colabで試してみた

          OrcaLLMとは orcaLLMは、chatGPTの論理プロセスをシュミレートさせて作成されたfinetuned型のLLMです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !pip install -q auto-gptq 推論 (1)モデルのロード from transformers import

          orcaLLM13Bをgoogle colabで試してみた

          GeneCISをgoogle colabで試してみた。

          GeneCISとは GeneCISは、facebookresearchが出したさまざまなテキストプロンプトが与えられた場合に、モデルがさまざまな視覚的「類似性」の概念に適応する能力を測定するためのゼロショット評価ベンチマークです。 リンク Colab github 準備 Google Colabを開き、メニューから「ランタイム→ランタイムのタイプを変更」でランタイムを「GPU」に変更します。 環境構築 インストール手順です。 !pip install git+

          GeneCISをgoogle colabで試してみた。