見出し画像

【Orca: マイクロソフトの次世代言語モデル】英語解説を日本語で読む【2023年7月1日|@1littlecoder】

Microsoftの言語モデルであるOrcaは、その独自のファインチューニング手法により人気を集めています。Orcaはプログレッシブラーニングと呼ばれる2段階のトレーニングプロセスを使用し、ChatGPTとGPT-4の応答を組み込んでいます。130億のパラメータを持つOrcaは、ベンチマークで優れたパフォーマンスを発揮し、Vikunaなどの他のモデルを上回る結果を残しています。モデルの重みは公開されていませんが、Orcaはオープンソースコミュニティでの関心を引き起こし、同様のモデルの開発を促しています。Microsoftの革新的な手法とOrcaの能力は大きな注目を集め、多くの人々の関心を惹きつけています。
公開日:2023年7月1日
※動画を再生してから読むのがオススメです。


This large language model from Microsoft literally broke the internet.

マイクロソフトのこの大規模な言語モデルは、文字通りインターネットを席巻した。

I mean, all the YouTube influencers, you go to Twitter, on LinkedIn, everywhere, people were talking about this model.

つまり、YouTubeのインフルエンサーはもちろん、TwitterやLinkedInなど、あらゆる場所で人々がこのモデルについて話していた。

And like, literally everybody was fascinated about this model.

そして、実際にみんながこのモデルに魅了されていました。

This model is called Orca and this came from Microsoft.

このモデルはオルカと呼ばれ、マイクロソフトが開発したものです。

Now, one of the reasons why people were fascinated about this model is also because it came from Microsoft.

さて、人々がこのモデルに魅了された理由のひとつは、これがマイクロソフトから来たということでもある。

Microsoft has a really good partnership with OpenAI and Microsoft released a new model, which was itself surprising.

マイクロソフトはOpenAIと実に良好なパートナーシップを結んでおり、マイクロソフトは新しいモデルを発表した。

And second, the model was all it was doing is trying to imitate GPT-4.

そして第二に、このモデルはGPT-4を模倣しようとしているだけだった。

That's all.

それだけだ。

The main catch here is that it was not trying to imitate GPT-4 like what they were doing with Vikuna or any other model.

ここで重要なのは、彼らがビクナや他のモデルでやっていたように、GPT-4を模倣しようとしたわけではないということだ。

It took a completely radically new approach of how you train a large language model.

大規模言語モデルの訓練方法について、まったく根本的に新しいアプローチをとったのだ。

Or, I should say, how you fine-tune a large language model.

あるいは、大規模な言語モデルを微調整する方法と言うべきだろう。

And that's one of the reasons why people were fascinated about it.

それが、人々がVikunaに魅了された理由のひとつです。

So, in this video, I wanted to get into the details of how this model has been built and what is this model, in fact, doing and why is it fascinating.

そこでこのビデオでは、このモデルがどのように構築されたのか、そしてこのモデルが実際に何をしているのか、なぜ魅力的なのか、その詳細に迫りたいと思います。

And what is it taking us to?

そして、私たちを何へと導いてくれるのか?

To start with, if you are not familiar about the model fine-tuning process, a large language model fine-tuning process, I've got a separate video where we delve die deep into how to fine-tune your large language model.

まず始めに、モデルの微調整プロセス、つまり大規模言語モデルの微調整プロセスについてよくご存知でない方のために、大規模言語モデルの微調整方法について深く掘り下げた別のビデオを用意しました。

Like, we used PIV to fine-tune it.

PIVを使って微調整を行いました。

But typically, whenever you want to fine-tune a large language model, again, like if you do not even know what is fine-tuning, just think of having a raw model.

しかし通常、大規模な言語モデルを微調整したいときはいつでも、微調整が何なのかわからない場合は、生のモデルを使うことを思い浮かべてください。

Like, you have, first of all, a raw model, like a big, really raw model.

まず最初に、大きな、本当に未加工のモデルを持つのです。

And using that raw model, you are going to add some dataset to it.

その生モデルを使って、あるデータセットを追加します。

You're going to add your own dataset.

自分のデータセットを追加するのです。

Like, for example, you have got some data in it.

例えば、その中にいくつかのデータがあるとします。

And you're going to use that data to this raw model and then create a new baby model.

そして、そのデータをこの生モデルに使って、新しい赤ちゃんモデルを作るのです。

That's what the fine-tuning is.

それが微調整です。

So, this baby model ideally is supposed to do certain things better than the raw model, the base model, on particular tasks that are given to this model.

この赤ちゃんモデルは、理想的には、モデルに与えられた特定のタスクにおいて、生モデル(ベースモデル)よりも優れた結果を出すはずです。

This process is typically called as supervised fine-tuning (SFT) or it is also called as instruct fine-tuning.

このプロセスは通常、教師ありファインチューニング(SFT)と呼ばれ、インストラクター・ファインチューニングとも呼ばれます。

So, you have a set of instructions with which you are fine-tuning this model.

つまり、モデルを微調整するための一連の命令があるわけです。

Or, you can call it, you have got a supervision happening there and you're fine-tuning this model with this dataset.

あるいは、監視が行われていて、そのデータセットを使ってモデルを微調整している、と言うこともできます。

This is the typical fine-tuning process.

これが典型的な微調整プロセスです。

For a typical fine-tuning process, you need two things.

典型的な微調整プロセスには、2つのものが必要です。

One, you need a prompt, which is like the question or the instruction that you give to the model.

まず、プロンプトが必要です。それはモデルに与える質問や指示のことです。

And then, the response, what kind of response it has got.

そして、モデルの応答、どのような応答を持っているかです。

So, any model, like for example, Vikuna, what they've done is they have taken the responses from Chargpt.

だから、例えばヴィクーナのようなモデルは、チャープトから反応を得ているんだ。

The Prompt and the response, and then they try to use some base model like LLaMA or some other base model, and try to fine-tune it in this particular instruction.

プロンプトとレスポンス、そしてLLaMAのようなベースモデルを使い、それをこの特定の指示の中で微調整しようとする。

And then they try to create these baby models or child models or student models, whatever you would like to call it.

そして、赤ちゃんモデル、子どもモデル、生徒モデルなど、呼び方は何でもいいのですが、こうしたモデルを作ろうとするのです。

This is what has been happening in the industry.

これが業界で起こっていることです。

But with Orca, we have got a completely new paradigm of how these models can be fine-tuned.

しかしオルカでは、これらのモデルをどのように微調整するかという、まったく新しいパラダイムを手に入れたのです。

And they call it Progressive learning, and in some places, they call it explanation learning.

それをプログレッシブ・ラーニングと呼び、あるところでは説明学習と呼んでいる。

So, whatever the name is, Progressive learning or explanation learning, what is happening with Orca is this: now, instead of taking a simple prompt and response in the concept of explanation tuning, we have got the system message, The Prompt, and the response.

プログレッシブ学習であれ、説明学習であれ、オルカで起きていることは次のようなことだ。説明チューニングの概念において、単純なプロンプトとレスポンスの代わりに、システム・メッセージ、プロンプト、そしてレスポンスがある。

Now, what is a system message?

さて、システムメッセージとは何でしょうか?

If we have used Chargpt through API, you know, system message is something like this: you would tell Chargpt that, Hey, you are a really good coder, and then you need to solve the problem.

もし私たちがAPIを介してChargptを使用した場合、システムメッセージは次のようなものになります: あなたは本当に優れたコーダーですね と言って、あなたは問題を解決する必要があります。

Or you would probably tell ChatGPT, You are a teacher, and you need to solve this problem.

または、おそらくChatGPTに「あなたは教師です」と言うかもしれません。そして、この問題を解決する必要があります。

So, you set a context to this large language model so that they behave or imitate the behavior of the role that they've been given.

つまり、この大きな言語モデルに文脈を設定することで、彼らが与えられた役割の振る舞いをするように、あるいは模倣するようにするのです。

So, for example, if you want ChatGPT to solve medical problems, you would initially tell ChatGPT that you should behave like a doctor.

例えば、ChatGPTに医学的な問題を解かせたいのであれば、最初はChatGPTに医者のように振る舞えと言うでしょう。

And the same way, every prompt goes with a system message.

そして同じように、すべてのプロンプトはシステムメッセージを伴います。

And what they are doing in explanation tuning is first, they got the system message along with the prompt and along with the response.

そして、説明チューニングでやっていることは、まず、システムメッセージをプロンプトとレスポンスと一緒に表示することです。

This is the first bigger change that you see from the traditional prompt of traditional instruction fine-tuning.

これが従来のプロンプトや従来の指示の微調整から見て最初の大きな変化です。

After you do this thing, now the tuning does not happen in one phase.

このようなことを行った後、チューニングは1つのフェーズで行われるわけではありません。

The tuning happens in two different levels.

微調整は2つの異なるレベルで行われる。

The first level of fine-tuning happens with ChatGPT response.

最初の微調整はChatGPTのレスポンスで行われます。

So, the ChatGPT here acts as an intermediate teacher.

ChatGPTは中間的な教師として機能します。

So, you have got the system message, you have got the prompt, and you have got the ChatGPT messages for those particular prompts.

システムメッセージがあり、プロンプトがあり、そのプロンプトに対するChatGPTメッセージがあります。

Like, what would ChatGPT respond in this particular case?

この場合、ChatGPTはどう答えるのか?

That's the first level of training.

これがトレーニングの第一レベルです。

In the second level of training, for the same set of data points from Flan, they are using Flan models' prompts.

2つ目のトレーニングレベルでは、Flanの同じデータセットに対して、Flanモデルのプロンプトを使っています。

They are using GPT-4 responses.

GPT-4の回答を使っている。

So, the first level is being taught by ChatGPT, the second level is being taught by GPT-4.

つまり、最初のレベルはChatGPTによって教えられ、2番目のレベルはGPT-4によって教えられます。

So, imagine you are a student, like you are in kindergarten, in the lower kindergarten, you would learn certain things, but that would accumulate to your knowledge that you would gain in the upper kindergarten.

だから、想像してください。あなたが生徒で、例えば幼稚園の下のクラスにいるとします。あなたはあることを学びますが、それは上のクラスで得る知識に蓄積されます。

That would ultimately help you understand better things when you go to the first standard or something.

そうすることで、最終的に一流校に進学した時に、より良いものを理解できるようになる。

So, the same way, instead of training the model at one particular phase or instead of making sure that the model has an enormous amount of data, this is a clearly crafted process where first of all, you are telling the model what it is supposed to do with the system message.

同じように、ある特定のフェーズでモデルをトレーニングしたり、モデルに膨大な量のデータを持たせたりするのではなく、これは明確に作られたプロセスであり、まず第一に、システム・メッセージを使って何をすべきかをモデルに指示する。

And second, you also have two levels of fine-tuning, where first you use ChatGPT responses and second, you use GPT-4 responses.

そして2つ目は、ChatGPTレスポンスとGPT-4レスポンスの2つのレベルの微調整です。

Now, this has a profound impact on these large language models, or as they call it, LFM's (Large Foundation Models). So, large foundation models are really good at certain things, but when people fine-tune it, these models learn to imitate, but they don't have the reasoning process.

このことは、大規模な言語モデル、いわゆるLFM(Large Foundation Models)に大きな影響を与えます。つまり、大規模な基礎モデルはある特定のことに関しては本当に優れているのですが、人がそれを微調整すると、これらのモデルは模倣を学習するのですが、推論プロセスを持たないのです。

But Orca, the 13 billion parameter model, learns to imitate the reasoning process of large foundation models or the large language models.

しかし、130億パラメータモデルのオルカは、大規模な基礎モデルや大規模な言語モデルの推論プロセスを模倣するように学習する。

And in certain benchmarks, Orca actually comes second only to GPT-4.

そしてあるベンチマークでは、OrcaはGPT-4に次いで2位なのだ。

It's just a 13 billion parameter model.

Orcaは130億のパラメーターを持つモデルだ。

It is not like so expensive, but still, it does a really good job.

それほど高価なモデルではありませんが、それでも本当に良い仕事をしてくれます。

In fact, like GPT-4, which is a very comparable model because this is also a 13 billion parameter model, it is 100 percent better in terms of benchmarks, in terms of complex zero-shot reasoning when you compare it with Vikuna.

実際、GPT-4と同じく130億のパラメータを持つモデルですが、ビクナと比較した場合、ベンチマークや複雑なゼロショット推論において100%優れています。

And that's primarily possible because of the way they are doing all this training process, which they are calling it as an explanation training or explanation tuning.

それは主に、彼らがこのトレーニングプロセス全体をどのように行っているかによるものであり、それは彼らが説明トレーニングまたは説明チューニングと呼んでいる方法です。

And that's exactly possible because of certain reasons.

それが可能なのは、ある理由があるからです。

One very importantly, system instruction.

ひとつは、システム・インストラクションです。

So, system instruction plays a huge role.

つまり、システム・インストラクションが大きな役割を果たしているのです。

And they've also got into the detail of how they construct the dataset.

また、データセットをどのように構築するかということについても詳しく説明しています。

You've got the system message, you've got the user query, and you have got the response from these models like ChatGPT and GPT-4.

システム・メッセージ、ユーザー・クエリー、そしてChatGPTやGPT-4のようなモデルからのレスポンス。

So, like I said, there are two levels.

つまり、2つのレベルがあるということです。

One is from ChatGPT, the second one is from GPT-4.

一つはChatGPTから、もう一つはGPT-4からです。

And these prompts are actually collected from Flan V2 collection.

そして、これらのプロンプトはFlan V2コレクションから収集されたものです。

Now, if you look at the model and the way the model is performing, the model is actually quite good in terms of how this model is doing.

さて、このモデルとモデルのパフォーマンスを見てみると、このモデルがどのように機能しているかという点では、実は非常に優れています。

And one of the reasons that they're saying is why did they use the two-level approach?

その理由のひとつは、なぜ2段階のアプローチを使ったのか、ということです。

One, first to train Orca on the Flan 5 million dataset with ChatGPT augmentation.

1つは、まずFlan 500万データセットにChatGPTを加えてOrcaを訓練する。

Second, one with Flan 1 million with GPT-4 augmentation, where they are sampling it from the dataset.

もうひとつは、データセットからサンプリングしているGPT-4オーグメンテーション付きのFlan 100万データセット。

So, ChatGPT is being used as an intermediate teacher assistant.

つまり、ChatGPTは中間的な教師アシスタントとして使われている。

One is to close the capacity gap to a cost and time.

1つは、コストと時間に対するキャパシティのギャップを埋めることです。

I mean, of course, GPT-4 is much, much cheaper than ChatGPT.

つまり、もちろんGPT-4はChatGPTよりもずっとずっと安い。

The GPT-3.5 turbo is much, much cheaper than GPT-4.

GPT-3.5ターボはGPT-4よりもずっとずっと安い。

And also, you have got the rate limit.

また、料金の制限もあります。

Like, for a particular given amount of time, how many calls you can make.

ある特定の時間の間に、何回の呼び出しを行うことができるか、という点で。

So, to close the gap, the capacity gap, like to help it learn the reasoning than just learning the imitation.

だから、そのギャップを埋めるために、ただ模倣を学ぶだけでなく、推論を学ばせるようにしたんだ。

And also, in terms of cost and time, they've got this two levels of ChatGPT and GPT-4 learning aspect.

また、コストと時間の面でも、ChatGPTとGPT-4の2つの学習レベルがあります。

And if you see the benchmarks, it's honestly quite mind-blowing the way this model has been doing.

ベンチマークを見れば、このモデルがどのように驚異的な成果を上げているかが実際にわかります。

And the way it is scoring against, let's say, in zero-shot selection or in any other setup, you can see this model doing a really, really good job.

ゼロ・ショット・セレクションやその他のセットアップに対して、このモデルが本当に良い仕事をしているのがわかります。

For example, take this particular benchmark.

例えば、このベンチマークを見てください。

You can see this is human average, the blue color line, and the green color one is Orca 13 billion.

これは人間の平均値で、青い色の線、緑色の線はOrca 130億です。

The gray color line is Star GPT, and the yellow color line is GPT-4.

灰色の線はStar GPTで、黄色の線はGPT-4です。

If you see this particular evaluation, you can see Orca really being good, next to ChatGPT in multiple cases, in fact, better than human beings in multiple cases.

この特別な評価を見ると、オルカが本当に優秀で、複数のケースでChatGPTに次いで、実際、複数のケースで人間よりも優れていることがわかります。

You can see that it's doing better than human beings in, like, SAT, in math, probably closer, and in other cases, like, you can see it's not actually a terrible model, and also, it's doing really good in a few other cases.

あなたは見ることができます。これは、人間よりも、例えばSATのような数学の問題で良い結果を出しています。他の場合でも、実際にはひどいモデルではないことがわかりますし、他のいくつかの場合では非常に良い結果を出しています。

For example, you can see if you've got ChatGPT, GPT-4, Vikuna, 13 billion parameter model, it's almost a lot better than Vikuna.

例えば、ChatGPT、GPT-4、Vikunaの130億パラメータ・モデルなら、Vikunaよりもずっと優れています。

Look at Vikuna model here.

ビクナのモデルを見てください。

Geometric shapes code 3.6, Chat Orca is 477% better than Vikuna.

幾何学的形状コード3.6、チャット・オルカはビクナより477%優れています。

Look at something called, let's say, penguins in a table.

表として言われる何かを見てみましょう。例えば、ペンギンです。

It's 46, this is 57.

これは46で、これは57です。

And there is one more, temporal sequences.

そしてもう1つ、テンポラル・シークエンスがあります。

We could have 16, this is 72.

私たちは16を持っているかもしれません、これは72です。

And it's not just one particular benchmark.

ベンチマークは1つだけではありません。

There are a lot of different benchmarks where Orca is really doing good and coming just second to GPT-4.

オルカがGPT-4に次いで2位と健闘しているベンチマークはたくさんあります。

And if you look at GPT-4, GPT-4 is really a very expensive model.

GPT-4を見ると、GPT-4は非常に高価なモデルです。

GPT-4 is not trained in a single day.

GPT-4は1日ではトレーニングできない。

But if you look at Orca, it was just trained on 20 NVIDIA A100s.

しかしオルカを見ると、20台のNVIDIA A100でトレーニングされている。

And I mean, like literally a couple of days back, we learned that Inflection AI ordered 22,000 NVIDIA A100s.

つまり、文字通り数日前に、インフレクションAIが22,000台のNVIDIA A100を発注したことがわかりました。

And in here, you see 20 NVIDIA A100 GPUs with 80 gigs of memory.

この中に、80ギガのメモリを搭載した20個のNVIDIA A100 GPUが見えます。

It took 160 hours to train Orca with ChatGPT augmentation for four epochs.

ChatGPTオーグメンテーションを使ったOrcaのトレーニングには、4エポックで160時間かかりました。

And 40 hours, this is 160 hours, this is 40 hours, to continue the training on Flan 1 million dataset with GPT-4 augmentation for the same number of epochs, which is four epochs.

そして、GPT-4オーグメンテーションでFlan 100万データセットのトレーニングを同じエポック数、4エポックで続けるのに40時間、これが160時間、これが40時間です。

So, four epochs here, four epochs here, 160 hours here, 40 hours here.

つまり、ここで4エポック、ここで4エポック、ここで160時間、ここで40時間。

This is all that was required for the actual training process.

実際のトレーニングに必要な時間はこれだけだ。

And for the dataset collection, it took two weeks to collect data from GPT-3.5 turbo, which is the ChatGPT, and three weeks for GPT-4 from multiple endpoints, because, you know, you have got the rate limitation on all these things.

データセットの収集には、GPT-3.5ターボ(ChatGPT)から2週間、そしてGPT-4から複数のエンドポイントで3週間かかりました。なぜなら、これらのものにはレート制限があるからです。

So, overall, two plus three is equal to five weeks.

つまり、2プラス3は5週間に相当します。

And then you have got about like 200, 200 hours.

そして、200時間、200時間となります。

You can say, let's say one week, so two five week plus one week, almost in seven weeks.

例えば1週間とすると、5週間プラス1週間で、ほぼ7週間になります。

You have got a model that is only next to GPT4.

GPT4の隣にしかないモデルです。

I mean, of course, you can now argue that if there is no GPT4, Orca would not exist because, you know, Orca is trying to imitate GPT4, which I completely understand.

つまり、もちろん、もしGPT4が存在しなければ、Orcaも存在しないと主張することができます。だって、OrcaはGPT4を模倣しようとしているんですよ。それは完全に理解できます。

But again, the problem, the point here is that it didn't require the data as much as GPT4.

しかし、ここでも問題なのは、GPT4ほどデータを必要としなかったということだ。

It didn't require computation as much as GPT4.

GPT4ほど計算を必要としなかった。

And with a good training process, a handcrafted dataset, and a really good teacher model, Orca is doing much, much better than any other fine-tuning model that is available.

そして、良いトレーニングプロセス、手作りのデータセット、本当に良い教師モデルがあれば、オルカは他のどんな微調整モデルよりもずっとずっと良い結果を出している。

And that is quite good if you are in the open-source large language model ecosystem.

オープンソースの大規模言語モデルのエコシステムにいるのであれば、これは非常に良いことだ。

So, this is absolutely brilliant.

これは本当に素晴らしいことです。

Like, overall, we have learned that Orca is really amazing.

全体として、オルカは本当に素晴らしいということがわかりました。

Explanation fine-tuning is amazing.

説明の微調整が素晴らしい。

Progressive learning is amazing.

漸進的な学習も素晴らしい。

And this is like a great initiative and approach from Microsoft.

そして、これはマイクロソフトの素晴らしい取り組みであり、アプローチのようなものです。

The model weights are not being released.

モデルの重みは公表されていない。

They said they are still discussing with the legal department on board how to go about releasing the model itself.

彼らは法務部門と話し合いながら、モデルの公開方法についてまだ検討中だと言っていました。

So, that is still there.

だから、それはまだある。

But the direction in which this is going is this paper has given an idea to a lot of people.

しかし、この論文の方向性は、多くの人々にアイデアを与えている。

And you can see open-source models already popping up.

そして、オープンソースのモデルがすでに登場しているのを見ることができる。

Like, we have got Orca Mini 3B.

例えば、オルカ・ミニ3B。

So, there is a open Orca, which is like with Apache 2.0 license.

アパッチ2.0ライセンスのオープン・オルカがある。

And people have started using the philosophy and fundamentals that have been shared on the Orca paper.

そして、人々はOrcaの論文で共有されている哲学と基本原則を使い始めました。

And people have started releasing the model itself.

そして、人々はモデル自体を公開し始めました。

I've not personally used this model yet to understand how good this model is.

私はまだ個人的にこのモデルを使ったことがないので、このモデルがどれほど優れているかはわからない。

But these kinds of models have started popping up.

しかし、この種のモデルが出始めている。

Like, when you go to Hugging Face model home and start looking for Orca, you can see Orca Mini 13 billion, Orca Mini 3 billion, and the Blokes GCML version of the same model.

例えば、Hugging Face model homeでOrcaを探し始めると、Orca Mini 130億、Orca Mini 30億、そして同じモデルのBlokes GCMLバージョンを見ることができます。

You've got datasets, open Orca wizard element.

データセットもありますし、オルカのウィザード・エレメントも公開されています。

So, you've got open-source datasets that can help you fine-tune Orca-like training.

つまり、Orcaのようなトレーニングを微調整するのに役立つオープンソースのデータセットがあります。

And then you've got models already, which 13 billion and 3 billion parameter models.

それから、130億と30億のパラメータ・モデルもあります。

In fact, including the GGML models that can help you use the models that are fine-tuned on this open Orca dataset.

実際、GGMLモデルを含め、このオープンなオルカのデータセットで微調整されたモデルを使うことができます。

So, this seems like an entirely new direction in the fine-tuning world.

つまり、これはファインチューニングの世界におけるまったく新しい方向性のように思える。

And Microsoft seems to have seeded this new growth with this new model.

そしてマイクロソフトは、この新しいモデルでこの新しい成長の種をまいたようだ。

So, kudos to the authors.

だから、作者たちに賛辞を送りたい。

And it has really good capabilities.

そして、実に優れた能力を持っている。

Like, if you compare it with GPT-4, if you compare it with other models that are available, Orca is really, really good.

例えば、GPT-4と比較してみてください。また、他の利用可能なモデルと比較しても、Orcaは本当にとても優れています。

And I'm quite surprised.

私はとても驚いている。

This is a great approach.

これは素晴らしいアプローチだ。

It's almost like how you train a student.

まるで生徒を訓練する方法に似ている。

And now the fact that you can fine-tune a large language model, or sorry, you can find you in a large language model that can imitate a large language model or the base model with not just imitation, but also the reasoning part is quite amazing.

大規模な言語モデルを微調整できる、あるいは、大規模な言語モデルやベースモデルを模倣できるような、模倣だけでなく推論もできるような大規模な言語モデルを見つけることができるという事実は、非常に素晴らしいことです。

And that's why probably Orca has broken the internet.

だからこそ、オルカはインターネットを席巻したのでしょう。

Like, everybody has been talking about it.

みんながそれについて話していました。

And I've been looking at this model for quite a while.

そして、僕はこのモデルをずっと見てきた。

Unfortunately, now I got time to make a video about this thing.

残念なことに、今、このことについてビデオを作る時間があるんだ。

Please let me know in the comment section what do you feel about Orca?

コメント欄でオルカについてどう思うか教えてください。

Did you try Orca, the open-source model like the Orca Mini?

オルカ・ミニのようなオープンソース・モデルのオルカを試しましたか?

Or if you have got any other question that you would like me to answer, see you in another video.

あるいは、私に答えてほしい他の質問があれば、また別のビデオでお会いしましょう。

Happy prompting.

それではまた。

この記事が気に入ったらサポートをしてみませんか?