見出し画像

【マット・ウルフのAIニュース:GoogleとOpenAIの激突】英語解説を日本語で読む【2024年4月13日|@Matt Wolfe】

今週は、GoogleがラスベガスでGoogle Cloud Nextイベントを開催し、AIに関連する多くの新しい発表がありました。特に注目すべきは、新しい大規模言語モデル「Gemini 1.5」が180以上の国で利用可能になったことです。このモデルは、1,000,000トークンのコンテキストウィンドウを持ち、非常に高い処理能力を誇ります。また、OpenAIも「GPT-4 Turbo」を発表しましたが、Googleの発表に比べて影が薄くなっています。さらに、Stability AIからは新しい大規模言語モデルがリリースされ、オープンソースとしての地位を固めつつあります。
公開日:2024年4月13日
※動画を再生してから読むのがオススメです。


Just like spring of last year, AI news is really ramping up.

昨年の春と同様に、AIのニュースは本当に盛り上がっています。

There has been a ton of announcements this week.

今週はたくさんの発表がありました。

I'm really having to Figure out what stuff to filter down that I think you'll find important because at the end of the day, nobody really cares that like Walmart got a new AI chat bot or something.

最終的には、ウォルマートが新しいAIチャットボットを導入したとか、誰も本当に興味を持っていないと思われるものを、あなたが重要だと思うものを絞り込む必要があります。

I'm going to break down the stuff that I found important, interesting, or just downright fun that I think you're going to enjoy.

私は、あなたが楽しんでくれると思う重要な、興味深い、または単に楽しい情報を紹介していきます。

Let's get right into it.

さあ、始めましょう。

This week, Google had their Google cloud next event out in Las Vegas, where they made a ton of new announcements, plenty of them related to AI or the announcements were more Relevant to like enterprise and developers that are building with AI models.

今週、GoogleはラスベガスでGoogle Cloud Nextイベントを開催し、多くの新しい発表を行いました。そのうちの多くはAIに関連していたり、企業やAIモデルを構築している開発者にとってより関連性のある発表でした。

There were some pretty interesting and fun announcements that I think you'll enjoy as well.

あなたも楽しんでくれると思う、かなり興味深く楽しい発表がいくつかありました。

I'll be kind of sprinkling them throughout this video.

このビデオの中で、それらをちりばめていきます。

The real story of this week is all of the news about new, Large Language Models becoming available or soon coming available.

今週の本当の話題は、新しい大規模言語モデルに関するニュースです。それらはすでに利用可能であるか、近日利用可能になる予定です。

During Google's event this week, they announced that Gemini 1.5 is now available in 180 plus countries with native audio understanding, system instructions, Jason mode, and More.

今週のGoogleのイベント中に、彼らはGemini 1.5が180以上の国で利用可能であり、ネイティブオーディオ理解、システム命令、ジェイソンモードなどを備えていることを発表しました。

We have talked about Gemini 1.5 in the past, but most people haven't had access to it until now.

Gemini 1.5について以前話し合いましたが、ほとんどの人が今までそれにアクセスできていませんでした。

Of course, the biggest factor about Gemini that people are most impressed by is the fact that it's got a 1 million token context window.

もちろん、Geminiについて人々が最も感銘を受ける最大の要因は、100万トークンのコンテキストウィンドウを持っているという事実です。

One token just to refresh your memory is about 75% of a word.

一つのトークンは、単語の約75%に相当します。

1 million tokens means that between the input that you can give the model and the output it'll give back, you have a combined 750,000 words to work with.

100万のトークンということは、モデルに提供できる入力と、返される出力の間に、合計75万の単語が使えるということです。

Gemini 1.5 is now available via the API.

Gemini 1.5は、APIを介して利用可能です。

If you're a developer and you want to build with this model, it's now available for you.

もしあなたが開発者で、このモデルを使って開発したいと思っているなら、今それが利用可能です。

My buddy Bill of all to do here has probably one of the best examples that I've seen of somebody actually using Gemini 1.5.

ここでやることがたくさんある中で、私の友人ビルは、実際にGemini 1.5を使っている人の中で、最も良い例の一つを持っているかもしれません。

He shows an example here where he says, I just dropped in an audio file of an hour long video interview and now it's helping me package it for YouTube.

彼はここで、1時間のビデオインタビューの音声ファイルを追加しただけで、今それがYouTube用にパッケージ化するのを手伝ってくれています、と言っている例を示しています。

We can see in his screenshots here, he actually uploaded the MP3 file, told it to analyze this audio recording for his interview.

彼のスクリーンショットを見ると、実際にMP3ファイルをアップロードし、そのインタビューのためにこの音声録音を分析するように指示したことがわかります。

He then asked it to give the key takeaways and come up with 10 high click through rate YouTube titles based on the principles of Daryl Eves and top YouTube creators, keep Each title to 50 characters or less.

それから、要点を把握し、Daryl EvesやトップのYouTubeクリエイターの原則に基づいて、クリック率の高いYouTubeタイトルを10個考えるように頼みました。各タイトルを50文字以下に保つこと。

From this audio file, it then gave them the key takeaways.

この音声ファイルから、それは要点を把握しました。

He also offered it two thumbnails and said, which of these thumbnails is better suited for this YouTube video.

彼はまた、2つのサムネイルを提供し、このYouTubeビデオに最適なサムネイルはどちらかと尋ねました。

It analyzed the two thumbnails and gave feedback on which thumbnail to use.

それは2つのサムネイルを分析し、どちらのサムネイルを使用するかフィードバックを提供しました。

And then once he picked the thumbnail, he had it suggest the 10 titles and it gave some pretty decent titles.

そして、サムネイルを選んだ後、10のタイトルを提案して、かなりまともなタイトルを提供しました。

That's all pretty cool.

それはすべてかなりクールです。

We can kind of do that with Claude right now.

私たちは今、Claudeと一緒にそれをやることができます。

The difference is he uploaded an audio file and it did this from the audio file with Claude.

違いは、彼がオーディオファイルをアップロードし、Claudeと一緒にそれを行ったことです。

You would actually have to get the text transcript upload it and you would pretty much get the same end result most likely where I thought this was the most impressive was When he asked it to generate timestamps and you can see it actually recommended these timestamps with an explanation of each of the timestamps.

実際、テキストの転写を取得してアップロードする必要があり、おそらく同じ結果が得られるでしょう。私が最も感銘を受けたのは、それにタイムスタンプを生成するように頼んだときで、実際にそれらのタイムスタンプを推奨し、各タイムスタンプの説明を示していることがわかります。

And then there is a shorter version of the timestamps that it also generated.

そして、それが生成したタイムスタンプの短いバージョンもあります。

This to me is really impressive because I've tried to use Claude and I've tried to use chat JPT to generate timestamps for these videos that you're watching right now while It gets the various sections right.

これは私にとって本当に印象的です。私はClaudeを使用しようとしてきましたし、このビデオを見ている間にこれらのビデオのタイムスタンプを生成するためにチャットJPTを使用しようとしてきましたが、それはさまざまなセクションを正しく取得します。

And it knows what I'm talking about in the video.

そして、ビデオで何について話しているかを知っています。

It just completely gets all the timings wrong and struggles to give an accurate timestamp to the actual chapter.

それは単にすべてのタイミングを誤って取得し、正確なタイムスタンプを実際の章に提供するのに苦労しています。

This example that Bill have all shared is really, really useful in my opinion, but as OpenAI does every single time Google makes an announcement, they come out with their Own announcement in most of the past scenarios.

このビルが共有した例は、私の意見では本当に本当に役立つと思いますが、Googleが発表するたびにOpenAIが自分たちの発表を行ってきた過去のシナリオのほとんどで、それを上回るアナウンスメントをしています。

OpenAI is announcement really overshadowed Google's announcement, but this time we just got a vague announcement of a majorly improved GPT for turbo model is now available In the API and rolling out inside of ChatGPT.

OpenAIの発表は本当にGoogleの発表を圧倒しましたが、今回は、大幅に改良されたGPT for turboモデルがAPI内で利用可能になり、ChatGPT内で展開されているという曖昧な発表を受けました。

You don't have a ton more details than that, but if we take a look here at the OpenAI documentation, we can see we've got the newest model here, GPT-4 Turbo, and this is The April 9th edition of it.

それ以上の詳細はありませんが、ここでOpenAIのドキュメントを見てみると、最新のモデルであるGPTフォー・ターボがここにあり、これはその4月9日版です。

Vision requests can now use Jason mode and function calling.

ビジョンリクエストは、今やジェイソンモードと関数呼び出しを使用できます。

It's got the same 128,000 tokens we've been working with and it's updated through December, 2023, which is also what the previous model was updated through.

私たちがこれまでに取り組んできた同じ128,000トークンを持ち、2023年12月までに更新されています。これは以前のモデルも更新された時期です。

Supposedly this new model is a lot better at coding and also a lot better at math.

この新しいモデルは、コーディングにおいてははるかに優れており、数学においてもはるかに優れているとされています。

And for a while, Claude 3 Opus was the cream of the crop, the best model out there, but it seems now that according to the chat bot arena here, the newest version of GPT-4 Turbo, the April 9th edition now took over Claude 3 Opus again as the strongest, most powerful model as voted on by people that rank this system here.

そしてしばらくの間、Claude 3Opusが最高のモデルであり、最高のモデルでしたが、ここでのチャットボットアリーナによると、最新バージョンのGPTフォー・ターボ、4月9日版が再びClaude 3Opusを上回り、このシステムを評価する人々によって最も強力で最もパワフルなモデルとして選ばれました。

They do show Gemini pro down here as being below Claude and GPT-4 Turbo, but I don't believe I'm not a hundred percent sure, but I don't believe that this is taking into Account the newest 1.5 model.

ここでは、GeminiプロがClaudeやGPTフォー・ターボよりも下位に表示されていますが、私は100%確信していませんが、これが最新の1.5モデルを考慮に入れていないとは思いません。

That's not the only news we've gotten in the world of new Large Language Models.

新しい大規模言語モデルの世界で得た唯一のニュースではありません。

Open source world is continuing to heat up as well.

オープンソースの世界も熱を帯びています。

In fact, Stability AI released stable LLM two, which is a 12 billion parameter model.

実際、Stability AIは12億パラメータのモデルである安定した大規模言語モデル2をリリースしました。

And according to most benchmarks, it just underperforms a mixture of eight X seven B model.

そして、ほとんどのベンチマークによると、それは8つのX7Bモデルの混合に劣るだけです。

And although they kind of make it out to be like an open source product, it does say it can be used non-commercially as well as commercially.

そして、彼らはそれをオープンソース製品のように見せかけていますが、商用利用だけでなく非商用利用も可能だと言っています。

But if you have a Stability AI membership, so if you do want to use it commercially, you gotta pay, which doesn't feel very open source to me.

しかし、もしStability AIのメンバーシップを持っている場合、商用利用をしたい場合は支払わなければならず、それは私にとってあまりオープンソースとは感じられません。

Well, Mr said hold my beer and watch this releasing a new Large Language Model using the mixture of experts architecture, but they released it in an interesting way.

さて、Mrはビールを持って待っていて、新しいLarge Language Modelを専門家のミックス構造を使用してリリースしましたが、それを興味深い方法でリリースしました。

They released it as a torrent link directly on X with almost no context in order to actually download the weights for this model.

実際、このモデルの重みをダウンロードするために、ほとんど文脈がないままXに直接トレントリンクとしてリリースしました。

You would need a torrent downloader, something like views.

トレントダウンローダーのようなものが必要です。

And then if you paste this URL into your address bar, it will start the download over inside of your torrent downloader.

そして、このURLをアドレスバーに貼り付けると、トレントダウンローダー内でダウンロードが開始されます。

However, be aware it is a 281 gigabyte file.

ただし、281ギガバイトのファイルであることに注意してください。

I don't have a ton of information about this new model from Mistral.

このMistralの新しいモデルについての情報はあまり持っていません。

However, in the rundown newsletter, they gave us a little bit more details this week.

ただし、ランダウンニュースレターでは、今週少し詳細を教えてくれました。

According to Rowan over at the rundown, the new model is mixed roll eight X 22 B. So the previous model was eight X seven B. So it was eight separate models that the router Called upon to get the prompt answered.

ランダウンのRowanによると、新しいモデルはミックスロール8×22Bです。つまり、以前のモデルは8×7Bでした。したがって、ルーターは迅速な回答を得るために8つの別々のモデルを呼び出していました。

And each of the models that it was calling upon was a 7 billion parameter model each.

そして、それが呼び出していた各モデルは、それぞれ70億パラメータのモデルでした。

This new one has eight experts, but each expert instead of being a 7 billion parameter model is now a 22 billion parameter model.

この新しいモデルには8人の専門家がいますが、各専門家は70億パラメータのモデルではなく、今や220億パラメータのモデルです。

It was just trained on a lot more data.

それは単により多くのデータでトレーニングされました。

According to this breakdown, that new model features a 65,000 token context window and a combined total of 176 billion parameters.

この分解によると、その新しいモデルには65,000トークンのコンテキストウィンドウと合計1760億のパラメータが備わっています。

I haven't used this model yet.

私はまだこのモデルを使ったことがありません。

Myself channels like Matthew Berman's channel does a really, really good job of testing these Large Language Models.

私自身、Matthew Bermanのチャンネルのようなチャンネルは、これらの大規模言語モデルをテストするのに本当に非常に良い仕事をしています。

I have a feeling that this one is going to be the strongest open source model once some more of the tests come out around it, but we have even more Large Language Model News, even more coming from Google, Google released Gemini 1.5 their closed source model, but they also rolled out new versions of Gemma, which is Google's open source Large Language Models.

私は、このモデルがテストがさらに行われると、おそらく最も強力なオープンソースモデルになるだろうと感じていますが、Googleからもさらに多くの大規模言語モデルのニュースがあり、GoogleはクローズドソースモデルであるGemini 1.5をリリースしましたが、Googleのオープンソース大規模言語モデルであるGemmaの新しいバージョンもリリースされました。

These two new models are code Gemma, a model fine tuned for using with coding and recurrent Gemma.

これら2つの新しいモデルは、コーディングに適したモデルであるコードGemmaと、より効率的な研究目的のために設計されたリカレントGemmaです。

Which is designed for more efficient research purposes.

より効率的な研究目的のために設計されています。

All of the articles and resources I make in this video, I will share in the description below.

このビデオで作成したすべての記事やリソースは、以下の説明欄で共有します。

If you do want to dive deeper into how these Gemma models compare on the benchmarks against other models, check out the links below.

これらのGemmaモデルが他のモデルとのベンチマークでどのように比較されるかを詳しく知りたい場合は、以下のリンクをチェックしてください。

But overall Gemma appears to be pretty on par with the other open source coding specific Large Language Models.

しかし、全体的にGemmaは他のオープンソースのコーディング専用大規模言語モデルとほぼ同等であるようです。

And in the final bit of Large Language Model news, we also learned this week that Meta is really close to releasing LLaMA three.

そして、大規模言語モデルの最新情報では、今週MetaがLLaMA threeをリリースする準備が整っていることもわかりました。

LLaMA three is expected to be roughly as good as GPT-4, but open source and made publicly available for anybody to use and fine tune and build on top of.

LLaMA threeは、GPT-4とほぼ同等の性能が期待されていますが、誰でも使用して微調整や構築を行うことができるオープンソースで一般に利用可能になります。

They did say with LLaMA three, they were going to release several different versions of the model.

LLaMA threeでは、複数の異なるバージョンのモデルをリリースする予定だと言っていました。

It kind of sounds like what Claude did with Haiku, Sonnet and Opus.

それは、ClaudeがHaiku、Sonnet、Opusで行ったことに似ています。

There'll be different models, sort of more fine tuned for different reasons.

異なるモデルがあり、さまざまな理由に合わせて微調整されているようです。

That's my takeaway from this as well.

これが私の考え方でもあります。

According to tech crunch, they announced that this is coming out sometime within the next month, hopefully sooner.

テッククランチによると、彼らはこれが来月の内に出ると発表しました。できればもっと早く出るといいですね。

Really looking forward to that because I truly am rooting for both the open source and the closed source side to keep on pushing the boundaries.

本当に楽しみです。オープンソースとクローズドソースの両方が限界を押し広げ続けることを心から応援しています。

And each side is just making things better and better for us, the consumers.

そして、両方が私たち消費者のためにますます良いものを作り出しています。

I know a lot of people that watch this channel have small to medium businesses and they're looking to use AI to improve their marketing in their business.

このチャンネルを見ている多くの人が、中小企業を持っており、AIを使ってマーケティングを改善しようとしています。

That's why for this video, I partnered with HubSpot so that I can get your eyeballs on their completely free report, all about how AI is completely redefining startup Go-to-market strategy.

だから、このビデオでは、HubSpotと提携して、AIがスタートアップのGo-to-market戦略を完全に再定義している無料レポートを紹介します。

I'm going to put the link in the description to where you can download this report.

このレポートをダウンロードできるリンクを説明欄に貼り付けます。

This is a must read for any small to medium business that plans on using AI as part of their startup strategy.

これは、AIをスタートアップ戦略の一部として使う中小企業にとって必読です。

You're going to learn about the various strategies that startups are using to bring their products to market.

スタートアップが製品を市場に出すために使用しているさまざまな戦略について学ぶことができます。

You'll also learn about the most popular AI tools and best practices for scaling.

また、最も人気のあるAIツールやスケーリングのためのベストプラクティスについても学ぶことができます。

And if you know me, I love me some AI tools.

And if you know me, I love me some AI tools.

The free report also covers how AI is driving startup scalability and drawing the attention of investors, as well as the future of AI within go-to-market strategies.

無料レポートでは、AIがスタートアップの拡張性を推進し、投資家の注目を集めている方法、さらにはgo-to-market戦略内でのAIの未来についてもカバーしています。

Of course, my favorite section as a guy who made a business around curating amazing tools is the section all about the tools and best practices that HubSpot recommends for Your go-to-market strategy.

もちろん、素晴らしいツールをキュレーションしてビジネスを展開している私としては、HubSpotがお勧めするgo-to-market戦略のツールやベストプラクティスに関するセクションがお気に入りです。

Again, this free report was provided by HubSpot who is sponsoring this video.

この無料レポートは、このビデオのスポンサーであるHubSpotが提供しています。

Thank you so much again to HubSpot for sponsoring this.

再度、このビデオのスポンサーであるHubSpotに感謝します。

And once again, the link should be right at the top of the description to make it easy for you to find.

そして、リンクは説明欄の一番上にあるはずなので、簡単に見つけることができます。

If the main story of the week was all of the Large Language Models that have come out this week, the sort of B story of the week, the side story is it seems that all of These companies that are building these Large Language Models are all trying to release the reliance on NVIDIA GPUs.

もし今週の主要な話題が今週登場した大規模言語モデル全般であるならば、そのBストーリーとして、これらの大規模言語モデルを構築しているすべての企業がNVIDIAのGPUへの依存を解消しようとしているようです。

At the moment, NVIDIA owns the market on GPUs being trained for AI, but Google, Intel, and even Meta are all trying to bring that chip generation in house and stop giving so Much money to NVIDIA.

現時点では、NVIDIAがAI向けにトレーニングされたGPU市場を独占していますが、Google、Intel、そしてMetaも、そのチップの世代を自社内に持ち込み、NVIDIAに多額の資金を提供するのを止めようとしています。

At the Google cloud next event this week, Google introduced their Axion processors.

今週のGoogle Cloud Nextイベントで、GoogleはAxionプロセッサを発表しました。

Intel introduced their Gaudi 3 AI chip, which is apparently a 40% better power efficiency than NVIDIA's H 100 GPUs and Meta announced a chip as well.

Intelは、NVIDIAのH 100 GPUよりも40%優れた電力効率を持つとされるGaudi 3 AIチップを発表し、Metaもチップを発表しました。

This new chip is called an MTIA or Meta training and inference accelerator.

この新しいチップはMTIAまたはメタトレーニングおよび推論アクセラレータと呼ばれています。

This is the second generation of the chip.

これはそのチップの第2世代です。

And according to Meta's article here, it is three times improved performance over the first gen chip.

そして、Metaの記事によると、第1世代のチップよりも性能が3倍向上しています。

Again, I will link to all these articles that talk about all of these chips that were announced this week because a lot of this sort of technical stuff here is a little bit Over my head.

今週発表されたこれらのチップについて話しているすべての記事にリンクを貼りますが、こういった技術的な内容は少し難しいので、私には理解できません。

I don't personally understand how these chips work, but if you're somebody that wants to deep dive and truly understand what makes these chips better than what's available, Feel free to read the articles in the description.

個人的にはこれらのチップがどのように動作するか理解していませんが、もし利用可能なものよりもこれらのチップがどうやって優れているのかを本当に理解したい方がいれば、説明欄の記事を読んでください。

However, back at NVIDIA GTC earlier this year, NVIDIA announced their next iteration, the NVIDIA Blackwell, which is supposedly already four times more powerful than the H 100s.

しかし、今年の初めにNVIDIA GTCで、NVIDIAは次の世代であるNVIDIA Blackwellを発表しました。これは、既にH 100sよりも4倍強力だと言われています。

Again, the chip that is sort of the industry standard for training AI models right now.

現在、AIモデルのトレーニングの業界標準となっているチップです。

While all these companies are making their own chips to release reliance on NVIDIA, NVIDIA is still way out ahead with their latest generation of chips, making it extremely Hard for these other companies to catch up with the compute power that NVIDIA is producing right now.

これらの企業がNVIDIAへの依存を解消するために独自のチップを製造している一方で、NVIDIAは最新世代のチップで圧倒的に先行しており、現在生産している計算能力に他の企業が追いつくのは非常に困難です。

Also during the Google next event, Google revealed Imogen two.

Googleの次のイベント中に、GoogleはImogen twoを発表しました。

This is sort of like Google's answer to OpenAI's DALL·E or Adobe's Firefly.

これは、GoogleのOpenAIのDALL·EやAdobeのFireflyに対する回答のようなものです。

It's their own internal AI image generation model.

それは彼ら独自の内部AI画像生成モデルです。

However, what makes Imogen two different than tools like DALL·E and Firefly is that it can actually generate animations.

ただし、ImogenがDALL·EやFireflyのようなツールと異なる点は、実際にアニメーションを生成できることです。

It can generate GIF files or GIF files, however you like to say it.

GIFファイルを生成することができます。どちらでも構いません。

Here's some examples of the types of animations that it will make similar to what we get out of like Pika or runway, but these are very short to three second clips and they Seem to be designed to just make like short loops or like little GIF GIF files.

これは、Pikaやrunwayのようなものと同様のアニメーションの例ですが、これらは非常に短い3秒のクリップで、短いループや小さなGIFファイルのように設計されているようです。

They described it as text to live image.

それをテキストからライブ画像と表現しています。

If you use an iPhone, you've got that live photo feature where when you take a photo, it sort of saves like two seconds of video as well so that you can find that right spot In the photo.

iPhoneを使用している場合、写真を撮るときに、写真の正しい場所を見つけるために、2秒間のビデオも保存されるライブフォト機能があります。

It seemingly is designed to generate that kind of little teeny short clip, but that wasn't the only video announcement that they made at this event.

それは、その種の小さな短いクリップを生成するように設計されているようですが、それがこのイベントで行われた唯一のビデオ発表ではありませんでした。

They also revealed Google vids.

彼らはまた、Googleビデオを公開しました。

This is something that we don't have a lot of information about.

これについてはあまり情報がありません。

They put out a little like teaser video.

彼らは少しティザー動画を公開しました。

It's a minute and 27 seconds here and it appears to make videos that look almost like PowerPoint style videos using AI says, let's choose a style.

Gemini for Google workspaceには、1分27秒のビデオを作成するAIがあり、PowerPointスタイルのビデオを作成するようです。

And then, you can see the styles of the videos almost look like something you'd get out of Canva or PowerPoint or keynote or something like that.

そして、ビデオのスタイルを選択することができ、ほとんどCanvaやPowerPoint、keynoteなどで得られるもののように見えます。

You pick your style, you can give it a script or let AI generate a script, and then it creates like a slide presentation style video, very reminiscent of like a PowerPoint Or Google slides video.

スタイルを選択し、スクリプトを与えるかAIにスクリプトを生成させることができ、その後、スライドプレゼンテーションスタイルのビデオが作成されます。これは、PowerPointやGoogleスライドのビデオのようです。

Again, not available yet, but it does say coming soon to Gemini for Google workspace.

まだ利用可能ではありませんが、Google workspaceのGeminiには近日公開予定とのことです。

But here's some research that came out this week about a new video generator.

しかし、今週発表された新しいビデオジェネレーターに関する調査があります。

It's called magic time and it makes time lapse videos.

それはマジックタイムと呼ばれ、タイムラプスビデオを作成します。

This one is very specific to time lapses.

これはタイムラプスに非常に特化しています。

You can see some differences here where a prompt given to a normal animated video like bean sprouts grow and mature from seeds generates something like this where this magic Time style generates this like time lapse version or construction in a Minecraft virtual environment.

通常のアニメーションビデオに与えられるプロンプトとは異なる点がいくつかあり、例えば、もやしは種から成長し成熟するというプロンプトが与えられると、このマジックタイムスタイルは、マインクラフト仮想環境内での建設のようなタイムラプスバージョンを生成します。

This one shows almost like a drone rotating view around it where magic time is making this time lapse, and you can see a couple of other examples here.

これは、ドローンが周囲を回転するようなビューを示しており、マジックタイムがこのタイムラプスを作成しているのがわかります。ここには他のいくつかの例もあります。

Again, it makes a very specific type of video, which is amazing for people like me who love to make videos cause I can use stuff like this for B roll.

もう一度言いますが、私のようにビデオを作るのが好きな人にとっては素晴らしい特定のタイプのビデオを作成できるので、これをBロールなどに使用できます。

Their GitHub page, which will be linked below, has a lot of examples of the type of animations it can do.

彼らのGitHubページ(以下にリンクされます)には、それができるアニメーションの種類の多くの例があります。

But the coolest part is the code is available on GitHub.

でも一番すごいのは、そのコードがGitHubで利用可能であることです。

If you know what you're doing, you could run it locally or on a cloud, but they also have a Hugging Face demo that you can play around with right now.

何をしているかわかるなら、ローカルで実行したり、クラウド上で実行したりすることができますが、今すぐ遊ぶことができるHugging Faceのデモもあります。

But for now, let's take a peek at one of their like cached models here.

しかし、今は、ここにある彼らのキャッシュされたモデルの一つを見てみましょう。

I'll click on this, and this was a prompt of cherry blossoms transitioning from tightly closed buds, et cetera.

これをクリックすると、これはしっかりと閉じたつぼみから桜の花が移り変わるプロンプトでした。

And if I play it, that's what that looks like.

再生すると、それがどのように見えるかがわかります。

And since we're talking about video, you remember last week I talked about how Neil Mohan, the CEO of YouTube said that if OpenAI trained on their videos, that would be a Clear violation of their policies, their terms.

そして、ビデオについて話していますが、先週、YouTubeのCEOであるNeil Mohanが、OpenAIが彼らのビデオでトレーニングを行った場合、それは彼らのポリシー、利用規約の明確な違反になると述べたことを覚えていますか。

Well, according to a report from the New York Times, OpenAI transcribed over a million hours of YouTube videos to actually train GPT-4.

しかし、ニューヨークタイムズの報告によると、OpenAIは実際にGPT4をトレーニングするためにYouTubeの動画を100万時間以上転記しました。

There hasn't been a ton of confirmation.

確認はほとんどありませんでした。

If you read the article, it's a lot of hearsay, and Google claims to have looked at the robots.txt file on YouTube and saw that OpenAI probably was scraping data, but there Was no real actual confirmation.

記事を読むと、それはほとんど噂話であり、GoogleはYouTubeのrobots.txtファイルを調べ、OpenAIがデータをスクレイピングしていた可能性があることを確認しましたが、実際の確認はありませんでした。

But pretty soon we could have a law that forces the AI companies to reveal what the models were actually trained on.

AI企業に実際にトレーニングされたモデルを公開するよう義務付ける法律がすぐにでもできるかもしれません。

There was a new bill introduced to the Congress on Tuesday that intends to force artificial intelligence companies to reveal the copyrighted material they use to make their Generative AI models.

火曜日に議会に提出された新しい法案は、人工知能企業に、彼らの生成AIモデルを作成するために使用する著作権物資料を公開することを義務付けることを意図しています。

The bill would actually force companies to file a report about what copyrighted material they used at least 30 days before actually releasing that AI model.

この法案は、実際にAIモデルをリリースする少なくとも30日前に、企業が使用した著作権物資料について報告書を提出することを義務付けることになります。

No clue whether or not something like this will get passed, but seeing as how some of the biggest companies in the world, namely Google, Microsoft, and Metta, may not want To reveal what data they actually trained on and being as powerful as they are, I would imagine there could be some lobbying going on behind the scenes to keep bills like This from getting passed, but I'm just speculating here.

このようなものが通過するかどうかはわかりませんが、世界最大の企業であるGoogle、Microsoft、Mettaなどが実際にトレーニングしたデータを公開したくない可能性があることを考えると、彼らの力を考えると、このような法案が通過しないようにするために裏でロビー活動が行われているかもしれませんが、ここでは推測に過ぎません。

Adobe, on the other hand, is taking a completely different approach.

一方、Adobeはまったく異なるアプローチを取っています。

They're actually willing to buy data off of creators to train on for their Large Language Models.

彼らは、自分たちの大規模言語モデルのトレーニングに使用するために、クリエイターからデータを購入することを実際に考えています。

Adobe wants to create their own version of Sora, and in order to do that, they need a large amount of video training data.

Adobeは、Soraの自社版を作成したいと考えており、そのためには大量のビデオトレーニングデータが必要です。

Well, in order to get that video training data, Adobe is offering to pay between $3 per minute and $7 per minute to purchase video content off of creators.

そのビデオトレーニングデータを入手するために、Adobeは、クリエイターからビデオコンテンツを購入する際に、1分あたり3ドルから7ドルを支払うことを提供しています。

Adobe is looking for everyday things like people riding a bike or walking down the street or the types of things you'd see in normal stock video.

Adobeは、自転車に乗っている人や通りを歩いている人など、通常のストックビデオで見るような日常のものを探しています。

If you like to go out into the world and film stock video footage, you might be able to make some extra money by submitting it to Google and letting them pay you a few bucks Per minute of video.

もし外に出て世界中でストックビデオ映像を撮影するのが好きなら、それをGoogleに提出して数ドルを支払ってもらうことで、追加収入を得ることができるかもしれません。

I think if a bill like we just looked at does end up getting passed, this is probably the way of the future for how these Large Language Models will get trained.

もし私たちがちょうど見たような法案が可決されると、これはおそらくこれらの大規模言語モデルが訓練される未来の方法だと思います。

Metta also announced this week that they're going to take stronger measures to identify AI-generated photos.

メッタは今週、AIによって生成された写真を識別するためのより強力な手段を講じると発表しました。

Basically, when people upload photos to places like Facebook, Instagram, or threads, Metta is going to use their own AI detector to look for things that are commonly present In AI photos and try to identify when the photo or image was made with AI.

基本的に、人々がFacebookやInstagram、スレッドなどに写真をアップロードするとき、メッタは一般的にAI写真に存在するものを探し、その写真や画像がAIで作成されたものかどうかを特定するために独自のAI検出器を使用する予定です。

Previously, Metta was able to label photos that were made with their own emu AI image generator, as well as identify AI photos that the uploader specifically marked as AI.

以前、メッタは自社のemu AI画像生成器で作成された写真にラベルを付けることができましたし、アップローダーが明示的にAIとしてマークしたAI写真も特定することができました。

But now it appears that they're actually going to use AI to try to spot AI.

しかし、今では実際にAIを使用してAIを見つけようとしているようです。

Another big story of the week was Udio.

今週のもう1つの大きなニュースはUdioです。

Udio is a really, really good AI music generator.

Udioは本当に素晴らしいAI音楽生成器です。

You give it a prompt, you can suggest styles, you can decide whether you want to write your own lyrics, have AI generate lyrics, omit lyrics altogether.

プロンプトを与え、スタイルを提案し、自分で歌詞を書くか、AIに歌詞を生成させるか、歌詞を省略するかを決めることができます。

And the outputs are really good.

そして、その出力は本当に素晴らしいです。

Like a lot of songs I've heard, I would not have known that they were AI unless somebody told me that they were AI.

私が聞いた多くの曲は、AIであることを誰かが教えてくれなければ、AIであることに気づかなかったでしょう。

They are that good.

それらは本当に良いです。

I'm not going to go too deep into Udio in this video because the video that I released the day before this video went live was all about AI music generators with a very Heavy focus on Udio.

このビデオではUdioについてあまり詳しくは触れませんが、このビデオが公開される前の日に公開されたビデオは、非常にUdioに焦点を当てたAI音楽生成機についてでした。

If you really want to learn about Udio, check out this video here.

本当にUdioについて学びたい場合は、こちらのビデオをチェックしてください。

But one really interesting thing about Udio before I move on is that it's actually being supported by other musicians, musicians like Will.i.M and Common.

しかし、次に進む前に、Udioについて本当に興味深いことの1つは、Will.i.MやCommonなどの他のミュージシャンによってサポートされているということです。

And it has backing from people like the co-founder and CTO of Instagram and the head of Gemini at Google, and A16 is backing it.

そして、Instagramの共同創設者兼CTOやGoogleのGeminiの責任者、そしてA16がそれを支援しているということです。

Lots of money getting pumped into this, and musicians actually seem to be supporting this platform.

多額の資金がこのプラットフォームに投入されており、実際にミュージシャンたちがこのプラットフォームを支持しているようです。

Something really interesting to watch here.

ここで本当に興味深いことが起こっています。

And since we're on the topic of AI music, Spotify is rolling out a new feature where you can have it generate a playlist for you using AI.

そして、AI音楽の話題に乗っているので、Spotifyは新機能を展開しており、AIを使用してプレイリストを生成することができるようになりました。

You just give it a prompt, like I need pump up music for the gym, and it'll make a playlist of songs it thinks is pump up music for the gym, or I need sad music because I'm Painting a sad picture, and it will generate a list of sad music for you.

単にプロンプトを与えるだけで、たとえばジムでの盛り上がる音楽が必要だと言うと、ジムでの盛り上がる音楽と思われる曲のプレイリストを作成してくれます。または、悲しい絵を描いているので悲しい音楽が必要だと言うと、悲しい音楽のリストを生成してくれます。

Nothing super mind-blowing or groundbreaking, but I thought I'd share since we're on the topic of music anyway.

非常に驚くべきことや画期的なことは何もありませんが、とにかく音楽の話題に乗っているので共有しようと思いました。

Let's talk about AGI for a second.

AGIについて少し話しましょう。

Elon Musk thinks it's coming within the next year.

イーロン・マスクは、来年以内にやってくると考えています。

In an interview on an X space, Elon Musk said that artificial intelligence will be smarter than the smartest human, probably by next year or by 2026.

イーロン・マスクは、Xスペースでのインタビューで、人工知能が来年か2026年までに最も賢い人間よりも賢くなるだろうと述べました。

Sometime within the next year and a half, he believes we're going to essentially have AGI.

彼は、来年半ばまでに、本質的にAGIを持っていると信じています。

Yann LeCun, one of the godfathers of AI and Metta's chief AI scientist, thinks otherwise.

AIの父の一人であり、Mettaの最高AI科学者であるヤン・ルカンは、違う考えを持っています。

He believes that Large Language Models will never actually reach human-level intelligence.

彼は、大規模言語モデルが実際には人間レベルの知能に達することは決してないと信じています。

In his article, he doesn't actually say that he doesn't believe that AI can't reach human-level intelligence.

彼の記事では、AIが人間レベルの知能に達するとは信じていないとは実際には言っていません。

He just doesn't believe that Large Language Models, the current standard that we're using for AI right now, isn't going to reach human-level intelligence.

彼は、現在AIに使用している標準である大規模言語モデルが人間レベルの知能に達することはないとは信じていません。

Back in February, we talked about how Metta is working on a V JEPA.

2月に、MettaがV JEPAに取り組んでいることについて話しました。

This is Metta's new architecture for self-supervised learning.

これは、Mettaの自己監督学習のための新しいアーキテクチャです。

This is the technology that Yann LeCun actually believes will at some point hit human-level intelligence.

これは、ヤン・ルカンが実際に人間レベルの知能に達すると信じている技術です。

This week, the much-anticipated humane pin started getting into the hands of consumers.

今週、多くの人が待ち望んでいたヒューマンピンが消費者の手に渡り始めました。

If you don't remember, it's a little pin device that goes on your shirt.

覚えていない場合は、シャツに付ける小さなピンデバイスです。

It has a little projector that can project things onto your hand.

手に物を投影できる小さなプロジェクターが付いています。

It has a camera, it has a microphone, so it listens to voice commands, and it's designed to be sort of a replacement for a smartphone.

カメラもあり、マイクもあり、音声コマンドを聞くことができ、スマートフォンの代わりとして設計されています。

And so far, the reviews haven't been super favorable.

そして、これまでのところ、レビューはあまり好意的ではありませんでした。

Here's a quick recap.

ここで簡単にまとめます。

As of right now, the humane pin is an incredibly poor proposition.

現時点では、ヒューマンピンは非常に不利な提案です。

No, I can't recommend the Ai Pin in the form in which I received it.

いいえ、私は受け取った形態のAIピンをお勧めできません。

I can't imagine a world or a use case where someone would prefer this over what already exists.

既存のものよりもこれを選ぶ人や用途を想像することができません。

The pin is not worth the money, not yet and probably not anytime soon.

一番ピンが高い価値があるとは言えませんし、おそらく今後もそうでしょう。

You definitely should not buy it planning to replace your phone.

絶対に買ってはいけません。自分の携帯電話を置き換えるつもりで。

The biggest complaints about the humane pin were that it really doesn't do anything beneficial over your smartphone.

ヒューマンピンについて最も多かった苦情は、実際にはスマートフォンよりも何も良いことをしていないということでした。

People complained about holding up your hand like this to get through menus and stuff actually gets fairly tiring on your hands.

メニューなどを操作するために手を上げることについて、実際に手にはかなり疲れるという人が苦情を言いました。

They also said that in bright light, you can barely see the projection, so it's hard to use.

明るい光の中では、投影がほとんど見えないため、使いにくいと言われました。

People complained that the gestures were confusing and complicated.

ジェスチャーが混乱し、複雑だという苦情もありました。

There's no privacy.

プライバシーがありません。

If you are actually trying to prompt it, you have to speak out your prompts.

実際にそれを促すためには、プロンプトを声に出さなければなりません。

In public, it just feels awkward to be talking to a little computer on your chest.

公共の場では、胸に小さなコンピューターと話すのは気まずいと感じます。

But the biggest complaint that everybody made about it was that it is a $700 product with a $24 per month fee.

しかし、皆が一番文句を言ったのは、700ドルの製品で月額24ドルの料金がかかるということでした。

And then if you ever cancel that $24 per month fee, the product just stops working.

お支払いいただく月額24ドルの料金をキャンセルすると、その製品は動作を停止します。

It's a paperweight.

それはただの置物になります。

Saying that every single person that talked about the humane Ai Pin said that they thought that the technology was really, really cool, just not very practical or usable yet.

人道的なAIピンについて話したすべての人が、その技術は本当にクールだけどまだ実用的でも使いやすいとは思わないと言っていました。

And that it still might get to something that people actually want that could replace a phone.

そして、それはまだ何かしらの形で、人々が本当に欲しいと思うものになるかもしれません。

It's just nowhere close yet.

ただ、まだ全然そこには達していません。

Finally, I thought this one was a kind of fun article about somebody making a lot of money using AI.

最後に、私はこれがAIを使ってたくさんのお金を稼いでいる人についての楽しい記事だと思いました。

A card game developer paid an AI artist $90,000 to generate card art because no one was able to come close to the quality that he was delivering.

カードゲームの開発者が、AIアーティストに9万ドル支払ってカードアートを生成させたのは、誰も彼が提供している品質に匹敵することができなかったからです。

I have a little bit of an issue with them saying they're an AI artist because I think the better term is AI-assisted artist.

彼らが自分たちをAIアーティストと言っていることには少し問題があります。私は、より適切な用語はAIを支援するアーティストだと思います。

I don't actually know if like an AI artist is a thing because if you're just pressing a button and letting AI generate the output, I don't really feel like you are much of The artist.

実際、AIアーティストというものがあるのかどうかはわかりません。ボタンを押してAIに出力させるだけなら、あまりアーティストとは思えません。

However, I do really appreciate AI-assisted art where these cards here, somebody generated the images for every single card using AI, but then they went and touched it up Using Photoshop or whatever image editing tool they use to make sure that the colors, the consistency of the characters, all the styles match.

ただし、私はAIを支援したアートを本当に評価しています。ここにあるこれらのカードは、誰かがAIを使ってすべてのカードの画像を生成しましたが、その後、Photoshopや他の画像編集ツールを使って色やキャラクターの一貫性、すべてのスタイルが一致するように手直しをしました。

There weren't extra fingers, all the weird stuff that we get with AI, they actually had to manually go in and fix.

AIによる余分な指や奇妙なものはなく、実際に手作業で修正する必要がありました。

AI generated the initial sort of rough draft of the image, but then the artist actually then went and made it into what the card designer wanted.

AIが画像の初期の下書きを生成しましたが、その後アーティストが実際にそれをカードデザイナーが望むものに変えました。

AI helped them make a lot more images at scale, but the artist still had to do work on all of the images.

AIは彼らが大量の画像を作成するのを助けましたが、アーティストはそれらのすべての画像に作業をしなければなりませんでした。

It's more AI-assisted art, not really AI-generated art.

それはもっとAIがアシストしたアートであり、本当にAIが生成したアートではありません。

I don't know.

わかりません。

That's a little bit of a soapbox.

それは少し熱弁です。

I'll step off it now.

今、それから降ります。

I just thought it was really cool that somebody was using an AI art generator to make the initial concept.

誰かがAIアートジェネレーターを使用して初期のコンセプトを作成しているのが本当にかっこいいと思いました。

Then they cleaned it up with Photoshop.

それから彼らはPhotoshopでそれをきれいにしました。

They did this at scale and earned $90,000 from the company that hired them to do this.

彼らはこれを大規模に行い、雇った会社から9万ドルを稼ぎました。

And finally, the last announcement, this is more of a selfish announcement, but our podcast, The Next Wave, is officially launched.

最後に、最後のお知らせですが、これは少し自己中心的なお知らせですが、私たちのポッドキャスト、The Next Waveが正式に開始されました。

You can find the first episode that we did with our event from Perplexity.

私たちがPerplexityのイベントで行った最初のエピソードを見つけることができます。

It is available on YouTube, Spotify, Apple Podcasts, anywhere you listen to podcasts.

YouTube、Spotify、Apple Podcastsなど、どこでもポッドキャストを聴くことができます。

I highly recommend the YouTube version because the editors did an amazing job of putting some cool graphics and overlays on it.

編集者たちが素晴らしい仕事をして、クールなグラフィックやオーバーレイを追加してくれたYouTubeバージョンを強くお勧めします。

It's a really fun video to watch.

本当に楽しいビデオです。

But if you're driving, going for a workout, doing whatever you do and you like to listen to audio podcasts, it is available in pure audio form as well.

運転中であったり、ワークアウト中であったり、何をしていてもオーディオポッドキャストを聴くのが好きな場合は、純粋なオーディオ形式でも利用できます。

HubSpot, who, yes, is the sponsor of today's video, but is also the producer of this podcast, is doing a really cool competition.

今日のビデオのスポンサーであるHubSpotは、このポッドキャストのプロデューサーでもあり、本当にクールなコンペを行っています。

They're giving away Apple vision pros and all sorts of cool stuff for subscribing, liking, reviewing, doing all of that kind of stuff with the podcast.

彼らは、ポッドキャストを購読したり、いいねをしたり、レビューをしたりすることで、Apple Vision Proやさまざまなクールなアイテムをプレゼントしています。

I don't have all the details on the competition yet.

まだコンペの詳細は全て把握していません。

Make sure you subscribe to the podcast and like it and maybe leave a review, and the good people at HubSpot potentially hook you up.

ポッドキャストを購読し、気に入っていただけたらいいねをして、レビューを残していただくことをお勧めします。そして、HubSpotの素晴らしい人々があなたをサポートしてくれるかもしれません。

It's not to mention, I might be a little biased, but I also think the podcast is really good.

お話しすることはありませんが、少し偏っているかもしれませんが、私はそのポッドキャストも本当に良いと思います。

With videos like this, I spend a very short amount of time per topic.

このような動画では、1つのトピックあたりの時間が非常に短いです。

With something like The Next Wave podcast, me and my cohost, Nathan Lands, get to deep dive, have longer form conversations, talk more about the ethics and the implications And the long-term timelines that we see with this technology.

次世代のポッドキャストのようなものでは、私と共同ホストのネイサン・ランズと一緒に、より深く掘り下げたり、長い形式の会話をしたり、この技術に関連する倫理や影響、そして長期的なタイムラインについてもっと話すことができます。

It really gives us that platform to go much longer, much deeper, and bring on really amazing guests who could help us and you better understand the stuff that we're talking About in this crazy, fast-paced AI world that we're in.

本当に私たちには、より長く、より深く進むためのプラットフォームを提供してくれますし、私たちが話しているこの狂った、速いAIの世界をより良く理解するのに役立つ素晴らしいゲストを迎えることができます。

That's my pitch for the podcast.

それが私のポッドキャストのプレゼンテーションです。

Check it out.

ぜひチェックしてみてください。

I'll make sure again, it's linked up in the description.

もう一度確認しますが、説明欄にリンクされています。

It's called The Next Wave podcast.

それはThe Next Waveポッドキャストと呼ばれています。

I really think you're going to enjoy it, and that's all I got for you today.

本当に楽しんでいただけると思いますし、それが今日の私の全てです。

If you haven't already, check out futuretools.io where I curate all of the latest and coolest AI tools, all of the most interesting AI news that I come across.

まだの方は、futuretools.ioをチェックしてみてください。そこでは私が見つけた最新で最も興味深いAIツールやニュースをまとめています。

And I have a free newsletter, which will keep you in the loop with just the coolest tools and the most important AI news that I come across.

あと、私は無料のニュースレターも持っているんですが、そこでは私が見つけた最もクールなツールや最も重要なAIニュースをお知らせします。

And if you sign up, you get free access to the AI income database, a cool database of interesting ways to make money with all of these various AI tools.

もしサインアップしていただければ、AI収入データベースに無料アクセスできます。これは、これらのさまざまなAIツールを使ってお金を稼ぐ興味深い方法が詰まったデータベースです。

I'm going to have to add recording video for AI training for Adobe to the list pretty soon, but check it all out.

私はすぐに、AdobeのAIトレーニング用のビデオ録画をリストに追加しなければならないと思いますが、ぜひチェックしてみてください。

It's over at futuretools.io.

それはfuturetools.ioにあります。

If you like videos like this, you want to stay in the loop with the news, latest tutorials, latest tools, all that good stuff, make sure you like this video, subscribe to This channel, and I'll make sure it keeps on showing up in your YouTube feed.

もし、このような動画が好きで、ニュースや最新のチュートリアル、最新のツールなどについて最新情報を知りたい場合は、この動画にいいねをして、このチャンネルに登録してください。そうすれば、YouTubeのフィードに表示され続けるようにします。

Thank you so much for tuning in.

ご視聴いただき、ありがとうございます。

Thanks again to HubSpot for sponsoring this video.

この動画のスポンサーであるHubSpotに再度感謝します。

You all rock.

皆さん、最高です。

I appreciate you letting me nerd out over on YouTube and actually enjoying watching it for some reason.

YouTubeでオタクっぽくなり、実際に楽しんで見てくれてありがとう。

I don't get it, but I'm having fun.

理解できないけど、楽しんでいます。

I hope you're having fun.

楽しんでいるといいですね。

Let's do it again.

またやりましょう。

I'll see you in the next one.

次回もお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?