見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2024年5月11日|@Matt Wolfe】

本動画では、AIの世界で起こっている非常に興味深い出来事を多数取り上げています。Google DeepMindがAlphaFold 3を発表し、タンパク質や核酸の構造予測を高精度で行えるようになったことは、新薬開発などに大きな影響を与える可能性があります。MicrosoftはOpenAIやMetaと提携しつつ、独自の大規模言語モデルMAI-1の開発を進めています。OpenAIはStack Overflowと提携し、コーディングデータを用いてGPT-4などのモデルを強化する一方、訓練データの管理ツールの提供も計画しています。AIアートの分野ではCrea AIが動画生成機能を追加し、音楽生成ではUdioやElevenLabsが新機能を発表しました。ロボット工学の分野でもHugging FaceがLe Robotというオープンソースライブラリを公開するなど、AIの応用範囲は拡大し続けています。Appleも新しいiPadでAIへの対応を打ち出すなど、大手企業のAIへの取り組みが加速しています。今後数週間は、Google I/OやMicrosoft Build、WWDCなど大型イベントが控えており、AI関連の発表が相次ぐことが予想されます。
公開日:2024年5月11日
※動画を再生してから読むのがオススメです。


If you look at the tabs across the top of my screen, I've got a lot of really interesting things that have been happening in the AI world that I want to share with you.

画面上部のタブを見ると、AIの世界で起きている非常に興味深いことがたくさんあるので、それをみなさんと共有したいと思います。

Despite the fact that it looks like there's a lot going on, I think we're actually going to look back at this week and consider it a slower week compared to what's coming.

多くのことが起きているように見えますが、今週は、これから起こることに比べると、実際にはゆっくりとした週だったと振り返ることになるでしょう。

We're about to get hit with a huge wave of AI announcements coming out of all of the companies developing AI, but I'll talk about that more at the end of the video.

AIを開発しているすべての企業から、大量のAI関連の発表が行われようとしていますが、それについては動画の最後で詳しく説明します。

For this one, I want to get into what is interesting right now.

この動画では、今興味深いことについて取り上げたいと思います。

Starting with the piece of news that came out this week, that is probably the most groundbreaking news we've had in a long time, yet it seems to be kind of under reported at the moment.

今週出てきたニュースから始めますが、おそらく長い間で最も画期的なニュースだと思いますが、現時点ではあまり報道されていないようです。

This week, Google's DeepMind introduced AlphaFold 3.

今週、GoogleのDeepMindがAlphaFold 3を発表しました。

This is a model that can accurately predict the structure of proteins, DNA, RNA and ligands and how they interact.

これは、タンパク質、DNA、RNA、リガンドの構造とそれらの相互作用を正確に予測できるモデルです。

The previous AlphaFold models were huge breakthroughs.

以前のAlphaFoldモデルは大きなブレイクスルーでした。

I mean, like, they're talking about the creators potentially getting Nobel prizes for them.

つまり、その開発者はノーベル賞を受賞する可能性があるほどなのです。

At some point, this is significant because AlphaFold can accurately predict how these various molecules will interact with each other and actually find new ways of combining molecules that scientists haven't actually tried combining yet.

AlphaFoldがこれらの様々な分子がどのように相互作用するかを正確に予測し、科学者がまだ試していない分子の新しい組み合わせ方を実際に見つけることができるという点で重要なのです。

This could potentially lead to an explosion of new drug discoveries, new vaccines, and even to greater insights about how the human body actually works.

これにより、新薬の発見、新ワクチンの開発、さらには人体の仕組みに関するより深い洞察が爆発的に増える可能性があります。

This is some research that probably should get its own dedicated video.

この研究は、おそらく独自の動画を作る価値があるでしょう。

I'll probably do that in the future, but this announcement from Google's DeepMind is pretty impactful.

将来的にはそうするつもりですが、GoogleのDeepMindからのこの発表はかなり影響力があります。

In fact, Demis Hassabis, the CEO of DeepMind went on Bloomberg to say this.

実際、DeepMindのCEOであるデミス・ハサビスは、ブルームバーグでこう語っています。

Again, I feel like that topic requires a much deeper dive video, but since this video is designed to give you the grand overview of all of the important stuff happening this week, I'm going to go ahead and move on and tell you about Demis' ex business partner, Mustafa Suleiman and his new project over at Microsoft AI.

繰り返しになりますが、このトピックについては、もっと深く掘り下げた動画が必要だと思います。しかし、この動画は今週起こった重要なことすべての大まかな概要を伝えることを目的としているので、先に進んで、デミスの元ビジネスパートナーであるムスタファ・スレイマンとMicrosoft AIでの彼の新しいプロジェクトについてお話ししたいと思います。

In a recent previous video, we talked about how Mustafa actually left Inflection AI who created Pi to go and become a CEO of Microsoft AI.

最近の動画で、ムスタファがPiを作ったInflection AIを去り、Microsoft AIのCEOになったことについて話しました。

Well, now we're starting to get details of what he's actually working on over at Microsoft AI.

さて、Microsoft AIで彼が実際に取り組んでいることの詳細が明らかになってきました。

He's working on a new model called MAI-1 with a rumored 500 billion parameters.

彼は、うわさでは5000億個のパラメータを持つ、MAI-1と呼ばれる新しいモデルに取り組んでいます。

This is actually the first time that Microsoft has worked on a Large Language Model of this scale.

これは実際、Microsoftがこの規模の大規模言語モデルに取り組むのは初めてのことです。

They've worked on some smaller language models, but for their Large Language Models, they've famously been partnered up with OpenAI as their largest investor.

彼らはいくつかの小規模な言語モデルに取り組んできましたが、大規模言語モデルについては、最大の投資家としてOpenAIと提携していることで有名です。

Most of the tech that Microsoft uses for their AI platforms is all OpenAI's tech.

MicrosoftがAIプラットフォームに使用しているテクノロジーのほとんどは、OpenAIのテクノロジーです。

We also know that Microsoft has a relationship with Meta and leverages their open source LLaMA models as well.

また、MicrosoftがMetaと関係を持ち、そのオープンソースのLLaMAモデルを活用していることも知られています。

It's really interesting to see that Microsoft is starting to build a sort of GPT-4 level model in a house, knowing how closely tied they are to OpenAI.

MicrosoftがOpenAIとどれだけ密接に結びついているかを知った上で、GPT-4レベルのモデルを社内で構築し始めているのは非常に興味深いことです。

In all likelihood, this is just Microsoft making sure they're very diversified as part of the contract between Microsoft and OpenAI.

おそらく、これはMicrosoftとOpenAIの契約の一環として、Microsoftが非常に多角化していることを確認しているだけなのでしょう。

If OpenAI achieves AGI, the terms of their deal change.

OpenAIがAGIを達成すれば、取引条件が変更されます。

Microsoft I still believe gets some sort of payout up to a certain amount, but then the relationship with the for-profit OpenAI changes.

Microsoftは、ある一定額までの支払いを受けると信じていますが、営利目的のOpenAIとの関係は変化します。

Microsoft's upside from OpenAI dramatically diminishes.

OpenAIからのMicrosoftの上昇は劇的に減少します。

To me, it seems like what they're doing is, well, they're working with OpenAI, they're working with LLaMA, they're working with Mistral, and they're building their own in-house models so that no matter what happens to these other AI companies and what the relationships end up doing, Microsoft is still fully capable of achieving whatever their bigger vision they've set out to achieve is.

私には、彼らがしていることは、OpenAIと協力し、LLaMAと協力し、Mistralと協力し、独自のインハウスモデルを構築しているので、これらの他のAI企業に何が起こり、関係がどうなっても、Microsoftは自社の大きなビジョンを達成するための十分な能力を持っているように見えます。

While we're on the topic of Microsoft, they're apparently investing $3.3 billion dollars into an AI data center in Wisconsin.

Microsoftの話題で言えば、ウィスコンシン州のAIデータセンターに33億ドルを投資するそうです。

Building this data center is expected to create an estimated 2300 union construction jobs and up to 2000 permanent jobs.

このデータセンターの建設により、推定2,300人の組合建設労働者と最大2,000人の恒久的な雇用が創出されると予想されています。

All right, now let's talk about OpenAI.

さて、OpenAIの話をしましょう。

This week, Stack Overflow and OpenAI partnered to strengthen the world's most popular Large Language Models.

今週、Stack OverflowとOpenAIは、世界で最も人気のある大規模言語モデルを強化するために提携しました。

If you're not familiar with Stack Overflow, it's basically a website where people who are creating things with code can go and ask questions about their code.

Stack Overflowをご存知ない方のために説明しますと、基本的にコードを使って何かを作っている人がコードに関する質問をするためのウェブサイトです。

The community responds, almost like a Quora, but for code.

コミュニティが回答します。Quoraのようなものですが、コード用です。

You ask questions about the code, and then people sort of help you answer your coding questions.

コードについて質問すると、人々がコードの質問に答えるのを助けてくれます。

Apparently, since ChatGPT came out and people found out that it was pretty good at coding, the traffic to Stack Overflow has been tanking.

ChatGPTが登場し、コーディングがかなり上手だと分かってから、Stack Overflowへのトラフィックが低迷しているそうです。

Stack Overflow tried to launch their own AI model, but I don't really think it ever went anywhere with most people.

Stack Overflowは独自のAIモデルを立ち上げようとしましたが、ほとんどの人にはあまり浸透しなかったと思います。

It appears that OpenAI and Stack Overflow are partnering and working together so that OpenAI can train on Stack Overflow's giant database of coding data.

OpenAIとStack Overflowが提携し、協力して、OpenAIがStack Overflowの巨大なコーディングデータベースでトレーニングできるようにしているようです。

It should really, really improve the coding ability of tools like GPT-4 and whatever their next generation model is.

GPT-4のようなツールや、次世代モデルのコーディング能力を本当に大幅に向上させるはずです。

However, people that have contributed to Stack Overflow are not necessarily happy about this.

しかし、Stack Overflowに貢献してきた人たちは、必ずしもこのことを喜んでいるわけではありません。

Here's a tweet from Nixcraft that says, Stack Overflow mods are experiencing some frustration as several users have been deleting their answers since the announcement with the OpenAI partnership.

Nixcraftのツイートを紹介します。「Stack Overflowのモデレーターは、OpenAIとのパートナーシップ発表以来、いくつかのユーザーが回答を削除しているため、いらだちを感じています。

As a result, they have started suspending accounts that engage in this behavior.

その結果、このような行為に関与しているアカウントを停止し始めました。

Apparently Stack Overflow's terms and conditions grant them special permission to retain all answers.

Stack Overflowの利用規約では、すべての回答を保持する特別な許可が与えられているそうです。

If you've ever posted an answer on Stack Overflow, well Stack Overflow now owns that answer and you are not allowed to remove it, meaning everybody who's contributed to Stack Overflow sort of unknowingly now contributed to OpenAI's coding ability.

これまでにStack Overflowに回答を投稿したことがあるなら、その回答はStack Overflowのものになり、削除することはできません。つまり、Stack Overflowに貢献したすべての人が、知らないうちにOpenAIのコーディング能力に貢献したことになります。

Last week, I talked about gpt2 chatbot, which was this mysterious chatbot that popped up inside of Limsis.org, the chatbot arena.

先週、Limsis.orgのチャットボットアリーナに突如現れた謎のチャットボット、GPT-2チャットボットについて話しました。

Within 48 hours of people actually discovering it and using it, it was yanked off the platform.

人々が実際に発見して使用してから48時間以内に、プラットフォームから引き抜かれました。

It's back.

戻ってきました。

You can actually use this new model, which is still mysterious.

この新しいモデルは謎のままですが、実際に使用できます。

The prevailing theory is that it is some sort of model from OpenAI, but OpenAI has been very hush-hush about it, only sort of tweeting troll-like memes to give us any clues that they're the ones behind it.

有力な説では、OpenAIのモデルの一種だということですが、OpenAIはこれについてほとんど口をつぐんでおり、彼らがその背後にいることを示唆するトロールのようなミームをツイートするだけです。

I did a super quick breakdown of what's going on.

私は何が起こっているのかを素早く分析しました。

I was testing a sort of new style of video.

私は新しいスタイルの動画をテストしていました。

It's slightly less than four minutes called the mysterious chatbot that beat chatGPT is back.

「ChatGPTを打ち負かした謎のチャットボットが復活」という4分弱の動画です。

If you want to know all of the details of what we know about that model, check out that video.

そのモデルについて知っていることの詳細を知りたい方は、その動画をチェックしてみてください。

It'll give you the breakdown in a rapid fire three minute and 45 second video.

3分45秒の動画で、急速に展開される内容を説明します。

Also in OpenAI news this week, they put out a blog post called Our Approach to Data and AI.

また、今週のOpenAIニュースとして、「Our Approach to Data and AI」というブログ記事を掲載しました。

The main thing to note in this one is that they're claiming they respect the choices of creators and content owners on AI.

この記事で注目すべき点は、彼らがクリエイターやコンテンツ所有者のAIに関する選択を尊重すると主張していることです。

They're going to be building a media manager so that content owners can manage how their works are used in AI.

コンテンツ所有者がAIでの作品の使用方法を管理できるメディアマネージャーを構築する予定だそうです。

If you wrote an article or created a piece of art or something like that, and you don't want it trained into any of OpenAI's models, they're building some sort of platform they're calling the media manager so that you could make sure that the content you want excluded actually gets excluded.

記事やアート作品などを作成し、OpenAIのモデルにトレーニングしてほしくない場合、除外したいコンテンツを確実に除外できるメディアマネージャーと呼ばれるプラットフォームを構築中とのことです。

They say the goal is to have the tool in place by 2025.

そのツールは2025年までに導入する予定だそうです。

Next year, sometime we'll have this media manager and can actually control what content does and doesn't get trained into the systems.

来年のいつか、このメディアマネージャーができあがり、どのコンテンツをシステムにトレーニングするかしないかを実際にコントロールできるようになる、ということです。

Theoretically.

理論的には。

There's been a rumor going around.

OpenAIが独自の検索エンジンを立ち上げるという噂が流れています。

We talked about it in last week's news video that OpenAI is about to launch their own search engine. If you're following along, Microsoft who uses GPT-4 from OpenAI is now developing their own Large Language Model.

前回のニュース動画で取り上げました。OpenAIのGPT-4を使用しているMicrosoftが独自の大規模言語モデルを開発しているということです。

OpenAI who uses the search functionality of Microsoft is building their own search engine.

Microsoftの検索機能を使用しているOpenAIが独自の検索エンジンを構築しています。

Again, there's not a hundred percent confirmation that this search engine is going to get released next week.

繰り返しになりますが、この検索エンジンが来週リリースされるかどうかは100%確認できていません。

But according to Watcher Guru, ChatGPT creator OpenAI is to announce Google Search competitor on Monday.

しかし、Watcher Guruによると、「ChatGPTの開発元OpenAIが月曜日にGoogleの検索競合サービスを発表する」とのことです。

We'll find out more next week.

来週になれば詳細がわかるでしょう。

If you have an online business, or if you're trying to grow an email list, it can be really difficult to Figure out what words and what sort of style to create a landing page in to get people to actually sign up or buy your products.

オンラインビジネスを展開していたり、メールリストを増やそうとしている場合、人々に実際に登録したり商品を購入してもらうために、どのような言葉やスタイルでランディングページを作成すればよいのか、なかなか分からないものです。

That's why for today's video, I partnered with HubSpot.

そこで今回の動画では、HubSpotとパートナーシップを組みました。

I wanted to show off their custom GPT inside of ChatGPT.

ChatGPT内のカスタムGPTを紹介したいと思います。

It helps you build really good landing pages.

優れたランディングページの作成に役立ちます。

It's completely free to use for all ChatGPT Plus subscribers.

ChatGPTプラスの全ユーザーに無料で提供されています。

It's actually pretty simple.

実際にはとてもシンプルです。

You jump into the GPT.

GPTにジャンプします。

It's easy to start by using their pre-written prompt for you.

用意された質問文を使うのが簡単です。

I want to create a landing page and then it's just going to ask you a few questions to make sure it gets all the details right.

ランディングページを作成したいのですが、詳細を正確に把握するために、いくつかの質問をします。

I'll give it a quick two or three sentence paragraph about what the site I'm trying to build is supposed to do. In this case, grow the Future Tools email newsletter.

この場合、Future Toolsのメールニュースレターを拡大することが目的のサイトについて、2〜3文の段落で説明します。

It wants to know what makes the newsletter stand out.

このニュースレターの特徴は何かを尋ねられます。

I'll simply share a few bullet points here.

ここではいくつかの要点を簡単に共有します。

It'll ask me a couple more questions about what I want my call to action to be.

コールトゥアクションをどのようにしたいかなど、さらに質問されます。

In this case, I'm going to use be subscribed.

この場合は、「購読する」にします。

I'm just going to say B then it asks what sort of tone I want it in for this one.

単に「B」と言うだけでいいです。次に、どのようなトーンにしたいか聞かれます。

I want it to be informative.

私は有益な情報を提供したいと思っているので、「I」を選びます。

I'm going to go with I then immediately wrote some copy for me.

すぐに文章を書いてくれました。

I think the sales copy to get people on my newsletter looks great.

ニュースレターへの登録を促すセールスコピーは素晴らしいと思います。

I'm going to go ahead and say, looks good. Let's create it.

「いいですね。作成しましょう」と言います。

I'm going to confirm that I trust this HubSpot GPT here.

ここでHubSpotのGPTを信頼することを確認します。

A couple seconds later, I have a link to my landing page, which I can click on and it will open the page in a new tab.

数秒後、ランディングページへのリンクが表示され、クリックすると新しいタブでページが開きます。

We can see we have a landing page. That's nice and designed for us with really decent copy.

ランディングページができていて、かなりの文章が用意されています。

We can easily swap out these images with the most relevant images and tweak any of the copy that we want.

これらの画像を最も関連性の高い画像に簡単に差し替えたり、文章を微調整したりできます。

Within roughly two minutes, we have a landing page ready to start growing our mailing list.

およそ2分で、メーリングリストを増やす準備が整ったランディングページができあがります。

This custom GPT from HubSpot makes it super, super simple.

HubSpotのこのカスタムGPTを使えば、本当に簡単です。

Again, if you have a ChatGPT Plus account, it's totally free to use.

繰り返しになりますが、ChatGPTプラスのアカウントをお持ちの方は、無料でご利用いただけます。

I've gone ahead and put the link in the description so you can access it easily, or you can try the QR code that's on the screen right here.

説明欄にリンクを貼っておきましたので、簡単にアクセスできます。QRコードを試すこともできます。画面に表示されています。

Check it out.

ぜひチェックしてみてください。

It's pretty impressive with how quick and easy it is to set up.

セットアップがいかに素早く簡単にできるか、とても感心します。

Thank you so much to HubSpot for sponsoring this video.

今回の動画のスポンサーとなってくれたHubSpotに心より感謝します。

Also this week, gradient AI announced that they managed to get a 4 million token context length out of LLaMA three eight B. That is the largest context window of any openly available Large Language Model.

また今週、Gradient AIは、LLaMA 38BでLLaMA 38Bの文脈長を400万トークンまで引き上げることに成功したと発表しました。これは、一般に公開されている大規模言語モデルの中で最大の文脈ウィンドウです。

A 4 million token context window is essentially 3 million words of input and output back from the Large Language Model.

400万トークンの文脈ウィンドウとは、基本的に大規模言語モデルへの入力と出力が300万語あることを意味します。

To put that into some more context, the entire Harry Potter book series is a little over a million words.

もう少し詳しく説明すると、ハリー・ポッターの本シリーズ全体で、100万語強になります。

Theoretically you could feed in three times the size of the entire Harry Potter series and actually get responses based on that context window.

理論的には、ハリー・ポッターシリーズ全体の3倍の大きさを入力し、その文脈ウィンドウに基づいて実際に応答を得ることができます。

If I had to guess, I would guess that the whole concept of a context window is going to sort of disappear over the coming years.

私の予想では、今後数年で文脈ウィンドウという概念自体がなくなっていくのではないでしょうか。

The context windows of these Large Language Models are going to get so large that context window isn't even really something people think about that much.

これらの大規模言語モデルの文脈ウィンドウはあまりにも大きくなるため、文脈ウィンドウはもはや人々があまり考えないものになるでしょう。

What's even cooler about this gradient AI 4 million context length is that they developed it with the LLaMA three eight B model, which is open source and then shared what they created over here on Hugging Face.

このGradient AIの400万文脈長についてさらにすごいのは、オープンソースのLLaMA 38Bモデルで開発し、作成したものをここHugging Faceで共有したことです。

If you actually know what you're doing, which in this case, I really don't, you can come to Hugging Face, go to files and versions and actually download the files to be able to run this yourself and get that 4 million token context window.

実際にどうすればいいのかがわかっている人(私の場合は全然わかりませんが)は、Hugging Faceにアクセスしてファイルとバージョンに移動し、ファイルをダウンロードして自分で実行し、その400万トークンの文脈ウィンドウを取得することができます。

We also got some news this week out of X AI and their Grok chat bot.

また、今週はX AIとそのチャットボットGrokについてのニュースもありました。

If you have a premium account and you're using either the desktop version or the iOS version, you can go to the explore section, click on any article like this iPad article here.

プレミアムアカウントを持っていて、デスクトップ版またはiOS版を使用している場合は、探索セクションに移動し、このiPadの記事のような任意の記事をクリックします。

This little description of the article was actually generated by Grok.

この記事の簡単な説明は、実際にGrokによって生成されたものです。

We get that with all of the news over here in the explore tab.

探索タブのすべてのニュースでそれを得ることができます。

Any one that I click into here will give me a nice quick AI generated summary of what's going on based on all the tweets like this one about my favorite baseball player of all time.

ここでクリックすると、私の大好きな野球選手に関するこのツイートのように、何が起こっているのかを簡潔にAIが要約してくれます。

All right, moving into AI art this week, Crea AI actually launched video inside of your platform with their little example.

さて、今週のAIアートに移りましょう。Crea AIは、実際にプラットフォーム内で動画を立ち上げました。少し例を示しました。

They showed two images, they blended them together and generated a video based on the blend of the two images.

2つの画像を示し、それらをブレンドして、2つの画像のブレンドに基づいて動画を生成しました。

It looks pretty sweet.

かなりすごく見えます。

Ever since this was released, I've been seeing some really cool videos getting posted onto X here.

これがリリースされて以来、Xにかなりクールな動画が投稿されているのを見ています。

Like this one from Steve Mills that has this crazy person on a bed zooming in with a demon and then they turn into a house and then they're on a bed.

Steve Millsのこの動画のように、ベッドの上のクレイジーな人が悪魔とズームインして、家に変身し、またベッドの上にいるというものです。

It's just this crazy, crazy looking animations.

これはただのクレイジーでクレイジーなアニメーションです。

I mean they're not realistic like what you'd get out of something like Sora, but they've got this really cool sort of frame interpolation.

つまり、Soraのような現実的なものではありませんが、本当にクールなフレーム補間のようなものがあります。

I don't know.

わかりません。

It's just got a really cool feel to it.

本当にクールな感じがします。

It seems like it'd be really good for like music videos and things like that.

ミュージックビデオなどにはとても良さそうです。

Here's another 10 second clip that Justine Moore shared of a bunch of cities, sort of Morphing between each other and some cool clouds in the sky.

Justine Mooreが共有した、お互いにモーフィングしながら移り変わる都市の様子や、空に浮かぶクールな雲の10秒のクリップもあります。

Really, really cool videos.

本当に本当にクールな動画です。

Crea isn't publicly available to everybody yet.

Creaはまだ誰でも公開されているわけではありません。

They're starting to hand out some access codes to some people to test it out.

一部の人にアクセスコードを配布し始めて、試してもらっています。

I managed to get an access code to get in.

私は中に入るためのアクセスコードを手に入れることができました。

I'm not a hundred percent sure when they're going to be opening it up to more people, but let's go ahead and take a peek real quick.

いつからもっと多くの人に公開されるのかは、100%確信が持てませんが、ちょっと覗いてみましょう。

Inside the app is actually really impressive.

アプリの中身は実際には本当に印象的です。

You can see we've got a timeline down here and I can actually move my mouse along the timeline and see every single frame.

タイムラインが下にあるのがわかりますね。マウスをタイムラインに沿って動かすと、1フレームずつ見ることができます。

You can see some key frames here where it sort of interpolates between the two images that it started with.

最初の2つの画像の間を補間するキーフレームがいくつか見えますね。

I can add additional key frames all along the timeline here.

ここのタイムラインに沿って、追加のキーフレームを追加することができます。

I click into settings.

設定をクリックします。

We've got aspect ratio, we've got motion intensity.

アスペクト比、モーションの強さがあります。

We've got the option to loop the video.

ビデオをループさせるオプションがあります。

Down here, we've got a few options like film, render, animation, and experimental.

下には、フィルム、レンダリング、アニメーション、実験的などのオプションがいくつかあります。

I'm going to go ahead and clear everything that's here.

ここにあるものをすべてクリアします。

We're starting from scratch and then let's go ahead and toss a couple of random images in here.

一から始めて、いくつかのランダムな画像をここに投げ込んでみましょう。

I'll toss this little like fantasy world image that I created in Midjourney in here.

ミッドジャーニーで作成したこのファンタジーワールドのような小さな画像をここに入れます。

Let's add another key frame down here.

ここに別のキーフレームを追加しましょう。

Here's another sort of similar fantasy image.

これは別の似たようなファンタジーの画像です。

Let's go ahead and add our text prompt.

テキストプロンプトを追加しましょう。

I've added two images and a couple of text prompts to go with it.

2つの画像と、それに合わせて2つのテキストプロンプトを追加しました。

Let's go ahead and stretch this out to right here, stretch this out to right here.

これを右側まで伸ばして、これを右側まで伸ばしましょう。

Let's go ahead and generate a video and see what we get out of it.

ビデオを生成して、どんなものができるか見てみましょう。

Here's the video I've made.

これが私が作ったビデオです。

That's really, really cool.

これは本当に本当にクールです。

It's just a really cool thing to be able to take one image. It's like your starting image and then where you want the image to end up and make a video that kind of goes between the images.

1つの画像を取って、それが開始画像のようなもので、画像がどこに行き着くかを指定し、画像の間を行き来するようなビデオを作るのは本当にクールなことです。

This one seems to do it pretty smoothly.

このビデオはかなりスムーズにそれを行っているようです。

What Cray is doing here is actually using open source technology called animate diff under the hood, which means there are free alternatives that you can use, albeit a little bit more complicated, but you can achieve the same effect locally.

Crayがここで実際に行っているのは、アニメートdiffと呼ばれるオープンソースの技術を内部で使用しているということで、これは少し複雑ですが、無料の代替手段を使用して、ローカルで同じ効果を実現することができます。

I'll actually link up a YouTube tutorial from PERS in the description below.

実際に、下の説明欄にPERSのYouTubeチュートリアルへのリンクを貼っておきます。

If you do want to take a stab at trying to do the same effect locally, there's a pretty in-depth tutorial that you can follow along to.

ローカルで同じ効果を試してみたい方は、かなり詳しいチュートリアルがあるので、それに沿って進めることができます。

While we're on the topic of AI video, we actually got some more details about Sora this week.

AIビデオの話題で言えば、今週、Soraについてもっと詳しい情報が得られました。

Sean Ralston here who works with OpenAI on dev support, shared this video showing that you can change just the character in the video without it changing the rest of the scene.

OpenAIでデベロッパーサポートを担当しているSean Ralstonが、このビデオを共有しました。このビデオでは、シーンの残りの部分を変更せずに、ビデオ内のキャラクターだけを変更できることが示されています。

If you watch this video, you've got the top left with a man walking down the street, top right, same exact alley street, but with a woman down here, an older man and over on the bottom right, a robot, but everything else pretty much remains the same.

このビデオを見ると、左上には男性が通りを歩いている様子が、右上には全く同じ路地の通りがありますが、女性が、下には年配の男性が、右下にはロボットがいますが、他のすべてはほぼ同じままです。

Some of the graffiti in the background looks a little bit different, but for the most part it's generating the same scene, but with the ability to in-paint a different character with each scene.

背景のグラフィティの一部は少し違って見えますが、ほとんどの部分で同じシーンを生成していますが、各シーンで異なるキャラクターをペイントする機能があります。

That seems pretty cool.

これはかなりクールに見えます。

If you make a video that you really like, theoretically you can go, okay, I don't like the character that it put in there, but I like everything else about this video and just change the character.

本当に気に入った動画を作った場合、理論的には、「そこに入れたキャラクターは気に入らないけど、この動画の他のすべてが気に入った」と言って、キャラクターだけを変更することができます。

That'll be pretty cool to see when we finally get our hands on Sora, whenever that may be, who knows.

いつになるかわかりませんが、Soraを手に入れた時に見られるのが楽しみです。

This week, the tool Udio, which everybody's been raving about with how realistic the music that comes out of it sounds just recently rolled out a new update as well.

今週、その音楽の現実味にみんなが絶賛しているツールUdioが、新しいアップデートをリリースしました。

They actually have a feature now called audio in-painting where you can select just a little piece of the song and tell it to change just that chunk.

実際、オーディオインペインティングと呼ばれる機能があり、曲のほんの一部分を選択して、その部分だけを変更するように指示することができます。

If you like most of the song, but maybe the lyrics in one part came out a little funky, you can select just that portion of the song and have it fix just that chunk.

曲のほとんどは気に入っているけれど、ある部分の歌詞が少し変だった場合、その部分だけを選択して、その部分だけを修正させることができます。

Udio has also run into a little bit of hot water recently with a lot of people pointing out that you can prompt Udio in a way that almost makes carbon copies of existing songs, sort of hinting to the idea that Udio was trained on a lot of copyrighted songs that they didn't have the permission to train on.

最近、Udioは少し厄介な問題にも直面しています。多くの人が指摘しているように、Udioを使って既存の曲とほぼ同じ曲を作ることができるため、Udioが許可なくトレーニングに使用した著作権のある曲が多数あるのではないかと示唆されています。

I'm hoping they get that stuff sorted out because it's not great that I can go and make a song that sounds nearly identical to an existing artists work.

既存のアーティストの作品とほぼ同じような曲を作ることができるのは良くないので、そのようなことがないように整理してほしいと思います。

I do think they'll iron out the bugs and fix some guardrails so that people won't be able to do that.

おそらく、バグを修正し、安全策を講じて、人々がそのようなことができないようにするでしょう。

But from a technology standpoint, I'm still pretty blown away by what this is capable of, especially now that it has these new in-paint features.

しかし、技術的な観点から見ると、特にこれらの新しいインペイント機能があることを考えると、この技術の能力にはまだ非常に驚かされます。

ElevenLabs who pretty much does everything else with audio also appears to be getting into the AI music generation game.

オーディオに関するほとんどすべてのことを行っているElevenLabsも、AIによる音楽生成の分野に参入しているようです。

With ElevenLabs, we can already make realistic voice clones, realistic audio translations, sound effects, all sorts of cool stuff with audio.

ElevenLabsでは、すでにリアルな音声クローン、リアルな音声翻訳、効果音など、オーディオに関するさまざまなクールなことができます。

This week, they tweeted here's an early preview of ElevenLabs music.

今週、彼らはこうツイートしました。「ElevenLabsミュージックの初期プレビューをご覧ください。

All of the songs in this thread were generated with a single text prompt, no edits.

このスレッドのすべての曲は、単一のテキストプロンプトで生成され、編集は行われていません。」

There's a whole bunch of examples, but let's go ahead and just take a super quick listen to the one that they put at the top here.

たくさんの例がありますが、ここの一番上に置かれているものを超短時間聴いてみましょう。

It sounds just like Tom Petty, but still very impressive what they can do with some of these tools.

トム・ペティそっくりですが、それでもこれらのツールでできることは非常に印象的です。

I'm going to go ahead and just sort of rapid fire a bunch of other smaller news items that came out.

他のより小さなニュースアイテムを一気に紹介していきます。

I mean, I guess it's a whole relative.

つまり、すべて相対的なのです。

Several years ago, if some of this AI news came out, it would have been like some of the biggest news in the world.

数年前なら、このようなAIニュースが出ていたら、世界で最も大きなニュースの1つになっていたでしょう。

But comparatively to some of the other news we're talking about, this feels like smaller news.

しかし、私たちが話している他のニュースと比較すると、これは小さなニュースのように感じます。

Some of this can probably use a more dedicated video down the line, but here we go.

このうちのいくつかは、おそらくもっと専門的な動画で取り上げる必要があるでしょうが、さあ、始めましょう。

Apple held an event this week where they showed off their new iPad model with the M4 chip.

Appleは今週、M4チップを搭載した新しいiPadモデルを発表するイベントを開催しました。

I'm pretty sure this is the first keynote where Apple ever actually talked about AI.

おそらくこれは、AppleがAIについて実際に話した最初の基調講演だと思います。

They sort of danced around the topic in almost every other keynote that they've done.

他のほとんどすべての基調講演では、このトピックについては言葉を濁していました。

But this M4 chip here apparently has the fastest neural engine ever capable of 38 trillion operations per second, which is faster than the neural processing unit of any AI PC today.

しかし、このM4チップは、1秒あたり38兆回の演算が可能な、これまでで最速のニューラルエンジンを搭載しているそうです。これは、現在のAI PCのニューラル処理ユニットよりも高速です。

Further down here, it says the M4 is extremely well suited for the latest applications leveraging AI.

さらに下の方を見ると、M4はAIを利用した最新のアプリケーションに非常に適していると書かれています。

Even Apple's iPads now that they're putting out are sort of being designed to future proof them for AI.

Appleが今発売しているiPadでさえ、AIに対応できるように設計されているようです。

This week, Hugging Face also launched Le Robot, which is an open source robotics code library.

また、今週、Hugging Faceがオープンソースのロボット工学コードライブラリであるLe Robotを立ち上げました。

They actually made it all available on GitHub.

実際、GitHubで全部公開しています。

Le Robot aims to provide models, data sets and tools for real world robotics in PyTorch.

Le Robotは、PyTorchを使用した実世界のロボット工学のためのモデル、データセット、ツールを提供することを目的としています。

The goal is to lower the barrier to entry to robotics so that everyone can contribute and benefit from sharing data sets and pre-trained models.

目標は、ロボット工学への参入障壁を下げ、誰もがデータセットと事前トレーニング済みモデルの共有に貢献し、恩恵を受けられるようにすることです。

If people are out there trying to build robots, you now have models available that are open source that you can use to sort of fast track your way into building robots.

ロボットを作ろうとしている人たちは、オープンソースで利用できるモデルを使って、ロボット作りを高速化することができるようになりました。

We also got a peek at Dr. Eureka this week, which is a new research paper out of the University of Pennsylvania, NVIDIA and the University of Texas Austin.

また、今週はペンシルベニア大学、NVIDIA、テキサス大学オースティン校の共同研究論文であるDr. Eurekaについても紹介がありました。

We sort of got a sneak peek of this type of technology at NVIDIA's GTC earlier this year, but these robots were actually trained in a virtual environment and learned how to do the things that we're seeing in this video in a virtual environment or a digital twin.

今年初めのNVIDIAのGTCでは、このタイプの技術をチラっと見ることができましたが、これらのロボットは実際には仮想環境でトレーニングされ、この動画で見ているようなことを仮想環境やデジタルツインで行う方法を学習したのです。

Once it learned and understood how to do these things in the virtual environment, the sort of code and training was then put into the real robot and the robot was able to perform these things in the real world, even though they weren't trained to do these things in the real world.

仮想環境でこれらのことをする方法を学習し理解したら、そのコードとトレーニングを実際のロボットに投入し、現実世界でこれらのことをトレーニングしていなくても、ロボットは現実世界でこれらのことを実行できるようになったのです。

They trained it to do things like walk on a exercise ball.

エクササイズボールの上を歩くようにトレーニングしました。

This dude here is even kicking the exercise ball to try to throw the robot off and it still manages to maintain its balance.

ここにいる男性は、ロボットを倒そうとエクササイズボールを蹴っていますが、それでもロボットはバランスを保っています。

I came across this random video on X. I actually don't know what factory this is in China, but they showed off this robotics factory and these are obviously robots.

私はXでこのランダムな動画を見つけました。実際、これが中国のどこの工場なのかはわかりませんが、このロボット工場を見せてくれました。これらは明らかにロボットです。

But the first time I ever watched this video, there's a scene right here in a second where it walks past this guy.

でも、私がこの動画を初めて見たとき、ここでこの男性の横を歩いていくシーンがあります。

The first time I watched this video, I didn't even realize this dude was a robot here.

この動画を初めて見たとき、ここにいるこの男性がロボットだとは気づきませんでした。

I thought this was just somebody standing here watching the robots being made, but nope, that's actually one of the robots.

ロボットが作られるのを見ている人だと思っていましたが、いいえ、実はこれがロボットの1つなのです。

To me, this is like straight out of Westworld.

私にとって、これはウエストワールドの世界から飛び出してきたようなものです。

Like they look really realistic.

本当にリアルに見えます。

Again, I don't really know much about this video.

繰り返しになりますが、私はこの動画についてあまり知りません。

I just kind of came across it on X. I thought it was cool and wanted to share it in this video.

Xで偶然見つけただけです。面白いと思ったので、この動画で共有したくなりました。

Some people in the comments are claiming that this is actually fake.

コメント欄の一部の人は、これは実際には偽物だと主張しています。

This isn't even a real video.

これは本物の動画ではありません。

I have no idea.

私にはわかりません。

Take this one with a grain of salt.

この動画は、ある程度の疑いを持って見てください。

This might have been made with Sora for all I know.

私の知る限り、これはSoraで作られたのかもしれません。

Also this week we got the news that machine learning aided in the discovery of sperm whale alphabet.

また、今週、マッコウクジラのアルファベットの発見に機械学習が役立ったというニュースがありました。

Using machine learning, they were able to sort of tell the difference between various noises that the whales made and find patterns and correlations between them to sort of start to map out this sperm whale alphabet.

機械学習を使用して、クジラが発する様々な音の違いを見分け、それらの間のパターンと相関関係を見つけ出し、マッコウクジラのアルファベットのマッピングを始めることができました。

Is this leading us to a future that we could maybe even talk to whales?

これは、将来的にクジラと話せるようになるかもしれないということでしょうか?

That could be interesting.

それは面白いかもしれません。

I also mentioned at the beginning of this video that I think this is going to be considered a slow week compared to the weeks that are coming up.

また、この動画の冒頭で、これからの週に比べると、今週はゆっくりとした週になると思うと言いました。

This is the reason why between May and June, we have these events.

その理由は、5月から6月にかけて、次のようなイベントが予定されているからです。

We have Google IO.

Google IOがあります。

This is Google's big annual event where they make a ton of announcements.

これはGoogleの大きな年次イベントで、たくさんの発表があります。

Last year it was all about AI.

昨年はAI一色でした。

This year is expected to be all about AI as well.

今年もAI一色になると予想されています。

From the day I'm releasing this video, that event happens next week.

この動画を公開した日から、来週にはそのイベントが行われます。

Also next week is the rumored OpenAI update event where we're expected to hear about OpenAI's new search engine project.

また、来週はOpenAIのアップデートイベントが噂されており、OpenAIの新しい検索エンジンプロジェクトについて発表があると期待されています。

The following week is Microsoft build up in Seattle.

その次の週は、シアトルでMicrosoft buildが開催されます。

Again, a big event that happens annually where Microsoft makes some of their biggest announcements this year, likely to be mostly focused on AI.

これも毎年開催される大きなイベントで、Microsoftが最大の発表をする年で、今年はAIに大きく焦点を当てることになりそうです。

There's Computex in Taiwan where Jensen Huang, the CEO of NVIDIA is one of the keynote speakers, possibly more announcements.

台湾ではComputexが開催され、NVIDIAのCEOであるジェンスン・フアンが基調講演者の一人となっており、さらなる発表があるかもしれません。

There's Cisco live an event that I'm going to, it's going to be mostly focused around cyber security.

私が参加するCisco liveというイベントがあり、主にサイバーセキュリティを中心に行われます。

There's going to be some big announcements around how we can better protect ourselves against things like deep fakes and voice cloning scams and things like that.

ディープフェイクや音声クローニング詐欺などから身を守るためにできることについて、大きな発表があるでしょう。

That is something that Cisco has been working really, really closely on.

これは、Ciscoが本当に真剣に取り組んでいることです。

Many of those announcements are going to happen at that event in June in Vegas.

これらの発表の多くは、6月にラスベガスで開催されるイベントで行われる予定です。

Also in June, we have Apple's WWDC event, the worldwide developer conference.

また、6月にはAppleのWWDCイベントがあります。

If you remember last year, that's when they announced the Apple Vision Pro.

昨年のことを覚えていれば、Apple Vision Proが発表されたときです。

Well, this year, some of the rumors are that maybe we're going to get a new Siri powered by either OpenAI or Google Gemini.

今年の噂によると、OpenAIやGoogle Geminiを搭載した新しいSiriが発表されるかもしれません。

I really honestly don't know what sort of announcements to expect from WWDC, but all indications point towards it being a very AI heavy sort of announcement day.

WWDCでどのような発表があるのか、正直よくわかりませんが、すべての兆候は、AIを大きく取り上げた発表の日になることを示唆しています。

That's why I think this week is probably the calm before the storm, even though it feels like I just talked about a lot.

だから、今週はおそらく嵐の前の静けさだと思うのです。たくさんのことを話したように感じますが。

It's only going to ramp up from here.

ここから加速していくだけです。

I think as we get into the summer, we're going to see some crazy announcements.

夏になると、クレイジーな発表があるだろうと思います。

I'm here for it.

私はその準備ができています。

I'm excited.

ワクワクしています。

If you want to stay in the loop and make sure that you know about all of these things and that you don't miss any of it, make sure you're subscribed to this channel.

最新情報を入手し、これらすべてのことを見逃さないようにしたい方は、このチャンネルを購読してください。

I put out these AI news recaps every single Friday to loop you in on all of the news that happened throughout the week.

毎週金曜日に、その週に起こったすべてのニュースをまとめたAIニュースのダイジェストを配信しています。

You can get caught up with just one video week of everything you need to know.

一週間に1本の動画で、知っておくべきことをすべて知ることができます。

If you like this video specifically, give it a thumbs up.

この動画が気に入ったら、ぜひ高評価をお願いします。

I really, really appreciate it.

本当に感謝しています。

Also check out the next wave podcast.

また、next waveポッドキャストもチェックしてみてください。

We recently had Logan Kilpatrick on.

最近、ローガン Kilpatrickを迎えました。

He was the head of developer relations over at OpenAI.

彼はOpenAIでデベロッパーリレーションの責任者を務めていました。

He recently left OpenAI and is now working over at Google doing very similar work.

最近、OpenAIを離れ、現在はGoogleで同様の仕事をしています。

We had an interview with him where we asked, well, why did you leave OpenAI?

彼にインタビューをして、「なぜOpenAIを辞めたのか?」と聞きました。

He broke it all down for us.

彼はその理由をすべて説明してくれました。

We also talked about open source first closed source and really went deep down the RABBIT hole with Logan.

また、オープンソースとクローズドソースについても話し、ローガンと一緒に本当に深くウサギの穴に潜りました。

Those of you that want to explore a little bit deeper into the AI space than what I provide on this channel, definitely check out the next wave podcast.

このチャンネルで私が提供しているよりも少し深くAIの世界を探求したい方は、ぜひnext waveポッドキャストをチェックしてください。

That's where we really, really deep dive.

そこでは本当に深く掘り下げています。

As always check out futuretools.io, where I curate all the coolest AI tools.

いつものようにfuturetools.ioをチェックしてください。そこでは最もクールなAIツールをキュレーションしています。

I keep you up to date on the latest AI news.

最新のAIニュースを随時更新しています。

Believe it or not, the AI news that I share in this video isn't all of it.

信じられないかもしれませんが、この動画で共有しているAIニュースがすべてではありません。

I have to cut some of it out just to make sure these videos aren't two hours long, but all of the interesting news that I come across gets shared on this news page.

この動画が2時間にならないように、いくつかはカットしなければなりませんが、私が見つけた興味深いニュースはすべてこのニュースページで共有されています。

Anything I missed in this video should be here.

この動画で見逃したことは、ここにあるはずです。

I also record these videos on Thursdays.

また、これらの動画は木曜日に録画しています。

Anything that comes out on Friday, a lot of times gets missed in these videos.

金曜日に出てくるものは、多くの場合、これらの動画では見逃されています。

Of course, there's a free newsletter where I'll keep you looped in with just the most important news of the week, just the coolest tools I come across.

もちろん、無料のニュースレターもあります。そこでは、その週の最も重要なニュースや、私が見つけた最もクールなツールだけをお知らせします。

It's totally free.

完全に無料です。

You get access to the AI income database when you sign up, which is a cool database of ways to make money with AI.

登録すると、AIで収入を得る方法のデータベースにアクセスできます。これは、AIで収入を得るためのクールなデータベースです。

Again, totally free.

繰り返しになりますが、完全に無料です。

Find it over at futuretools.io and I'll make sure you get hooked up.

futuretools.ioで見つけてください。必ず連絡します。

That is way too many things that I just asked you to do.

お願いしたことが多すぎました。

I apologize, but thank you so much for watching this video and nerding out about AI with me.

申し訳ありませんが、この動画を見ていただき、AIについて一緒にオタク話をしていただきありがとうございました。

That's what's important is that you like to come and hang out and nerd out about the latest and greatest in AI.

大切なのは、最新のAIについて一緒に来てオタク話をするのが好きだということです。

It's so much fun.

とても楽しいです。

Thank you so much for tuning in.

視聴していただきありがとうございました。

Hopefully I will see you in the next video.

次の動画でお会いできることを願っています。

Bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?