見出し画像

【マット・ウルフのAIニュース:Meta社がLLaMA 3をリリース】英語解説を日本語で読む【2024年4月20日|@Matt Wolfe】

今週のAI関連ニュースでは、Meta社がオープンソースのLLM「LLaMA 3」をリリースしました。LLaMA 3は8Bと70Bパラメータの2つのバージョンが公開され、既存のオープンソースモデルを上回るベンチマーク結果を示しました。将来的には400Bパラメータのモデルも予定されており、GPT-4やClaude 3 Opusに匹敵する性能が期待されています。Microsoft、Google、OpenAIなどの大手企業は、数百億ドル規模のデータセンター構築に投資し、AIの開発競争を加速させています。また、Stable Diffusion 3やGrok-1.5Vなど、画像生成モデルの進化も著しいです。Adobe PremiereやDaVinci Resolveといった動画編集ソフトにもAI機能が導入され、動画制作の効率化が図られています。一方で、AI搭載ガジェットの登場や、米空軍によるAIを用いた戦闘機同士の模擬戦闘の成功など、AIの応用範囲は急速に広がっています。
公開日:2024年4月20日
※動画を再生してから読むのがオススメです。


Things are heating up in the AI world, and a lot of news once again happened this week.

AIの世界では熱いことが起こっており、今週もたくさんのニュースがありました。

It is my goal on this channel to keep you looped in with everything that I think you should know.

このチャンネルでは、あなたが知っておくべきすべてをお伝えすることが私の目標です。

There is so much AI news happening every single day that I am doing my best now to kind of just filter it down to just the things that I think you'll find interesting or That I just personally find really fun and interesting.

毎日たくさんのAIニュースが起こっているので、今はあなたが興味を持つと思うことだけ、または私自身が本当に楽しく興味を持っていることだけに絞り込むようにしています。

Let's dive right in.

さあ、始めましょう。

Starting with the biggest announcement of the week, which is the fact that Meta just released LLaMA 3.

今週の最大の発表から始めましょう。それはMetaがLLaMA 3をリリースしたということです。

If you're not familiar with LLaMA, LLaMA 2 was the open source Large Language Model put out by Meta that almost all of the open source Large Language Models that are out There now were initially based on.

LLaMAがよくわからない場合、LLaMA 2はMetaが公開したオープンソースの大規模言語モデルであり、現在出ているほとんどのオープンソースの大規模言語モデルは、元々これに基づいていました。

Despite what other content creators on YouTube may be telling you, this news did not shock nor stun the industry because Meta has been flat out telling us that this is Coming and they even told us it was happening within the next couple weeks.

YouTubeの他のコンテンツクリエイターが言っていることに関わらず、このニュースは業界を驚かせたり驚かせたりするものではありませんでした。なぜなら、Metaはこれが起こると私たちに平然と伝えており、それが数週間以内に起こるとさえ言っていました。

Everybody in the industry has known that this day was coming.

業界の誰もがこの日が来ることを知っていました。

But here's some snippets from Zuck about this monumental day in the world of AI.

しかし、ここでZuckからこのAIの世界における画期的な日に関するいくつかの抜粋をご紹介します。

Today we're upgrading Meta AI with LLaMA 3, our new state-of-the-art AI model that we're open sourcing.

今日、Meta AIをLLaMA 3でアップグレードしています。これは私たちがオープンソース化している最新のAIモデルです。

The bottom line is that we believe that Meta AI is now the most intelligent AI assistant that you can freely use.

最終的な結論は、Meta AIが今、あなたが自由に使える最も賢いAIアシスタントだと私たちは信じています。

To make Meta AI even smarter, we've also integrated real-time knowledge from Google and Bing right into the answers.

Meta AIをさらに賢くするために、GoogleとBingからのリアルタイムの知識を回答に直接統合しました。

We're also releasing a bunch of unique creation features.

私たちはユニークな創造機能の一連をリリースしています。

Meta AI now creates animations and it now creates high quality images so fast that it actually generates and updates the images for you in real time as you're typing.

Meta AIは今、アニメーションを作成し、高品質な画像を非常に速く作成します。実際、入力中に画像を生成および更新しています。

Today we're open sourcing the first set of our LLaMA 3 models at 8 billion and 70 billion parameters.

今日、私たちは8兆から70兆のパラメータを持つ最初のセットのLLaMA 3モデルをオープンソース化しています。

They have best in class performance for their scale and we've also got a lot more releases coming soon that are going to bring multi-modality and bigger context windows.

それらはそのスケールにおいて最高のパフォーマンスを持っており、さらにマルチモダリティとより大きなコンテキストウィンドウをもたらすためにまもなく多くのリリースが予定されています。

We're also still training a larger dense model with more than 400 billion parameters.

私たちは引き続き、400兆を超えるパラメータを持つより大きな密なモデルをトレーニングしています。

A couple things to break down about this announcement real quick.

この発表について分解するべき点がいくつかあります。

They released two versions of LLaMA 3, an 8 billion parameter model and a 70 billion parameter model, and it's pretty comparable to the AI models that are available for free Right now.

LLaMA 3の2つのバージョン、80億パラメータモデルと700億パラメータモデルがリリースされ、現在無料で利用可能なAIモデルとかなり似ています。

If we look at the various benchmark tests here, it performs roughly about as well as Claude 3 Sonnet, the free version of Claude, and Gemini Pro 1.5.

ここで様々なベンチマークテストを見ると、Claude 3 SonnetやClaudeの無料バージョンであるGemini Pro 1.5とほぼ同等のパフォーマンスを発揮します。

When it comes to the existing open source models, the benchmarks of the 8 billion parameter model outperform some of the best existing open source models.

既存のオープンソースモデルに関しては、80億パラメータモデルのベンチマークは、いくつかの最高の既存のオープンソースモデルを上回っています。

If you're looking for these models to really outperform something like Claude Opus or the current version of GPT-4, these aren't quite there yet.

もしClaude Opusや現行のGPT-4のようなものを本当に上回るこれらのモデルをお探しであれば、まだそこまでではありません。

However, what I think is going to be the bigger news from LLaMA 3 is when they finally release the 400 billion parameter model as an open source model.

LLaMA 3からのより大きなニュースだと思うのは、ついに4000億パラメータモデルをオープンソースモデルとしてリリースするときです。

This 400 billion parameter model when it comes out is going to have so much better capabilities.

この4000億パラメータモデルが登場すると、はるかに優れた機能を持つことになります。

Things like multi-modality, the ability to converse in multiple languages, much larger context windows, and stronger overall capabilities.

マルチモダリティや複数言語での会話能力、より大きなコンテキストウィンドウ、そしてより強力な全体的な機能などが含まれます。

This is the LLaMA 3 model that everybody's waiting for.

これがみんなが待ち望んでいるLLaMA 3モデルです。

This is the one that is expected to compete with current models of GPT-4 and Claude 3 Opus.

これが、現行のGPT-4やClaude 3 Opusのモデルと競合すると期待されているものです。

They're even showing some of their early benchmark scores, and this is before the model is even done training, and these benchmarks are kind of on par right now with what You get from the closed models like from Claude and from OpenAI.

彼らはさえ、モデルのトレーニングが完了する前にいくつかの初期のベンチマークスコアを示しており、これらのベンチマークは、ClaudeやOpenAIのようなクローズドモデルから得られるものとほぼ同等です。

And of course, with the announcement of LLaMA 3, NVIDIA wants to remind you that they were trained on NVIDIA GPUs, and GROQ, the one that really speeds up inference from Large Language Models, announced that LLaMA 3 is going to be on GROQ pretty soon.

LLaMA 3の発表と共に、NVIDIAはあなたに彼らがNVIDIA GPUでトレーニングされたことを思い出させたいと思っています。また、大規模言語モデルの推論を本当に高速化するGROQは、LLaMA 3がすぐにGROQ上に展開されることを発表しました。

If you want to actually use LLaMA 3, there's a couple ways to do it right now.

LLaMA 3を実際に使用したい場合、現在はいくつかの方法があります。

It is available over on Hugging Face.

ハギングフェイスで利用できます。

If you don't want to use it on Meta's platform, you can use it via the API over on Hugging Face.

メタのプラットフォームで使用したくない場合は、ハギングフェイスでAPI経由で使用することができます。

Simply go to huggingface.co chat over under current model.

現在のモデルの下でハギングフェイスのチャットに行ってください。

You can see that I'm currently set on the Meta LLaMA 370B, but if you're not, you click the little settings icon and you can select whatever model you want, including Meta's LLaMA 370B model.

私は現在、メタLLaMA 370Bに設定されていることがわかりますが、そうでない場合は、設定アイコンをクリックして、メタのLLaMA 370Bモデルを含む任意のモデルを選択できます。

But the cooler way to use it right now is the new website that Meta released over at Meta.ai.

しかし、現在のクールな方法は、メタがMeta.aiでリリースした新しいウェブサイトを使用することです。

This is Meta's new front-end user interface that just feels like a ChatGPT style chat bot.

これは、チャットGPTスタイルのチャットボットのように感じるメタの新しいフロントエンドユーザーインターフェースです。

One thing they did mention is that this new model actually will search the web when you ask it questions.

彼らが言及した一つのことは、この新しいモデルが実際に質問をするときにウェブを検索するということです。

Let me quickly ask it a super relevant question about something that happened yesterday.

私はすぐに昨日起こったことに関する非常に関連性の高い質問をしてみましょう。

I'll say who won the Padres versus Brewers game yesterday and what was the score?

昨日のパドレス対ブルワーズの試合は誰が勝ち、スコアは何でしたか?

And it correctly answered that the Milwaukee Brewers won against the San Diego Padres yesterday with a score of one to nothing.

そして、正しく答えたのは、ミルウォーキーブルワーズが昨日サンディエゴパドレスに1対0で勝ったということでした。

And then it cited its sources.

そして、それは自分の情報源を引用しました。

While I love Claude, I especially love Claude 3 Opus, this is something that Claude still can't do natively in their own chat app yet.

私はClaudeが好きですが、特にClaude 3 Opusが好きです。これは、Claude自身のチャットアプリではまだネイティブで行うことができないことです。

I think one of the coolest features of this Meta.ai website though is under the Imagine tab.

しかし、このMeta.aiのウェブサイトの中で、最も素晴らしい機能の1つはImagineタブの下にあります。

If you click over here they have a really cool AI image generator in here that will actually generate images in real time as you type.

ここをクリックすると、ここに本当にクールなAI画像生成器があり、実際にタイプするとリアルタイムで画像を生成してくれます。

I am not going to speed this up at all, I am just going to type a cat on the beach eating a taco at night with glowing eyes and as I typed it was literally just shifting and Changing that image around.

私はこれを全く速めるつもりはありません。ただ、夜に光る目を持つビーチでタコを食べる猫をタイプするだけで、その画像が実際にシフトして変化しているのを見ていました。

When I like the image and what it processed I could go ahead and submit it and you can see up here it gave me the image that it generated and now it's generating three Additional images for me.

私が画像を気に入り、処理されたものを見たら、提出することができます。ここで生成された画像を見ることができ、今は私のために3つの追加の画像を生成しています。

A couple seconds later I have a few variations.

数秒後、いくつかのバリエーションがあります。

Let's go ahead and click on the initial one that I made and now they have an animate feature.

さあ、最初に作成したものをクリックして、今度はアニメーション機能があります。

This is something we can't even do over on DALL·E 3 inside of ChatGPT yet.

これは、私たちがChatGPTの中でDALL·E 3でさえまだ行うことができないことです。

I can click this animate button and it's going to take my little cat picture here and turn it into a little short animation.

私はこのアニメーションボタンをクリックすると、ここで私の小さな猫の写真を取って、少しの短いアニメーションに変えてくれます。

I mean there's not much movement going on but I just animated my cat picture and this whole thing took me a couple seconds.

私はあまり動きがないという意味ですが、ちょうど猫の絵をアニメーション化しました。この全体の作業には数秒かかりました。

Let's do a wolf howling at the moon in a realistic style.

リアルなスタイルで月をバックに遠吠えするオオカミをしましょう。

How about in the style of The Simpsons in the style of a 8-bit video game and again as I type it just changes it.

シンプソンズのスタイルで8ビットビデオゲームのスタイルでどうですか?そして、タイプするとそれが変わっていきます。

It's really cool really fun to play with and totally free to play with over at Meta.ai.

本当にクールで遊ぶのが本当に楽しく、Meta.aiで無料で遊べます。

One of my favorite new features that Meta just rolled out.

Metaが導入した私のお気に入りの新機能の1つです。

Again I'm going to do a deeper dive on LLaMA 3 but I'm kind of waiting for that 400 billion parameter model to come out because I think that's going to be the showstopper.

再び、LLaMA 3について詳しく調査しますが、4000億パラメータモデルが登場するのを待っています。それが業界全体を驚かせると思います。

That's going to be the one that stuns the entire industry.

それが業界全体を驚かすものになるでしょう。

Expect more chat about LLaMA 3 from me in the future.

将来的に私からLLaMA 3についてのさらなるチャットを期待してください。

If you're running an online business you really should be able to support your customers 24-7 with this new age of AI that we're in.

オンラインビジネスを運営している場合、このAIの新時代で顧客を24時間365日サポートできるべきです。

That's why for this video I partnered with GPTtrainer.com because it is the first and only no code/low code framework that allows you to build multi-agent ChatGPT like chat Bots that have function calling capabilities and can use your own data.

だからこのビデオでは、GPTtrainer.comと提携しました。それは、マルチエージェントChatGPTのようなチャットボットを構築し、関数呼び出し機能を持ち、独自のデータを使用できる最初で唯一のノーコード/ローコードフレームワークです。

And since humans still love humans in the loop your customers can escalate the chat and actually talk to a real human.

お客様がチャットをエスカレートさせて実際にリアルな人間と話すことができるため、人間はまだループ内で人間を愛しています。

The GPT trainer chat bots have things like frustration detection that can better steer your chat bots responses when a customer is getting frustrated repeating a question Using foul language or doing other things that indicate they're not happy with how the conversation's going.

お客様がイライラして質問を繰り返したり、悪態をついたり、会話の進行に不満を持っていることを示す他の行動を取ったりする場合、GPTトレーナーチャットボットにはイライラ検出などの機能があり、チャットボットの応答をより適切に誘導することができます。

With the function calling capability you can send customers where they need to go.

機能呼び出しの機能を使用すると、お客様を必要な場所に送ることができます。

For example if they need to book a call it can use apis and web hooks to book the call straight through the chat bot.

たとえば、お客様が通話を予約する必要がある場合、APIやWebフックを使用してチャットボットを介して直接通話を予約することができます。

If you need the bot to process a return on your company's behalf it can do that as well with this function calling capability.

会社の代わりにボットに返品処理をさせる必要がある場合、この機能呼び出しの機能を使用してそれを行うこともできます。

GPT trainer can also be a great lead collection tool for your website so when potential customers have a chat you can collect things like their name and email and save them To a database for future marketing opportunities.

GPTトレーナーは、ウェブサイトの優れたリード収集ツールにもなります。したがって、潜在的な顧客がチャットをすると、名前やメールアドレスなどを収集し、将来のマーケティング機会のためにデータベースに保存することができます。

They have some amazing documentation with video tutorials and step-by-step walkthroughs to make sure that you understand exactly how to use the platform to its fullest Potential.

彼らは、ビデオチュートリアルやステップバイステップの解説など、素晴らしいドキュメントを持っており、プラットフォームを最大限に活用する方法を正確に理解できるようにしています。

You can learn more about GPT trainer over at GPT-trainer.com and if you use the coupon code mattwolf20 to hook you up with 20% off of any subscription plan on the website.

GPTトレーナーについて詳しく知りたい場合は、GPT-trainer.comで詳細をご覧いただけます。また、ウェブサイトの任意のサブスクリプションプランから20%割引になるように、クーポンコードmattwolf20を使用してください。

Thank you so much to GPT-trainer.com for sponsoring this video and again if you have an online business it's definitely a way to stand out among the competition by being Able to offer 24-7 support along with all of the amazing AI features that GPT trainer comes along with.

このビデオのスポンサーであるGPT-trainer.comに感謝いたします。また、オンラインビジネスをお持ちの場合は、24時間365日のサポートを提供できるだけでなく、GPTトレーナーが提供するすべての素晴らしいAI機能を備えて、競合他社から差別化する方法です。

Hey AI Matt here one last thing I forgot to mention GPT trainer also has a commercial license program you can partner with them to sell chat bots or white label the entire GPT trainer platform make money with GPT trainer as well check it out.

最後に、AIマットですが、忘れていたことがあります。GPTトレーナーには商用ライセンスプログラムもあり、チャットボットを販売したり、GPTトレーナープラットフォーム全体をホワイトラベル化して収益を上げることもできます。GPTトレーナーでお金を稼ぐ方法もチェックしてみてください。

Moving right along this was actually news that came out last Friday but as you probably know I record these videos on Thursdays so Friday news usually makes the following Week.

先週金曜日に発表されたニュースですが、おそらくご存知の通り、私は木曜日にこれらのビデオを録画しているので、金曜日のニュースは通常、翌週になります。

But at the end of last week xAI announced Grok-1.5 with vision and the benchmarks show that it's pretty on par with the other models that also have vision in them.

先週の終わりにxAIは、ビジョンを備えたGrok-1.5を発表しました。ベンチマークによると、他のビジョンを持つモデルとほぼ同等の性能を示しています。

We can see some examples that they shared over on the xAI website it can write code from a diagram or they gave it a white board with a diagram

xAIのウェブサイトで共有された例をいくつか見ることができます。ダイアグラムからコードを書くことができるか、ダイアグラムの描かれたホワイトボードを与えられたという例もあります。

And then that white board was turned into code.

そしてそのホワイトボードがコードに変換されました。

There's a handful of other examples here that you can take a peek at.

ここには他にもいくつかの例がありますので、ぜひのぞいてみてください。

I just checked my own Grok account because I do have access to Grok over on X. This feature hasn't been rolled out from what I can tell.

私自身のGrokアカウントをチェックしたところ、私はXでGrokにアクセスできるので、この機能はまだ展開されていないようです。

I had no ability to upload images but once I have access I'll do some deeper testing on what this is actually capable of.

画像をアップロードする能力はありませんでしたが、アクセス権があれば、実際にこれが何ができるのかをより詳しくテストしてみます。

If you use the Po chat bot at all, they just released a new feature called multi-bot chat on Po where basically you can ask questions on Po and it will basically pick which Model to use based on which model is best for the question that you ask it.

もしPoチャットボットを使用している場合、Poでマルチボットチャットという新機能がリリースされました。基本的に、Poで質問をすると、どのモデルがその質問に最適かを選択して使用します。

You can also summon any bot that you specifically prefer by at mentioning that bot.

また、特定のボットを呼び出すこともできます。そのボットを@で指定することで呼び出すことができます。

We can see in their little screenshot here they asked help me understand inflation Claude3 opus responded then they at tagged web search and then asked about the current Interest rates.

ここでのスクリーンショットを見ると、彼らは「インフレーションを理解するのを手伝ってくれ Claude3」と尋ね、opusが応答し、それからweb検索をタグ付けして現在の金利について尋ねました。

It did a web search, answered those questions, and then you can see there was also options for gemini 1.5 pro mistral large and GPT-4 so that you can change jet bots Depending on what you need.

おそらく、それが必要に応じてジェットボットを変更できるように、ウェブ検索を行い、それらの質問に答えた後、Gemini1.5プロMistralラージやGPT-4のオプションもあることがわかります。

I sort of predict this is where a lot of the Large Language Models are going to go.

私は、多くの大規模言語モデルが進む方向だと予測しています。

I think we're going to find that specific Large Language Models are better than others at certain tasks.

特定の大規模言語モデルは、特定のタスクにおいて他よりも優れていることがわかると思います。

Some models might be better at coding, some might be better at writing, some might be better at medical analysis.

一部のモデルはコーディングが得意かもしれませんし、一部は執筆が得意かもしれませんし、一部は医学的分析が得意かもしれません。

We're going to have a chat bot that we interact with and that chat bot is either going to pick the best model to use to ask the question or you're going to be able to tag a Model and specifically ask it that question.

私たちは対話するチャットボットを持つことになり、そのチャットボットは質問する際に最適なモデルを選択するか、特定のモデルを指定してその質問をすることができるでしょう。

I think Po is a little bit ahead of the game here with what they're doing because this to me is the future of Large Language Models.

私は、Poが行っていることが、私にとって大規模言語モデルの未来であると思うので、少し先を行っていると思います。

I don't necessarily see a future where you're either a ChatGPT person or a Claude person or a gemini person.

将来、ChatGPTの人か、クロッドの人か、Geminiの人か、のどれかになるとは必ずしも思っていません。

You use a single front-end user interface, ask it questions, chat with it, and it's going to decide the best model to respond to that question.

単一のフロントエンドユーザーインターフェースを使用し、質問をし、チャットをし、その質問に対して最適なモデルを選択するでしょう。

I'm not always right with my predictions but I really think this is where it's all kind of headed right now.

私の予測はいつも正確ではありませんが、今はすべてがそういう方向に向かっていると本当に思います。

A couple weeks ago I talked about how Microsoft and OpenAI are teaming up together to build a hundred billion dollar data center so that they can really increase compute and Sort of push their way closer to AGI.

数週間前、MicrosoftとOpenAIが協力して、1,000億ドルのデータセンターを建設し、計算能力を本当に増やし、AGIに一歩近づこうとしていることについて話しました。

Well Google answered back and the head of DeepMind said over the next several years Google is also spending at least a hundred billion dollars to build the same kind of Infrastructure.

そしてGoogleが反応し、DeepMindの責任者が、今後数年でGoogleも同様のインフラを構築するために少なくとも1,000億ドルを費やすと述べました。

We have both Microsoft and OpenAI over here working on a hundred billion dollar data center for more GPU compute and we have Google over here saying they're doing the same Thing.

こちらではMicrosoftとOpenAIが1,000億ドルのデータセンターでGPU計算をさらに増やしている一方、Googleは同様の取り組みをしていると言っています。

We're building a hundred billion dollar plus data center over the years so that we can really scale up our AI efforts and we want to be the ones to hit AGI first.

私たちは数年かけて1,000億ドル以上のデータセンターを建設して、AIの取り組みを本当にスケールアップしたいと考えており、AGIを最初に達成したいと思っています。

They didn't actually say that I'm just kind of inferring it from like the whole storyline that's playing out here.

彼らは実際にはそう言っていませんが、ここで展開されているストーリーラインからそれを推測しています。

In the AI art world there was some pretty big news here as well with the release of StableDiffusion 3.

AIアートの世界でも、StableDiffusion 3のリリースによるかなり大きなニュースがありました。

There is a bit of an issue with StableDiffusion 3 in that we don't really have any sort of front-end user interface where we can use StableDiffusion 3 yet.

StableDiffusion 3には、まだ使用できるフロントエンドユーザーインターフェースがないという問題があります。

They released the API, they made it available so that people that are building software products can integrate StableDiffusion 3 into their software but because Stability AI Doesn't own ClipDrop anymore we don't have a free website to play around and test it yet but this main image here was actually generated with StableDiffusion 3.

StableDiffusion 3をソフトウェア製品を構築している人々が自分たちのソフトウェアに統合できるようにAPIをリリースし、利用可能にしましたが、Stability AIはもはやClipDropを所有していないため、まだ遊んだりテストしたりするための無料のウェブサイトはありませんが、このメインの画像は実際にStableDiffusion 3で生成されました。

Even the text in this image was all StableDiffusion 3.

この画像のテキストもすべてStableDiffusion 3でした。

There's some more examples we can see that it's pretty good with text in the images.

画像の中のテキストにはかなり優れていると言える例がいくつかあります。

I wouldn't necessarily say the image quality of the images themselves are like insanely far ahead of what we get out of DALL·E 3 and honestly probably not even quite as good As what we get out of Midjourney but it does do text really well.

画像自体の画質は、DALL·E 3から得られるものよりもはるかに進んでいるとは必ずしも言えませんし、正直に言って、Midjourneyから得られるものほど良いとも言えませんが、テキストは本当にうまく処理しています。

You can see another example here they say it's not good to think in here that's quite a big chunk of text that it managed to get into the image and follow the prompt pretty Well.

ここでもう1つの例があります。ここでは、画像に入れることができたかなり大きなテキストの塊があり、プロンプトにかなりよく従っています。

Although we don't have access to StableDiffusion 3 yet in an easy user interface it will probably roll out into a lot of AI image apps soon.

簡単なユーザーインターフェースでStableDiffusion 3にアクセスできないとしても、おそらく近いうちに多くのAI画像アプリに展開されるでしょう。

One of it that I'm fully anticipating that it's going to roll out into soon is Leonardo AI.

私が完全に予想している中の1つは、Leonardo AIにすぐに展開されるということです。

They've been way ahead of the game so far one of the first tools I remember to have SDXL available in it.

これまでにゲームの先を行ってきた彼らは、私が覚えている最初のツールの1つで、SDXLを利用可能にしたものでした。

In all likelihood we'll see StableDiffusion 3 in Leonardo soon but before we do I was recently talking with somebody over at Leonardo and they told me about a new feature That they are dropping like really soon possibly even by the time you're seeing this video.

おそらく私たちはLeonardoで近いうちにStableDiffusion 3を見るでしょうが、その前に、最近Leonardoの誰かと話していて、このビデオを見ている時点でおそらくすぐに、新機能について教えてもらいました。

They said that this weekend they're going to release a style transfer feature and the example that they gave me was they uploaded this image as the style reference.

おっしゃるところでは、今週末にスタイル変換機能をリリースする予定で、例として、この画像をスタイルの参照としてアップロードしたと教えていただきました。

And then had Leonardo generate a handful of images, but use the same style reference.

そして、レオナルドにいくつかの画像を生成させましたが、同じスタイルの参照を使用しました。

Here's a few of the images they generated, like this person skydiving in that same style, somebody wearing a helmet in a futuristic cyberpunk world.

彼らが生成した画像のいくつかをこちらに示します。例えば、同じスタイルでスカイダイビングをしている人、未来的なサイバーパンクの世界でヘルメットをかぶっている人などです。

Here's another kind of cyberpunky image in that same style, and another one, and here's even another one.

同じスタイルで別のサイバーパンク風の画像もありますし、もう1つ、さらにもう1つあります。

They didn't tell me exactly what prompts were used, they just told me that this was the initial style reference to get images like this, and this, and this.

具体的にどのようなプロンプトが使用されたかは教えていただきませんでしたが、この初期のスタイル参照を使用してこのような画像を取得できると教えていただきました。

Again, I was told this feature is rolling out this weekend, so within the next few days, possibly by the time you've seen this video, that feature is in Leonardo.

再度、この機能は今週末に展開される予定であり、数日以内に、おそらくこのビデオをご覧になる時点で、その機能はレオナルドに搭載されているはずです。

This week, Microsoft also released some really cool research called Vasa 1.

今週、MicrosoftはVasa 1という非常に興味深い研究を公開しました。

Basically, what it is, is you can upload an image of a headshot, upload an audio clip, and then it generates a talking video combining that headshot and the audio clip.

基本的には、ヘッドショットの画像をアップロードし、オーディオクリップをアップロードし、それらを組み合わせて話すビデオを生成することができます。

We've seen stuff like this, tools like Sad Talker, DID, HeyGen can do stuff like this right now.

これまでも、Sad Talker、DID、HeyGenなどのツールがこのようなことを行うことができました。

However, the big difference is the amount of emotion in the face, the way they move, the way they blink, the way they raise and lower their eyebrows, and move their head and Body around in the videos really makes it stand out.

ただし、大きな違いは、顔の感情の表現の量、動き方、まばたき方、眉を上げ下げする方法、頭や体を動かす方法など、ビデオでの表現が本当に際立っていることです。

Here's one of the examples: have you ever had maybe you're in that place right now where you want to turn your life around, and you know somewhere deep in your soul there Could be some decisions that you have to make.

一つの例を紹介します:もしかしたら、あなたは今、人生を変えたいと思っている場所にいるかもしれません。そして、あなたの魂の奥深くに、あなたが決断しなければならないことがあるかもしれません。

And here's another example: if you plan to go for a run and you don't have enough time to do a full run, do part of a run.

そしてもう一つの例を紹介します:もしランニングに行く予定があり、フルで走る時間がない場合は、一部だけ走ってみてください。

If you plan to go to the gym today but you don't have the full hour that you normally work out, do some push-ups, run up and down the stairs.

もし今日ジムに行く予定があるけれど、通常のトレーニング時間が取れない場合は、腕立て伏せをしたり、階段を上り下りしたりしてみてください。

It's also going to work with cartoon-looking images as well, like this: I'm not surprised, let everything last, I've broken my heart so many times I stopped keeping track.

これは、見た目が漫画のようなイメージでも機能します。例えば、私は驚かないわ、全てを長持ちさせて、何度も心を傷つけられてきたから、数えるのをやめたの。

Because this is being put out by Microsoft and they're worried about the deep fake potential, we don't know when we're going to get access to this.

これはMicrosoftによって公開されており、深いフェイクの可能性を懸念しているため、いつアクセスできるかわかりません。

They said they don't want to release it until they feel that it's safe to release.

彼らは、安全に公開できると感じるまでリリースしたくないと述べています。

I don't know when they'll feel that threshold has passed, but I don't know, I have a feeling we may not see this for some time.

彼らがその閾値が過ぎたと感じる時期がいつかはわかりませんが、私は、この技術をしばらく見ることができないかもしれないと感じています。

But I also believe that other companies not called Microsoft will probably make things very similar that we will be able to get access to even sooner.

しかし、Microsoftとは別の企業が、おそらく同様のものを早く手に入れることができるようにするでしょう。

Personally, I think this would be really cool for things like podcasts, like if I can't do a video-to-video podcast when I'm doing an interview and I'm just purely working With audio, I can come back and make a video, put my guest's head in there, put my head in there.

個人的には、これはポッドキャストなどに本当に良いと思います。例えば、インタビューをしているときにビデオ対ビデオのポッドキャストができない場合、純粋にオーディオで作業しているときに、後でビデオを作成し、ゲストの頭を入れたり、自分の頭を入れたりできます。

And then actually make it look like we're having a real conversation back and forth.

そして、実際に私たちがリアルな会話をしているように見せることができます。

I don't think it's going to fool anybody.

誰かをだますことはできないと思います。

I just think it's a fun concept for a future video.

将来のビデオのための楽しいコンセプトだと思います。

If you can't actually record the video when you're doing the interview, things like that, I think it'll be really useful for if you're into creating 3d objects for game Assets or 3d movies or things like that.

インタビューをしているときに実際にビデオを録画できない場合、そのようなことは、ゲームアセットや3D映画などを作成するのに本当に役立つと思います。

We've got some new research called instant mesh that was released this week under an apache 2.0 open source license where you can upload a 2d image and have it transformed Into a 3d object that you can then download.

今週リリースされたインスタントメッシュという新しい研究があります。これは、2D画像をアップロードして、それを3Dオブジェクトに変換してダウンロードできるようにするapache 2.0オープンソースライセンスのもとで公開されました。

And this one even has a Hugging Face demo that we can play with right now for fun.

そして、これにはHugging Faceのデモさえあり、今すぐ楽しむことができます。

Let's take this image of a robot, toss it in there, and see what it generates for us.

このロボットの画像を取って、そこに投げ入れて、私たちに何を生成するか見てみましょう。

I'll simply drag it as the input image.

私は単にそれを入力画像としてドラッグします。

If I click generate, the first thing it's going to do is remove the background, so we'll see that happen first.

生成をクリックすると、最初にバックグラウンドを削除することになりますので、まずそれが起こるのを見ることになります。

We have our robot with no background, and it's processing the 3d version.

背景のないロボットがあり、3Dバージョンを処理しています。

It took about 30 seconds.

約30秒かかりました。

It generated multiple views and angles of what it predicts this robot to look like, and then created this 3d object for us here that I can download as an obj or glb file.

予測されるこのロボットの複数のビューと角度を生成し、そしてここで私たちのためにこの3Dオブジェクトを作成しました。私はobjファイルまたはglbファイルとしてダウンロードできます。

It's not perfect.

完璧ではありません。

You're not going to put something like this straight into a game, but you have a nice little rough draft that you can pull into blender or something else and clean it up to Get it ready for a game.

このようなものをそのままゲームに入れることはありませんが、ブレンダーなどに引っ張り込んでクリーンアップしてゲーム用に準備することができる素敵なラフドラフトがあります。

Like I just tossed it in a mixamo and got my new character to dance for me this week.

まるで私がmixamoに投げ込んで、今週私の新しいキャラクターに踊ってもらったようです。

The spline tool also added text to 3d image right inside of their app, so if you head over to spline.design.ai generate, you can generate 3d images for about 24 bucks a Month.

スプラインツールは、彼らのアプリ内で3Dイメージにテキストを追加しました。ですので、spline.design.aiに行って生成すると、月額24ドルで3Dイメージを生成できます。

I do think this spline tool is really cool, and from what I've seen, it generates pretty good 3d images.

私はこのスプラインツールが本当にクールだと思いますし、私が見てきた限りでは、かなり良い3Dイメージを生成しています。

But on the other hand, we also have meshi.ai, which in my opinion generates just about as good of images from what I can tell, and they have options to do it for free.

しかし、一方で、私たちはmeshi.aiも持っています。私の意見では、私が見ている限りでは、同じくらい良いイメージを生成しており、無料で行うオプションもあります。

Still, we also got some big news out of adobe this week.

それでも、今週はアドビからもいくつかの重要なニュースがありました。

If you weren't aware, the nab conference was going on in vegas, the national association of broadcasters.

気づいていなかった場合、ナショナル・アソシエーション・オブ・ブロードキャスターズのNABカンファレンスがラスベガスで開催されていました。

It's a big event where a lot of companies show up to make announcements about what they're doing in the video world, and a big talk of this year's event was ai.

今年のイベントの大きな話題はAIで、多くの企業がビデオの世界で何をしているかを発表するために集まる大きなイベントです。

And this demo that adobe showed off really blew some minds.

そして、アドビが披露したこのデモは本当に驚きました。

We can see this scene here where they're looking in a briefcase on the back of a car, and there's a handful of scattered diamonds in this briefcase.

ここで、車の後部座席のブリーフケースを見ているシーンが見られます。このブリーフケースには散らばったダイヤモンドが数個入っています。

They click on add object pen selections, select this area where the diamonds are.

彼らは「オブジェクトの追加」ペン選択をクリックし、ダイヤモンドがあるエリアを選択します。

And then type pile of large diamonds on black velvet cloth, and then click generate.

そして、黒いベルベットの布の上に大量のダイヤモンドの山と入力し、生成をクリックします。

They get some samples to choose from.

サンプルがいくつか提供されます。

They select the first one, and now we have a video with a briefcase filled with diamonds.

彼らは最初のものを選択し、今やダイヤモンドでいっぱいのブリーフケースのビデオができました。

We can see as the video camera moves around, everything kind of stays where it's supposed to stay.

ビデオカメラが移動するとき、すべてが予想通りに動いているのがわかります。

They also showed off the ability to mask and remove objects directly from a video scene.

彼らはまた、ビデオシーンから直接オブジェクトをマスクして削除する能力も披露しました。

They've got this sort of electric box here.

彼らはここにこの種類の電気ボックスを持っています。

They highlighted it, clicked remove object, and it was removed in the video.

それを強調し、オブジェクトを削除するをクリックし、そのビデオから削除されました。

You can see the video continues to play as normal.

ビデオは通常通り再生されているのが見えます。

You can see a little bit of like where it used to be, some of the lines kind of fade, but pretty dang good overall.

以前どこにあったか少し見えることができますが、線の一部が薄れているが、全体的にはかなり良いです。

More examples: they removed this cafeteria sign here, removed this backpack in the shot here.

他の例:ここでこの食堂の看板を取り除き、ここでこのバックパックを取り除きました。

This person looks at their watch, and they actually change the style of the watch.

この人は時計を見て、実際にその時計のスタイルを変えます。

They take this guy, toss a tie on him.

彼らはこの男を連れてきて、彼にネクタイを投げかけます。

A feature that I will probably use a heck of a lot is this feature where you can extend the clip.

私がおそらくたくさん使うであろう機能は、クリップを延長できる機能です。

It uses AI to Figure out what it thinks the rest of this clip will look like.

それはAIを使用して、このクリップの残りの部分がどのように見えるかを推測します。

They can click extend, it shows it's generating, and now when they press play, the video actually continues to play longer than the actual video was.

彼らは延長をクリックすることができ、生成中であることを示し、再生ボタンを押すと、実際のビデオよりも長く再生されます。

One thing you'll notice if you're looking really close: notice the complexion of her skin.

非常に注意深く見ている場合に気づくことがある1つは、彼女の肌の色調です。

This is something that the majority of the world probably won't notice, but if you are using AI tools a lot, these are the kinds of things you will look for to determine if It was AI or not.

これは世界の大多数がおそらく気づかないことですが、AIツールをよく使用している場合、それがAIかどうかを判断するために探すであろう種類のものです。

But if you look at her complexion on her face as we skim past here, when it gets to the generated area, you can actually see her skin like really, really smooth out, look a Little bit more kind of cartoony, but it's still pretty dang good.

しかし、ここを通り過ぎる際に彼女の顔の肌の色合いを見ると、生成された領域に到達すると、実際に彼女の肌が非常に滑らかになり、少し漫画っぽく見えますが、それでもかなり良いです。

And the other thing they showed off during this is that there's other models you'll be able to use directly inside of Premier.

そして、この間に披露されたもう一つのことは、Premierの中で直接使用できる他のモデルがあるということです。

I really, really hope DaVinci Resolve gets this because I mostly edit with DaVinci Resolve, but this could be enough of a game changer that I switch back to Premier.

私は本当に、本当にDaVinci Resolveがこれを取り入れることを願っています。私は主にDaVinci Resolveで編集をしていますが、これはゲームチェンジャーになる可能性があるので、Premierに戻るかもしれません。

Check this out: they show a little drop down showing that Pika is available.

これをチェックしてください:Pikaが利用可能であることを示すドロップダウンが表示されます。

If you use Pika to generate videos, well, you can use Pika in this upcoming version of Premier.

もしPikaを使用してビデオを生成する場合、この次のバージョンのPremierでPikaを使用できます。

Have it generate a chunk of video for you using Pika Labs.

Pika Labsを使用して、ビデオの一部を生成させてみてください。

And they even showed off a version where they used Sora.

彼らはSoraを使用したバージョンを披露してさえいました。

They click on OpenAI, they get a prompt view of a city skyline in the rain at night.

OpenAIをクリックすると、夜の雨の中の都市のスカイラインがプロンプトビューで表示されます。

It generates a video of a city skyline with rain, and it's actually incorporating the Sora model into Adobe Premier.

都市のスカイラインと雨のビデオを生成し、実際にSoraモデルをAdobe Premierに組み込んでいます。

This might be our first ever chance to use Sora.

これは私たちがSoraを使う初めてのチャンスかもしれません。

It might go into Premier first before we get any sort of like front end user interface to it, but I'm here for it.

Premierに入る前に、フロントエンドのユーザーインターフェースが得られるかもしれませんが、私はそれに賛成です。

That's really, really cool.

それは本当にすごいです。

Also looks like they plan to integrate with Runway.

Runwayと統合する予定のようです。

Whatever your preferred AI video generation model is, whether it's Pika, Runway, or most likely it's going to be Sora, you're going to be able to generate videos directly Inside of Premier.

あなたの好きなAIビデオ生成モデルが何であれ、Pika、Runway、またはおそらくSoraであれ、Premierの内部で直接ビデオを生成できるようになります。

And as somebody who creates videos for a career, I couldn't be more excited about this.

私はキャリアとしてビデオを作成する人間として、これ以上に興奮することはありません。

I just really wanted DaVinci because that's the platform that I'm most familiar with, but this is wild.

私は本当にDaVinciが欲しかったのですが、私が最も馴染みのあるプラットフォームですが、これはすごいです。

This is going to be a huge up level for content creators.

これはコンテンツクリエイターにとって大きな進化になるでしょう。

If you make videos and you have the ability to generate with Pika, Runway, Sora, do in painting, out painting, and all of that kind of stuff all within your video editing Platform that you use on a daily basis, I mean, changes the game for video creators and video editors.

もしビデオを作成し、Pika、Runway、Soraで生成し、インペインティング、アウトペインティングなどをビデオ編集プラットフォーム内で行う能力があるなら、日常的に使用するビデオ編集プラットフォームでゲームが変わります。

I did mention DaVinci Resolve.

私はDaVinci Resolveを言及しました。

They did make some announcements at the NAB event as well, including new AI powered features.

NABイベントでも新しいAI機能を含むいくつかの発表がありました。

One of them being AI color grading, something that I never really do on these videos, but probably should get better at doing.

その中の1つがAIカラーグレーディングで、私はこれらのビデオであまりやらないことですが、おそらくもっと上手になるべきです。

I like to add a lot of color in my backgrounds, but I'm not very good at color grading.

私は背景にたくさんの色を追加するのが好きですが、カラーグレーディングはあまり得意ではありません。

I'm looking forward to AI color grading just to give my videos like a consistent look across the board, but also adding AI powered motion tracking, which if you have a Studio version of DaVinci Resolve, they already have what's called the magic mask, which kind of does AI motion tracking.

私はAIカラーグレーディングを楽しみにしています。ビデオに一貫した外観を与えるだけでなく、AI搭載のモーショントラッキングも追加します。DaVinci ResolveのStudioバージョンをお持ちの場合、すでにAIモーショントラッキングを行うマジックマスクという機能があります。

Personally, I'm not totally sure about the huge difference here, but as a DaVinci Resolve user, I'm just excited to get my hands on all of it and play around with it.

個人的には、ここでの大きな違いについては完全には理解していませんが、DaVinci Resolveのユーザーとして、すべてを手に入れて試してみることにワクワクしています。

These features are in DaVinci Resolve 19, which is now available.

これらの機能は現在利用可能なDaVinci Resolve 19に含まれています。

And slightly scarier, more dystopian news, the U.S. Air Force confirms the first successful AI dogfight.

そして、もう少し怖い、よりディストピア的なニュースとして、米空軍が初の成功したAIドッグファイトを確認しています。

Basically what they did was they have a jet that can fly by AI.

基本的に彼らがしたことは、AIによって飛行できるジェットを持っているということです。

They actually put humans into the jet so that they can override the AI and take control if they needed to.

実際には、AIをオーバーライドして必要に応じて制御を取るために人間をジェットに乗せました。

And they had it dogfight with a completely human controlled jet.

そして、完全に人間によって制御されたジェットとドッグファイトを行いました。

According to the article, this dogfight was successful and the humans that were in the AI jet never actually had to take control.

記事によると、この犬戦は成功し、AIジェットに乗っていた人間は実際にはコントロールを取る必要がありませんでした。

But they also didn't say who won the dogfight.

しかし、彼らは犬戦の勝者が誰だったかは言っていませんでした。

They didn't say if the AI was better than the human pilot or not, just that they had a successful AI dogfight in real jets.

彼らはAIが人間パイロットよりも優れていたかどうかは言っていませんでした。ただ、実際のジェット機で成功したAI犬戦を行ったと述べています。

And finally, let's talk about some AI enabled gadgets because this has been a really big talk of the AI space lately, with probably the biggest news being the Humane Ai Pin.

最後に、最近AIの世界で大きな話題となっているいくつかのAI対応ガジェットについて話しましょう。おそらく最も大きなニュースはHumane Ai Pinであると言えるでしょう。

Pretty much every review that came out about it that's fairly negative about it, there's a bunch of controversy about whether or not Marques should have titled this the Worst product I've ever reviewed.

それについて出ているほとんどのレビューはかなり否定的であり、Marquesがこれを「私がレビューした中で最悪の製品」と題するべきだったかどうかについて多くの論争があります。

For now, but that's not what I want to talk about in this video today.

今のところ、しかし、今日のこのビデオで話したいことではありません。

I want to show off some other AI gadgets that are popping up in the AI sphere lately.

最近AIの世界で登場している他のAIガジェットを紹介したいと思います。

We've talked about the RABBIT r1.

私たちはRABBIT r1について話しました。

This is a device where you can train it to do tasks.

これは、タスクを訓練することができるデバイスです。

And then the next time you need to do that task, it could kind of do it much more autonomously.

そのタスクを次に行う際、それはより自律的に行うことができるかもしれません。

If you need it to help you book flights or send a specific type of email or respond to somebody on slack, and you have a fairly consistent way of doing it, you can train the R1 to do it that way every single time.

もし、フライトを予約したり特定のタイプのメールを送ったり、slackで誰かに返信するのを手伝ってほしい場合、それを行う方法がかなり一貫している場合、R1にその方法で毎回行うように訓練することができます。

It's a sort of pocket ai agent.

それは一種のポケットAIエージェントです。

Well, that itself isn't new news.

それ自体が新しいニュースではありません。

The news around the RABBIT r1 is that it is starting to ship this week.

RABBIT r1に関するニュースは、今週出荷が始まるということです。

Also, a few months ago, I talked about the rewind pendant.

数ヶ月前に、リワインドペンダントについて話しました。

It was this little necklace that you would wear and it has a microphone in it.

それはあなたが身に着ける小さなネックレスで、中にマイクが付いています。

It would listen to your conversations all day long and at the end of the day, you can go on your computer and sort of review the conversations you had.

それは一日中あなたの会話を聞いており、その日の終わりに、コンピューターで会話を振り返ることができます。

It was supposed to be like an augmented memory device.

それは拡張された記憶装置のようなものでした。

Well, this company rewind and their pendant just rebranded as the limitless pendant and it's no longer like a necklace.

この会社リワインドとそのペンダントは、限りないペンダントとして再ブランド化され、もはやネックレスではありません。

It now looks like this little clip that you clip on your shirt or on a pocket or something like that and it does the same thing.

申し訳ございませんが、この小さなクリップは、シャツやポケットなどにクリップして使用するもので、同じことをします。

It records all day long so that you can go back to your computer later and review conversations and get transcripts, notes, and summaries of what you did and talked about Throughout the day.

一日中録音しているので、後でコンピューターに戻って会話を振り返り、会話の要約、メモ、そして話した内容を取得することができます。

But probably the biggest question that most people have about it is the privacy thing.

しかし、おそらくほとんどの人が気にしているのはプライバシーの問題です。

If I'm wearing this little pendant all day long, what happens if people don't want to be recorded?

一日中この小さなペンダントを身に着けていると、録音されたくない人がいた場合どうなるのでしょうか?

I'm just recording everything all day long whether people like it or not.

私はただ一日中すべてを録音しており、人々が好むかどうかに関係なくです。

But that's not exactly how it works.

しかし、実際にはそういうわけではありません。

We can see in their launch video they give this example where they're saying hey sam it's great to catch up with you and then somebody responds but it just says new speaker New speakers speaking but hasn't given consent to be recorded and the person wearing the pendant says this meeting is really important to me and I really want to remember Your advice.

彼らのローンチビデオで、彼らはこの例を示しています。「ねえ、サム、久しぶりだね。」と言って、誰かが応答するが、新しいスピーカーが話しているだけで、録音の許可を得ていない。そして、ペンダントを身に着けている人が言います。「この会議は私にとって本当に重要で、あなたのアドバイスを覚えておきたいんです。」

Are you okay if I record and transcribe our chat?

「私たちのチャットを録音してトランスクライブしてもいいですか?」

The response comes back as sure no problem it puts the person's name in here and gives a little check that consent was actually received and now instead of blocking out Everything that speaker says we can now go back and read the transcripts and see what that speaker said to me.

返答は「もちろん、問題ありません」となり、その人の名前がここに入り、実際に許可が得られたことを示すチェックが付けられます。そして、そのスピーカーが言ったことを読み返すことができるようになります。

This actually seems like something fairly useful.

これは実際にかなり役立ちそうですね。

It's kind of like a brain augmentation, right?

それはまるで脳の拡張のようなものですね?

You just walk around all day.

一日中歩き回るだけです。

I can see using this at networking events and conferences and things like that that I go to very often.

私は非常に頻繁に参加するネットワーキングイベントや会議などでこれを使用することができると思います。

I meet a lot of people, I get a lot of new names, see a lot of new faces.

たくさんの人に会い、たくさんの新しい名前を覚え、たくさんの新しい顔を見ます。

And then have to remember some of the conversations i had or some of the things that i agreed to do with people like go on their podcasts and things like that.

そして、私がした会話の一部や、ポッドキャストに出演するなど、人々と約束したことの一部を覚えておかなければなりません。

Well, if i have something like this i can go back at the end of the day, remind myself of all the deliverables and things i said i would do in conversations and names of People that i met, and just review it all really quickly.

まあ、もし私がこれのようなものを持っていたら、一日の終わりに戻って、自分が約束したすべての成果物や会話で話したこと、出会った人の名前を思い出し、すべてをすぐに振り返ることができます。

I'm personally really excited about this one.

個人的には、これに本当に興奮しています。

I can see myself using this a lot and i like that it has that consent thing in there so i can let people know yes i'm recording but it's not recording you.

私はこれをたくさん使う自分を想像できますし、同意事項が含まれているので、録音していることを知らせることができますが、あなたを録音しているわけではありません。

It can only hear me unless you give me consent.

あなたが同意しない限り、私は自分の声しか聞くことができません。

Do you consent to me recording this?

お録音してもよろしいですか?

As soon as they say yes, it now starts to record them as well.

彼らがはいと言った途端、それは彼らの音声を録音し始めます。

I think that's really cool.

それは本当にすごいと思います。

If you ever basically wanted ChatGPT built straight into your earbuds, well the company nothing is putting ChatGPT right into their new earbuds.

もしもあなたが基本的にChatGPTをイヤーバッドに直接組み込みたいと思っていたら、その会社は実際にChatGPTを新しいイヤーバッドに組み込んでいます。

I don't believe it's actually doing any of the ai on the earbuds themselves.

実際には、イヤーバッド自体でAIを行っているとは思いません。

It's going to connect to your phone or whatever in order to use ChatGPT.

ChatGPTを使用するために、あなたの電話などに接続する予定です。

Right now you need an internet connection because it's going via api.

現時点では、API経由で通信しているため、インターネット接続が必要です。

Anyway, i don't think you just have these earbuds in, leave your phone somewhere else, and have chats with ChatGPT.

とにかく、イヤーバッドをつけて、電話を別の場所に置いて、ChatGPTとチャットすることはできないと思います。

I think you still need your phone in your pocket.

まだポケットに電話を入れておく必要があると思います。

Which if that's the case, i don't understand how there's a huge benefit of this over just having the ChatGPT app on your phone and then having bluetooth headphones to talk To your ChatGPT app.

その場合、この方法が、単に電話にChatGPTアプリを持っていて、Bluetoothヘッドホンを使ってChatGPTアプリと話すよりも大きな利点があるかどうか理解できません。

I guess it might save you one step of having to open up the app, but i think with new versions of siri and things like that rolling out, going to become less of an issue.

あなたがアプリを開く手間を省くことができるかもしれませんが、新しいバージョンのSiriなどが登場すると、それはあまり問題ではなくなると思います。

It's interesting, but it feels a little gimmicky to me.

それは興味深いですが、私には少しギミックっぽく感じます。

It doesn't feel like a huge selling point for most people.

ほとんどの人にとっては大きなセールスポイントには感じません。

If you've got a phone in your pocket, you've got access to that tech whether you've got these earbuds or not.

ポケットに電話があれば、これらのイヤホンがあろうとなかろうと、そのテクノロジーにアクセスできます。

It's something that i actually do see being genuinely useful is that logitech is announcing an ai prompt builder for their logitech mice.

実際に役立つと思うのは、ロジクールがロジクールマウス向けのAIプロンプトビルダーを発表していることです。

If you use a logitech mouse like i actually do, i use a g502 light speed, mine's a gaming mouse but i absolutely love it, my favorite mouse i've ever owned.

私が実際に使っているように、私はG502ライトスピードを使っています。私のマウスはゲーミングマウスですが、本当に大好きで、今まで所有していた中でお気に入りです。

You probably have the logi options software.

おそらく、ロジオプションソフトウェアをお持ちでしょう。

My mouse has let's see one, two, three, four, five, six, seven, eight, nine, ten, eleven buttons on it, and the logi options tool allows you to program what each one of Those buttons do.

私のマウスには、1、2、3、4、5、6、7、8、9、10、11のボタンがあります。そして、ロジオプションツールを使って、それぞれのボタンに何をプログラムするかを設定することができます。

You'll be able to program this mouse to run ChatGPT prompts.

このマウスをプログラムして、ChatGPTのプロンプトを実行することができます。

For instance, i might be able to select an area like this of the text, press one of the custom buttons that i trained up on a prompt, and have it inject my highlighted Selection into ChatGPT and translate it for me.

たとえば、私はこのようなテキストの一部を選択し、私がプロンプトでトレーニングしたカスタムボタンを押して、選択した部分をChatGPTに挿入して翻訳することができるかもしれません。

Let's say i'm reading a japanese website or something, select the area that i want it to translate, press the special button in my mouse, throws it into ChatGPT, translates It for me.

日本語のウェブサイトを読んでいるとします。翻訳したい部分を選択し、マウスの特別なボタンを押して、それをChatGPTに投げて、翻訳してもらいます。

Just a random example that was top of mind right now, but it sounds like you'll be able to program buttons to work with ChatGPT.

今頭に浮かんだランダムな例ですが、ChatGPTと連携するボタンをプログラムできるようですね。

This announcement also comes with the release of a new mouse.

この発表には新しいマウスの発売も含まれています。

They're releasing the signature ai edition mouse which has its own ai prompt button.

彼らは独自のAIプロンプトボタンを搭載したシグネチャAIエディションマウスをリリースしています。

But it also sounds like if you don't have this special ai edition mouse, you'll be able to turn any of your other buttons into a prompt button as well.

しかし、この特別なAIエディションマウスを持っていなくても、他のボタンをプロンプトボタンに変えることができるようです。

And finally, this boston dynamics robot has been circulating the interwebs and going viral basically because of kind of how creepy it is.

最後に、このBoston Dynamicsのロボットは、そのどこか不気味なところから、インターネット上で話題になり、バイラルになっています。

I actually did a youtube short because i've been experimenting with some of that kind of stuff lately about this.

最近、このようなことを試していたので、実際にYouTubeのショート動画を作成しました。

But if you haven't seen the video from boston dynamics of this robot standing up, you've got to watch this real quick.

もしBoston Dynamicsのこのロボットが立ち上がる動画をまだ見ていないなら、すぐに見る必要があります。

All the ways it could stand up, it had to pick the creepiest possible way.

立ち上がる方法はいくつかある中で、最も不気味な方法を選ばなければなりませんでした。

And then it does the full 180 head, and then walks towards the camera.

そして、180度回転して、カメラに向かって歩いていきます。

I'm pretty sure Boston Dynamics knew that this video was going to creep people out when they posted it, but it also has some major cool factor.

私はかなり確信しています。Boston Dynamicsは、このビデオを投稿する際に人々を不快にさせることを知っていたと思いますが、同時にかなりクールな要素もあります。

This new Atlas 001 replaces the old Atlas robot, which if you remember looked something like this.

この新しいアトラス001は、古いアトラス・ロボットに取って代わります。覚えているかもしれませんが、古いアトラス・ロボットはこんな感じでした。

The new form factor is much smaller.

新しい形状はずっと小さくなっています。

This old version used all sorts of hydraulics, where this new version is electric and much, much quieter.

この古いバージョンはさまざまな油圧を使用していましたが、この新しいバージョンは電動で、はるかに静かです。

I love robotics, I think it's one of the funnest spaces.

私はロボティクスが大好きです。私はそれが最も楽しい分野の1つだと思います。

It's a space I don't know a ton about myself, I just love watching videos of cool robots.

私は自分自身についてあまり詳しくはありませんが、かっこいいロボットのビデオを見るのが大好きです。

And that's all I got for you today.

それでは、今日はこれで終わりです。

Again, I record these on Thursday, so there might be new news that came out since I recorded this, but if there was, I'll make sure it's featured in next week's AI news Breakdown video.

再度申し上げますが、私は木曜日にこれらを録音していますので、私がこれを録音した後に新しいニュースが出たかもしれませんが、もしあれば、次週のAIニュースブレイクダウンビデオで取り上げます。

Again, like I mentioned at the front of this video, I try to cover as much AI news videos as possible in this, but I can't get to everything.

再度、このビデオの冒頭で述べたように、私はこの中で可能な限り多くのAIニュースビデオをカバーしようとしていますが、すべてを取り上げることはできません。

But every single piece of AI news that I think is interesting, I add to futuretools.io news.

しかし、私が興味深いと思うすべてのAIニュースをfuturetools.ioニュースに追加しています。

Check that out for all of the news that I didn't cover in this video.

このビデオでカバーしきれなかったすべてのニュースをチェックしてください。

Also, just check out Future Tools in general, it's a cool place to find really cool useful AI tools.

また、一般的にFuture Toolsをチェックしてみてください。本当にクールで便利なAIツールを見つけることができる素敵な場所です。

Join the free newsletter, if you join the free newsletter, I will keep you in the loop in your inbox with just the most important AI news and the coolest AI tools.

無料のニュースレターに参加してください。無料のニュースレターに参加すると、最も重要なAIニュースと最もクールなAIツールをあなたの受信トレイにお知らせします。

And if you sign up today, I'll hook you up with the AI income database, a database of cool, fun ways to make money using AI.

そして、今日サインアップすると、AI収入データベースを提供します。AIを使用してお金を稼ぐためのクールで楽しい方法が記載されたデータベースです。

And as a final announcement before I totally wrap this one up, if you haven't already, check out our new podcast, The Next Wave Podcast.

最後に、このアナウンスメントを完全にまとめる前に、まだであれば、新しいポッドキャスト、The Next Wave Podcastをチェックしてください。

You can find it over at youtube.com/thenextwavepod.

YouTube.com/thenextwavepodで見つけることができます。

This is where we do deeper dive, longer forum discussions with guests in the AI space, as well as between myself and Nathan Lands, my co-host.

これは、AI分野のゲストと私自身と共同ホストであるNathan Landsとの間で、より深く掘り下げた、より長いフォーラムディスカッションを行う場所です。

If you like what I talk about in these YouTube videos, but you crave going deeper and you want to hear that longer form conversation with all the ethics and implications and Philosophy and all that kind of stuff, we super deep dive on those episodes.

これらのYouTubeビデオで話している内容が気に入っているが、さらに深く掘り下げたいし、倫理や影響、哲学などを含むより長い会話を聞きたい場合は、そのエピソードで超深く掘り下げています。

Check it out, it is The Next Wave Pod over on YouTube.

YouTube上のThe Next Wave Podをチェックしてください。

Watch the video, subscribe to the channel, and we'll take it even deeper down the AI RABBIT hole.

ビデオを見て、チャンネルに登録し、AIのウサギ穴をさらに深く掘り下げましょう。

Thank you so much again for tuning in, I really, really appreciate you.

再度チューニングしてくれて本当にありがとう、本当に感謝しています。

It's been a crazy week, things are starting to ramp up even more as we get further and further into spring.

狂った週だったけど、春がますます深まるにつれてさらに盛り上がってきています。

Thank you once again to GPT trainer for sponsoring this video, I really, really appreciate you guys.

このビデオのスポンサーとして再度GPTトレーナーに感謝します、本当に感謝しています。

And thanks everybody for tuning in and watching these nerd out fests where I just look at things that I find cool on the internet.

そして、みなさん、チューニングしてくれて、私がインターネットで面白いと思うものを見るこのナードアウトフェストを見てくれてありがとう。

And I'm just so happy that you also find this stuff as fun and exciting as I do, and you tune into these videos with me.

そして、私と同じくらい楽しくてワクワクすると感じてくれて、一緒にこのビデオを見てくれることがとても嬉しいです。

Thank you again, I couldn't be more appreciative.

再度ありがとうございます、感謝の気持ちでいっぱいです。

I'll see you in the next video, have a good one, don't be lazy, I can subscribe to avoid confusion, subscribe to boy confusion, subscribe to map, subscribe to map, subscribe To map, and like this video.

次のビデオで会いましょう、良い一日を過ごしてください、怠け者にならないでください、混乱を避けるために購読できます、混乱を避けるために購読する、地図に購読する、地図に購読する、地図に購読する、そしてこのビデオを「いいね」してください。


この記事が気に入ったらサポートをしてみませんか?