見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2024年4月6日|@Matt Wolfe】

今週も、前回のニュース動画公開以降、AIに関する多くのニュースがありました。ほとんどは些細な更新ですが、AI分野の進歩を示しています。一部のニュースは将来的な意味合いを持ち、最後に紹介する内容には奇妙でユーモラスなものもあります。FirstMark Capitalのインフォグラフィックは、現在のAI業界の活発さを示しており、「2024 MADランドスケープ」と称されています。また、マイクロソフトとOpenAIが1000億ドルのデータセンタープロジェクトを計画しているとの報告もあります。この計画が実現すれば、AIモデルのパワーとリアリズムが飛躍的に向上することが期待されます。OpenAIは、合成音声の課題と機会に関するブログ投稿を公開し、新しい音声モデルを発表しました。これにより、15秒のサンプルからリアルな声を生成することが可能になります。さらに、OpenAIはログインせずにChatGPTを使用できるようにし、DALL·Eでの画像内ペインティングも可能になりました。しかし、AIの音声モデルの誤用を防ぐための方策も同時に提案されています。また、今週のAIニュースでは、EntropicがAI倫理に関する研究を発表し、AppleがSiriを賢くするための新しい言語モデル「realm」を発表しました。
公開日:2024年4月6日
※動画を再生してから読むのがオススメです。


Like every week, there has been a ton of AI news that's come out since I published my last news video.

先週と同様、私が前回のニュースビデオを公開して以来、たくさんのAI関連のニュースが出ています。

Most of it has been fairly marginal updates showing that we are making progress on all of this stuff.

ほとんどがかなりマージナルな更新で、この分野で進歩していることを示しています。

Some of it has huge future implications, and a couple of things I'm going to show you at the end are just downright weird and hilarious.

その中には将来的に大きな影響を与えるものもあり、最後にお見せするいくつかのことは、まさに奇妙で面白いものです。

I'm going to do my best to give you a rapid breakdown and quickly run through everything I think you should know from this past week.

この過去の1週間から知っておくべきすべてを迅速にまとめてお伝えします。

Let's start with this infographic from FirstMark Capital.

まずは、FirstMark Capitalのこのインフォグラフィックから始めましょう。

This infographic shows the absolute craziness that is the AI landscape right now.

このインフォグラフィックは、現在のAIの景観がどれほど狂気的であるかを示しています。

They call this the 2024 MAD landscape.

彼らはこれを2024年のMAD景観と呼んでいます。

MAD stands for machine learning, artificial intelligence, and data.

MADは機械学習、人工知能、データを表しています。

You can see how overwhelming this looks.

これがどれだけ圧倒的に見えるかがわかります。

This shows just how many companies are involved right now, and these are just the sort of bigger companies.

これは現在関与している企業の数を示しており、これらは主に大きな企業です。

A lot of the smaller AI companies that are out there didn't even make this graphic.

たくさんの小規模なAI企業は、このグラフィックを作成さえしていなかった。

But really, this image just represents how monstrous of a space this is and how many companies have jumped on board.

しかし、実際には、この画像はこの領域がどれほど巨大であり、どれだけ多くの企業が参入しているかを表しています。

I will make sure it's linked up in the description if you want to sort of dissect it and zoom in and look at more of the tools.

もし、それを分析して拡大してツールをもっと見たいという場合は、説明文にリンクを貼ります。

But I'm really just looking at this at the 30,000-foot view of holy crap there's a lot going on.

しかし、私は本当に、この状況を俯瞰して見ているだけで、本当にたくさんのことが起こっていると思います。

At the end of last week, we got a report published on Reuters here claiming that Microsoft and OpenAI are planning a hundred billion dollar data center project.

先週の終わりに、ここで発表されたロイターの報告書があり、MicrosoftとOpenAIが1000億ドルのデータセンタープロジェクトを計画していると主張しています。

This is still yet to be confirmed by Microsoft or OpenAI, but seeing that Sam Altman said that he needed seven trillion dollars to build a data center and the fact that OpenAI and Microsoft obviously work very closely together, there's probably some truth to the rumors.

これはまだMicrosoftやOpenAIによって確認されていませんが、サム・アルトマンがデータセンターを建設するために7兆ドルが必要だと述べたことや、OpenAIとMicrosoftが明らかに非常に密接に協力していることを考えると、その噂にはおそらく一部の真実があるでしょう。

With this data center, they're also planning on building an artificial intelligence supercomputer that they're calling Stargate.

このデータセンターでは、Stargateと呼ばれる人工知能スーパーコンピューターを構築する予定です。

If this data center does happen, it is expected to be 100 times more costly than some of the biggest existing data centers already.

このデータセンターが実現すれば、既存の最大のデータセンターの100倍のコストがかかると予想されています。

Why is this important?

なぜこれが重要なのか?

Well, if you remember the articles that came out around tools like Sora, one of the things that they showed off in the Sora research was that the video quality got better And better and better by just using more GPU, more compute power to generate the videos, and so far the same seems to apply with almost all AI models: the more compute we Throw at it, the more powerful, the more realistic, the more helpful they can become.

Soraなどのツールに関する記事を覚えている場合、Sora研究で示されたことの1つは、ビデオの品質がGPUや計算能力を増やすことでどんどん向上していったことです。そして、ほとんどすべてのAIモデルにも同じことが当てはまるようです:より多くの計算資源を投入すれば、より強力で、より現実的で、より役立つものになる可能性があります。

Again, this isn't 100% confirmed, but if this happens and Microsoft and OpenAI do team up to build this monstrous data center, I find it hard to believe that there's going To be really any companies or open-source models that will ever be able to catch up with what OpenAI and Microsoft are doing.

もう一度申し上げますが、これは100%確認されたわけではありませんが、もしこれが実現し、MicrosoftとOpenAIが協力してこの巨大なデータセンターを建設することになった場合、OpenAIとMicrosoftが行っていることに追いつくことができる企業やオープンソースモデルは実際にはほとんど存在しないと思います。

And while we're on the topic of OpenAI, OpenAI put out a blog post at the end of last week called navigating the challenges and opportunities of synthetic voices, and Basically OpenAI has created their own voice model similar to what we hear from tools like ElevenLabs that can generate realistic voices off of a single 15-second sample.

そしてOpenAIについて話している最中に、OpenAIは先週末に「合成音声の課題と機会を航海する」というブログ投稿を行いました。基本的にOpenAIは、ElevenLabsのようなツールから聞こえてくるようなリアルな声を1つの15秒のサンプルから生成できる自分たちの音声モデルを作成しました。

The audio that's generated from this is even a step above ElevenLabs in quality; it is really good.

この音声はElevenLabsよりもさらに品質が向上しており、本当に素晴らしいです。

Here we have a reference audio: the initial 15-second sample training force is a push or pull that can make an object move, stop, or change direction.

ここに参照音声があります:初期の15秒のサンプルトレーニングフォースは、物体を動かしたり、止めたり、方向を変えることができる推進力です。

And then we have the generated audio, the brand new audio that was generated from that voice.

そして、その声から生成された真新しいオーディオがあります。

Some of the most amazing habitats on earth are found in the rainforest.

地球上で最も素晴らしい生息地のいくつかは、熱帯雨林に見られます。

A rainforest is a place with a lot of precipitation, and it has many kinds of animals, trees, and other plants.

熱帯雨林は、多くの降水量があり、多くの種類の動物、木々、他の植物が存在する場所です。

That was all AI generated.

それはすべてAIによって生成されたものでした。

It didn't sound much different than the original sample that was given.

それは与えられた元のサンプルとあまり変わらないように聞こえませんでした。

Here's another reference audio: friendship is a universal treasure.

こちらはもう1つの参照音声です:友情は普遍的な宝物です。

It brings joy, support, and laughter into our lives no matter where we are in the world.

どこにいても、それは私たちの生活に喜び、支え、笑いをもたらします。

And then down here, here's some generated audio in various languages using the exact same voice.

そしてここには、まったく同じ声を使ってさまざまな言語で生成されたオーディオがあります。

And there are tons of other examples if you want to listen to more.

もっと聞きたい場合は、たくさんの他の例があります。

Again, I'll make sure it's linked up in the description for you.

再度、説明欄にリンクを貼っておきますね。

But here's the thing: OpenAI put out this blog post and said look how cool this is, but then essentially said we don't trust it in the wrong hands yet, so we're not making It publicly available and you can't use it.

しかし、OpenAIはこのブログ投稿を出して、これはすごいと言いながらも、実際にはまだ誤った手に渡ることを信用していないので、一般には公開せず、使用することはできません。

And because technology like this exists, they are now encouraging steps like phasing out voice-based authentication as a security measure, exploring policies to protect the Use of individuals' voices, educating the public around the possibility of deceptive AI content, and accelerating the development and adoption of techniques for tracking the Origin of audio visual content.

そして、このような技術が存在するため、彼らは今、音声認証の段階的廃止、個人の声の使用を保護する方針の検討、欺瞞的なAIコンテンツの可能性について一般市民を教育すること、およびオーディオビジュアルコンテンツの起源を追跡するための技術の開発と採用を促進しています。

Again, we already have tools that can do this kind of thing like ElevenLabs.

また、既にこの種のことができるツールがElevenLabsのように存在しています。

However, OpenAI's version just feels a little bit better right now.

ただし、OpenAIのバージョンは今のところ少し良い感じがします。

Too bad we can't use it ourselves.

残念ながら、私たち自身はそれを使うことができません。

Also, in OpenAI news this week, you can now use ChatGPT without actually having to log in.

また、今週のOpenAIのニュースでは、ChatGPTをログインせずに使用できるようになりました。

If you're logged out and you go to chatGPT.com, you can see that we get our familiar chat box and we can use it right away without having to log in.

もしログアウトしていてchatGPT.comに行くと、おなじみのチャットボックスが表示され、ログインせずにすぐに使用することができます。

It's not going to save any of your chats, you can't come back to them for later, and of course, it's missing a ton of other features.

チャットの内容は保存されず、後で戻ってくることはできませんし、もちろん、他の多くの機能も欠けています。

But if you just want to ask a question real quick, you can jump over and use it without ever having to log in.

ただし、簡単な質問をしたいだけの場合は、ログインする必要なくすぐに使用することができます。

Staying on the topic of OpenAI, OpenAI just made it so we have essentially inpainting inside of DALL·E.

OpenAIの話題にとどまると、OpenAIはDALL·Eの中で実質的にインペインティングを行うようにしました。

If we generate an image with DALL·E, we can now select a certain area of that image and prompt it to make changes to that image.

DALL·Eで画像を生成すると、その画像の特定の領域を選択して、その画像に変更を加えるように促すことができます。

Like this dog here, they're highlighting areas of the dog.

この犬のように、彼らは犬の領域をハイライトしています。

Then, if I fast forward the video a little bit, they gave it the prompt add bows.

その後、ビデオを少し早送りすると、彼らはそれにリボンを追加するよう指示しました。

And then it regenerates the image here but now bows on the dog.

そして、ここで画像を再生成しますが、今度は犬にリボンがついています。

This feature seems to work directly inside of ChatGPT or if you're using Bing image creator.

この機能は、ChatGPT内で直接動作するようです。または、Bing画像作成ツールを使用している場合も同様です。

If I generate an image like this inside of ChatGPT, I click on the image.

ChatGPT内でこのような画像を生成した場合、画像をクリックします。

You can see I've got a new bar here that says select area of the image to edit, highlight the area and describe changes in chat.

画像の編集エリアを選択して、そのエリアを強調して変更内容をチャットで説明するという新しいバーがありますね。

My goal with this image was to make a guy on a hoverboard, but it kept on putting the wheels here.

この画像での目標は、ホバーボードに乗った男性を作ることでしたが、車輪がここに配置され続けました。

Let's see if we can do it.

それができるか見てみましょう。

I'll select just where the wheels are down here and right here, maybe even on the shadows too.

こことここ、おそらく影にも車輪がある場所を選択します。

See if it fixes that.

それで修正されたか見てみてください。

And then in the prompt, let me type remove the wheels.

そしてプロンプトに、車輪を削除と入力してみます。

We have a new image, but it kind of made the wheel squat here.

新しい画像ができましたが、車輪がここに寄り添ってしまいましたね。

It removed the wheels on the shadow, but it just moved the wheels on the skateboard.

影の車輪は削除されましたが、スケートボードの車輪が移動してしまいました。

Anyway, it's a new feature in DALL·E 3.

とにかく、これはDALL·E 3の新機能です。

You can play around with it.

それで遊んでみることができます。

It might take a few prompts and a few tries to get exactly what you're trying to do.

おそらく、正確にやりたいことをするには、いくつかのプロンプトと何度かの試行が必要かもしれません。

And in the final bit of OpenAI news for this week, the YouTube CEO Neil Mohan was asked about Sora being trained on YouTube videos.

そして今週のOpenAIの最後のニュースでは、YouTubeのCEOであるNeil Mohanが、SoraがYouTubeの動画で訓練されていることについて尋ねられました。

He didn't know if Sora was trained on YouTube videos, but he said that if it was, it would be against YouTube's policies.

彼はSoraがYouTubeの動画で訓練されているかどうかを知らなかったが、もしそうだったら、それはYouTubeのポリシーに違反するだろうと述べた。

If YouTube ever found out that Sora was trained on its videos, OpenAI could be facing more issues.

もしYouTubeがSoraが自社の動画で訓練されていることを発見したら、OpenAIはさらなる問題に直面するかもしれません。

But again, we don't know.

しかし、やはり私たちはわかりません。

Mira was asked, she didn't know.

Miraに尋ねられたが、彼女は知らなかった。

And when the creators of Sora themselves were asked on MKBHD's podcast, they basically said we're not willing to talk about that.

Soraのクリエイター自身がMKBHDのポッドキャストで尋ねられたとき、彼らは基本的にそのことについて話す気はないと述べました。

Today's video is brought to you by Magical, and this is a really cool time-saving Chrome extension.

今日のビデオはMagicalによって提供されており、これは本当に便利な時間を節約できるChrome拡張機能です。

If you head on over to getmagical.com/matt and then click on the button that says get started for free, we can create an account and then install the extension.

getmagical.com/mattにアクセスして、無料で始めるというボタンをクリックすると、アカウントを作成して拡張機能をインストールすることができます。

It'll take us over to the Chrome Web Store.

それは私たちをChrome Web Storeに連れて行ってくれます。

We just simply click add to Chrome, add extension.

Chromeに追加をクリックし、拡張機能を追加するだけです。

Because my Chrome browser automatically hides the extensions, I'm going to click on this little puzzle icon here, scroll down to Magical, and then click on the little Thumbtack icon here to add the Magical button to my browser.

Chromeブラウザは自動的に拡張機能を非表示にするので、ここにある小さなパズルアイコンをクリックし、Magicalまでスクロールして、ブラウザにMagicalボタンを追加するための小さな画鋲アイコンをクリックします。

This tool has a handful of time-saving features.

このツールには、時間を節約するための機能がいくつかあります。

My favorite feature is the ability to automatically reply to emails in my inbox with just a click of a button.

私のお気に入りの機能は、ボタンをクリックするだけで受信トレイのメールに自動的に返信できる能力です。

Here is an email where I'm being invited to an event.

こちらはイベントに招待されているメールです。

If I feel I can go, I can simply click yes, and it automatically writes an email reply for me that says, Thanks for the invitation.

参加できると感じたら、単にはいをクリックすると、自動的にThanks for the invitationという返信メールが書かれます。

I would be interested in attending the AI-focused news briefing.

AIに焦点を当てたニュースブリーフィングに興味があります。

If I don't think I can go, I can click no, and it writes that email for me as well, using the context of the initial email.

行けないと思う場合は、いいえをクリックし、元のメールの文脈を使用してそのメールを書いてくれます。

I appreciate the offer, but I won't be able to attend the AI-focused news briefing.

申し出を感謝しますが、AIに焦点を当てたニュースブリーフィングには参加できません。

And we also have a custom option.

そして、カスタムオプションもあります。

I can click custom, and let's say I don't know if I can go yet or not.

私はカスタムをクリックすることができ、まだ行けるかどうかわからないと言ってみましょう。

I can simply type, I'm not sure if I'll be able to attend yet, and it generates an email that basically says, I will let you know if I'm able to attend closer to the date.

単に「まだ出席できるかどうかわからない」と入力することができ、その結果、以下のようなメールが生成されます。「日にちが近づいたら出席できるかどうかお知らせします」。

It saves you a ton of time if you just need to quickly go through a whole bunch of emails and give a yes, no, or maybe reply.

もしメールをたくさんすばやく処理して、はい、いいえ、またはたぶんの返信をする必要がある場合、大量の時間を節約できます。

It's also got a really handy auto-complete feature where you can create a whole bunch of templates and easily use these templates in any message to somebody.

また、便利な自動入力機能もあり、テンプレートをたくさん作成し、これらのテンプレートを簡単にメッセージに使用できます。

For example, I have a little address template here where I type -address, and it will automatically paste in my address.

たとえば、ここに少しアドレスのテンプレートがあり、私が「ダッシュアドレス」と入力すると、自動的に私の住所が貼り付けられます。

Whoever I'm replying to, let's pretend for a second that email they were asking for my address.

返信する相手がいるとして、彼らが私の住所を尋ねていると仮定しましょう。

I can click reply, type -address, and just like that, it automatically filled in my address into the email.

私は返信をクリックし、ダッシュアドレスと入力することができ、そのようにして、自動的に私の住所がメールに記入されます。

They also have a cool feature called transfers, which makes it really easy to sort of scrape content quickly from any page.

彼らは「転送」という便利な機能も持っており、どのページからも素早くコンテンツをスクレイピングすることが非常に簡単になります。

Magical will save you 10 hours per week, and it works on every single website.

マジカルは週に10時間を節約し、すべてのウェブサイトで機能します。

And as of right now, you can use it completely for free by going to getmagical.com/matt.

そして今のところ、getmagical.com/matt に行くことで、完全に無料で使用することができます。

I'll also put the link in the description, so definitely check it out.

リンクも説明に入れておくので、ぜひチェックしてください。

It will save you so much time.

それはあなたの時間をたくさん節約します。

And thank you once again to Magical for sponsoring this video.

このビデオのスポンサーであるMagicalにも改めて感謝します。

Moving on to some Anthropic news.

いくつかのエントロピックなニュースに移ります。

Anthropic researchers wear down AI ethics with repeated questions.

エントロピックな研究者はAI倫理を繰り返し質問で摩耗させています。

Basically what happened here was that Anthropic researchers figured out that if they ask the AI bot to do something harmful, it will tell them no on the first try.

基本的にここで起こったことは、エントロピックな研究者がAIボットに有害なことをするように頼むと、最初の試みでノーと言われることを発見したということです。

However, if the researchers ask them a whole bunch of harmless questions over and over and over again and then eventually ask a harmful question.

ただし、研究者が何度も無害な質問を繰り返し、最終的に有害な質問をすると、実際に有害な質問に答えることになります。

It will actually answer the harmful question.

実際には、有害な質問に答えることになります。

As of right now, nobody really knows why this is happening, but it seems to be happening on the Large Language Models that have the large context windows like Claude's 200,000 Token context window.

現時点では、なぜこれが起こっているのかは誰も本当の理由を知りませんが、これはClaudeの20万トークンのコンテキストウィンドウのような大きなコンテキストウィンドウを持つ大規模言語モデルで起こっているようです。

When they tried to mitigate this from happening, they found that although limiting the context window helps, it also has a negative effect on the model's performance.

これを防ぐために試みたところ、コンテキストウィンドウを制限するとモデルのパフォーマンスに悪影響を及ぼすことがわかりました。

Right now, AI researchers are trying to find that balance of how do we keep on raising the context windows without these Large Language Models being willing to provide Potentially harmful information at those larger context windows.

現在、AI研究者は、これらの大規模言語モデルが大きなコンテキストウィンドウで潜在的に有害な情報を提供することなく、どのようにしてコンテキストウィンドウを引き上げ続けるかのバランスを見つけようとしています。

Also, this week Anthropic announced that it can now use tools inside of Claude3.

また、今週、AnthropicはClaude 3内でツールを使用できるようになったと発表しました。

According to an email that went out from Anthropic, tool use includes retrieving documents, accessing public APIs, and orchestrating Claude subagents for tasks like scheduling.

Anthropicから送られたメールによると、ツールの使用には文書の取得、公共のAPIへのアクセス、スケジューリングなどのタスクのためにClaudeのサブエージェントを操作することが含まれます。

Also, at the moment, it doesn't appear that this works inside of the Claude bot that you use by just going to Claude AI, but it's in the API.

また、現時点では、Claude AIに行ってClaudeボットを使用するだけでは機能しないようですが、API内にあります。

Right now, I would imagine over time, if you're one of the Claude pro users, they'll probably roll out the ability to use tools and connect to other APIs in there at some Point.

現時点では、Claude proユーザーの場合、時間の経過とともに、おそらくツールを使用し、他のAPIに接続する機能をいつか導入するでしょう。

But right now, this is more for developers who are developing with the Claude API.

ただし、現時点では、これはClaude APIを使用して開発を行っている開発者向けのものです。

Apple appears to be getting deeper into the AI game as well.

アップルはAIゲームにますます深く関与しているようです。

This week, they revealed ReALM, which stands for a reference resolution as language modeling.

今週、彼らはReALMを発表しました。これは言語モデリングの参照解像度を意味します。

This language model is designed to run on a phone and make voice assistants like Siri smarter by helping it understand context and ambiguous references.

この言語モデルは、電話で動作し、Siriのような音声アシスタントをより賢くするために、文脈や曖昧な参照を理解するのを助けるように設計されています。

A few weeks ago, there was speculation coming out that Apple was going to use gemini 1.5 and maybe that was going to be the language model behind Siri.

数週間前、アップルがGemini1.5を使用するという憶測が出ていました。そして、おそらくそれがSiriの背後にある言語モデルになるかもしれません。

But now that we're seeing this ReALM model and the research behind it, it's probably more likely they're going to use this model, which was developed in-house.

ただ、今回のReALMモデルとその背後にある研究を見ていると、おそらく彼らは社内で開発されたこのモデルを使用する可能性が高いでしょう。

This model is different because it's not as big as the other Large Language Models.

このモデルは、他の大規模言語モデルほど大きくないため、異なります。

It's actually very tiny because it's designed to work on a phone and just help you with phone stuff.

実際には非常に小さく、電話で動作するように設計されており、電話関連のことを手助けするだけです。

It doesn't need to do everything, it just needs to know what you're trying to accomplish on your phone like scheduling things in your calendar, sending an email, finding a Photo from your photo albums, things like that that are unique to just your phone.

あなたの電話で何を達成しようとしているかを知る必要がありますが、すべてを行う必要はありません。カレンダーに予定を入れたり、メールを送ったり、写真アルバムから写真を見つけたりするような、あなたの電話に特有のことを知る必要があります。

It's also very good at understanding what's going on on the phone, so it's got a visual model inside of it that can see what is happening on your phone and interpret it to Help make decisions within the language model.

また、電話で何が起こっているかを理解するのに非常に優れており、電話内で起こっていることを見て解釈し、言語モデル内での意思決定を支援するための視覚モデルを持っています。

We know Apple's WWDC, their Worldwide Developer Conference, is happening in June.

私たちは、アップルのWWDC(Worldwide Developer Conference)が6月に開催されることを知っています。

Last year, when they did WWDC, was when they announced the Apple Vision Pro.

去年、彼らがWWDCを行った時にApple Vision Proを発表したのです。

The speculation is that this year we're going to hear all about the AI stuff Apple's been working on, including possibly a new version of Siri with much, much stronger AI Built into it.

予想では、今年はAppleが取り組んできたAI関連の全てについて聞かされることになるでしょう。それには、おそらく、Siriの新バージョンも含まれ、それにははるかに強力なAIが組み込まれている可能性があります。

Stability AI this week, who last week lost their CEO Amad Mastak, just announced stable audio 2.0.

先週CEOのアマド・マスタクを失ったStability AIは今週、安定したオーディオ2.0を発表しました。

If you remember, stable audio was a music generation platform similar to Google's music effects.

覚えているかもしれませんが、安定したオーディオはGoogleの音楽効果に似た音楽生成プラットフォームでした。

You give it a prompt, it generates a song in that style.

プロンプトを与えると、そのスタイルで曲を生成します。

In the past, it was only generating roughly 30-second songs.

過去には、おおよそ30秒の曲しか生成していませんでした。

This new version can actually generate three-minute songs.

この新バージョンでは、実際に3分の曲を生成することができます。

Here's an example song called lo-fi funk.

こちらはlo-fi funkという例の曲です。

It's not horrible, but I don't feel like it's anywhere near what we're getting out of tools like Suno yet.

それほどひどくはないですが、Sunoのようなツールから得られるものにはまだ及ばないと感じます。

The other new feature is audio-to-audio generation where you can kind of hum or make the instrument sounds with your mouth.

もう1つの新機能は、口でハミングしたり楽器の音を出したりしてオーディオを生成することができるオーディオ対オーディオ生成です。

And then it'll try to replicate that with ai.

それから、それはaiでそれを複製しようとします。

It's pretty interesting, but in my opinion, it's not really generating any music that I get super excited by or would want to actually use in one of my videos yet.

それはかなり興味深いですが、私の意見では、まだ本当に興奮するような音楽を生成しているわけではなく、実際に私のビデオの1つで使用したいと思うようなものではありません。

And since we're talking about ai music this week, a whole bunch of musicians including Nicki Minaj, Billy Eilish, Katie Perry, and other musicians signed a letter against Irresponsible ai.

今週はai音楽について話しているので、Nicki Minaj、Billy Eilish、Katie Perryなどの多くのミュージシャンが無責任なaiに反対する書簡に署名しました。

I'll link to the full letter below if you want to read what it actually says, but in my opinion, it's sort of unclear what they're looking for.

実際に何が書かれているかを読みたい場合は、下記に完全な書簡へのリンクを貼りますが、私の意見では、彼らが何を求めているのかはあいまいです。

The very first sentence says, We the undersigned members of the artist and songwriting communities call on ai developers, technology companies, platforms, and digital music Services to cease the use of artificial intelligence to infringe upon and devalue the rights of human artists.

我々は、アーティストや作曲家コミュニティの署名者として、人工知能開発者、テクノロジー企業、プラットフォーム、デジタル音楽サービスに対し、人間のアーティストの権利を侵害し、価値を下げるために人工知能を使用することをやめるよう求めています。

But then the signed letter goes on to say, Make no mistake, we believe that when used responsibly ai has enormous potential to advance human creativity and in a manner that Enables the development and growth of new and exciting experiences for music fans everywhere.

しかし、署名された手紙は続けて、「誤解しないでください、我々は、責任を持って使用される場合、人工知能は人間の創造性を進化させるために莫大な可能性を持ち、音楽ファンのために新しい興奮をもたらす体験の開発と成長を可能にする」と述べています。

At the very end it says, The assault of human creativity must be stopped.

最後には、「人間の創造性への攻撃は止めなければなりません」と述べています。

We must protect against the predatory use of ai to steal professional artists' voices and likenesses, violate creators' rights, and destroy the music ecosystem.

我々は、プロのアーティストの声や肖像権を盗むために人工知能を悪用し、クリエイターの権利を侵害し、音楽エコシステムを破壊することから保護しなければなりません。

To me, it feels like a very vague letter of like ai is ruining music and we need to stop it, but at the same time, we also see that ai has the ability to do really Interesting creative things, but we should use it responsibly and not irresponsibly.

私にとって、この手紙は、人工知能が音楽を台無しにしているという非常に曖昧な内容であり、止める必要があると言っているように感じますが、同時に、人工知能が本当に面白い創造的なことをする能力があることも見ています。しかし、責任を持って使用し、無責任に使用しないようにすべきだとも思います。

Like I want musicians to make a living and to get good at their craft and to put out music that everybody wants to hear, but I don't think it's always cool for people to go And just use other people's voices and music styles to create new songs in the style of that person.

私は、ミュージシャンが生計を立て、自分の技術を磨き、誰もが聞きたいと思う音楽を発表することを望んでいますが、他の人の声や音楽スタイルを使って新しい曲を作ることは常にクールだとは思いません。

I get that, I just honestly do not understand what this open letter is asking for.

わかりますが、正直言ってこの公開書簡が何を求めているのか理解できません。

Like it's just not super clear to me.

私にはそれがあまり明確ではないんです。

But this letter, I don't think it's gonna go anywhere.

しかし、この手紙、どこにも行かないと思います。

It's not like because these 200 artists signed this all of the researchers working on this tech are gonna go, Okay, 200 musicians didn't like this so we're just gonna stop.

これらの200人のアーティストが署名したからといって、この技術に取り組んでいる研究者たちが、「わかった、200人のミュージシャンがこれを好まないから、やめよう」とはならないでしょう。

I don't see that happening, so I'm not quite sure what this is accomplishing other than people just saying, Hey, we don't like ai music, and I'm raising my hand saying I'm One of those people who doesn't like ai music.

そうなるとは思えないので、これが達成することは、単に「ねえ、私たちはAI音楽が好きじゃないんだよ」と言っている人がいるだけで、私はその一人だと手を挙げています。

Okay, cool, we now know.

わかりました、了解しました。

What?

何?

Let's move on to another form of ai art.

別の形のAIアートに移りましょう。

And this time let's talk about Crea AI.

そして今度はCrea AIについて話しましょう。

If you don't remember Crea AI, it is a tool where you can type a prompt like a man on a towel at the beach and as you type it actually generates new variations of the image.

Crea AIを覚えていない場合、それはビーチでタオルに座る男のようなプロンプトを入力すると、実際にその画像の新しいバリエーションを生成するツールです。

Well, they just rolled out this cool new image to image feature where you can upload multiple images, change the weight of the various images that you upload.

その新しい画像から画像への機能を導入したばかりで、複数の画像をアップロードし、アップロードするさまざまな画像の重みを変更することができます。

And then as you change the weights of the various images, you upload it sort of blends all those things into a single image.

そして、さまざまな画像の重みを変更すると、アップロードしたすべてのものが1つの画像にまとまるようになります。

This example, they uploaded three images with the prompt fish made out of porcelain, and as they change the weight on the various images, we can see the image adjust in real Time.

この例では、彼らは提示された磁器製の魚の画像を3枚アップロードし、さまざまな画像の重みを変えると、画像がリアルタイムで調整されるのが見えます。

This is just crazy, like this is really cool.

これはただの狂気ですね、本当にクールです。

I'm a huge fan of the daily show, and this week John Stewart actually did a whole piece on AI.

私はデイリーショーの大ファンで、今週ジョン・スチュワートがAIについての全編をやっていました。

Basically, all of the big companies, the Googles, the Microsofts, the OpenAI's, all of these companies are basically saying that AI is going to create this utopia and we're All going to have our own AI assistants, and it's all going to be this amazing world and it's going to get better and better for everybody.

基本的に、すべての大手企業、Google、Microsoft、OpenAIなど、これらの企業はAIがこのユートピアを創造し、私たち全員が自分自身のAIアシスタントを持つことになり、すべてが素晴らしい世界になり、誰にとってもますます良くなると言っています。

While at the same time also talking about how AI is taking away jobs from companies.

同時に、AIが企業から仕事を奪っていることについても話しています。

I'm not going to play this clip, but I highly recommend watching it because some good points are made here, and well, the daily show is just hilarious.

このクリップは再生しませんが、ここでいくつかの良いポイントが述べられているので、ぜひご覧いただくことをお勧めします。そして、デイリーショーはただ面白いです。

But one of the points that's being made here is that a lot of people are going to lose jobs.

ここで言及されているポイントの1つは、多くの人々が仕事を失うだろうということです。

In fact, there was a report that last year Google laid off 12,000 employees, and a lot of the reports that were going around about this was because of AI.

実際、昨年Googleが12,000人の従業員を解雇したという報告があり、これについて広まっていた報告の多くはAIのせいだと言われています。

Google got rid of 12,000 employees, but that's not the case.

Googleは1万2000人の従業員を解雇しましたが、それはそうではありません。

It wasn't these employees being replaced by AI, it was that Google wanted to move further into AI.

これらの従業員がAIに置き換えられたわけではなく、GoogleはAIにさらに進出したかったのです。

To build teams and sort of readjust the company around building for AI, they made old positions and old sort of departments in Google obsolete.

AIを構築するためのチームを作り、会社をAIに向けて再調整するために、Googleは古いポジションや古い部門を廃止しました。

That's why the layoffs happened, not because AI replaced them.

だから解雇が起こったのです、AIがそれらを置き換えたからではありません。

But speaking of AI replacing jobs, a lot of the big tech companies are coming together to create the ICT Workforce Consortium.

しかし、AIが仕事を置き換える話になると、多くの大手テック企業がICTワークフォースコンソーシアムを作るために集まっています。

Companies involved include Cisco, Google, Microsoft, and IBM.

関与している企業には、シスコ、Google、Microsoft、IBMなどが含まれています。

And the whole point of this consortium is to Figure out how to keep people from losing their jobs as a result of AI.

そして、このコンソーシアムの目的は、AIの結果として人々が仕事を失わないようにする方法を見つけることです。

Shout out to Let Me Be Frank over on X for pointing this one to my attention.

私の注意を引くために、XのLet Me Be Frankに感謝します。

That a court in Washington banned the use of AI-enhanced video evidence.

ワシントンの裁判所がAI強化ビデオ証拠の使用を禁止したということです。

What they mean by AI-enhanced evidence was there was video footage of an incident, and somebody took that video and ran it through Topaz Labs to upscale it, thinking that it Was going to improve the quality of the video so that you can see more details in the video.

彼らがAI強化証拠と言うのは、ある出来事のビデオ映像があり、誰かがそのビデオをTopaz Labsでアップスケーリングして、ビデオの品質を向上させると思ったことです。そのため、ビデオでより詳細を見ることができると考えました。

That's not really how this upscaling works though.

これがアップスケーリングの仕組みではないんです。

Really, the AI on these upscaling tools is sort of trying to guess the pixels in between.

実際、これらのアップスケーリングツールのAIは、ピクセルを推測しようとしています。

When you take the image and you double the size, it's inserting new pixels and trying to guess what the rest of the image is.

画像を取り、サイズを2倍にすると、新しいピクセルを挿入し、残りの画像を推測しようとします。

It's not making things that were there more visible.

そこにあったものをより見やすくするわけではありません。

In some cases, it's adding things that were never actually there in the image.

いくつかの場合、実際には画像に存在しなかったものを追加しています。

It totally makes sense that you shouldn't be able to use this in court.

裁判所でこれを使用できないのは当然です。

A few weeks ago, I reported on the George Carlin stand-up comedy.

数週間前、私はジョージ・カーリンのスタンドアップコメディについて報告しました。

It was a completely AI-generated stand-up set, which I think later came out was not actually written by AI.

それは完全にAIによって生成されたスタンドアップセットで、後にAIによって実際に書かれていなかったことが明らかになりました。

They just used George Carlin's voice to speak it out.

彼らはただジョージ・カーリンの声を使ってそれを話させました。

That case has come to a conclusion.

その事件は結論に至りました。

The company behind the stand-up comedy that was in the style of George Carlin agreed to take down all of the audio and video and anything that existed online of this Stand-up set.

そのスタンドアップコメディの背後にある会社は、ジョージ・カーリンのスタイルで行われたものをすべてオフラインにし、オーディオやビデオ、そしてオンライン上に存在するものをすべて取り下げることに同意しました。

There was some sort of settlement behind the scenes, and it wasn't disclosed what the actual settlement was.

舞台裏で何らかの和解があったが、実際の和解内容は明らかにされていませんでした。

We just know that George Carlin's estate and a podcast team that put out this stand-up comedy set all agreed to some sort of terms, and it's no longer online.

ジョージ・カーリンの遺産とこのスタンドアップコメディを公開したポッドキャストチームが、何らかの条件に同意したことだけがわかっており、もはやオンライン上には存在していません。

Not AI-related, but just kind of fun.

AIに関連していませんが、ちょっと楽しい話です。

Apple Vision Pro rolled out a feature where you can actually interact with other people now.

Apple Vision Proは、他の人と実際にやり取りできる機能を導入しました。

One of the biggest downsides of the Apple Vision Pro is you strap it to your head and you're just kind of alone.

Apple Vision Proの最大の欠点の1つは、それを頭に装着していると、あなたはただひとりであるということです。

There was no real interaction other than like a FaceTime with somebody.

実際の対話は、誰かとFaceTimeのようなもの以外にはありませんでした。

You can actually play games, you can watch movies with people, you can do virtual presentations, and you appear as sort of a floating disembodied head with hands while in The conversation.

実際にゲームをプレイしたり、他の人と映画を観たり、仮想プレゼンテーションを行ったりすることができ、会話中は手を持った浮遊した無身の頭のように見えます。

Here's another example from my buddy Don Allen Stevenson here where it looks like they're playing like virtual board games.

ここでは、私の友人であるドン・アレン・スティーブンソンからの別の例があります。彼らは仮想ボードゲームのようなものをプレイしているようです。

They're playing virtual chess against each other.

彼らはお互いに仮想チェスをプレイしています。

I have an Apple Vision Pro.

私はApple Vision Proを持っています。

I haven't actually played around with these features yet, but looking forward to doing that.

実際にはこれらの機能をまだ試していませんが、それをするのを楽しみにしています。

We're getting into the kind of weirder, more interesting stuff.

私たちは、より奇妙で興味深いものに入っています。

A company out in India created this little scooter called the Ola Solo, and this claims to be the first fully autonomous electric scooter.

インドのある会社が、Ola Soloという小さなスクーターを作成しました。これは、最初の完全自律型電動スクーターであると主張しています。

You jump on this electric scooter and it, I guess, takes you where you need to go.

この電動スクーターに乗って、必要な場所に連れて行ってくれるのだと思います。

I don't know if I'd feel comfortable riding an autonomous scooter, at least not yet.

自律型のスクーターに乗るのは、少なくともまだ快適に感じるかどうかわかりません。

I don't know if I'd want to be testing out version one on the roads yet, but this will be something to follow along to and see if it ever comes to fruition because this, to Me, is fascinating.

まだ道路でバージョン1をテストしたいとは思いませんが、これは追跡して、果たされるかどうかを見るべきものです。これは、私にとって魅力的です。

Out in Phoenix, Waymo vehicles are now delivering Uber Eats.

Phoenixでは、Waymoの車両が今、Uber Eatsを配達しています。

If you're not familiar with Waymo, Waymo is a self-driving car company.

Waymoに詳しくない場合、Waymoは自動運転車の会社です。

I reported in a video a couple months back that in Phoenix, you can now order an Uber Waymo, and a self-driving car will come pick you up and take you to your destination Without a driver even in the car.

Phoenixでは、Uber Waymoを注文することができ、自動運転車が運転手もいない状態であなたをピックアップし、目的地まで連れて行ってくれるということを数ヶ月前のビデオで報告しました。

Well, now they're applying it to Uber Eats, where you can place an order for food.

さて、今ではUber Eatsにもそれが適用されており、食べ物の注文をすることができます。

I guess the restaurant will go take it out to the car.

おそらく、レストランがそれを車まで持っていくのでしょう。

And then the car shows up at your house and you go and get the food from the car.

そして、車があなたの家にやってきて、あなたは車から食べ物を取りに行きます。

I'm guessing, I don't know, I'm not in Phoenix.

私は推測していますが、Phoenixにはいませんので。

I haven't tried this yet, but you do have the option to opt out during checkout if you prefer a human to deliver it.

まだ試したことはありませんが、チェックアウト時に人間が配達することを希望する場合はオプトアウトするオプションがあります。

We're about to get AI as a cast member of a reality show on Netflix, The Circle of season six now includes an AI catfish.

Netflixのリアリティ番組にAIが登場することになりました。シーズン6のThe CircleにはAIのカタフィッシュが含まれています。

Basically, this is like a dating show where there's a bunch of people that are in apartments and then they message with each other and have conversations with each other Without ever actually seeing each other.

基本的に、これはアパートにいる人々がお互いにメッセージをやり取りし、会話をするデート番組のようなものですが、実際にはお互いを見ることはありません。

And I think the goal is to eventually get them to hook up and date.

そして、最終的には彼らが付き合い、デートすることを目指していると思います。

I don't know, I've never seen the show, but I think that's the goal.

その番組を見たことがないのでわからないけど、それが目標だと思います。

There's some catfish in there as well, like this branded dude pretending to be someone named Olivia and Caress here pretending to be Paul.

中には、このブランドの男性がオリビアという人物を装っているような疑わしい人物もいるし、ここにはポールを装っているキャレスもいます。

Let's scroll all the way down here and we have AI bot pretending to be Max on this season.

おっしゃる通り、こちらを最後までスクロールしてみましょう。このシーズン、マックスを装ったAIボットがいます。

It would be really, really interesting if a bunch of the cast members end up falling in love with the AI and not any of the real humans.

実際の人間ではなく、キャストのメンバーの中にAIと恋に落ちることがあれば、非常に興味深いことでしょう。

I might actually watch this just to see how well the AI performs and if the AI gets dates or, I don't know, if the end result is, we'll see.

実際、AIのパフォーマンスがどれほど良いか、AIがデートをするかどうか、最終的な結果がどうなるかを見るために、私は実際にこれを見るかもしれません。

Then finally, this is hilarious.

最後に、これは本当に面白いです。

At an NBA Pacers game, they used a Snapchat filter to make it look like Lakers fans were crying.

NBAのペイサーズの試合で、スナップチャットのフィルターを使って、レイカーズのファンが泣いているように見せました。

You can see in this video, the camera is showing these people, they all look like they're crying, but that is an AI face replacing their mouths with a crying face instead of A happy face.

このビデオで見ると、カメラがこれらの人々を映し出していますが、彼らはみんな泣いているように見えますが、それはAIの顔が彼らの口を泣いている顔に置き換えているだけで、幸せな顔ではありません。

I just found this to be like just super, super funny and I want to see more of this at sporting events.

私はこれがとても面白くて、スポーツイベントでこれ以上見たいと思っています。

Before I wrap up, I have one last super exciting announcement.

最後に、1つ非常に興奮する発表があります。

We've been working on this for months and months and months now.

私たちはこれに数ヶ月取り組んできました。

I think this is going on almost nine months from the idea to finally launching this and I couldn't be more excited.

このアイデアからついにローンチするまで、ほぼ9ヶ月かかっていると思いますが、私はこれ以上興奮することはできません。

Me and Nathan Lands of lore.com are launching a podcast called The Next Wave where we're going to interview CEOs and founders and engineers and people that are building the AI space along with conversations just between me and Nathan and no guest about the current landscape of AI.

私とNathan Lands of lore.comは、The Next Waveというポッドキャストを立ち上げる予定です。そこでは、CEOや創業者、エンジニア、AI領域を構築している人々にインタビューを行います。また、私とNathanだけの対談もあり、AIの現状について話します。

And we've had a blast.

楽しい時間を過ごしています。

We've already recorded a bunch of episodes and it is launching next week, the week after this episode goes live.

すでにいくつかのエピソードを収録しており、次の週、このエピソードが公開された後に公開されます。

And I've got the first sneak peek little trailer for you that I'm going to show you right now.

そして、今すぐお見せする予定の最初の予告編があります。

Hey, welcome to The Next Wave podcast.

こんにちは、The Next Waveポッドキャストへようこそ。

Consider us your chief AI officer in your business.

私たちをあなたのビジネスの主任AIオフィサーと考えてください。

My name is Matt Wolf.

私の名前はMatt Wolfです。

I have the number one YouTube channel in the AI space.

私はAI領域でナンバーワンのYouTubeチャンネルを持っています。

I also run futuretools.com and I'm joined by my co-host Nathan Lands, founder of lore.com and one of the most connected people in Silicon Valley.

また、futuretools.comを運営しており、共同ホストのNathan Lands(lore.comの創設者)と一緒に、シリコンバレーで最もつながりのある人の一人です。

We want to bring you the latest AI news and trends, show you how you can use AI in your business and personal life, and help make it super easy for you to understand and Execute.

最新のAIニュースやトレンドをお届けし、ビジネスや個人の生活でAIをどのように活用できるかを示し、理解して実行するのをとても簡単にするお手伝いをしたいと考えています。

We're going to equip you with the knowledge to thrive in this upcoming wave of change.

この将来の変化に成功するための知識を身につける準備をします。

The world is changing and like the current leaders, like don't understand how this technology works and like it's really difficult to adapt to that change if you don't Understand how the technology works.

世界は変わっており、現在のリーダーたちは、この技術がどのように機能するかを理解していないようで、その変化に適応するのは本当に難しいです。

Dude, if you don't change it dramatically, no one's going to realize you're different from Google.

おい、それを劇的に変えないと、誰もあなたがGoogleとは異なることに気づかないよ。

They're just going to think you're Google with some add-ons, even if you're worse than Google, even if you suck at navigational queries that people go back to Google.

彼らは単に、Googleにいくつかの追加機能があるGoogleだと思うだけで、Googleよりも悪い場合でも、ナビゲーションのクエリでGoogleに戻る人々にはあなたがどうして違うのかが認識されるでしょう。

It's going to register in their mind why you're different and better.

なぜあなたが違っていてより良いのかが彼らの心に登録されるでしょう。

On this podcast, we're going to be having some amazing guests like people from Microsoft, Google, OpenAI, Perplexity, and more to give you the inside scoop on what's Happening in AI.

このポッドキャストでは、Microsoft、Google、OpenAI、Perplexityなどの素晴らしいゲストが登場し、AIの最新情報を提供します。

The interesting thing about AI is everyone from your barber to Jeff Bezos is interested in AI.

AIに興味を持っているのは、あなたの床屋からジェフ・ベゾスまで、誰もがいます。

These models that are coming out from these not OpenAI companies are getting really, really good.

これらのOpenAI以外の企業から出ているモデルは、本当に非常に優れてきています。

Yeah, and you know when you're saying 4X, I think that's a very conservative number, like 100 to 1,000X territory.

そうですね、4倍と言っているとき、それは非常に保守的な数字だと思います、100から1,000倍の領域です。

A lot of things have to be rethought, so that's super exciting.

多くのことが見直されなければならないので、それは非常に興奮しています。

I can't be more excited to share those episodes that we've been working on with you.

私たちが取り組んできたエピソードを皆さんと共有できることがもっとも嬉しいです。

We have a brand new YouTube channel just for the show.

番組専用の新しいYouTubeチャンネルを持っています。

I will make sure it's linked up below, but you can find it over at youtube.com at the next wave pod, or you can find it wherever you listen to podcasts, Apple Podcasts, Spotify, any of those places.

下にリンクを貼ることを確認しますが、youtube.comの次のウェーブポッドで見つけることができます。また、Apple Podcasts、Spotifyなど、ポッドキャストを聴く場所で見つけることもできます。

It's going to be everywhere.

どこにでもあるでしょう。

I hope you tune in with me for these longer, forb discussions and deep dives into the world of AI because I can't wait to share them with you.

私はAIの世界についての長い、深い議論や掘り下げを共に楽しみたいと思いますので、ぜひお聞き逃しなく。

And that is all I got for you today.

それが今日の私からのすべてです。

Thank you so much for tuning into this episode.

このエピソードを聴いてくれて本当にありがとうございます。

I hope you enjoyed it.

楽しんでいただけたら嬉しいです。

I hope you learned something new and are keeping your finger on the pulse of AI news with me.

新しいことを学び、AIニュースの最新情報を私と共有していただけることを願っています。

Thank you once again to Magical for sponsoring this video.

このビデオのスポンサーとして再度Magicalに感謝します。

You guys rock and I'll see everyone in the next video.

君たちすごいね、次の動画でみんなに会うよ。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?