見出し画像

【Astribot S1:中国製ヒューマノイドロボ】英語解説を日本語で読む【2024年4月27日|@TheAIGRID】

中国の深圳から登場したヒューマノイド型ロボット「Astribot S1」は、完全自律型でありながら極めて滑らかで高速な動作を見せ、AIとロボット技術の最先端を行くものとして注目を集めています。Astribot S1の印象的なデモンストレーションでは、カップ積み上げゲームやピンポン玉とおもちゃの分類、紙飛行機の的入れ、野菜のカットなど、様々なタスクをこなす姿が披露されました。特に、カップ積み上げの速さと滑らかさは人間でも難しいレベルであり、ロボットとは思えないほどです。このロボットは、遠隔操作ではなく完全自律型で動作しており、搭載された大規模言語モデル(LLM)と視覚システムを駆使してタスクを遂行しています。Astribot S1は2本指でありながら高度なタスクをこなしており、シンプルな設計でも十分な性能を発揮できることを示しています。
公開日:2024年4月27日
※動画を再生してから読むのがオススメです。


The question is, has China once again taken the lead in not only AI but of course in robotics?

おそらく中国はAIだけでなく、もちろんロボティクスでも再びリードを取っているのでしょうか?

This new video demonstration may actually convince you that China is currently leading the way in terms of fully autonomous humanoid style robotics, and it's actually very surprising at how good this is because I just didn't think we were that close to robots at this level.

この新しいビデオデモンストレーションは、実際には中国が完全自律のヒューマノイドスタイルのロボティクスの分野で先頭を走っていることをあなたに納得させるかもしれません。そして、これがどれほど優れているかは実際に驚くべきことです。私はこのレベルのロボットに我々がそんなに近づいているとは思っていませんでした。

Let's take a look at this demo and why this is so impressive.

このデモを見て、なぜこれが印象的なのかを見てみましょう。

Currently you can see that this is called the Astrobot S1, the next generation robot that is naturally yours, and everything you're about to see in this demo is at one time speed with no manipulation and it is fully autonomous.

現在、これはAstrobot S1と呼ばれる、自然にあなたのものである次世代ロボットです。そして、このデモで見るすべては一度のスピードであり、操作は一切なく、完全に自律しています。

Remember that because what you're about to see is rather fascinating.

なぜなら、あなたが今見ようとしているものは非常に魅力的だからです。

Ladies and gentlemen, presenting the Astrobot S1 coming from Shenzhen China.

皆さん、深セン中国からやってきたAstrobot S1をご紹介します。

Take a look at this first initial demo.

まず最初のデモをご覧ください。

This is by far the most craziest thing I've ever seen.

これは私が今まで見た中で最も狂ったものです。

The demo that you saw there, the reason this is so impressive and the reason that a lot of people don't even believe that this is real, is because what we're looking at is something that is extremely fast, extremely smooth.

そこで見たデモ、これがなぜ印象的なのか、そして多くの人々がこれが本物だとさえ信じていない理由は、私たちが見ているものが非常に速く、非常にスムーズなものだからです。

It's fully autonomous, meaning that there is no teleoperation.

それは完全に自律型であり、テレオペレーションはありません。

For those of you who are unaware, teleoperation just means that there is no human behind the machine controlling it with a VR headset as we've seen in many other robotics demos.

ご存知ない方のために、テレオペレーションとは、他の多くのロボティクスデモで見られるように、VRヘッドセットで機械を操作する人間がいないことを意味します。

And some of the stuff that also makes this rather impressive was of course the Large Language Model integration.

そして、これをかなり印象的にしているものの一部は、もちろん大規模言語モデルの統合です。

I'm going to speak first about this right here because even as someone who pays attention to pretty much every AI and robotics development, this first demo here genuinely doesn't even seem real because of how quickly this is.

私はまずこれについて話しますが、ほとんどすべてのAIとロボティクスの開発に注意を払っている人間としても、この最初のデモは本当に現実にさえ思えません。なぜなら、これがどれほど速いかということが理由です。

If you aren't familiar, this is a cup stacking game that many humans do play.

馴染みがない方のために、これは多くの人間がプレイするカップスタッキングゲームです。

Of course, the goal is to stack this as fast as possible, which is pretty impressive for a robot that seems to be fully autonomous.

もちろん、目標はできるだけ速く積み上げることですが、これは完全に自律型のロボットにとってはかなり印象的です。

This is, of course, something that I would be honest with you guys, a lot of humans do struggle to do this.

これは、もちろん、率直に言うと、多くの人間がこれに苦労していることです。

This is definitely something that is rather impressive because it takes a certain technique to be able to pull the cloth from the glass like that.

これは確かにかなり印象的なことであり、そのようにグラスから布を引き抜くには特定の技術が必要です。

When we do get into this area right here, this is of course where things start to get even more interesting because we can see that there is of course a Large Language Model integration, so the user first asks the AI system, What do you see?

ここに入ると、ここからさらに興味深くなり始めるところです。もちろん、大規模言語モデルの統合があることがわかります。したがって、ユーザーは最初にAIシステムに尋ねます。「何が見えますか?」

And then it clearly states that I see an orange ping pong ball, a red race car toy, a white hello kitty figurine, a pink notebook, two white containers, and a red pen and laptop.

そして、それは明確に述べます。「オレンジのピンポンボール、赤いレーシングカートのおもちゃ、白いハローキティの置物、ピンクのノートブック、白い容器2つ、赤いペンとラップトップが見えます。」

It's clearly identified all of the items in the system.

システム内のすべてのアイテムが明確に識別されています。

I mean, in the scene, but we can see here that this robotic system clearly has an onboard vision system.

ここで見ることができるように、このロボットシステムには明確にオンボードビジョンシステムが搭載されています。

It's onboard vision system, we aren't sure what it's using because they don't actually state which, of course, first LLM it is.

どの大規模言語モデルを使用しているかは確かではないですが、彼らは実際にどの大規模言語モデルを使用しているかを明言していないので。

We don't know what LLM this is.

どの大規模言語モデルを使用しているかわかりません。

It could really be any onboard LLM, to be honest.

正直に言って、それはどのオンボード大規模言語モデルでもあり得ます。

There are tons now, tons and tons and tons.

今はたくさんの大規模言語モデルがあります。

And with the rise of small Large Language Models, it could potentially be greatly improved in the future, as we've seen with releases such as PHY3.

そして、小さな大規模言語モデルの台頭とともに、PHY3などのリリースで見られるように、将来的に大幅に改善される可能性があります。

We don't know what Large Language Model they're using, but they're also using some kind of vision system too.

彼らがどの大規模言語モデルを使用しているかはわかりませんが、彼らはある種のビジョンシステムも使用しています。

Of course, what's also very impressive is that as this continues on, we can see here that the vision system actually does look similar to the YOLO vision system, which is a vision system that can identify tons and tons of different things.

もちろん、非常に印象的なのは、これが続くにつれて、ここで見ることができるように、ビジョンシステムが実際にYOLOビジョンシステムに似ていることです。これはたくさんの異なるものを識別できるビジョンシステムです。

And we can clearly see it managing to identify multiple different items.

そして、明らかに複数の異なるアイテムを識別できているのがわかります。

What's also interesting is that we do see that it states here that how would you separate the items to tidy up the table, and then it says we need a container for the toys and a container for the writing utensils, stash stationary.

おもしろいのは、ここにはどのようにアイテムを分けてテーブルを片付けるかと書かれており、おもちゃ用の容器と筆記具用の容器が必要で、文房具をしまう必要があると書かれていることです。

And I think that whilst, yes, of course, that is quite obvious to humans because we've done this a million different times, it's something that is increasingly good to see in robots because it shows the level of development and a small level of reasoning and understanding when combined with all of these different AI systems working together with a true humanoid robot.

そして、私は、もちろん、それは人間にとっては非常に明らかなことですが、何度も何度もやってきたからですが、これはロボットにとっても見ていてますます良いものであり、これらの異なるAIシステムが真のヒューマノイドロボットと一緒に動作する際に、推論と理解の小さなレベルを示しています。

They also stated that this was done via imitation learning.

彼らはまた、これが模倣学習を通じて行われたと述べています。

I'm not sure how many examples they've managed to get, how many human demonstrations, but I'm guessing that it probably was a bunch considering the rate of speed when this robot is active and of course how good and smooth this robot is at completing the tasks because these tasks don't seem that they're really half done.

私は、彼らがどれだけの例を手に入れたか、どれだけの人間のデモンストレーションを行ったかはわかりませんが、このロボットが活動しているときの速度や、もちろん、これらのタスクを完了する際のロボットの優れたスムーズさを考えると、おそらくかなりの数だったと思います。なぜなら、これらのタスクは本当に中途半端に見えないからです。

They do actually seem as if they're really, really done well.

実際、これらは本当に、本当にうまくやられているように見えます。

And what's crazy about this is that we've seen a few robotics demos this year, and to be honest with you guys, this is by far the most impressive demo to date.

そして、このことが狂っているのは、今年いくつかのロボティクスのデモを見てきましたが、正直なところ、これは今までで最も印象的なデモです。

And this is just based on what we've seen.

そして、これは私たちが見たものに基づいています。

And the craziest thing about this as well, and this is something that I've mentioned many times before, is that when looking at robotics demos, it's pretty surprising with what robots are simply able to do with this two-pronged approach.

そして、これもまた最も狂ったことですが、これは私が以前何度も言及してきたことであり、ロボティクスのデモを見ると、この二本立てのアプローチでロボットが単に何ができるかはかなり驚くべきことです。

Because many, many individuals would state that humanoid robots, in order to function effectively, you need five fingers just like a human uses.

なぜなら、多くの人々が、効果的に機能するためには、ヒューマノイドロボットには人間が使うように5本の指が必要だと述べるでしょう。

But it's clear from many, many different robotics demos that that might not be the very best approach.

しかし、多くの異なるロボティクスのデモからは、それが最善のアプローチではないかもしれないことが明らかです。

Sometimes keeping things simple and smooth can truly work wonders for what you're trying to do.

何かをする際に、シンプルでスムーズにすることが本当に効果的であることがあります。

And taking a look at this, we can see that, of course, this is exactly the case with this level of robotics.

そして、これを見ると、もちろん、このレベルのロボティクスにおいてもまさにそのようなケースであることがわかります。

Whilst, some people might argue that with some robotics demos, the problem with this is that they are, and I guess you could say, controlled environments where objects are placed down, and of course, things are done in a pre, not pre-programmed, but pre-set routine where they've gone through the demonstrations many times.

一部の人々は、一部のロボティクスのデモでは、問題は、コントロールされた環境で物体が配置され、もちろん、事前に、プログラムされたわけではないが、事前に設定されたルーチンで何度もデモを行っているということです、と主張するかもしれません。

But I have to be honest, doing something like this where you have a paper plane being thrown into a bin, that is something that honestly, for any robot to do, along with the other tasks, is very, very impressive.

しかし、率直に言って、紙飛行機をゴミ箱に投げるようなことをするのは、他のタスクと一緒に行うことは、どんなロボットにとっても非常に印象的だと思います。

And of course, as well, tasks like this, which don't seem that impressive, I think are truly, truly impressive because it's literally cutting vegetables.

そしてもちろん、それほど印象的ではないように見えるこのようなタスクも、本当に印象的だと思います。それは文字通り野菜を切っているからです。

Another thing that I would like to find out about this robot is if this robot does have a moving base or if it does have any legs.

このロボットについて知りたいもう一つのことは、このロボットが移動するベースを持っているか、または脚を持っているかどうかです。

Because whilst, yes, we can see from the top of the robot, we can see that it does have two arms and a vision system hooked up to the back.

なぜなら、はい、ロボットの上から見ると、2本の腕と背面に接続されたビジョンシステムがあることがわかります。

In order for this robotic system to be useful in the future, we're going to have to see if this thing can move around.

このロボティックシステムが将来役立つためには、このものが移動できるかどうかを確認する必要があります。

With this astrobot, it's actually not to be confused with the commonly looked at reflex robot.

このアストロボットは、一般的に見られるリフレックスロボットとは混同されないようにする必要があります。

I'm only showing this because this is what the robot isn't, although it does look like this robot here.

私はこのロボットが何であるかを示しているだけであり、このロボットがそうではないことを示しているだけですが、このロボットはこのロボットのように見えます。

This robot here is by another different company, and this robot is actually completely tele-operated.

このロボットは別の会社のもので、実際には完全に遠隔操作されています。

There is a human controlling this.

人間がこれを制御しています。

This is not fully autonomous, but I'm guessing that this is going to be the same kind of architecture that astrobot uses when they're deploying their robots around the world.

これは完全に自律的ではありませんが、おそらく、このロボットが世界中で展開する際にastrobotが使用している同じ種類のアーキテクチャであると思われます。

And of course, like I said before, this is going to be pretty, pretty incredible because this is something that we haven't seen yet in terms of just the sheer speed and the fluidity of these models.

そしてもちろん、前に言ったように、これは単にこれらのモデルの速度と流動性のみに関してはまだ見たことがないものであるため、非常に素晴らしいものになるでしょう。

I've got to be completely honest with you guys, this definitely took me completely by surprise due to the fluidity, the speed, and not only that, the craziest thing about this demo was that there were many several different examples of what this robot could do.

皆さんに完全に正直でなければならないのですが、この流動性、速度、そしてそれだけでなく、このデモの最も狂ったことは、このロボットが何ができるかのいくつかの異なる例がたくさんあったことです。

It wasn't just one or two, but there were several instances of it being able to do complicated and intricate tasks that even some humans might actually find pretty difficult.

1つや2つだけでなく、複雑で入り組んだタスクを行うことができる例がいくつかあり、実際にはいくつかの人間でもかなり難しいと感じるかもしれません。

One thing that I'm looking forward to from this robot, in fact, two things are number one, is with this robot being combined with an actual LLM system, one thing that I would like to see in the future is, of course, this robot potentially using that LLM to verbally speak with commands and have humans interact with it on a verbal basis.

このロボットから楽しみにしていることの一つは、実際の大規模言語モデルシステムと組み合わされていることであり、将来的には、もちろん、このロボットがその大規模言語モデルを使用してコマンドを口頭で話し、人間が口頭でそれとやり取りすることができる可能性があることです。

Because currently, it seems that it was just a chat interface from the audio clip.

現時点では、オーディオクリップからのチャットインターフェースだけのようです。

It didn't seem as if there was any actual human to robot integration via systems like whisper or any kind of audio transcription software.

ウィスパーやいかなる種類のオーディオ転写ソフトウェアを介した人間とロボットの統合が実際に行われているようには見えませんでした。

It just seemed as if someone typed it in.

ただ、誰かがそれを入力したかのように見えました。

And then the robot completed the task based on that, so that is what I would like to see in addition to this.

それに基づいてロボットがタスクを完了した後、それを追加で見たいと思います。

Because I think that that would improve this robot in terms of the usability.

私は、それがこのロボットの使いやすさを向上させると思うからです。

And of course, another thing that I would like to see is this robot potentially moving around in the environment.

そしてもちろん、もう1つ見たいことは、このロボットが環境内を移動する可能性があることです。

Because one thing that robots do struggle with is being in different environments.

なぜなら、ロボットが苦労することの1つは、異なる環境にいることです。

And when the environment is reset, it becomes harder to identify objects and move objects to the correct location.

環境がリセットされると、オブジェクトを識別し、正しい場所に移動させることがより難しくなります。

Those are two things that I think would, of course, be more impressive.

これらは、もちろん、より印象的だと思われる2つのことです。

But I'm not trying to critique this robot at all.

しかし、私はこのロボットを批評しようとしているわけではありません。

I've got to say that, surprisingly, surprisingly, surprisingly, the leading lab currently in robotics from what we see here.

ここで見ているものからすると、驚くべきことに、現在、ロボティクスの分野でリーディングラボです。

And yes, I always know that some people are going to be 100 skeptical because currently there is a lot of hype for robotics and humanoids.

そして、現在、ロボティクスやヒューマノイドに対する期待が高まっているため、100%懐疑的な人がいることは常に知っています。

When people see this stuff, they might think that it's tele-operated.

当人々がこのものを見ると、それが遠隔操作されていると思うかもしれません。

Although it says no tele-operation, I think that we can certainly say that this might be the leading lab now.

遠隔操作はないと書いてありますが、これは今最先端の研究所かもしれないと思います。

Whilst this might be the leading lab in terms of demos, we do know that Bottom Dynamics robot did a really, really impressive feat where they showcased how their new robot is going to move.

デモの面ではこれが最先端の研究所かもしれませんが、Bottom Dynamicsのロボットは本当に印象的な偉業を成し遂げ、新しいロボットがどのように動くかを披露しました。

And I'm wondering if their robot is going to be far superior to this one in terms of the dexterity, the degrees of freedom, the things it's able to do in terms of the running and completing other tasks.

そして私は、そのロボットが器用さ、自由度、走行や他のタスクの完了において、このロボットよりもはるかに優れているかどうか疑問に思っています。

This shows us now that China is not playing games when it comes to humanoid robotics and the robotics industry.

これは、中国がヒューマノイドロボティクスやロボティクス産業に関わる際にゲームをしていないことを示しています。

And if you haven't checked out my previous video, there was another video where I showcased a completely different AI system that just bested GPT-4 and is now a state-of-the-art system that completes the requirements for being the best AI system.

そして、前のビデオをチェックしていない場合は、GPT-4を上回り、現在は最先端のシステムであり、最高のAIシステムであるための要件を完全に満たす別のAIシステムを紹介したビデオがあります。

Whilst many people said they're not going to believe it until they test it, I think we do have to give credit where credit is due.

多くの人々がそれをテストするまで信じないと言いましたが、私たちは功績がある場合にはその功績を認めなければならないと思います。

Because this is clearly an area where China is investing a lot more than the US in terms of the infrastructure and in terms of the long-term planning.

これは、明らかに中国がインフラと長期的な計画に関して米国よりもはるかに多く投資している分野であるため、私は本当に待ちきれません。

I honestly can't wait for this company to showcase more things.

もちろん、この会社がさらに多くのことを披露するのを本当に待ちきれません。

Of course, this could be completely fake.

もちろん、これは完全に偽物かもしれません。

We honestly have no idea.

我々は正直、全く分からないんです。

But I really don't believe so, considering the amount of breakthroughs and impressive demos that we've completely seen.

でも、私は、これだけのブレイクスルーや印象的なデモを完全に見てきたことを考えると、そうは思えないんです。

With this one-time speed, no teleoperation robot doing incredible things, I think we're about to see another level in terms of competition.

この一度のスピードで、信じられないことをするテレオペレーションロボットがいるとすれば、競争の観点で別のレベルを見ることになると思います。

Because companies and individuals are starting to realize the sheer implications of what this means.

企業や個人が、これが意味することの重大さに気づき始めているからです。

And honestly, when I saw this demo, one thing that I did actually think about that was in the back of my mind was I was thinking that, Wow, we are going to move so quickly towards robotics that maybe, just maybe, robotics are going to be integrated into society in much more ways than I initially imagined.

正直なところ、このデモを見たとき、実際に私が考えたことの一つは、心の奥にあったことで、私は、ああ、私たちはロボティクスに向かって非常に速く進んでいるので、もしかしたら、たったひとつの可能性として、ロボティクスが最初に想像した以上に社会に統合されるかもしれないと思っていた。

Because I only imagined them doing certain things.

私は特定のことしか彼らがすることを想像していませんでした。

But if a robot can actually generalize with an AGI level system combined with all current AI systems and manages to prove inefficiency and fluidity and the dynamic movement, then we really could have robots in a variety of different scenarios.

でも、ロボットが実際にAGIレベルのシステムで一般化し、すべての現行のAIシステムと組み合わせて効率性と流動性、ダイナミックな動きを証明できれば、本当にさまざまなシナリオでロボットを持つことができるかもしれません。

With the Astrobot S1, let me know what you guys think about this.

Astrobot S1について、皆さんはどう思いますか。

Because I think that this is truly a state-of-the-art system.

なぜなら、私はこれが本当に最先端のシステムだと思うからです。

And I think this, like I said before, is going to increase the level of competition from other companies.

そして、これは他の企業からの競争レベルを高めると私は前に言ったように思います。

And another thing on their website, they didn't have too much details on there.

ウェブサイトには、詳細があまり記載されていませんでした。

But they did say that this robot is expected to be commercialized in 2024, meaning that they're probably going to be going to market this year.

しかし、このロボットは2024年に商品化される予定だと言っていましたので、おそらく今年市場に投入されることになるでしょう。

And that means that we're likely to see this fully autonomous robot completing tasks later this year.

そして、それはこの完全自律型ロボットが今年後半にはタスクを完了するのを見る可能性が高いことを意味します。

If that does happen, that would be pretty crazy.

もし実現すれば、それはかなりクレイジーなことになるでしょう。

I honestly expect 2025, because from what I've seen from robotics companies, there's usually delays and there's usually things that happen on the back end that do slow them down.

正直に言って、私は2025年を予想しています。なぜなら、ロボティクス企業から見て、通常遅延があり、バックエンドで起こることが遅延の原因となることが多いからです。

But to be honest, from what I've seen here, they do seem to be further along than anybody else.

しかし正直に言って、ここで見たものからすると、彼らは他の誰よりも進んでいるように見えます。

With that being said, let me know what you think about humanoid robotics.

と言っても、ヒューマノイドロボティクスについてどう思われるか教えてください。

And I'll leave responses to your comments in the comment section below.

そして、コメント欄にコメントへの返信を残しておきます。


この記事が気に入ったらサポートをしてみませんか?