見出し画像

機材おじさん vs AI

みなさんやってますか、AI?

最近は書店などに行っても、やれ ChatGPT やら Copilot やら、LLM(Large Language Model)型AIの情報が氾濫しまくって、川沿いの住人は床下浸水で大変になっている頃合いかと存じます。

じゃあお前はどうなん、とういうと、川からちょっと離れた場所に住んで、たまに川のせせらぎを感じに散歩に行く程度の間柄であります。

現状のLLM型AIが使えないかと言うと、そんなことはなくて、全然使えると思います。

たとえば、自分であれば、新作モジュールの名前を考えるときのアイデア出しに使ったりとかしました。
(5枚の花弁を持つ花を一覧で出せ、みたいな)

あるいは、プログラミングにおけるサンプルコードの提示とかですね。

RMagickていうRubyの画像処理ライブラリがあるんですが、APIが複雑怪奇な上、ドキュメントが読みづらくて使い方思い出すのめんどくセー、となっていたところに、「RMagickつかってXXXを描画するコードをRuby言語で書け」とプロンプトに入力すればその通りのサンプルコード出してくれるわけで、こりゃーめっちゃ便利だなーと。

あとプログラミング界隈だと、コードレビューしてくれたり、コード補完してくれるやつなんかもあるっぽいです。
これらはGitHubというオープンソースのソフトウェアの膨大な学習データがあるせいか、普通に実用的なレベルになっている気がします。(ガッツリ使ってるわけではないけど)

さて、ChatGPT4ではAGI (Artificial General Intellijence) が達成されるのではないかと期待された結果、肩透かしをくらっていたり、話題に事欠かないAI界隈でありますが、現状のLLM型AIがAGIを達成できるのかどうかと言うあたりは議論が多いところだと思います。

AGIが目指すものが人間的な知性とイコールなのかはわからないところですが、人間とAIでいまだに大きく隔たりがある要素が一つあります。

そう、肉体ですね。

肉体を持たないAIには、個人的な経験を積み重ねることができません。
それは信念や理想などがなく、全ての物事をフラットにしか捉えられないと言うことでもあります。

科学的な態度だってある意味信仰のようなものだと思います。
これまでに行われた科学的実験を、個人が全て追試することはほぼ不可能で、どこかでこれは正しいものだと信じる必要が出てきます。

そして、過去に存在したであろう何らかのものを信じるということが、人間の信念や行動原理になってきます。

翻って、現状のAIには何か正しいかを決めるための信念が存在しません。
正しいと信じられている情報も、間違っている情報も、混ぜこぜにして提示してきてしまいます。
(実際には、陰謀論など明らかにおかしいものは人間が人海戦術でタグづけしてるから出力はされないと思いますが)

このまま出力の精度が上がって行ったとして、信念なきAIは人間的な知性に到達できるのでしょうか?

あるいは、人間的な知性とはただの幻想で、我々は皆信念なきAIと似たようなものなんでしょうか?

まあ、現状そこの結論がまだ出てないから面白いってのはありますね。

(個人的には早いところKiCad (基盤設計ソフト) でAI使えるようになって、爆速で回路設計とレイアウトしたいこところです)

本日の怪文書でしたー。

この記事が気に入ったらサポートをしてみませんか?