最近の記事
アンドレイ・カルパシー:テスラAI、自動運転、オプティマス、エイリアン、AGI|Lex Fridman Podcast #333
https://www.youtube.com/watch?v=cdiD-9MMpb0 物理学にはエクスプロイトがある可能性があり、それを見つけようとすべきだと思います。何らかのクレイジーな量子力学システムを配置して、バッファオーバーフローを引き起こしたり、浮動小数点の丸め誤差を引き起こしたりします。合成知能は、開発の次の段階のようなもので、それがどこにつながるのかはわかりません。ある時点で、宇宙はある種のパズルであると私は考えています。これらの合成AISはそのパズルを明ら
Charan Ranganath: 人間の記憶、想像力、デジャブ、そして偽りの記憶 | Lex Fridman ポッドキャスト #430
思い出すという行為は記憶を変えることができます。ある出来事を思い出して、私が後でその出来事について何か話した場合、その出来事を思い出すときに、その出来事の元々の情報と私が話したことについての情報を思い出すかもしれません。その違いがわからない場合、私が話した情報が元々持っていた話に混ざってしまうことがあります。そこで、私はあなたにさらに誤った情報を与えたり、他の情報にさらされたりして、最終的にあなたの記憶は起こったことから完全に切り離されてしまいます。以下は、カリフォルニア大学
OpenAIの驚異的な「NEXT」モデルが今年登場 | イーロン・マスク、OpenAIの安全性と人体再生について語る!
この2週間はAIニュースが目白押しでしたね。AGIが登場するのは一生に一度のことなので、ぜひチャンネル登録してください。OpenAIがフランスのパリで行ったプレゼンテーションでは、今年リリースされるGPT Nextというコードネームの次期大型製品についてほのめかしていました。また、OpenAIの音声エンジンは過小評価されているように思いますが、後ほど詳しく説明します。OpenAIは、Soraで動画を作成し、Chad GPTに送信してスクリプトを作成し、音声エンジンでナレーショ
ヤン・ルカン: メタAI、オープンソース、LLMの限界、AGIとAIの未来|Lex Fridman Podcast #416
https://www.youtube.com/watch?v=5t1vTLU7s40&t=2718s 私は、この独自のAIシステムへの権力集中という危険性を、他の何よりも大きな危険だと考えています。これに対抗するのは、セキュリティ上の理由から、AIシステムを鍵をかけておくべきだと考える人々です。AIシステムはあまりにも危険なので、誰もが使えるようにすべきではないという考え方は、私たちの情報摂取が少数の企業によって、独自のシステムを通じてコントロールされるという、非常に悪い