記事一覧
Sparks of AGI論文著者講演和訳
「Sparks of Artificial General Intelligence: Early experiments with GPT-4」と呼ばれるMicrosoft Researchからの論文が2023年3月23日に公開されました。https://arxiv.…
A Conversation with OpenAI COO Brad Lightcap和訳
OpenAI COOのBrad Lightcap氏へのインタビューの和訳です。重要そうな箇所は太字にしました。Brad Lighcap氏をB:、インタビューアーをJ:とします。
ホスト: セクション1「AIの力と可能性」へようこそ。ステージに上がったOpenAIの最高執行責任者ブラッド・ライトカップ氏をお迎えください。CNBCのシニアメディア・テクノロジー記者ジュリア・ボースティンとの対談です。
Sam Altman talks with MIT President about AI (May 2024)翻訳
以下の動画の翻訳です。Sam AltmanはS、対談者をFとしました。最後に質問もあります。重要そうな箇所は太字にしました。
司会者: お二人ともお越しいただきありがとうございます。ご紹介の必要はないかもしれませんが、サリー・コーンは2023年1月にMITの第18代学長に就任しました。細胞生物学者であり、デューク大学の学長時代には、優れた管理者、創造的な問題解決者、教員の卓越性と学生の幸福の主導
The Possibilities of AI 和訳
以下のOpenAI Sam AltmanとRavi Belani(司会)のインタビュー動画の和訳です。重要そうなところは太字にしました。
S=Sam Altman,R=Revi Belani,Q=聴衆からの質問
R: スタンフォード大学での起業家精神セミナーにようこそ。ここは起業家を目指す学生のためのセミナーです。私はRavi Belani、経営科学工学部の講師であり、アルケミストという企業ス
長期主義とエヴァ/セカイ系
X-risk。人類の未来の可能性が不可逆的に閉じるリスク。そこには人類絶滅のリスクも含まれる。
長期主義。X-riskはなんとしてでも避けねばならない。未来に存在しうる後続人類の数はほとんど無限大だ。よって未来の人類のこともある程度は倫理的に考えて現時点での意思決定をこなすべきだ。
主にベイエリアとオックスフォードで培われてきたこのような人類の膨大な未来の可能性が失われる天文学的な損失に対する
World Government SummitでのSam Altmanインタビュー翻訳
このテキストは、OpenAIのCEOであるSam Altman氏とUAEのAI大臣Omar Sultan Al Olama氏のWorld Government Summitでの対談の和訳(GPT-4)です。
このインタビューではUAEでのAIのサンドボックス実験への言及とUAEがASIを含めた高度なAIシステムの規制の中心になるかもしれず、その場合この対談は重要な為翻訳しました。
詳しい考察は以
AIのもたらす深刻なリスクとその歴史的背景概要
本記事は以下私が公開した「AIのもたらす深刻なリスクとその歴史的背景」の概要とAI存亡リスクに対する深層防護的な対策、QA(AIが何故存亡リスクを導くか等)、関連資料を抜き出したものです。
詳細は以下のGoogle Docsから参照ください。
概要私たちが今いる21世紀は過去人類が体験したことのないような技術の発展の最中にあるかもしれず、特に近いうちに高度なAIが開発され、様々な意味で劇的に世界
Where I agree and disagree with Eliezer 和訳
前置き
Paul Christiano氏と呼ばれるAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているAlignment研究第一人者とEliezer Yudkowsky氏と呼ばれるAGIによる人類存亡リスクの提唱者として最も有名なこの分野の草分け的な方への意見をまとめた以下のAlignment For
How We Prevent the AI’s from Killing us with Paul Christiano 和訳
以下の動画はAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているPaul Christiano氏の対談動画です。
noteでAI alignmentの先駆者として度々紹介しているEliezer Yudkowsky氏はAGIが人類を壊滅させる可能性はほぼ100%といった強い悲観論を唱えていることで有名です
Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳
ドイツ連邦共和国国営の国際放送事業体のDeutsche Welle(DW)がGPT-4以上の学習の停止を公開書簡で求めたFuture of Life Instituteの共同創設者のマックステグマーク氏にインタビューをしている。
つい最近もLex Fridman氏との対談でAIの今後のガバナンスについてどうするべきか、AGI(汎用人工知能)の話題やAGIの価値観を人間に沿わせるためのAIアライメ
Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳
GPT-4以上のAIの学習を6ヶ月停止する公開書簡を出したFuture of Life Instituteの共同創設者のマックステグマーク氏とLex FridmanのPodcastの和訳です。
書き起こし元は以下です。
https://www.assemblyai.com/playground/transcript/6oywy9j7p5-6e7f-4dd2-b6ba-4c8f93bf2e16
AGIによる破滅:致命的なリスト
去年6月にAI Alignment Forunmに投稿されたEliezer Yudkowsky氏による以下の記事を和訳した。適宜わかりにくいかもしれない箇所は※で補足を試みた。
Eliezer Yudkowsky氏はAI Alignment問題(主に、AGIが人間の利益に沿った目標ではなく、意図しない、望ましくない目標の追求を学習するという懸念)が一般に認識される前からAGIによる人類への壊滅的
Sparks of AGI論文著者講演和訳
「Sparks of Artificial General Intelligence: Early experiments with GPT-4」と呼ばれるMicrosoft Researchからの論文が2023年3月23日に公開されました。https://arxiv.org/abs/2303.12712
その論文の著者のS´ebastien Bubeck氏のMITでの講演が公開されていたので以