bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance…

bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance)や技術トレンドを推定して将来起こり得ることを発信しています。 Xアカウント https://x.com/bioshok3?t=zveV31pS1Sy0jiBGisbKpA&s=09

記事一覧

A Conversation with OpenAI COO Brad Lightcap和訳

OpenAI COOのBrad Lightcap氏へのインタビューの和訳です。重要そうな箇所は太字にしました。Brad Lighcap氏をB:、インタビューアーをJ:とします。 ホスト: セクション1「…

bioshok
4日前
5

Sam Altman talks with MIT President about AI (May 2024)翻訳

以下の動画の翻訳です。Sam AltmanはS、対談者をFとしました。最後に質問もあります。重要そうな箇所は太字にしました。 司会者: お二人ともお越しいただきありがとうござ…

bioshok
4日前
23

The Possibilities of AI 和訳

以下のOpenAI Sam AltmanとRavi Belani(司会)のインタビュー動画の和訳です。重要そうなところは太字にしました。 S=Sam Altman,R=Revi Belani,Q=聴衆からの質問 R: スタ…

bioshok
8日前
19

長期主義とエヴァ/セカイ系

X-risk。人類の未来の可能性が不可逆的に閉じるリスク。そこには人類絶滅のリスクも含まれる。 長期主義。X-riskはなんとしてでも避けねばならない。未来に存在しうる後続…

bioshok
10日前
16

World Government SummitでのSam Altmanインタビュー翻訳

このテキストは、OpenAIのCEOであるSam Altman氏とUAEのAI大臣Omar Sultan Al Olama氏のWorld Government Summitでの対談の和訳(GPT-4)です。 このインタビューではUAEで…

bioshok
2週間前
10

YOLOの揺らぎ

YOLO(You only live once)、人生は1度限りという命題の揺らぎ。 我々は2030年頃超知能にたどり着くかもしれない。 その場合2030年代には猛烈な勢いで生命科学が進歩する…

bioshok
3週間前
32

未来との冷戦

今我々の世界は冷戦状態に入っているかもしれない。中露とアメリカの話ではない。 我々地球に現在存在する100億人と未来に存在するだろう気の遠くなるような膨大な数の我々…

bioshok
1か月前
31

様々な事象の簡易タイムライン予想

以下簡易的に私の今持っている様々なタイムラインを記載します。理由などは細かくは書きません。 補足ですが、このタイムラインは存亡リスクや壊滅的なリスクなどが人類社…

bioshok
2か月前
64

奇妙なリアリズム/人類史の誤配

SNSの文化も、DXとかいって見える化してる世界ももうすぐ終わる。すぐにこの世界は懐かしい風景になってしまう。今のうちにこの世界の、2023年までの世界の香ばしさを感じ…

bioshok
3か月前
53

AIのもたらす深刻なリスクとその歴史的背景概要

本記事は以下私が公開した「AIのもたらす深刻なリスクとその歴史的背景」の概要とAI存亡リスクに対する深層防護的な対策、QA(AIが何故存亡リスクを導くか等)、関連資料を…

bioshok
3か月前
69

Where I agree and disagree with Eliezer 和訳

前置き Paul Christiano氏と呼ばれるAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているAlignment研究第一…

bioshok
7か月前
11

How We Prevent the AI’s from Killing us with Paul Christiano 和訳

以下の動画はAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているPaul Christiano氏の対談動画です。 noteで…

bioshok
1年前
12

Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

ドイツ連邦共和国国営の国際放送事業体のDeutsche Welle(DW)がGPT-4以上の学習の停止を公開書簡で求めたFuture of Life Instituteの共同創設者のマックステグマーク氏にイ…

bioshok
1年前
5

Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳

GPT-4以上のAIの学習を6ヶ月停止する公開書簡を出したFuture of Life Instituteの共同創設者のマックステグマーク氏とLex FridmanのPodcastの和訳です。 書き起こし元は以…

bioshok
1年前
29

AGIによる破滅:致命的なリスト

去年6月にAI Alignment Forunmに投稿されたEliezer Yudkowsky氏による以下の記事を和訳した。適宜わかりにくいかもしれない箇所は※で補足を試みた。 Eliezer Yudkowsky氏…

bioshok
1年前
20

Sparks of AGI論文著者講演和訳

「Sparks of Artificial General Intelligence: Early experiments with GPT-4」と呼ばれるMicrosoft Researchからの論文が2023年3月23日に公開されました。https://arxiv.

bioshok
1年前
25
A Conversation with OpenAI COO Brad Lightcap和訳

A Conversation with OpenAI COO Brad Lightcap和訳

OpenAI COOのBrad Lightcap氏へのインタビューの和訳です。重要そうな箇所は太字にしました。Brad Lighcap氏をB:、インタビューアーをJ:とします。

ホスト: セクション1「AIの力と可能性」へようこそ。ステージに上がったOpenAIの最高執行責任者ブラッド・ライトカップ氏をお迎えください。CNBCのシニアメディア・テクノロジー記者ジュリア・ボースティンとの対談です。

もっとみる
Sam Altman talks with MIT President about AI (May 2024)翻訳

Sam Altman talks with MIT President about AI (May 2024)翻訳

以下の動画の翻訳です。Sam AltmanはS、対談者をFとしました。最後に質問もあります。重要そうな箇所は太字にしました。

司会者: お二人ともお越しいただきありがとうございます。ご紹介の必要はないかもしれませんが、サリー・コーンは2023年1月にMITの第18代学長に就任しました。細胞生物学者であり、デューク大学の学長時代には、優れた管理者、創造的な問題解決者、教員の卓越性と学生の幸福の主導

もっとみる
The Possibilities of AI 和訳

The Possibilities of AI 和訳

以下のOpenAI Sam AltmanとRavi Belani(司会)のインタビュー動画の和訳です。重要そうなところは太字にしました。

S=Sam Altman,R=Revi Belani,Q=聴衆からの質問

R: スタンフォード大学での起業家精神セミナーにようこそ。ここは起業家を目指す学生のためのセミナーです。私はRavi Belani、経営科学工学部の講師であり、アルケミストという企業ス

もっとみる
長期主義とエヴァ/セカイ系

長期主義とエヴァ/セカイ系

X-risk。人類の未来の可能性が不可逆的に閉じるリスク。そこには人類絶滅のリスクも含まれる。

長期主義。X-riskはなんとしてでも避けねばならない。未来に存在しうる後続人類の数はほとんど無限大だ。よって未来の人類のこともある程度は倫理的に考えて現時点での意思決定をこなすべきだ。

主にベイエリアとオックスフォードで培われてきたこのような人類の膨大な未来の可能性が失われる天文学的な損失に対する

もっとみる
 World Government SummitでのSam Altmanインタビュー翻訳

World Government SummitでのSam Altmanインタビュー翻訳

このテキストは、OpenAIのCEOであるSam Altman氏とUAEのAI大臣Omar Sultan Al Olama氏のWorld Government Summitでの対談の和訳(GPT-4)です。

このインタビューではUAEでのAIのサンドボックス実験への言及とUAEがASIを含めた高度なAIシステムの規制の中心になるかもしれず、その場合この対談は重要な為翻訳しました。
詳しい考察は以

もっとみる
YOLOの揺らぎ

YOLOの揺らぎ

YOLO(You only live once)、人生は1度限りという命題の揺らぎ。
我々は2030年頃超知能にたどり着くかもしれない。
その場合2030年代には猛烈な勢いで生命科学が進歩する可能性があるだろう。

昔から人生は1度限り。やらない後悔よりやる後悔と言う。しかし、才能と努力のできる素質やモチベーションの過多は多かれ少なかれ生来的、環境的に定められているため、そんな事ができる人は一部だ

もっとみる
未来との冷戦

未来との冷戦

今我々の世界は冷戦状態に入っているかもしれない。中露とアメリカの話ではない。 我々地球に現在存在する100億人と未来に存在するだろう気の遠くなるような膨大な数の我々子孫との間に。

我々は今高度なAIを開発することで労働の自動化、癌の克服、アルツハイマーの予防、核融合の開発、常温常圧超電導の発見等の果に不老不死、半永久的に続く豊穣な世界を享受できるかもしれない。

しかしと同時に高度なAIは人類の

もっとみる
様々な事象の簡易タイムライン予想

様々な事象の簡易タイムライン予想

以下簡易的に私の今持っている様々なタイムラインを記載します。理由などは細かくは書きません。

補足ですが、このタイムラインは存亡リスクや壊滅的なリスクなどが人類社会に起こらないことを前提としています。私はおよそ人類社会が存亡的破局(絶滅や全体主義による半永久的な人類社会の未来の可能性の喪失)を迎える可能性を10-20%と推定しています。そのためこのタイムラインはおおよそ75%程度の確信を持って推定

もっとみる
奇妙なリアリズム/人類史の誤配

奇妙なリアリズム/人類史の誤配

SNSの文化も、DXとかいって見える化してる世界ももうすぐ終わる。すぐにこの世界は懐かしい風景になってしまう。今のうちにこの世界の、2023年までの世界の香ばしさを感じなきゃいけない。そう感じさせる。

確かに今までの技術革新だって大きな社会の変化とそれに伴う懐かしさは発生してきた。じゃ~今回は何が違うのか?

人類を超える知能の誕生。

だからこの変化は単なるスマホやSNSやインターネットや車の

もっとみる
AIのもたらす深刻なリスクとその歴史的背景概要

AIのもたらす深刻なリスクとその歴史的背景概要

本記事は以下私が公開した「AIのもたらす深刻なリスクとその歴史的背景」の概要とAI存亡リスクに対する深層防護的な対策、QA(AIが何故存亡リスクを導くか等)、関連資料を抜き出したものです。
詳細は以下のGoogle Docsから参照ください。

概要私たちが今いる21世紀は過去人類が体験したことのないような技術の発展の最中にあるかもしれず、特に近いうちに高度なAIが開発され、様々な意味で劇的に世界

もっとみる

Where I agree and disagree with Eliezer 和訳


前置き

Paul Christiano氏と呼ばれるAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているAlignment研究第一人者とEliezer Yudkowsky氏と呼ばれるAGIによる人類存亡リスクの提唱者として最も有名なこの分野の草分け的な方への意見をまとめた以下のAlignment For

もっとみる

How We Prevent the AI’s from Killing us with Paul Christiano 和訳

以下の動画はAI alignment(人間の価値観にAIを沿わせる)に取り組む非営利の研究組織Alignment Research Centerを運営しているPaul Christiano氏の対談動画です。

noteでAI alignmentの先駆者として度々紹介しているEliezer Yudkowsky氏はAGIが人類を壊滅させる可能性はほぼ100%といった強い悲観論を唱えていることで有名です

もっとみる

Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

ドイツ連邦共和国国営の国際放送事業体のDeutsche Welle(DW)がGPT-4以上の学習の停止を公開書簡で求めたFuture of Life Instituteの共同創設者のマックステグマーク氏にインタビューをしている。

つい最近もLex Fridman氏との対談でAIの今後のガバナンスについてどうするべきか、AGI(汎用人工知能)の話題やAGIの価値観を人間に沿わせるためのAIアライメ

もっとみる

Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast和訳

GPT-4以上のAIの学習を6ヶ月停止する公開書簡を出したFuture of Life Instituteの共同創設者のマックステグマーク氏とLex FridmanのPodcastの和訳です。

書き起こし元は以下です。

https://www.assemblyai.com/playground/transcript/6oywy9j7p5-6e7f-4dd2-b6ba-4c8f93bf2e16

もっとみる

AGIによる破滅:致命的なリスト

去年6月にAI Alignment Forunmに投稿されたEliezer Yudkowsky氏による以下の記事を和訳した。適宜わかりにくいかもしれない箇所は※で補足を試みた。

Eliezer Yudkowsky氏はAI Alignment問題(主に、AGIが人間の利益に沿った目標ではなく、意図しない、望ましくない目標の追求を学習するという懸念)が一般に認識される前からAGIによる人類への壊滅的

もっとみる

Sparks of AGI論文著者講演和訳

「Sparks of Artificial General Intelligence: Early experiments with GPT-4」と呼ばれるMicrosoft Researchからの論文が2023年3月23日に公開されました。https://arxiv.org/abs/2303.12712

その論文の著者のS´ebastien Bubeck氏のMITでの講演が公開されていたので以

もっとみる