見出し画像

『AIとSF』収録短編、「準備がいつまで経っても終わらない件」あとがき

2023年5月23日、日本SF作家クラブ編『AIとSF』が、早川書房から刊行されました。
長谷も短編「準備がいつまで経っても終わらない件」を、収録いただいています。

今回は、2023年前半の今、世に出ることに意味がある短編なので、忘れないうちに作品についての文章を残しておくことにしました。
短編にあとがきをつけるのは、短編集のとき、まとめてやるのですが、今だから文章にする意味があることもありそうなので。
今回は、背景がテキストとして残っていることに意味がある気がします。

本作は『プロトコル・オブ・ヒューマニティ』刊行後に取材を早川書房さんで受けていたときに打診をいただいたのですが、正式な依頼は12月初旬、ChatGPTが出た直後の激動の時期でした。

今、AIをテーマにSFを書く意味がある。読者がみんな未来がわからんので、潜在的にあらゆる人間がSFを求めているはず。
けれど、それはそれとして、もはやSF作家である自分も未来がわからん、、、、、、、、、、、、、、、、、

プロットを作りながら、「これは何をどうすればいいのか」と途方に暮れたものでした。GPT-3がすごいという話は聞いていたのですが、恥ずかしながら自分でまったく触っていなかったので、どれほどのものかChatGPTまでわかっていなかったためです。
プロットは、1月の中旬に、もう3年後のことを考えるのはやめようという割り切りで、なんとか出せました。
最初から万博モチーフを考えていたのではなく、3年後はもうSFだなと割り切ったのが先です。
”未来をどこまで飛ばすか”というのは、SF作家にとっては考えどころです。たとえば、『鉄腕アトム』や『攻殻機動隊』なら、執筆時から約50年後の未来が舞台なように、大きく舞台を変えるものはおおよそ半世紀、ギミックを一点入れるときは、20〜30年、近未来感をあえて強調したいときは10年程度がひとつの目安でしょうか。
「現在を起点にして、明日、その次の日と想像を延伸していったとき、未来を現在の延長で描くのが難しくなる、未来が地平線の先に消える明日の消失点」みたいなポイントが、世界描出の各要素にはあるのだと思っています。SFの舞台を選ぶとき、消失点の向こうをSFギミックで埋めるようにすると、現実と衝突せずにギミックを描けるのだという考えです。
今、明日の消失点が、かなり大規模に、3年以内に広がっているなと。もちろん、キャリアで初めてのことです。これは、SF書きとしては滅多に出会えない、一生一度かもしれない稀有なイベントを体験しているのだと、考え方を変えたのでした。

そして、当時、3年後、2025年をSFの舞台にするとして、具体的に何を描くかとなったとき、やはり最初に出てくるものがあるわけです。
「自分よりずっと大変そうな人たちがいるぞ」とわかったので、自然とコメディになりました。
どんなシチュエーションコメディでも、ここまですごい大掛かりなものはまずあり得ません。2024年だと笑えなくなってるかもしれないけれど、2023年に出すなら準備期間もまだあるし大丈夫かなと。

そして、執筆を始めると、今度は細部を具体的に書かねばならんので、毎日新しいニュースがやってくるAIのあまりの速さに転げ回るわけです。ChatGPTやInstructGPTのことを調べるところから始めて、勉強の最中に、世界も驚愕しているから、書いても書いても新しい情報がやってくる。頻繁に修正しなければならない。むしろ、書いてる時間より、修正する時間のほうが長いのは初体験でした。修正しないと、書いてる最中にも記述が古くなってるんですよ。
どのくらい酷いかというと、SFって、メインギミックになってるところはわりと調べながら書いたりするんですが、その中心の部分から1日に1本以上大ニュースが飛んできたりするわけです。なんだこれ。
英文のTwitterで一報を見て、もはや書籍どころか日本語blogの記事が見つからないものもあるので、しかたなくDeepLで海外のを翻訳して読むという。ChatGPT翻訳は読みやすいんですが、基礎知識が足りてない読み手じゃすぐに変だと気付けない省略のしかたをするから、DeepL+Grammaryの信用に到底およばない…。

なんとか2月末に第一稿をかたちにして、くわしいかたに読んでいただいたりしながら修正をするも、そのあいだも容赦なく新しい情報が土砂降りなわけです。

これは自分だけでは無理だなと思い知らされて、本作は、自然言語処理にくわしい霧友正規さんにご協力いただきました。本当に感謝しております。
ただ、もちろんのことですが、本作に存在する一切の誤りは、長谷に責任があります。

あと、ゲラのため入稿した3月20日より新しい進歩は、基本的に反映させませんでした。正直、「もうこれはキリがないな」と思ったためです。(*)
このため、今の大規模言語モデル(LLM)の大きな柱になっているオープンなLLMのニュースは見ずに書いたものです。
いや、多すぎるし速すぎるんですよ。

(*)どの時期だっけという記憶を掘り返すのがおっくうなかた向けにメモを残しておくと、meta社のLLM、Llamaがリークされて、スタンフォード大のAlpacaが出たのが3/13です。スプーンの遠投にはいいタイミングだったと思います。

原稿に詳細なチェックを入れてくださった霧友正規さん、見守ってくれた家族、早川書房の編集塩澤氏、早川書房のみなさま。本当にありがとうございました。日本SF作家クラブの皆さま。すごい企画に参加させていただき、ありがとうございます。アンソロジーの豪華執筆陣の皆様、読んでいてわくわくさせていただきました。前書きととがきを引き受けてくださった、慶應大学の大澤博隆先生、東京大学の鳥海不二夫先生、ありがとうございました!

以下、めずらしく参考文献リストを、evernoteにクリップが残っていたぶんだけ記載しておきます。(自分の記憶でもクリップ失敗やし忘れた記事があるので、重要なものもまだあと20%くらいは漏れていそうです。)
最近は、書籍よりもblogや論文に頼ることが増えていて、しかも、理解したようなそうでないようなものが相当あるので、参考文献を記載したほうがよいはいつも迷うところです。今回は、blogなのでリンクを貼れるうえ、紙数制限がないので、たまにはよいだろうということで。
ただ、残念なことに、自分が超一夜漬け型で、3ヶ月前に読んだ内容はだいたい忘れているので、evernoteを見直しても、すでに忘却が始まっている感じですね。
次に生成AIやLLMをメインギミックとして本格的に扱うときは、また勉強のし直しです。

まあ、その頃には、今の知識はきっと古くなってますし、問題ないですね!

参考文献(2023/5/23時点ではまだリンクはだいじょうぶだと思います。)

公式サイト
大阪2025公式サイト https://www.expo2025.or.jp 
大阪ヘルスケアパビリオン https://2025osaka-pavilion.jp

blog・web記事
【論文解説】OpenAI 「GPT-3」を理解する | 楽しみながら理解するAI・機械学習入門 https://data-analytics.fun/2020/12/07/openai-gpt3/

AI技術自然言語処理(NLP)とは|仕組みや活用事例、最近の研究を徹底解説 | スキルアップAI | AI人材育成・開発組織の構築支援 https://www.skillupai.com/blog/ai-topics/nlp/

深層学習界の大前提Transformerの論文解説! https://qiita.com/omiita/items/07e69aef6c156d23c538

作って理解する Transformer / Attention - Qiita https://qiita.com/halhorn/items/c91497522be27bde17ce

30分で完全理解するTransformerの世界 https://zenn.dev/zenkigen/articles/2023-01-shimizu

(数式を使わない)Transformer の直感的な説明 https://euske.github.io/introdl/transformer/index.html

【徹底解説】VAEをはじめからていねいに | Academaid https://academ-aid.com/ml/vae

【初学者向け】対照学習(Contrastive Learning)とは? | AI Academy Media https://aiacademy.jp/media/?p=1096

Huggingface Transformers 入門 (8) - トークナイザー|npaka|note https://note.com/npaka/n/nb08941a36c8b

【論文解説】Diffusion Modelを理解する | 楽しみながら理解するAI・機械学習入門 https://data-analytics.fun/2022/02/03/understanding-diffusion-model/

【論文解説】自然言語処理と画像処理の融合 – OpenAI 『CLIP』を理解する https://data-analytics.fun/2021/03/24/understanding-openai-clip/

2022年10大AIニュースと2023年の展望|IT navi|note https://note.com/it_navi/n/nfd29236cad63

ReAct: Synergizing Reasoning and Acting in Language Models – Google AI Blog https://ai.googleblog.com/2022/11/react-synergizing-reasoning-and-acting.html

機械学習プロフェッショナルシリーズ「変分ベイズ学習」読書メモ | Deus Ex Machina https://deus-ex-machina-ism.com/?p=21600

アニメでわかるベイズ推論によるパラメータ学習 - 作って遊ぶ機械学習。 https://machine-learning.hatenablog.com/entry/2016/03/02/071025

AIも睡眠をとると学習が改善すると判明! - ナゾロジー https://nazology.net/archives/118066

【過去は振り返らない】マルコフ連鎖をわかりやすく解説【統計学】 - 数学・統計学探訪 https://math-exploration.com/archives/212

2022年「AIの進歩を感じさせるニュースランキング」ベスト7 - ナゾロジー https://nazology.net/archives/119366

オフライン強化学習② Decision Transformerの系譜 - どこから見てもメンダコ https://horomary.hatenablog.com/entry/2022/11/28/212738

大規模言語モデルと外部リソースとを融合させたアプリケーションを作ろう-langchainのご紹介- - Qiita https://qiita.com/wwwcojp/items/c7f43c5f964b8db8a890

AI 激動の年!2022年の人工知能10大トレンドと必読論文 https://ja.stateofaiguides.com/20221231-ai-trends-2022/

[ RIFFUSION ] https://www.riffusion.com/about

入力テキストを音楽にするAI「Riffusion」公開。文字を画像化し音に変換 https://gadget.phileweb.com/post-24623/

LangChain の HOW-TO EXAMPLES (4) - データ拡張生成|npaka|note https://note.com/npaka/n/nb9b70619939a

アルゴリズムの枠組みの延長線上にあるAI研究が真の人工知能を達成できない理由は「アフォーダンス」の欠如が原因 - GIGAZINE https://gigazine.net/news/20230114-artifical-general-intelligence-affordance/

Wolfram|Alpha as the Way to Bring Computational Knowledge Superpowers to ChatGPT—Stephen Wolfram Writings https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/

チャットボットで作ったAI彼女を虐待してしまうという悲しい事例が増えている https://gigazine.net/news/20220120-chatbot-ai-girlfriend-abused/

最近話題になった 強化学習 技術のまとめ|npaka|note https://note.com/npaka/n/n67db55e28021

人間と見分けがつかないほど自然な文章を書けるAI「GPT-3」の改良版AI「InstructGPT」一般公開、詩も執筆可能 - GIGAZINE https://gigazine.net/news/20220128-instructgpt-gpt-3-openai/

強化学習の創始者が投げかけたAI研究の苦い教訓 | 日経Robotics(日経ロボティクス) https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00013/

137 emergent abilities of large language models — Jason Wei https://www.jasonwei.net/blog/emergence

三次元空間のニューラルな表現とNeRF | ALBERT Official Blog https://blog.albert2005.co.jp/2020/05/08/nerf/

The Transformer Family Version 2.0 | Lil'Log https://lilianweng.github.io/posts/2023-01-27-the-transformer-family-v2/

ChatGPTの中身についてちょっと詳しくなるためのメモ書き - Qiita https://qiita.com/sakasegawa/items/e13e29c96fc711cf84bb

AIが学習しすぎる?「過学習」問題とそれを抑制する方法 | AI研究所 https://ai-kenkyujo.com/artificial-intelligence/algorithm/kagakushu/

絶体絶命の危機を迎えたグーグルのAI開発、遅れをとった理由 | Forbes JAPAN 公式サイト(フォーブス ジャパン) https://forbesjapan.com/articles/detail/60874

ChatGPT Is a Blurry JPEG of the Web | The New Yorker https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

ASCII.jp:AIの著作権問題が複雑化  https://ascii.jp/elem/000/004/124/4124486/

Solving a machine-learning mystery | MIT News | Massachusetts Institute of Technology https://news.mit.edu/2023/large-language-models-in-context-learning-0207

生成系AIブーム、巨大ITに一段の影響力 - WSJ https://jp.wsj.com/articles/the-ai-boom-that-could-make-google-and-microsoft-even-more-powerful-f6f09cb9

中国版chatGPTが「言ってはいけないこと」を口にして開始3日で終了 - ナゾロジー https://nazology.net/archives/122157

Microsoft、「新しいBing」の最初の1週間を報告 「長い会話では意図しない口調に変わる」ことも https://www.itmedia.co.jp/news/spv/2302/17/news077.html

ジェネレーティブAIによる画像生成の急速な普及:その進化の向かう先は? | WIRED.jp https://wired.jp/article/where-the-ai-art-boom-came-from-and-where-its-going/?utm_source=twitter&utm_medium=social&utm_campaign=onsite-share&utm_brand=wired-jp&utm_social-type=earned

OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ https://deeplearning.hatenablog.com/entry/scaling_law

「機械の中の幽霊」ならぬ「AIの中の幻覚」? AIの「ハルシネーション」について考える https://yamdas.hatenablog.com/entry/20230220/ai-hallucination

Illustrating Reinforcement Learning from Human Feedback (RLHF) https://huggingface.co/blog/rlhf

話題爆発中のAI「ChatGPT」の仕組みにせまる! - Qiita https://qiita.com/omiita/items/c355bc4c26eca2817324

「プロパガンダの爆発」を防ぐためにAIチップを制限することをOpenAIが政府に提案、BingのAIは「人間になりたい」と訴える - GIGAZINE https://gigazine.net/news/20230217-openai-chatgpt-improve/

「Chat GPTが雇用を奪う」と考える人に欠けた視点 https://toyokeizai.net/articles/-/654000

United States Copyright Office Library of Congress 101 Independence Avenue SE Washington DC 20559-6000 www.copyright.govFebruary 21, 2023Van LindbergTaylor English Duma LLP21750 Hardy Oak Boulevard #102 https://www.copyright.gov/docs/zarya-of-the-dawn.pdf

Planning for AGI and beyond https://openai.com/blog/planning-for-agi-and-beyond/

Accelerating Reinforcement Learning using EEG-based implicit human feedback - ScienceDirect   https://www.sciencedirect.com/science/article/abs/pii/S0925231221009887?via%3Dihub

強化学習 – これだけは知っておきたい3つのこと - MATLAB & Simulink https://jp.mathworks.com/discovery/reinforcement-learning.html

AIで好きなポーズを出すために、モデルを10万枚撮影して手動でタグ付けしてみた:清水亮の「世界を変えるAI」 - ITmedia NEWS https://www.itmedia.co.jp/news/articles/2302/27/news088.html

野尻抱介の「ぱられる・シンギュラリティ」第17回 嘘つきは創造の始まり│ケムール https://kemur.jp/paragula_202302

What Is ChatGPT Doing … and Why Does It Work?—Stephen Wolfram Writings https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

ChatGPTと新連載企画を真剣に打ち合わせして気づいたこと。|ムラマツ|note https://note.com/mi_muramatsu/n/nc23e9e69bc1b

PaLM-E: An Embodied Multimodal Language Model https://palm-e.github.io/assets/palm-e.pdf

PaLM-SayCan解説 https://zenn.dev/hagane/articles/2578ea2d57264a

ChatGPTを使ったサービスにおいて気軽にできるプロンプトインジェクション対策 - Qiita https://qiita.com/sakasegawa/items/09d9f6a485108f5a618a

LLMがなぜ大事なのか?経営者の視点で考える波の待ち受け方|福島良典 | LayerX https://comemo.nikkei.com/n/nf3132b57539c

LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】 | くろくまそふと https://kurokumasoft.com/2023/02/24/stable-diffusion-lora/

ポーズを指定して画像を生成できる「ControlNet」の使い方【Stable Diffusion web UI】 | くろくまそふと https://kurokumasoft.com/2023/02/16/stable-diffusion-controlnet/

ChatGPTの精度を上げる、あらゆる質問の最後に置く「命令」 優秀な壁打ち相手を作る、「チャットAI力」の高め方 - ログミーBiz https://logmi.jp/business/articles/328359

「AIとの敗北は人類を進化させる!?」囲碁AIに負けた人類側のスキルが急上昇していると判明! - ナゾロジー https://nazology.net/archives/123393

Stanford Alpaca https://crfm.stanford.edu/2023/03/13/alpaca.html

やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙 – WirelessWire News https://wirelesswire.jp/2023/03/84334/

GPT-4はどのようにして「不適切な回答」を回避するように学習されているのか - Qiita https://qiita.com/ikeda_yasuhiro/items/3c633ddf0f3119051fe0


論文
統合情報理論から考える人工知能の意識 https://www.jstage.jst.go.jp/article/jjsai/33/4/33_460/_pdf/-char/ja

The Capacity for Moral Self-Correction in LargeLanguage Models https://arxiv.org/pdf/2302.07459.pdf

Augmented Language Models: a Survey https://arxiv.org/pdf/2302.07842.pdf

Language Is Not All You Need: Aligning Perceptionwith Language Models https://arxiv.org/pdf/2302.14045.pdf

Scaling Laws from the Data Manifold Dimension https://jmlr.org/papers/volume23/20-1111/20-1111.pdf

High-resolution image reconstruction with latent diffusion models from humanbrain activity https://www.biorxiv.org/content/10.1101/2022.11.18.517004v2.full.pdf

Learning Humanoid Locomotion with Transformers https://arxiv.org/pdf/2303.03381.pdf



この記事が気に入ったらサポートをしてみませんか?