ILLUSTRATION BY ELENA LACEY; GETTY IMAGES

オレゴン州ポートランドに住むアーティストのダリウス・カゼミは数年前の11月、Twitterに絶え間なく流れてくる小説家志望者たちのつぶやきを眺めていた。11月は「全国小説執筆月間（National Novel Writing Month、通称「NaNoWriMo」）」で、多くの人が1カ月で50,000ワードを超える作品を書き上げることに挑戦する。

Twitterの自動ツイートボットを主な表現手段にしているカゼミにとって、50,000ワードという長さはいかにも大変そうに感じられた。「参加する気はまったくありませんでした」と、カゼミは言う。「でも、もしコンピューターが代わりに書いてくれるなら、やってみてもいいなと思ったんです」

このアイデアをツイートしてみたところ、すぐさま同じようなことを考えていたアーティストたちから反応があり、オープンソースソフトウェアの共有プラットフォーム「Github」でプロジェクトが立ち上がった。小説を生成するプログラムのコードを、みんなが共同で書き始めたのだ。

カゼミは普通は、小説のような長い文章には手を出さない。140字という簡潔さが気に入っているからだ。そこで今回もツイートをベースに長いテキストを完成させるプログラムをつくることにした。Twitterの宇宙から疑問を投げかける形式のツイート（サブツイートが多かった）と、それにうまく対応するようなものを拾ってきて、組み合わせるのだ。

いくつか興味深い作品ができたが、カゼミは満足しなかった。そこで、オンラインの夢日記からエントリーを探してきて、それらをツイートのやりとりをつなぐように配置し、登場人物が遁走状態にあるかのような構成にしてみた。カゼミはできあがった最初の作品に、「少年少女たちが家のあたりをさまよう」というタイトルを付けた。

アルゴリズムが生成したシュールなパスティーシュ

NaNoWriMoの裏イヴェントとでも呼ぶべき「NaNoGenMo」（ライティングではなくジェネレイティングというわけだ）が始まってから、6年が経った。11月の1カ月でコンピュータープログラムを使って50,000ワードの小説を創作することに取り組むというこの企画は、規模は大きく拡大したものの、根本の部分では変わっていないとカゼミは語る。Githubのリポジトリには、数百ものプログラムとそれが生み出した「小説」が置かれている。

ここには古典的な意味での物語、つまり構成などがきちんとしていて人間が読んで理解できる作品もある。だが、大半はアルゴリズムが生成したシュールなパスティーシュの様相を帯びている。

例えば、Wikipediaの記事とツイートを集めて並び替え、不思議な組み合わせでまとめたものや、文字によるヴィジュアルアートを目指したもの、猫の鳴き声のヴァリエーションを50,000回繰り返した作品すらある。ただ、カゼミによれば猫の鳴き声小説も「重要な作品」で、Githubのプロジェクトの説明のページで言及されているほどだ。

一方で、6年前にはなかったツールが登場している。数十億の単語を使って訓練された機械学習モデルだ。機械学習のおかげで、コンピューターは昔と比べてはるかに人間らしいテキストをつくり出せるようになった。統計的なパターンに従って基礎的な文法を学び、最終的には、特に内容はなくても（少なくとも文法的には）完全に正しいセンテンスを完成させてくるのだ。

機械学習を用いた文章生成ツールの登場

そのひとつが、人工知能（AI）を研究する非営利団体OpenAIが11月に一般公開した文章生成ツール「GPT-2」の最新版である。この種のAIでは最も優れた能力をもち、特定のスタイル（ウェルギリスの『農耕詩』、『ニューヨーカー』誌のコラム、ロシアの流す偽情報など）を模倣することすら可能だ。

GPT-2は小説を書くことはできない。要旨は何なのかわからなくなる前に何とか1文を終わらせるのがせいぜいで、ジェーン・オースティンやジョナサン・フランゼンの作品のようなものを考えているなら、確実に期待を裏切られる。

ただ、今年のNaNoGenMoにエントリーした80あまりの作品には、GPT-2を使ったものがいちばん多い。ある男性は、ニューヨークからロサンジェルスに向かう6時間のフライトの間に詩集を1冊完成させた（この作品を読むと、機械学習を用いたテキスト生成ツールにおける温室効果ガス排出量の問題についても考えさせられる）。

一方、最新のAIを利用した実験的な取り組みで知られるプログラマーのジャネル・シェインは、GPT-2が生成した文章には訓練用のデータセットからそのままとってきたのではないかと疑いたくなるほど、うまく書けているものもあったと述べている。ただ、それ以外は「理解不能なシュルレアリスム」の繰り返しになってしまうそうだ。シェインは「小説がうまく書けなくてすごく苦しんでいても、AIだってこれ以上に苦労しているんだと思うと多少は救われる」とツイートしている。

コードによる創作という実験のツール

ニューヨーク大学でコンピューターの創造性についての講義を受けもつアリソン・パリッシュは、「こうした本当に人間が書いたかのようなテキストをつくるのは面白いものです」と話す。

ただ、審美的な観点からは、GPT-2は過去の機械学習モデルとそれほど変わらないという。それどころか、クロード・シャノンが「言語は単なる情報だ」と宣言した1940年代から文章の自動生成に使われていたマルコフ連鎖と比べても、特筆すべきほどのことはない。芸術家たちは当時から、「言語は統計にすぎない」という主張を証明するためにこうしたツールを利用してきたと、パリッシュは説明する。

パリッシュが教える学生たちの多くが、コンピューターによるナラティヴのコースの最終課題にGPT-2を使おうとしている。パリッシュはまず、シェインのようなアーティストの作品が示すように、高度なAIはコードによる創作という実験のためのひとつのツールである以上、GPT-2を使うことは構わないと話す。ただ、彼女はその試みが芸術的に成功するかは難しいところだと考えている。

なぜならそこには常に、どのようなテキストが生成されようと、最終的には読者の側が何らかの意味を汲みとってくれるだろうという甘えがつきまとうからだ。結局のところ、わたしたち人間は何でも解釈したがる生き物なのである。

ソースコードを256字以内に収める試みも

一方、コンピュータープログラムによるテキスト生成という挑戦自体は、さまざまな方向に発展させていくことができる。例えば、プログラムに何らかの制約を設けるというやり方がある。

マサチューセッツ工科大学（MIT）教授でデジタルメディアの専門家のニック・モントフォートは、今年のNaNoGenMoで「Nano-NaNoGenMo」という企画を提案した。小説をつくるためのプログラムのソースコードの長さを、256文字以内に収めようというのだ。

モントフォートは、これはサイファーパンクを思い出させると語る。1980年代、プログラマーたちが8ビットのコンピューター「コモドール64」を使っていたころのような制約を復活させるのだ。それは機械学習モデルなど想像もできなかった時代である。

ノスタルジアはさておきモントフォートは、読めばそれぞれの行が意味するところを理解できるコードやデータセットが好きだと話す。大量のデータセットの統計的変動に基づいてテキストを生成するこの新しい言語モデルが、ブラックボックス化するのは避けたいというのだ。

モントフォートは「作品だけでなく、それを生み出したコードを読むのを楽しみにしています」とした上で、「プログラムが書いた小説のほうも、始めから終わりまできちんと読んでいますよ」と付け加える。

初心者にも門戸が開かれたコンテスト

この言葉は嘘ではない。また、モントフォートはNaNoGenMoにエントリーした作品を実際にいくつか書籍として出版したことがある。これらの本はさらに基のコードを調整することで、ほかの言語にも“翻訳”された。

彼が2013年に上梓した初のNaNoGenMo小説「World Clock」は、異なる都市で1日の特定の瞬間を切り取った複数の優雅な短い文章で構成されている。そこでは、シリアルの箱の説明文や薬のラベルといったごくありふれたテキストが読み上げられる。この作品を生み出したのは、わずか165行のPythonのコードだ。

モントフォートの次の小説は、サミュエル・ベケットの『ワット』にインスピレーションを受けたものだった。現代文学の奇作とされる『ワット』は非常に難解で、コンピューターによって書かれたかのような印象さえ受ける。モントフォートは『ワット』の正確な特徴とパターンを見つけ、それを強調した独自のヴァージョンを生み出すことで、この難解な小説への理解が深まるのではないかと考えたという。

一方、彼が今年のNaNoGenMoにエントリーした作品は、はるかに単純明快だ（いくつかあるが、ひとつはハーマン・メルヴィルの『白鯨』から一人称を削除したものだそうだ）。コンセプトと完成作品をシンプルにすれば、初心者でも気軽にNaNoGenMoに参加できるようになるという利点がある。モントフォートは「プロジェクトの内容によって締め出されるようなことはありません」と話す。「詩の朗読に招待するのをやめたりはしませんよ」

コンピューターの素晴らしさ

コードで小説を書くことに挑戦しようとしているプログラマーたちは、この言葉に励まされることだろう。もちろん50,000ワードというのはかなりの長さだが、心配することはない。あなたにはコンピューターがあるのだ。コンピューターが素晴らしい（そして同時に恐ろしい）のは、大量の文章をあっという間に吐き出すことができる点である。

カゼミは今年、締め切りギリギリまで作品を公開していない。彼は作品には極力手を入れない方針で、プログラムが生成した文章にはフォーマットを整える程度しか調整を施さないという。彼は新しいツールを試すことも好きだ。GPT-2でどんなものができるか楽しみだったという。

一方、パリッシュは11月半ばの時点で、まだどんな作品を書くか決めていなかった。「不思議の国のアリス」のなかの言葉をグラフのような統計的な表現に置き換えて再構成することを考えているというが、いったい全体どんな作品に仕上がるのだろう。「まだわかりませんね」と彼女は言う。コンピューターがどんな作品を書いてくるのか発見することがいちばん楽しいのだ。