Creative Aliens #001 AI ×Creativity 2019.10.10/11開催— 新たな創造性の地平へ

Nao Tokui
17 min readSep 28, 2019

--

Oct 10th and 11th, Dentsu Lab Tokyo and Dentsu Craft will co-host a conference on the future of AI and creativity in Tokyo. We have invited three distinguished guest speakers to the conference. They are researchers and artists I personally admire, namely David Ha, Tom White and Gene Kogan. This article is intended to introduce these three amazing speakers to the Japanese audience.

AlienとしてのAI

来たる2019年10月10日と11日。Dentsu Lab Tokyo (DLT)と僕がHead of Technologyを務めているDentsu Craft Tokyo (DCT)が主催するカンファレンス、Creative Aliensが開催されます。テクノロジーと創造性をテーマにする一連のカンファレンスの第一弾として開催される今回のイベントですが、今回は人工知能、AIをテーマとしています。

人間の創造性に限定されない、新しい、「異質な」創造性を実現する手段としてのAIにフォーカスします。人工知能の研究者やソフトウェア・エンジニアのように、一般にクリエイティブと聞いて想像する枠の外側に存在する「異星人」の発想を取り込んでいくことが、イノベーションへの近道である、イベントのタイトルにはそういった意思が現れています。

僕自身もAIは Artificial Intelligenceの略ではなく、Alien Intelligenceだと昔から主張してきました。今回はイベントの企画から登壇者の選定、お声がけ、深層学習を使ったグラフィックデザイン(私のラフな実装をDLTの村上さんが綺麗なコードにまとめてくれています! )まで深く関わらせていただきました。そういった意味で思い入れの深い第一回目です。

特に登壇者の選定には時間をかけました。個人的に昔から親交があるアーティスト/エンジニアだったり、研究に関心を寄せてきた研究者、そして以前からどうしても会いたかった、話してみたかったアーティストを私のわがままで呼ばせていただきました (DLT・DCTの関係者に感謝!)。

この記事では私がどういった思いで三人の登壇者をお呼びするに至ったか、そしてそれぞれどのような活動をしてきているのかを簡単に紹介させていただきます。

David Ha (hardmaru) — Google Brain

hardmaruというTwitterのハンドルネームで知られるDavid Haは、AI研究界に彗星のように現れたロックスターです。ハンドルネームからも推測されるように日本とも関係の深いDavidは、もともとなんと六本木ヒルズのとあるグローバル金融機関で働く金融マンでした。機械学習に興味を持った彼は、仕事のかたわらほぼ独学で機械学習や深層学習(Deep Learning)を学び、自身のblogで興味深いプロジェクトを発表していました。その後、金融の仕事を辞め、Google Brainのレジデンシープログラムに参加します。

スケッチするAI

彼の名前を一躍有名にしたのは、何と言ってもSketchRNNの研究でしょう。スケッチを描くと言う行為を、ペン先の位置の移動の時系列データと捉え、RNNというテキスト解析などで使われる手法を応用。スケッチを描くAIを実装しました。それまで写真のようなラスター画像の生成手法は数多く提案されていましたが、この精度でスケッチのようなベクター画像の生成に成功した例はほとんどなく、発表と同時に世界的に注目を集めました。

Sketch RNN — https://experiments.withgoogle.com/sketch-rnn-demo

SketchRNNは、ユーザが途中まで書いたスケッチを補完したり、スケッチの形状の四則演算のようなことを可能にしています。オンラインでデモを自分で試すことができるので、ぜひ試してみてください。

学習データ収集プロセスのゲーム化

ちょっと余談ですが、個人的に興味を惹かれたのは、学習データの集め方です。ペン先の動きをRNNのモデルで学習するには当然ながら学習用のデータが必要です。それも大量に必要になります。あまり複雑すぎるスケッチもデータとしては扱いにくいことになります。特定の事物の形状を端的に表現したスケッチのデータをオンライン上で集める必要があります(最終的なスケッチそのものだけでなく、ペン先の移動の遷移をデータとして集める必要があるため)。そこでどうしたか。

Google Creative Labチームが実装していたQuick Draw!というオンラインゲームを通して集めたデータを使ったそうです。Quick Draw!は、指定されるオブジェクト(ヘリコプター、ネコ、コンピュータなどなど)をブラウザ上でマウスを使って描くことができるかどうかと言う簡単なゲームです。制限時間以内にAIに指定されたものとして認識されるスケッチを描ければユーザの勝ちです。少しでも早くきちんと認識されるものを書くという制限があることで、ユーザは対象の特徴をよく捉えたシンプルなスケッチを描くように動機付けられる点がポイントです。このプロジェクトを通して集められた5000万を超えるスケッチのデータは、誰でも使えるかたちで現在公開されています。

Quick Draw! ウェブサイトと集められたスケッチの例

このQuick Draw!データセットを解析することで、国民ごとにスケッチのスタイルに違いがあることもわかっています。例えば、円を描くときにアメリカ人は反時計回りに書くことが多い(86%)のに対して、日本人は時計回りに描く人(80%)が多い、といった具合です(アルファベットと漢字の書き順の違いでしょうか)

少し話が逸れましたが… ゲーム化することで面倒な学習データの収集を容易にしたと言う意味で、gamificationの例としても優れた例ではないでしょうか (Quick Draw!の企画には、今DCTで私のすぐ近くに座っているカワシマ・タカシさんが深く携わっていたと聞き、ご縁も感じています。)

自身が想像する世界の中で学習するAI

次に、DavidはWorld Modelsと言うまたまた画期的な論文をものにします。しかも共著者は伝説的なAI研究者 Jürgen Schmidhuberです。Jürgenはテキスト生成などでデファクトスタンダードとなったLSTMと言うRNNを発展させた手法の発案者として知られています(それ以外に彼が有名な理由はいくつかあるのですが…)。創造性研究の分野でも知られた研究者です。

A World Model, from Scott McCloud’s Understanding Comics. [1, 2] — quoted from https://worldmodels.github.io/

World Modelsの論文を説明するのは多少難しいのですが、簡単に言うと、人と同じようにAIもAI自身が想像する想像の世界の中で学習することができるか、というものです。例えば人は自転車に乗るときに自転車に乗っている自分を想像してイメージトレーニングすることができます。AIにも同じことができるかというのが根源的な問いになります。

この論文の中で、Davidはまずはゲームのあるシーンを元に次に来るシーンを生成できるようにAIを学習しました。AIに「想像力」を持たせたわけですね。その上で、想像したレースゲームの中でレースカーの操作を学習させています。結果的にAIが「イメトレ」によってレースカーの運転を学習することができることを証明しました。

Davidは研究として非常にインパクトの強い基礎的な研究と、SketchRNNのようなクリエイティブな表現に関する研究を同レベルで深く扱える世界的に見ても稀有な存在だと思います。(多分、AI研究者の誰に聞いても同じ答えが返ってくるはず) 。最近は強化学習(Reinforcement Learning)や進化戦略(Evolution Strategy) などを組み合わせたエージェントの動きの学習などに興味があるということで、10月のイベントではその辺の新しい話も聞けるのではないかと楽しみにしています。

Reinforcement Learning
for Improving Agent Design — https://designrl.github.io/

SketchRNN、World Modelsと来て、なぜDavidは強化学習や進化戦略などに着目しているのでしょうか。それはこれらが基本的に教師なしの学習だということに尽きると思います (以前に東大での私の特別講義にDavidにゲスト講師をお願いしたところ、そう言った話を伺うことができました。)

例えばSketchRNNの生成するスケッチは、ときに面白いかたちを描くことがありますが、基本的には人間が与えたデータのパターンを学習しているにすぎません(教師あり学習)。本質的に新しい何かを生み出すということは、学習の仕組み上ありません。それに対して、強化学習などはAIのモデル自体が試行錯誤を繰り返すことで、新しい答えを導き出す仕組みになります。

2016年に囲碁のプログラム「AlphaGo」が囲碁のトップ棋士を破ったことは記憶に新しいところですが、まさにAlphaGoではこの強化学習の仕組みが使われていました。AlphaGoは自分自身となんども戦うことで、人が思いつかなかったような全く新しい手を生み出し、世界の囲碁ファンをあっと言わせましたが(特に第二局の37手目の一手は「神の手」と言われ、伝説化しています)、そもそもこうした手法が使えるのは、囲碁の場合、ルールや勝ち負けの基準が明確だからです。例えば、絵を描く、音楽を作るといったタスクの場合、生成された絵や音楽の良し悪しを端的に評価することは難しいタスクになります。特に人がこれまでに接したことがない、新しい絵や音楽ならばなおさらです。

どうやって人も見たことがない表現をAIが評価できるというのでしょうか。

Tom White — アーティスト

次の登壇者、ニュージーランドのアーティストTom Whiteは、この難しい問題に真っ向から取り組むアーティストです。彼がこの数年を取り組んでいる「Perceoption Engines」という一連の作品は、この未知の作品(この場合は絵画)の「良し悪し」の評価を、AIが得意とする別の問題に置き換えることで評価しようとするものです。

Perception Engines — Tom White (courtesy of the artist)

人のモノマネではない新しい描画スタイルを実現するAI

絵の「良し悪し」の評価ではなく、絵がどのくらい●●っぽいかということを評価の基準として扱います。具体的には、ランダムに丸を描いたりや線を引くアルゴリズムと、一般によく使われる画像認識のモデルを使い、特定のオブジェクト(例えば扇風機)として認識される比率がより高くなるように、少しずつ絵を改変していくという方法を取っていきます。

Perception Engines — Tom White (courtesy of the artist)

丸や線が書き加えられていく中で、徐々にAIの目から見て、扇風機らしく見える絵ができてくるわけです。こうして完成した絵は、扇風機なら扇風機の「らしさ」の本質がぎゅっと濃縮されたような抽象画になります(左の例 )。

AIというと、人が過去にやってきたことを学習し、それをより効率的に行うものという印象が強い中で、人の過去の作品の模倣ではない「新しい」表現をAIによって実現しているという例で非常に興味深い作品です。

人の過去の作品の模倣ではない「新しい」表現をAIによって実現

Tomとはこれまで面識がなかったのですが、なんとか今回カンファレンスに呼ぶことができてとても嬉しいです。彼とは、今年のNeurIPS(深層学習に関する世界最大の学会の一つ)の創造性とデザイン、アートに関するワークショップのオーガナイザーの一員としてもご一緒することができました。今回は、彼が大学で学生とともに制作している新しいプロジェクトについても発表してもらえるとのこと。そちらも楽しみです。

Gene Kogan — アーティスト/エンジニア

Gene Kogan

もう一人の登壇者、アメリカのアーティストでエンジニアのGene Koganは、AIや機械学習のクリエイティブ領域への応用、その民主化を進める先駆者として知られています。
自身もメディアアーティストでもあるGeneですが、機械学習や深層学習を一般のデザイナーやアーティストにも使えるかたちで提供することで、その裾野を広げようという活動を続けています。

機械学習や深層学習のプロセスの民主化

Machine Learning for Artists (ml4a)は、Geneが進めるプロジェクトの一つで、その名の通りアーティストが使いやすいようにまとめた機械学習のツールのパッケージ(openFrameworksのアドオンなど)や、独学者用のテキストやインタラクティブなデモ、講義のビデオなどからなります。今はニューヨーク大学のInteraction Technology Program(ITP)で教鞭を執るGeneですが、彼のオンライン上の講義資料で勉強したという人は日本だけでなく、世界中にたくさんいることでしょう。

さらに最近はRunwayMLというスタートアップの技術顧問も務めているというGene.
RunwayMLは、機械学習を一般的なデザインのプロセスに組み込むことを目標とするソフトウェアプラットフォームで、学習ずみのモデルをプラグインのように手元のマシンにダウンロードし、深層学習ならではの様々な処理を行うことができます。

一般的な画像認識はもちろん、白黒写真に着色したり、スケッチからフォトリアリスティックな画像を生成したりすることも可能です。RunwayML用のモデルを作る機能がオープンソース化されていることもあり、最新の研究結果があまり日をおかずに簡単に試せるかたちで提供されるという点が魅力的です。一般的なパソコンでは動かすのが難しい、高速のGPUが必要なモデルに関しては、ほとんどユーザが意識することなくクラウド上のGPUとシームレスに連携してくれるというあたりも非常に良くできています(GPUの使用量にチャージするというビジネスモデルのようです)。

What is RunwayML?

AIをデザインやアートに応用する動きが加速する中で、(プログラマではない)一般のデザイナーやアーティストがどのようにそれらを自分の作業プロセスに取り込んでいくかは、今後避けて通れない大きな問題になります。デザイナーがソフトウェアメーカが提供するAIツールの単なるユーザになってしまい、AIが想定する表現に縛られるようになるのか(AIに使われる側?)、それともより積極にAIを取り入れたプロセスを作り、AIを使う側になるのか。今のうちからAIとの向き合い方を考えておく必要があると思います。そういう意味で、Geneの活動は世界の最先端を走るトップランナーの一人だと言えるでしょう。

デザイナーやアーティストがAIに使われる側になるか、AIを使う側になるのか

今回の講演では、ml4aやRunwayMLなどの活動を通して着想した新しいプロジェクトを詳しく紹介してくれるとも伺っています。今回が初来日とのこと。2017年にベルリンで会って以来、会うたびに「日本に呼ぶから!」と言っていたので、今回その約束が果たせて嬉しいです。

世界的なAI研究者として知られるDavid Ha。AIを用いて人真似ではない新たなスタイルの絵画を生み出すアーティスト、Tom White。そして、AIの民主化を推し進めるGene Kogan。

個人的に以前から話を聞きたかった、お呼びしたかった方々をこうやって東京に集めることができたのは、とても幸せなことです。少しだけ残念だったのは、もう一人どうしてもお呼びしたかったとある女性の研究者の都合があわず、お呼びできなかったこと。また次の機会への宿題として残しておきます。

人選がうまくいってすでに少し満足しているところもあるのですが(笑)、私自身も10日の講演に登壇することになっています。11日のGene Koganのワークショップは、私の慶應大学の研究室の方で運営をサポートさせていただきます。両日に向けて準備をしっかり進めておきます。11日の人数限定のワークショップは応募を締め切ってしまっていますが、10日の講演はまだ多少余裕があるようです。無料ですのでぜひ足をお運びください!

--

--

No responses yet