Hatena::Grouprekken

murawaki の雑記

2016-10-17

ニューラル機械翻訳と記号幻想の死

ニューラ機械翻訳が最近ひどいことになっている。科学技術論文の中日翻訳の結果を見て、ボスの中では機械翻訳はできてしまったことになっている。長年開発してきた用例ベース機械翻訳システムもあっさりお払い箱。しかしボスは満足している。既存研究の再実装にいろんなチューニングを加えただけで、論文にできるような新規性は何一つないにも関わらず。そのぶん、機械翻訳以外をやっている私たちへの風当たりがきつい。

そんなある日、AIが翻訳の不可能性に気付く日というブログ記事を見つけた。率直に言えば、懐かしさすら覚えるひどい代物。ここ2、3年ほどの機械翻訳研究をまったく追わないまま、聞きかじった話を適当に組み合わせるとこうなるのだろう。しかし、いままでぼんやりと考えていたことが、いい感じにツッコミどころとして配置されている。この機会に言語化してみようという気になった。なお、ブログ記事で引用されている文献は一切確認していない。

教師あり学習としての機械翻訳

ニューラ機械翻訳に限らず、機械翻訳の入出力は単純明快。源言語のテキストを入力として受け取り、目的言語のテキストを出力する。テキストといっても、現在のシステムの処理単位は基本的に文。

そうしたシステムをどうやって作るか。翻訳に必要な知識をどうやって計算機に教えるか。人間が翻訳規則を直接書いていた大昔ならいざしらず、現在は計算機自身に翻訳のための知識を獲得させる。そのために、源言語と目的言語の文ペアを大量に計算機に与える。日英や日中なら百万のオーダ。その大量の文ペアから、どういう入力に対してどういう出力をするかという対応を計算機が学習する。教師データと完全一致する文しか翻訳できないようでは困るので、ある程度汎化した形で対応を学習する。教師データから学習するので教師あり学習といえる。*1

では、教師データである源言語と目的言語のペアは誰が作ったのか。人間である。計算機は人間が翻訳した結果から学習し、その結果をもとに未知の源言語テキストを翻訳するのである。翻訳不可能性もへったくれもない。人間が、目的言語に等価な表現がなくて困り、適当な近似的表現を編み出していたなら、計算機はそれを学習する。それが計算機に期待された動作。源言語のテキストが表現しているものが、いままで人間が目的言語で表現したことないもので、翻訳に苦労することなんていくらでもあると思う。そんなものを機械翻訳が魔法のように翻訳してくれるわけがない。そんなことは期待されていない。実際、科学技術論文だけを与えて学習した中日翻訳システムは、「你好」すらまともに訳せない。

現状の確認

機械翻訳の従来の定番手法はフレーズベース統計的機械翻訳とよばれるもので、Google Translate の中身も基本的にはこれ。いわゆる深層学習とは無縁だったはず。

機械翻訳はそれなりに大掛かりなタスクであり、ニューラルネットワークが華麗に復活したあとも、しばらくはニューラルネットワークの使いみちはサブタスクを解くことだった。

やがて源言語から目的言語への翻訳をニューラルネットワークで一気に行うモデルが提案されるようになった。2014年が当たり年で、これこれは、精度的には従来手法を下回っていたものの、唖然とするほど単純なモデルでそれなりの精度を叩き出したことで衝撃を与えた。それまでは、機械翻訳といえば、頭の良い人が計算量の爆発と戦いながら、精緻なモデルを頑張って作る分野だった。*2 今までの苦労は何だったのか。

これらのモデルには長い文に弱いという欠点があったが、同じく2014年提案された改良版解消軽減されている。現在定番となっているのはこの手法

Google が発表したニューラル機械翻訳もこの流れ。*3 2016年9月には Google Translate の中英翻訳がニューラル機械翻訳に置き換えられている。他の言語対もそのうち置き換えられるだろう。

記号操作の排除

言語は少なくとも表層的には記号列でできている。記号への思い入れが強い人がいて、記号だけで一つの業界ができていたりする。しかし、記号の背後にある意味についてはいまだに誰も正しい扱い方を知らない。意味についても記号の操作だけで何とかできると考える人がいた。isa(Socrates, Man) みたいに記号によって記号同士の関係を記述するとか、Woman を +HUMAN, +ADULT, -MALE のように別の記号の組み合わせに分解して表現するとか。少なくとも昔の人工知能研究はそんな感じだった。でも、人間のような天然知能は記号操作だけを行っているわけではない。結局、記号操作だけで完結する実用的なシステムが作られることはついになかった。ニューラ機械翻訳はそうした記号幻想に引導を渡そうとしている。定番化した手法の時点で記号排除が進んでいるうえに、最近の流行はより一層暴力的に記号を扱うこと。

ニューラ機械翻訳であっても、入出力は源言語と目的言語の文、つまりは記号列。しかし記号列なのは入り口と出口だけで、その間をつなぐ経路からは記号が徹底的に排除されている。

ニューラ機械翻訳は、広くは sequence-to-sequence (seq2seq)、つまり系列から系列へ変換する手法の一種として実現されている。源言語系列は一度に全部受け取るが、目的言語側では記号を一つ一つ出力する。少しややこしいが、システムへの入力は (1) 源言語記号列と (2) システム自身が途中まで吐いた目的言語記号列。これらをもとにシステムは目的言語の次の記号を出力する。

日英翻訳を例にとると、源言語の記号列「私 は 学生 です 。 <EOS>」(<EOS> は終了を表す特殊記号) と目的言語の途中までの記号列「I am a」を受け取ったとき、システムは次の出力記号として「student」を吐く (ことが期待される)。出力の頭では、源言語の文だけを受け取った状態で「I」を吐くし、「.」を吐いた次は <EOS> を吐く (ことが期待される)。

システムの中身を直感的に説明するのは難しい。LeCun 御大の例えをもじって、ノブを使った説明を試みる。機械翻訳というブラックボックスには、上部と下部に大量の穴があいていて、それぞれ入力と出力に対応する。上部の適切な穴に水を注ぐと、下部の適切な穴から水が出てくる。上部と下部の穴の間には複雑にからまったパイプがあり、途中で分岐 (というより分身) したり合流したりするし、途中に水を貯めている箇所があったりもする。そういう箇所にはノブがあって、水の流れを制御する。実際には、量が増幅されたり、負の値をとったりするので、水で例えるのは微妙だけど。

上部と下部の穴は何を表すか。いま、源言語と目的言語の語彙をそれぞれ3万に制限するとする。足りない語は無理矢理 <UNK> という特殊記号に変換してしまう。そうすると、源言語の各単語に対して、3万個の穴を用意し、そのうちの一つだけに水を注げばよい。「私」なら42番目の穴、「は」なら3番目の穴といった具合。源言語文が <EOS> を含めて 6 つの記号だとすると、それは 6x3万=18万個の穴に対応する。出力済みの単語も同じように上部の穴に対応していて、水を注ぎ込む。下部の穴は、次の単語を表す3万個の穴。そのうちの一つから水が流れ出す。802番の穴なら「student」といった具合。

学習とはノブを調整すること。ノブを適切に調整していないと、別の穴からちょろちょろと水が漏れたりする。正しい穴だけから水が出るようにノブを調整する。こういった階層の深いシステムであっても、充分な教師データを与えれば適切にノブを調整できることがわかった。それが深層学習とよばれているもの。とはいえ、途中を流れている水を見ても、何が起きているのか人間には (システム設計者ですら) さっぱりわからない。

そろそろノブの例えが厳しくなってきたのでここでやめにするが、最後に一つ付け加える。システム内部は、水の流れが多いか少ないかという数量で制御されている。確かに入り口と出口は離散的だけど、中は連続値で支配されている。記号の出る幕はない。

記号の連続空間表現

機械翻訳において、意味はどのように扱われているのだろうか。ニューラル以前は、記号同士を直接結びつけようとしていた。素朴には、例えば、英語の「cat」と日本語の「猫」を結びつけておけばよい。しかし、そう単純にいかないからシステムが複雑化していく。「bank」が「銀行」と「土手」に対応するといった曖昧性、「punctual」と「時間 に 正確だ」のように単語単位では扱えない対応など。そこで、ニューラル以前のフレーズベース統計的機械翻訳がとった対策は 2 つ。(1) 単語ではなく句を単位にする。(2) スコアによって曖昧性を解消する。フレーズベース統計的機械翻訳は、句単位での源言語と目的言語との対応にスコアを紐付ける。翻訳時には、とにかく候補を列挙して、スコアが最大となる訳を選んでいた。スコアのような非記号的要素が加わったとはいえ、記号同士を直接結びつけていた。

ニューラ機械翻訳は記号同士を直接結びつけるのをやめてしまった。システムの中で何が起きているのかよくわからないが、入力直後と出力直前の処理であればまだ想像できる範囲内。

入力の各単語は、まず連続空間表現 (分散表現) に変換される。(-1.26, 0.23, 0.92, ..., -0.54) のような、500次元くらいの実数値の羅列。こうした数値列が「私」、「は」といった単語タイプごとに辞書に格納されていて、入力単語は辞書引きによって連続空間表現に変換される。源言語の語彙を3万に制限していたので、3万x500で1500万個の実数値。目的言語も同じだけある。この数値列が実際のところ何を表しているのかよくわからない。ただ、「私」の連続空間における近傍を探すと「僕」が見つかったりする。意味的に似た単語が近くにくる傾向は確認できるので、何らかの意味を表しているのだろうと推測できる。

ニューラルネットワークの特徴量と意味論の素性は全然別物。前者は連続値で後者は離散的。実態を確認せずに「特徴量 = feature = 素性」という連想ゲームをやるのは無意味。

入力は置いておいて、出力直前の処理を見よう。出力単語の候補も辞書に格納されている。例によって語彙が3万で、500次元とする。やはり似た意味の単語は近くに集まっている。出力直前には、システムはこれと同じ長さ (500次元) の数値列を作り出す。システムはこの数値列と出力候補の3万語各々との内積をとり、一番大きな値を返した候補を出力する。内積\mathbf{a}\cdot\mathbf{b}=\left\|\mathbf{a}\right\|\left\|\mathbf{b}\right\|\cos\theta と変形でき、長さがほぼ同じと仮定すると、単なる cosine 類似度になる。つまり、システムが作った500次元の数値列に一番近い連続空間表現を持つ単語を選んでいると解釈できる。これは面白くて、システムはまず次に出力したい「意味」を作って、次にそれを一番うまく近似する単語を選んでいることになる。

出力直前の処理は、ニューラ機械翻訳が犯す誤りを見るとよくわかる。例えば、英日翻訳で、「Tunisia」を「ノルウェー」と翻訳するといった不思議な間違いが生じる。「チュニジア」も「ノルウェー」も地名としてテキスト中で同じように振る舞うから、連続空間上で近くに配置され、つい間違えてしまうのだろう。

要素還元主義のおわり

「bank」が「銀行」と「土手」に対応するといった曖昧性はどのように解消されているのだろうか。よくわからない。わからないので以下は単なるクソポエムだが、源言語文の文脈によって解消されているのではないかと想像する。

入力単語はまず連続空間表現に変換されると言ったが、この数値列から出力の意味を直接作ろうとするのではない。さらに変換をかませた結果を使う。この変換は、源言語の系列を前から後ろに流れてくる数値列と自身の数値列を合成することで実現される。同じように、後ろから前に流れてくる数値列と自身の数値列を合成しており、最終的には前向き版と後ろ向き版を結合したものを使う。

想像するに、この前向きと後ろ向きの流れが文脈を表していて、例えば源言語文で「deutsche」が「bank」の前に来ていたら、前向き文脈に引っ張られて「銀行」の方の意味が活性化するのではないか。本当にそんなことが起きているのか検証したいところ。

ともかく、ニューラ機械翻訳以前は、文をどうやって翻訳に有効な構成要素に分解するかに頭を悩ましていたのだが、文脈の数値列によって、ふわっと解消されてしまったように見える。

文法よいずこへ

翻訳においては、訳語の選択だけでなく、語順の変換も難しい。ニューラ機械翻訳以前は、源言語記号列を目的言語記号列に並べ替えるモデル (distortion model) がまず研究された。これは単なる列の並べ替えだが、それでは駄目で、統語構造をちゃんと考えましょうという研究も流行っていた。

ニューラ機械翻訳が来て、時計の針が巻き戻されてしまった。seq2seq は系列を見ているだけで、統語構造を陽には扱わない。陽には扱っていないのに、語順を適切に並べ替えたように見える結果を出力してくる。並べ替えができるということは、この巨大なモデルの膨大なパラメータのどこかに語順に関する情報が保持されているはずである。それがどう表現されているか以前に、どのあたりにあるのかすらよくわからない。誰か助けて。

再帰性は実は難しくない

人間が他の動物と異なるのは言語を持つことであり、言語を特徴づけるのは再帰性だと思っていた。人間と他の動物との知能にはそれなりの断絶がありそうだから、再帰性を扱うのはそれだけ難しいと推測してもおかしくない。しかしどうやら再帰性はそんなに難しくないらしい。単なる系列モデルで再帰性が扱えることが実証されてしまった。

2014年末に発表された Grammar as a Foreign Language は、seq2seq で構文解析を行う。入力は

John has a dog . <EOS>

のような普通の文。出力は

(S (NP NNP )NP (VP VBZ (NP DT NN )NP )VP . )S <EOS>

のように構文木を直列化したもの。ニューラ機械翻訳に既存の構文解析器の出力をひたすら食わせて訓練すると、少なくともその構文解析器の振る舞いは再現できてしまったようである。

何が起きているのだろうか? 自分が「(NP」を吐いたことを覚え続けておいて、適切な時点で「)NP」を吐く、あるいはスタックに非終端記号を積んだら、あとで取り出すということはできている。それに、「(NP」を吐いたら、NP 内という文脈に移行して、「)NP」を吐いたら、S 内という文脈に戻りつつ、既に NP を吐いたという追加情報を加えた文脈に移行できている。この2つを系列モデルで難なく行えることが実証されてしまった。それも実用的な精度で。

もちろんこれは教師あり学習であり、構文木は教師データとしてシステムに直接与えられている。幼児の言語獲得のように明確な教師データのない設定で実現できてはじめて再帰性を克服できたと言えるのだろうが。

Grammar as a Foreign Language は本気で構文解析を置き換えるというよりも、単なる一発ネタっぽかった。2016 年に発表された Recurrent Neural Network Grammars はもう少し本気さがうかがえる。やりかたは、seq2seq よりも遷移型 (前から順番に単語を読みながら構文木を組み立てる) の構文解析に近い。とはいえ、seq2seq と同様に、系列モデルの枠組みで、文脈を前から後ろに流しながら構文解析を行っている。

言語には系列データとしての側面と、再帰性を持つ構文構造という側面があり、両側面をどうやって統合的に扱うかは個人的にずっと謎だった。伝統的な構文解析は系列としての側面を軽視しすぎている印象があったし、従来の系列モデルは構文的側面を完全に無視していた。どうやら、系列を主体としつつ再帰性を扱うのが正解っぽい感触がある。

さらなる暴力の連鎖

ここまではテキスト処理だけを見てきたが、画像から説明文を生成する研究も2014年頃から流行っている。画像を入力すると、「A group of people shopping at an outdoor market. 」のような自然文が出力される。これも結局、源言語文だったものが画像に置き換えられただけで、翻訳の一種と言える。記号列だった入力が、最初から数値列で与えられる。テキスト翻訳の場合は源言語の情報を過不足なく目的言語に変換する必要があったが、画像の場合は、膨大な数値列から必要な情報を抽出する感じ。それを除けば同じ枠組み。どうしてこんな無茶苦茶なモデルが動いているのだろうか。

機械翻訳の多言語化も流行っている。一つの源言語から複数の目的言語へ翻訳したり、複数の源言語から一つの目的言語へ翻訳したり、さらには多対多だったり。途中のパラメータを共有している。単純には教師データが増えるという利点がある。それ以上に深い効果があるのかはよくわからない。言語対特有のエラーが減るという観察もある。

ニューラ機械翻訳では内部から記号操作が排除されたとはいえ、入力と出力は記号列である。記号幻想の最後の拠り所といえるここにも暴力の嵐は及んでいる。ニューラ機械翻訳では語彙を3万とか、比較的小さな数で固定しないといけない。語彙を増やすと速度が下がるし、低頻度語はうまく学習できないし、教師データに出てこない未知語は学習しようがない。そこで、入出力を単語単位で扱うのをやめて、あるいは補助的に、もっと小さな単位を導入する。文字単位で処理するとか、文字よりは単位が大きいものの、高頻度な文字の連鎖を適当に連結しただけの代物を使うとか。さらに、これは (まだ) 機械翻訳への適用ではないけど、文字よりも小さなバイト列を処理するという話すらある。もう無茶苦茶。

おわりに

記号絶対殺すマン自体は大昔からいて、おそらくコネクショニストとよばれていたのだと思う。よく知らないけど。おもちゃのような実験設定でいろいろ議論している昔の論文が探せばみつかるはず。機械翻訳は、そういう実験とは違って、大勢の頭の良い人が長年取り組んできた実際的な問題。この問題がある程度解けたとなると本物である。

複雑だと思っていた問題が、驚くほど単純なモデルで解けている。ではそれで満足かというと、まったく満足感がない。わかった感じがほとんどなくて、むしろもどかしい。機械翻訳は個別の現象を分析するには複雑に入り組みすぎている。

そもそも、ここに書きなぐったことがいつまで有効かもまったくわからない。異常な速度で新しい成果が報告されるので。

2016年11月12日追記: 11月11日頃から、Google Translate の日英翻訳もニューラルっぽい振る舞いをするようになった。公式の告知はないけど。

私には当たり前すぎて明確には書いてなかったけど、読者にとってはもしかしたら当たり前ではないかもしれないこと。機械翻訳という問題が最終的に解決したとは私は微塵も思っていない。従来よりも良い精度の翻訳が、従来よりもはるかに簡単なシステムで実現できるようになっただけ。機械翻訳は複雑な問題なので、現時点で解けない事例はいくらでもある。その本質的な難しさを垣間見たければ、takeda25 さんのブログ記事がおすすめ。

*1ニューラ機械翻訳が来るまで、単なる文ペアは明示的な教師データとはあまり考えられていなかった。以前は要素還元主義的で、単語や句といった文より小さな単位で源言語と目的言語を対応付ける必要があった。単なる文ペアにはそうした対応の正解が付いていない。計算機は、正解データがないまま、そうした対応を学習する必要があった。だから、教師データのない状況で学習する、教師なし学習の一種とみなされがちであった。

*2ニューラル以前の統計的機械翻訳モデルの、作っている人の頭のヤバさ加減を知りたければ、渡辺太郎ほか『機械翻訳』(2014) を眺めればよい。

*3Google のシステムは金に物を言わせたえげつない代物で、うちの研究室程度の資金力では再現しようがない。

2015-07-12

文学部の潰し方

表題は釣り。国立文系を潰そうという文科省の通知*1 が先月 (2015年6月8日) 話題になった。(人) 文系といっても色々あるが、経済、法、教育等は接点がなさすぎて想像しにくい。文学部に絞って滅ぼし方を考える。あくまで思考実験。対策を考える足しになるかもしれない。大学最大の福利厚生文学部図書室を気軽に利用できることだと思っている程度には文学部を愛している。*2

どうすれば潰せるか。文学部の業務が無価値であると示せば良い。価値のあるものは、より良い代替物を示せば良い。

大学の2大業務といえば研究と教育。*3先に研究から片付ける。

文学部の研究に価値はあるか。個人的には、自分の研究は文学部の (あるいは文学部っぽい) 研究の成果に依存している。それ以外にも、趣味で追いかけている分野もいくつかある。このあたりは潰れたら私が困る。他は、何の価値があるのか分からない分野もあるし、あるいは積極的に潰すべきだと思っている分野もある。まあ、私の価値基準が世の中一般からかなりずれていることは自覚している。私が評価しない分野を評価する人もいるだろうし、まったく価値を見出さない人もいるだろう。潰す側は当然価値を見出していないのだろう。とりあえず研究は無価値だとみなして先に進める。

残りは教育。専門科目と教養科目にわけて考える。文学部を潰そうというのだから、当然文学部の専門科目は不要となる。残りは教養科目。数学科は他学科の数学教育を請け負うことで予算を獲得しているという話 (米国の?) がある。文学部も教育を盾に生き残るという戦略が考えられるかもしれない。

しかし、振り返ってみると、京大工学部時代の自分が受けた文系教養科目の担当教員はみんな総人 (旧教養) の先生だった気がする。実は文学部討滅は既に達成できているのではないか。とりあえず欲をだして、総人の文系教員の首も狙うことにする。

大学の文系教養科目に価値はあるのだろうか。自分の過去を振り返ってもよく分からない。少なくとも、より良い代替物を示せば、このゲームは勝てそう。そのために、まずは現状の弱点を探してみる。

素朴に思うのは、教養科目は標準化できそうだということ。高校教育の延長である。専門科目 (たとえば機械学習) のように、5年で内容が陳腐化することはない。にもかかわらず、現状では、能力にばらつきがある個々の教員が1から10まで準備している (ように見える)。属人的努力は根本的解決を遠ざけるのでたちが悪い。個々人が竹槍を磨いたところで、組織が戦闘機を作って攻めてきたら勝てない。

その戦闘機候補として考えているのが MOOC。組織によって棲み分けていた教員を横に並べて競争させる。すると、一部のスターだけが生き残って残りは死ぬ。そうして生き残ったスターのコースが競争相手となる。大量生産なのでコスト面では勝負にならない。もちろん MOOC には欠点がある。焦点は、欠点を差し引いても、なおも上回る価値を持つと示せるか。

とりあえず MOOC の欠点を挙げてみる。まずは interactive 性の欠如。あるいは質問応答の難しさ。議論用の forum を作ったりして、いろいろ工夫しているようだが、根本的には解決していないように見える。次は credit の問題。自動採点でできることは限られている。人手で採点するとスケールしない。このあたりの課題が解決できれば勝てる。Facebook の deep な質問応答が劇的に進化するとか? まさか。

もう一つは言語障壁。いま MOOC で公開されているコースは、英語による講義。他の言語は翻訳。翻訳が敬遠される可能性はある。しかし、言語障壁は一時しのぎにすぎない。日本の相対的国力が急激に低下している以上、言語障壁は長くは持たない。現状ですでに、研究成果を英語で発表しなければ、存在しないのと同じである。英語に切り替えるタイミングが早いか遅いかの違いでしかない。むしろ英語であることが評価要素となる可能性すらある。

言語障壁の本丸語学。普通の MOOC は語学が手薄のように見える。Coursera の category に Language はない。edX は Language という subject が用意されているが、コースは少ない。そもそも問題の性質上、翻訳しても意味をなさない。

語学はそれ専門のサービスがある。昔からそれこそ星の数ほどある。その中でも、duolingo大学のコースワークの体裁を整えて攻めてきそうな雰囲気を漂わせている。

語学のもう一つの特殊性は、普通の講義だけでなく、CALL と称して、計算機を利用する講義が昔から行われていること。その点、他の科目よりも先進的だったのかもしれない。しかし、現状ですでに、duolingo と直接的に競合していることを意味する。早く対策をうたないと、CALL は赤子の手をひねるように潰されそう。しかし、そういう危機感は私の観測範囲では見えない。

考えてみると、潰す側の方が潰される側よりも権力を持っている。潰す側が代替物の優位性を示す必要はない。潰される側が自己の優位性を示せなければ潰されるのである。

その意味で、教育の良さを客観的に表す評価尺度の設計は重要。評価尺度を制するということは、ゲームのルールを決めるということ。その点 duolingo は抜かりない。自前で test center を作って、コスト面での優位性と、TOEFL スコアとの高い相関を主張している。このまま行けば、文学部側は、競合相手自身が作った評価尺度にしたがって優位性を主張しなければならなくなる。

これも先月 (2015 年 6 月) に聞いた話だが、Educational Data Mining という学会があって、今年の会議で 8 回目になるそうである。予稿集をざっと眺めた限り、そこまで驚くような成果があがっているわけではない。しかし、重要なのは進歩の枠組みに乗せてしまったということ。教育は、農業のように同じ作業の繰り返しだと一方が思って田植えをしているところに、ドローンを導入して無人化するとかいろいろ仕掛けているのである。時間とともに差が開いて、いずれ取り返しがつかなくなる。

これまた先月 (2015 年 6 月) に聞いた話だが、Deep Knowledge Tracing と称して、recurrent neural network で knowledge tracing をやった研究が arXiv に投稿されていた。*4 要するに、(-0.5, 0.2, ... 0.9) みたいな謎のベクトルを使うことで、ある時点で受講者が何をどの程度理解しているかが推定できる。これを応用すれば、どういう順番で課題を提示するかを最適化するといったことが可能になる。文学部の教員は、deep learning がバズワード化していることは知っていても、自分には関わりのないことだと思っていそう。しかし、deep learning 勢は既に教員の首にも狙いを定めている。

評価を行うためにはデータが必要となる。評価モデルをまともに動かそうと思ったら、1 科目あたり、少なく見積もっても 1,000 人分ぐらいは必要だろう。個人の努力ではどうにもならない。組織的に体制を作れるかにかかっている。個人主義の日本ではここがどうにもならず、再び敗戦を迎えることになるのだろう。

*1:柄にもなく赤旗を引いてみる。ちょっと探しただけでは、通知の原文が見つからない。どこかに全文が公開されていないのか。

*2京大にいたころは、研究室の隣の建物が文学部図書室 (雑誌棟) という天国に近い環境だった。九大では片道1時間程度かかる別キャンパス。しかも、図書の取り寄せ貸出を依頼するには Excel シートに入力しないといけないという謎の因習が残っている。

*3:私の観測範囲では、他にも、学内ネットワークの管理業務がある。文学部にこういう特殊な業務はあるのだろうか。

*4評価データとして数学を使っているのはわかりやすいからだろう。数学は課題ごとの独立性が強い。微分をやっても同時に積分ができるようにはならない。語学は課題の依存関係がもっとごちゃっとしていて難しいし、面白いのではないかと推測する。

2015-06-14

Social Mobility in Japan, 1868-2012: The Surprising Persistence of the Samurai

Gregory Clark, Tatsuya Ishii. Social Mobility in Japan, 1868-2012: The Surprising Persistence of the Samurai. manuscript. 2012. (pdf).

社会的流動性の調査に希少な名字を用いる一連の研究の一部で、この手法を日本のデータに適用したもの。結果として以下の 2 つを主張する。(1) 社会のエリート層において、武士 (侍) の子孫は高い相対出現率を持つ (つまり、人口の割に大きな数を占めている)、(2) しかも、世代間で高い rate で維持されている (つまり、流動性が低い)。手法はともかく、データの扱いに引っかかるところがあったので調べみた。

背景

第一著者の Gregory Clark が 2014 年に The Son Also Rises: Surnames and the History of Social Mobility というふざけた題名のモノグラフを出している (未読)。問題の論文は、この本の background working papers の一つと位置づけられている。査読を経ていない様子。この分野の慣行を知らないが、それでいいのか?

2014 年の出版直後にメディアに取り上げられていた。日本については Wall Street Journal のブログ記事が話題にし、その日本語訳*1 が日本でも若干の注目を浴びた様子。私もこの時期にこの研究の存在を認識したが、それ以上深追いはしなかった。2015 年 5 月にモノグラフの日本語訳が『格差の世界経済史』という題名で出版され (未読)、その書評を目にした。気まぐれで、今回は少し調べてみることにした。そうすると、問題の working paper が見つかった。本自体は未読だが、論文が self-contained なので問題なかろう。

この論文は何をしたか

論文は武士と華族の 2 種類を対象としているが、この雑記では華族の部分は飛ばす。華族は雲の上すぎるし数が少なすぎる。まず武士の名字の一覧を得る。次に、その中から希少な名字の集合を選ぶ。希少な名字であれば、(近似的ではあるが) 複数世代にまたがって容易に追跡調査できるという仮定に基づいている。*2 この一群が日本の人口に占める割合が計算できる。次に、社会のエリート層 (医学研究者弁護士、大学教授等) の名字のデータベースを得る。各データベースにおいて、問題の希少な名字の一群が占める割合が計算できる。人口に占める割合と、エリート層における割合を比較する。その結果、後者が3倍弱から6倍強という数値が得られた。つまり、この一群は、エリート層において人口の割に大きな数を占めていることになる。

ここまでで得られたのは、現代のある時点での状態。次に、長期的な動態を調べる。論文が着目したのは Google Scholar で得られる著者ごとの論文件数。論文であれば、1900 年から 2012 年までと長期的な調査ができる。希少な名字の一群は良いとして、あらゆる日本の人名を Google Scholar に投げるわけにはいかない。そこで、一般的な名字群との比較を行っている。結果、両者の割合の比は 20 世紀初頭には 12 程度あったが、長期低落傾向にあり、20 世紀の終わりには (図 6 の目測では) 5 前後まで下がっている。21 世紀に入ってからまた上がって 8 前後になっているけど、これが新たな傾向を表しているのかは不明。

結論として、日本の社会的流動性はいままで思われてきたよりもずっと低いと主張している。

データの怪しさ

武士の名字の一覧として『寛政重修諸家譜』(1812) を用いている。これは大名や旗本の家譜を幕府が編纂したもの。『寛政重修諸家譜』は国会図書館電子的に公開されているが、索引がないと使い物にならない。論文は、高柳光寿、岡山泰四、斎木一馬による本文 22 巻 + 索引 4 巻 + 別巻 2 巻を参照している。論文は、if the descendants of the Samurai constitute 5% of the modern Japanese population, then they could still constitute anywhere from 20 to 50% of modern Japanese elites といった議論を展開しているが、その前提として、データが武士を代表していなければならない。ここで最初の疑問がでてくる。Q1: 『寛政重修諸家譜』が武士を代表しているという前提は正しいか? この文献は幕府と直接関係を持つ者だけを対象としており、大名の家臣は扱わない。つまり、今回の結果から、例えば「地方の名家」について妄想しても無意味ではないか。

名字の希少性の判定には PublicProfiler worldnames を用いている。脚注 5 によると電話帳に基づくという。このデータベース信頼性はよくわからないが、先に進む。論文の希少な名字の基準は、frequency per million (FPM) of 10 or under である。*3日本の人口が約 1 億とすると、ざっと 1,000 人以下。1,000 人もいたら、武士の子孫以外も結構混じっていそう。この点も深追いはしない。とりあえず抑えておくべきは、希少性判定は漢字ではなくローマ字で行っていること。

表 A2 に (希少な) 武士の名字が列挙してある。抜粋とは書かれていないので、これで全部なのだろう。表には聞いたこともない名字が並んでいる。Doki 土岐、Domono 伴野、Efuji 江藤などは怪しい。Q2: 本当にこのローマ字表記で正しいか? 基本的にはアルファベット順に並べられている。しかし、Zakoji 座光寺のあとに Urushizaki 漆崎が来て、順番が崩れている。特別な理由はなさそうである。雑な処理をしたのではないかという疑いが湧いてくる。さらに謎なのは、Urushizaki のあとに一行あけて、A に戻っている。Aburanokoji 油小路をはじめ、公家っぽい名字が並んでいる。Ie 伊江、Nakijin 今帰仁沖縄の尚家であって、明らかに武士ではない。Isahaya 諫早や Tanegashima 種子島は大名家家老、つまり陪臣。どうやら明治以降の華族を武士に追加したみたい。論文にはそんな手順は書かれていない。疑惑が深まる。Q3: 本当に『寛政重修諸家譜』だけが出典なのか?

調査

Q1-3 に答えるために『寛政重修諸家譜』を自分で調べてみた。調べたのは論文と同じく、高柳他の刊本。索引 1 の「姓氏 (家名) 索引」で、名字を探し、該当する本文を確認する。

とりあえず表 A2 の先頭、Aichi から Enokishita までの 18 個をすべて調べた。『寛政重修諸家譜』には読みが振ってあった。*4 例えば、Amau 天羽は「あまう」、Efuji 江藤は「えふぢ」。いい加減に読みを推定したのではなく、原文に基づいている様子。問題の Doki 土岐は、第 5 巻と第 19 巻に掲載されていた。前者は有名な美濃源氏土岐氏で、読みは「とき」。後者はよく分からない医者で、読みは「どき」。Toki の方は FPM が 24.94 なので無視したのだろう。Domono 伴野も同様に、「どもの」と「ともの」の 2 系統あった。しかし間違いもあった。Chikuhisa 知久は「ちく」が正しい。論文FPM 0.04 (ヒットなし) としているが、Chiku だと FPM が 38.01 なので希少ではない。

先頭 18 個以外は目についたところだけを調べる。Fukuzue 福富は「ふくづみ」なので誤り。Kahara 河原はいずれの系統も「かはら」なので正しい。Kizuregawa 喜連川は「きつれがは」なので誤り。

ということで Q2 は片付いた。A2: 読みは基本的には正しいが、ところどころ誤っている。誤りの結果への影響はおそらく大きくないけど、信頼性に関わる。

続いて Q3 にいく。表 A2 の後半の華族っぽい名字は『寛政重修諸家譜』に載っているのか。Aburanokoji 油小路から Bojo 坊城までの 8 個を調べてみた。結果、索引に載っていたのは Anbe 安部の 1 個だけ。あと、Tanegashima 種子島も載っていなかった。由緒正しい家系だけど、江戸時代には薩摩藩家老をやっていたので無視されたらしい。A3: 『寛政重修諸家譜』にない名字も混ぜてしまっている。そういうのやめてほしい。

最後に Q1 にかかる。Aichi から Enokishita までの 18 個の本文を読むと、いずれも幕臣*5それも結構身分が低い。御徒から始まって多少は出世した、ぐらいのレベル。道理で聞いたことのない名字ばかりである。全体を見ると、Hitotsuyanagi 一柳が大名、喜連川 (きつれがわ) が大名扱い、Takatsukasa 鷹司 (松平) が大名だが、他は身分が低め。ピラミッド型の身分制度だから集めると下位層が大半を占めるのは自然な結果。だとすると、華族のように最上位層だけを抽出しているわけではないことになる。この点では武士を代表しているかもしれない。

しかし、調査対象の大半が江戸に住んでいる。これは強烈なバイアスになっている可能性がある。やはり、このデータは人口の 5% からのサンプルとしては不適切ではないか。社会階層とは別の解釈として、都市と地方の対立が考えられる。つまり、古くからの東京の住人が、全国平均と比較して、東京に集中しやすい職業につく傾向があるということを意味している可能性を排除できていない。ということで、A1: 『寛政重修諸家譜』は武士を代表していない可能性が高い。

結論

データ処理に粗雑なところがあって信頼性にやや疑問が残る。おそらく結果自体に大きな影響はないけど。より重大なのは、結果の解釈、あるいはそもそもの問題設定にデータが合致しているかが怪しいこと。

希少な武士の名字が都市に集中しているかは検証できると思う。名字の市町村レベルの件数を出すサイト (ただし、読みではなく漢字だけど) があるから。ネタは提供したので、誰かやってくれないかな。

*1:コメント欄があいかわらず残念なことになっている。

*2:「希少な名字ならば武士」というアホな仮定をしているわけではない。希少な名字が社会的に有利あるいは不利といった仮定をしているわけでもない。反対に、希少な名字の一群から得られた結果が母集団全体に当てはまると仮定している。

*3:私の名字の場合 FPM が 2.49 で、希少と判定される。

*4:これは国会図書館本でも確認できる。

*5「とき」と読む希少ではない方の土岐氏は大名。一応。

2015-04-28

何をもって知能とするか

人工知能の現在の研究状況をネタに与太話をするのであれば、singularity は的外れ。もっと先に議論すべき話がある。これ自体が与太話だが、そういう話をしてみる。

背景

2011 年に Jeopardy! というクイズ番組IBM の Watson が人間に勝った。その頃から、SF か何かから出てきた singularity 業界が騒ぎ出した (らしいことを私は認知した)。その後、2013 年あたりから Deep Learning というバズワードが流行りだして、ますます楽しそうにしている (らしい)。「らしい」というのは自分で深く追いかけていないから。人工知能*1の実際の研究と関わりのないところで展開されている。Michael JordanYann LeCun のような大御所もこの話題には冷淡。

singularity 業界は人工知能の現状を知らない。そもそも、人工知能は何ができて何ができないかという現状認識について、研究者と世の中の間で大きな断絶がある。大きなニュースが続いた結果、実態を伴わない期待が膨れ上がっている。日本でも、人工知能業界の有名研究者一般紙に出て、期待を煽り立てている (ように見える)。日経新聞でも読んでそうな、決定権を持っている人たちを動かそうという意図を感じる。そうやって、研究コミュニティを護送船団的に守ろうとしているように見える。その一方で、同じ研究者が、別の機会には、人工知能にまつわる誤解をとこうと奮闘していたりする。自分で煽り立てながら火消しもする、因果な商売である。Michael Jordan や Yann LeCun もそうだが、長く研究を続けてきた人は冬の時代を経験している。過剰な期待が失望にかわり、再び予算的に干上がることを恐れている。私はもちろん護送船団を率いる立場にはない。でも、世間の誤解は私にとってもリスクではある。偉い人が誤解に基づいて予算を配分し、やりたくもないことをやらされ、その結果失望されるなんて悪夢である。

何が問題か

singularity 業界は、計算機の知能が人間を上回る可能性ばかりを考えている。特に、計算機が自身よりも知的な計算機を複製できるようになれば、知能が加速度的に増幅する、と思っている。おそらく、研究の中心が論理推論だった時代の印象を引きずっている。知能を合理性や科学的な正しさといったものと漠然と結びつけている。でも、人間の知能はそういうものではない。少なくとも、それだけではない。

例から入る。Deep Learning によって急激に性能が向上した分野といえば画像認識*2。画像認識は、例えば、猫が写っている画像を入力して、そこに写っているのが猫だと計算機に認識させるタスク。何を計算機に教え込めばそんなことが可能になるか想像もできないかもしれない。でも、最近では、データセットによっては人間に勝ったという報告すらある。技術の進展は恐ろしい。

しかし、落ち着いて考えてみてほしい。画像認識ができたら知的といえるだろうか。そんなことは猿にでもできる。いや、もっと原始的な動物にだってできる。

Deep Learning が成功したもう一つの分野は音声認識音声認識は音響モデルと言語モデルを組み合わせおり、特に Deep Learning が効いたのは前者、つまり、音声信号と記号列を対応づける部分。これぐらいの能力は、人間以外の動物にも備わっているだろう。

こうして人間以外の動物を考慮するとわかる。最近の人工知能が実現したものは、「知能」という言葉から一般に想像されるものからずれている。とはいえ、画像認識も音声認識も商業的な需要があふれている。計算機は賢くなったと宣伝しなければならない。お金を握っている連中に対して、「猿が実現できました」なんて口が裂けても言えない。まさに POISON

Watson はどうか。あれは連想ゲームを奇形的に発達させたものだと思えばよい*3。例えば、This 'Father of Our Country' didn't really chop down a cherry tree. という設問を考える。どうやって答えの George Washington を導くか。This 'Father of Our Country' という句から、人についての質問だと推定できる。Father of Our Country、chop down a cherry tree といった句で文書を検索して、結果から人を抽出して、適当に順位づけするといった具合。

あれはあれでそれなりに商業的な需要があるのだろう。しかし、あんなもので言葉を理解したことにはならない。あれを見て偉い人が誤解すると困る。実際にはまだ実現できていないものができた扱いになると、それを本当に実現しようとする研究が潰されてしまう。現に、ビッグデータという別のバズワードと渾然一体となって、実用化一辺倒の体制に予算的に誘導されている。生きづらい。

記号幻想

上で、singularity 業界は人工知能研究が論理推論をやっていた時代の印象を引きずっていると書いた。ここで昔の研究を振り返ってみる。内容的に去年の記事と重複あり。

意味というものをどう扱えばよいか、誰も正解を知らなかった。これは今でもわからない。論理業界では、概念にとりあえず atomic な記号を与える。猫に Cat とか。そして記号同士の関係を記述する。Cat は Mammal と is-a 関係にあるとか。そうした関係に基づいて推論を行う。このやり方には 2 つ課題がある。一つは素朴な論理体系だと簡単に破綻する。どういう体系を設計するか。もう一つは、knowledge acquisition bottleneck と呼ばれる問題。この世界の知識をとても記述しきれない*4

後者の知識記述については、自然言語のテキストから獲得するという方向で研究が進んできた。そうした研究はここ 10 年ぐらい流行っていた。特にウェブテキストが大量に手に入るようになってから。私もかつて手を出した。しかし、そろそろ限界だと思う。話は簡単。仮に記号の数を N=10 万とする。単純な事態に対応するのが「A が B を P する」という 3 つ組だとすると、組み合わせは O(N^3)。それなりに面白い推論をやろうと思ったら、「A が B を P すると D が E を Q する」といった事態間関係の知識も必要。そうなると O(N^6)。数え上げおねえさんも涙目である。*5しかも、言語は冪乗則に従う。高頻度な語はわずかで、低頻度な語が大量にある。当然、低頻度な語の組み合わせも大量に出てくる。いくらテキストを集めても被覆できない。そうした未知の表現でも人間は問題なく理解できる。しかし、計算機は困る。従来研究がどうしてきたかというと、上位下位関係等を使って式の汎化を行ってきた。しかし、そもそも記号を atomic に扱うところに限界があるように感じている。

テキストからの知識獲得を試みている時点で、古き良き人工知能像とは決別している。合理性や科学的な正しさから程遠い場所に来ている。テキストに書かれているのは、正しさとして一般に想像されるものとは違う。いろんな人がよく言っている何かでしかない。既に述べたように、そもそも現状では知識の整理があまりうまくいっていないが、仮にうまくいったとする。それでも、三段論法を使おうと思っても、大前提が真か偽かも怪しいし、小前提も怪しいし、だから結論も怪しい。計算機の中でぐるぐる推論をまわすと、仮に出発点が真であっても、数 hop 先は信頼度が著しく低いものになってしまう。

結局、この世界を正確に写像したものを計算機が持つことなんてできないし、正しい規則に基づいてこの世界の未来を予測することもできない。信頼できない観測と、信頼できない知識を使って、信頼できない planning をするしかない。その点では人工知能は人間と変わらない。

2006 年頃、「現在の人工知能研究の先には新興宗教にはまる計算機が出てくる」というネタを思いついたが、知人の反応が悪かったのでお蔵入りした。それから 10 年近くたったが状態に変化はない。人間を超える知能という楽観的な妄想がどこから来るのか不思議で仕方がない。

テキストの限界

上で Deep Learning に触れた際に意図的に飛ばした話題に、意味の分散表現がある。King - Man + WomanQueen の例で有名になったアレである。こういう結果を見ると、意味というものに過剰に思い入れを投影しそうになる。しかし、落ち着いてモデルの式を見ると、やっていることは目的関数最適化。目的関数を最大化 (最小化) するような何かを学習しているに過ぎない。例えば、評判分析で学習しているのは、意味の中でも極性 (positive か negative か) に関わる部分だけ。multi-task learning で、複数のタスクで共通の意味表現を用いる試みもあったが、あまりうまくいかないと聞く*6。学習しているものが、タスクごとに全然別々なのだろう。現状では、意味というものを包括的に捉えることはできていないように思う。

猿を作ろう

やはり自然言語処理は画像認識や音声認識とは性質が違う*7。画像認識や音声認識には多少なりとも生物的な基盤があるが、自然言語処理にはない。砂上の楼閣というか、砂の上にすら建っておらず、ふわふわと浮かんでいる感じ。もちろん人工知能を作るために人間を模さなければならないとは限らない。でも、テキストという人間の生成物を利用するのであれば、人間がやっていることからかけ離れたやり方で知能を実現できるとは思えない。

自然言語がいつ誕生したかには定説がない。仮に 20 万年前だとする。明らかなのは、進化の過程で、自然言語よりも知能が先行すること。言語が誕生した時点では、エピソード記憶手続き記憶を当然備えていたはず。再帰的な操作もできるようになっていたのではないか。言語より前に、伝えたい意味を人間は持っていただろうし、相手が伝えたいことを推測する能力も持っていた。言語の意味解析をやろうとすると、言語から意味への一方向の写像を考えがちだけど、おそらくそれだけでは無理。音声認識における言語モデルのように、意味側で自然さを考慮する (相手の伝えたいことを推測する) モデルが必要。テキストの世界に閉じたまま意味を捉えるのは無理がある*8

結局何が言いたいかというと、人間を上回る知能を妄想する前に、まず猿、特に人間に近いゴリラやチンパンジーの知能を実現することを考えた方が良い。それを実現することが科学の大きな進歩だという認識が広がってほしい。そして、すぐに役に立たなさそうに見えても予算的に締め上げないでほしい。

仮に猿が実現できて、次に人間を実現しようとなったとき、最初にできるのは高度な知能と一般に想像されるものではないだろう。むしろ、次々と迷信を生み出すような何かのはず。人間を上回る知能なんて、そういうものが実現できてから考えれば良い。そういう基盤ができれば、科学的手続きをどうエミュレートするかといった問題に取り組めるようになって、科学哲学系の議論に実体を与えられるようになるかもしれない。

*1:ふと思いついて調べてみたところ、「人工知能」という言葉を自分で書いた日本語論文で一度も使ったことがない。

*2:画像認識は私の専門ではない。ディープ・ラーニングと 画像処理・画像解析セミナーというスライドが私にような門外漢にもわかりやすい。

*3:もちろん私は Watson の詳細を知る立場にない。地道な言語処理研究の積み重ねであることは間違いない。しかし、それはここでは重要ではない。

*4知識の記述を何十年も延々と続けているプロジェクトも存在する。

*52015 年 5 月 7 日追記: O(N^6) 程度では数え上げお姉さんは涙目にならないとのツッコミを頂戴した。元のビデオを確認した。ご指摘の通りだった。

*6:非公式に聞いた。残念ながら negative result は論文にならないことが多いので。

*7:精度面でも、両者は違う。自然言語処理では、Deep Learning 系の手法は既存手法の性能を大幅に上回るということが基本的にない。良くても同等か、少し上回る程度。

*8:もしかしたら言語と画像との対応を学習するのは近似としては有望かもしれない。

mambo-babmambo-bab2015/04/29 11:01こんにちは。はじめまして。
冷静な分析だなあと思いました。確かにsingularityやディープラーニングの最近の熱狂はすごいですよね。(異端の仮説を書いているボクから見たら本当にわかっているの?って思いますが: http://f.hatena.ne.jp/mambo-bab/20141206224806 )。ディープラーニングで言うとちょっと万能感を前面に出しすぎな感じ(人工知能の中での位置付けが大事と思いますが。)。singularityについては、ボクは議論に入るのは全然問題無いと思います。ただボクの仮説から見ると懸念有無の双方とも根拠が不足しているように見えています。(ボクは人工知能や意識はトイモデルレベルでは実現できているという立場なので。)

paprikaspaprikas2015/04/29 22:28はじめまして。
面白く読ませていただきました。
ひとつだけ引っかかったのが、「multi-task learning で、複数のタスクで共通の意味表現を用いる試みもあったが、あまりうまくいかないと聞く」という部分でして、多分 http://www.australianscience.com.au/research/google/35671.pdf のことではないかと思います。このことをおっしゃっているのであれば、state-of-artな結果を得ています。

murawakimurawaki2015/05/07 17:31id:paprikas さん
はじめまして。返事が遅くなってすみません。コメントが付いているのを見落としていました。

multi-task learning の件は、脚注に書いた通り非公式に聞いた話です。ご指摘の論文については存じておりますし、その上で書いています。個別の報告についてではなく、全体的な印象を書いています。この記事の目的は high-level picture について放言することですので。これは私の現状認識に過ぎませんし、今後変わる可能性はおおいにあります。

2015-02-13

対人行動の普遍性と個別性

かつて同じ時期に同じ研究室にいた人が、人間の能力について最近楽しそうに書いている。触発されて私も書いてみる。彼の焦点は対人行動の普遍性、というか生得的能力にある。私はむしろ個別性に興味がある。この世界には異なる文化が存在する。同じ人間であっても、育てる環境によって異なる行動規範を持つにいたる。人間はどうやって適応しているのか。

とりあえず検討すべき問題を書いてみたものの引っかかる。「行動規範」という用語がいまひとつ。人間が少数の規則演繹的に適用して行動しているように聞こえる。そうとは限らないし、おそらくそうではないだろう。中で何が起きているかによらない用語が必要。人間に事例を与え続けたら、未知の事例に対しても適切に行動できるようになるという現象だけを指したい。ひとまず代わりに「行動能力」と呼ぶことにする。私の見方は完全に言語からの類推だが、世の中には対人行動を直接研究している心理学の人がいるはず。今回はそういう研究を調べずに、思いつきを書き散らす。

なぜこの問題を考えるか。ひとつには、自分の行動能力がいまひとつだと認識しているから。対人行動が表層的な事例ベースになっていて、あまり汎化できてないような気がする。だから例外に対処できない。あらかじめ事例をためていない場合は大抵失敗する。そして、それがわかっているから、新しい対人行動には慎重になる。行動しないという行動が無色なら良い、色のついた行動からの選択を迫られるとつらい。

彼の議論だと、ここから一直線に生得的能力の欠落に持っていく。私はそこは疑問に思っている。幼児を観察していると生得性に注目するのは無理もない。だが、私にとっては、既に大人になってしまった自分の問題である。

疑問に思う理由が、冒頭で述べた異文化の存在。異文化に属す人間の行動はすぐには理解できないものだし、だから文化人類学なんて学問が存在する。日本で生まれ育ったら、ポトラッチをやるようにはならないけど、チヌークとして育ったらやるようになるのだろう。あたかもそれが当然のことのように。個別の行動や、そのもとになる行動能力にはそこまで普遍性はない。

そう考えると、生得的能力は2つに細分化できそう。一つは、身体に直接的に組み込まれた行動能力。もう一つは、事例を受け取って自然に汎化する能力。前者ばかりでなく、後者に問題がある可能性も考えてみた方が良いのではないか。

30年程生きているけど、あいかわらず世の中は理解できない対人行動であふれている。そうしたとき、ポトラッチポトラッチと2回唱え、とりあえず事例として記録しておく。ある程度事例がたまったら、それがどういう現象なのか分析できないかなと思いつつ。