Hatena::Grouprekken

murawaki の雑記

2015-11-13

Creoles are typologically distinct from non-creoles

クレオール類型論的性格について、非クレオールから弁別的*1だと主張する一連の論文群。表題に採用したのは 2011 年のジャーナル論文

翌 2012 年の EACL の workshop*2で発表された論文の方が論点が整理されている。

著者の 1 人が 2014 年に発表した 2 編の guest column によって、何だか論争になっているらしいことと、著者が従来の立場を維持していることがわかる。

別の著者が 2013 年に出した論文もあるが、所属機関からは無料で閲覧できなかった。abstract、supplemental content と上記の guest column に引用された部分しか見ていない。

彼らの基本方針データベースを用いた定量的分析。これ自体は良い。しかし、具体的に採用している手法が変。そこでまず彼らの手法を見て、それから別の手法を考えてみる。

解きたい問題

知りたいのはクレオール類型論的特徴がどこから来たか。2012 年の論文によると、4 通りの立場が考えられる:

  • superstrate (lexifier)
  • substrate(s)
  • feature pool (only superstrate and substrates)
  • restructuring universals

最初の 2 つは、それぞれ superstrate = 上層言語 (lexifier = 語彙提供言語)、substrate = 基層言語に由来するという立場。これはない。そもそもクレオールが興味深いのは、語彙の大半が lexifier (superstate) に由来するのに、文法的には lexifier とは大きく異なること。さらに言えば、substrate とも異なる。そもそも superstrate や substrate と大差ないのであれば、クレオールという区分自体が不要だったはず。

feature pool は superstrate と substrate の特徴量が pool されていて、そこから適当に値を選択していくという説明。この説を否定するには、いずれにも存在しない特徴量の値がクレオールにあればよい。そして、実際にあるらしい。

最後の restructuring universal は、クレオールの形成過程を retension (lexifier, substrates), loss (pidginization), reconstruction (grammaticalization, creolization) からなると考える。ピジン化の過程で失われた特徴をクレオール化の過程で作り直すのだが、ここに何らかの普遍性が存在すると考える。著者らはこの立場。私もたぶんそうだろうと思っている。

著者らの主張で飛躍だと思うのは、表題にも採用した creoles are typologically distinct from non-creoles というもの。単に restructuring universals の示しただけでは、この主張の裏付けにはならない。restructuring の結果、lexifier とも substrate とも異なる特徴を獲得したとしても、それが非クレオールの中でもありふれたものである可能性が排除できていない。

NeighborNet

著者らは一貫して分析手法として NeighborNet を使う。いわく、tree ではなく、network だからクレオールの分析に適していると。たしかに NeighborNet は、tree としては conflict を起こす部分を網状に可視化する。しかし bottom-up clustering であり、基本的には木を作ろうとしている。superstratist と substratist は木に基づくとみなせる。だから、NeighborNet の結果が彼らにとって不都合であることを示せば良い。でも、feature pool と universalist はそもそも木に基づかない。NeighborNet を作ったところで、何の意味があるのかわからない。

とりあえず結果を見ていく。まずは superstratist の検証から。クレオール群と lexifier 群を入力として NeighborNet を作る。その結果、クレオールクレオール同士で、lexifier は lexifier 同士で別々にクラスタが形成された。superstratist の立場からすると、クレオールは対応する lexifier とクラスタを形成するはず。よって supserstratist は支持されない。

同様にして、substratist の検証は、クレオール群と substrate 群による NeighborNet で検証される。するとやはりクレオールと substrate が別々にまとまり、両者が分離できる。ただし、クレオールと非クレオール境界に近い言語が存在する。おそらく、文法的側面では substrate がクレオール形成に与えた影響は superstrate よりも強いのだろう。

feature pool の検証は、lexifier, substrate、クレオールの 3 種類を入れた NeighborNet による。すると lexifier と substrate がクラスタを形成し、クレオールと対立した。しかしこの方法は直接的ではない。feature pool 説に従うなら、クレオールは対応する lexifier と substrate の間に位置しなければならない。これを検証するなら、それらの 3+ 言語だけを比較すれば良い。複数のクレオールを分析に突っ込み、クレオール同士でクラスタを作った結果、クラスタの重心が、lexifier と substrate の中間から離れていったため、結果として lexifier と substrate がクラスタを作ったというシナリオも考えられる。

universalist の検証には、さらに lexifier でも substrate でもない言語を追加している。その結果、やはりクレオールだけでクラスタができた。著者らは、この結果をもって、クレオールが非クレオールから弁別的であると主張する。この論理展開が謎。restructuring universals が支持されるかを検証するはずだったのに、いつのまにか creole distinctiveness の議論にすり替わっている。それに、わずか 52 言語のネットワークでは、世界の言語類型を網羅していないのではないかという疑いが拭えない。

分類器

restructuring universals については一旦忘れて、先に弁別性の問題を片付ける。クレオールは非クレオールから弁別的か。この問題に直接取り組むには、2 値分類器を作れば良い。各言語の特徴量列を入力とし、クレオールなら 1、非クレオールなら -1 を返すような分類器。もし高精度な分類器が作れたなら、弁別性は支持される。もし失敗した場合は、2通りの解釈が考えられる。(1) 分類器の作り方が悪かった。(2) クレオールと非クレオールは弁別的ではない。

普通に言語処理をやっていたら分類器を作ることを思いつくはず。著者らが何年もの間ひたすら NeighborNet に固執しているのが謎。一から十までソフトウェア化されているモデルしか使わない方針なんだろうか。生物系の研究を見ると、この分野には分業体制があるみたい。ごく一部の頭の良い人達がモデルを作ってソフトウェア化し、残りの人はそのソフトウェアを使ってデータ作成と分析だけをやっている。統計的な言語研究もそんな感じになるのだろうか。

話が脱線したが、言うだけでな何なので実際にやってみた。使用データは Atlas of Pidgin and Creole Language Structures (APiCS)World Atlas of Language Structures (WALS)

APiCS の特徴量の一部には WALS への mapping が記述してある。その 47 種類の特徴量を使う。言語数は 77。ピジンを含む contact language を広く収録している。この点は問題かもしれない。しかし、APiCS はピジンとかクレオールといった分類を明示的に付与していない。とりあえず全部使う。

WALS 側では Pidgins and Creoles に分類されている言語を除外する。さらに欠損値の比較的少ないもの 541 言語を残す。APiCS と WALS のデータを結合し、欠損値は multiple correspondence analysis (MCA) で適当に補完。

分類器は線形 SVMsklearn.svm.LinearSVC を使ったので、内部的に LIBLINEAR を呼んでいるはず。パラメータは適当に grid search。5 分割交差確認で精度を測定。

結果。accuracy は全部非クレオール (NC) に分類すると 87.5% なのに対して、SVM は 94.2%。クレオールに着目すると、再現率 79.7%、適合率 71.4%、F1 が 75.3%。混同行列を示す。

混同行列
sys
NC C
ref NC 527 14
C 22 55

そういう訳で結構分類を間違えている。ここから先、カーネルトリックを使って非線形分類を頑張っても良いが、解釈が難しくなりそう。線形分離できないことをもって弁別的でないと結論づけても良さそうに思う。

2015 年 11 月 18 日追記: APiCS のピジンを除去して再実験してみた。ピジン排除の基準は、sociolinguistic feature ""Ongoing creolization of pidgins"" の値が "Not applicable (because the language is not a pidgin)" あるいは "Widespread" ではないもの。これで 13 言語が除去された。

混同行列 (ピジン除去版)
sys
NC C
ref NC 534 7
C 10 54

ということで、精度 97.2%、再現率 88.5%、適合率 84.4%、F1 86.4% と少し分類精度が上がった。しかしあいかわらず間違いは残っている。

PCA

SVM の失敗事例を分析してもよいのだが、別の方法を試す。高次元データの性質を知りたいなら、とりあえず主成分分析 (PCA) してみれば良い。

PCA の結果を示す。まずは PC1-2。赤がクレオール (APiCS)、緑が非クレオール (WALS)。

f:id:murawaki:20151109174745p:image

PC2-3。

f:id:murawaki:20151109174746p:image

クレオールは世界の言語の中で偏った一群であることは確か。しかし、非クレオールとは分離されておらず、分布が重なっている。

点が多すぎて密集具合がわかりにくいのでカーネル密度推定を使って連続分布に変換してみる。

PC1-2 の非クレオールの分布。

f:id:murawaki:20151112153430p:image

PC1-2 のクレオールの分布。

f:id:murawaki:20151112153429p:image

PC2-3 の非クレオールの分布。

f:id:murawaki:20151112153432p:image

PC2-3 のクレオールの分布。

f:id:murawaki:20151112153431p:image

クレオールと非クレオールは異なる分布を持つが、両者が重なっていないとはとても言えない。

ラベルを見ると、PC1-2 においてクレオールの中心から外れている言語はピジンが目立つ。でも、Sri Lankan Malay、Korlai、Kikongo-Kituba、Lingala、Mixed Ma’a/Mbugu などは 309 Proportion of native speakers によるとそれなりに母語話者がいてクレオール化されている。

結論と今後の課題

結論としては、クレオールは非クレオールから弁別的とまでは言えない。条件をいろいろ変化させて、もう少し真面目に調べれば、ちょっとした成果にはなりそう。

今後だが、やはり一度脇においていた restructuring universals が気になる。restructuring universals について著者らは何も示せていない。feature pool のモデルと、さらに restructuring universals を考慮するモデルを作って、後者の方がクレオールのデータをより自然に説明できると実験的に示せば良い。しかし、著者らは他人が作ったソフトウェアに頼りっきりなので、手が出せないのだろう。データが充実しつつあるのに、分析できる人がまだいないのは狙い目。

Bakker の guest column を読むと、台湾の Yilan Creole Japanese (宜蘭クレオール) がクレオールでありながら、クレオールの典型から外れていて面白そう。私がこの言語を知ったのは 2008 年 8 月、以下の報告から。

簡単な報告で、語彙の分析が少しあるだけ。

今調べてみると別の報告が出ている。

  • 真田 信治 and 簡 月真. 宜蘭クレオール. 国語研プロジェクトレビュー. 3 (1). 2012.

クレオールは一般に SVO 語順を持つと言われるが、宜蘭クレオールは日本語のような SOV が基本とのこと。格標示の後置詞が使われるのも非典型的。

いまのところ宜蘭クレオールは APiCS には収録されていない。もっと本格的な報告が出たら登録できるかもしれない。

2016年11月12日追記: この記事の最後の方でうだうだ言っていた話もひっくるめて論文にした:

Yugo Murawaki. (2016). Statistical Modeling of Creole Genesis. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2016), pp. 1329-1339.

*1:distinctive をどう訳すか困る。ここでの意味は専門用語的ではないのだけど。

*2:workshop ということで格は落ちる。でも、こんな風に言語処理業界で発表してもらえると、私も研究しやすくなる。

2015-09-29

Explaining the Linguistic Diversity of Sahul Using Population Models

Ger Reesink, Ruth Singer, Michael Dunn. Explaining the Linguistic Diversity of Sahul Using Population Models. PLoS Biology. 2009.

せっかく STRUCTURE と ADMIXTURE の混合分布モデルを見たので、言語への応用例にも触れてみる。サフル (オーストラリアニューギニアに相当) の言語 121 個の類型論データに STRUCTURE を適用し、各言語を潜在クラスの混合として扱う。得られた潜在クラスと各言語の混合比を既存の言語学の知見と比較する。

やっていることは結果の図を見れば一目瞭然。pie chart が各言語で、色分けは潜在クラスに対応している。ここではクラス数 K=10。

生物のように両親から 1 個ずつ、計 2 個のコピーを引き継ぐ (diploid) ということはないので、A = 1。ますます LDA っぽい。

著者のグループは Dunn et al. (Science, 2005) 以来、パプア諸語の系統問題に取り組んでいる。問題は、系統関係不明の大量の言語をどう解釈するか。長期にわたり接触が続いたと見られることから木のモデルは不適当だと著者らは主張する。そこで代わりに混合分布モデルが出てくる。しかし、「そこに山があるから」ではないが、そこにツールがあるからやってみた感はある。時間的変化を考えないモデルなので、得られるのは時間を超越した仮想的クラスタ

系統不明の言語が集まっているという点で、極東はニューギニア周辺に似ていないこともない。日本語は混成言語だと主張している人は、試しに日本周辺の言語にこの手法適用してみたら良いのではないか。私は混成言語説は支持しないけど。

ここで考えたいのは、広い意味での接触をどうモデル化するか。系統樹の話をすると、「クレーオルとかどうするんですか」という質問が出て FAQ 化しつつあるが、決定打がまだ出ない。木を使うのは計算上の都合。木はひたすら分岐していくだけで、接触や合流を扱わない。一般のネットワークは自由度が高すぎて扱いにくい。Nelson-Sathi et al. (2011) のように、先に木を用意してから、辺を追加するという tricky な手法もあるけど。

その点、混合分布モデルは現実的な解法ではある。系統推定に言語連合を組み込む話も、結局は系統樹と言語連合という 2 種類の混合だった。このモデルでは、言語連合は時間を超越している。接触を通じて徐々に特徴を獲得するという話にはなっていない。

引っかかるのは、例によって特徴量の独立性。最初に、各言語の混合比を draw したあとは、各言語の特徴量の所属クラスは条件付き独立。この特徴量とこの特徴量は連動するという話は扱えない。直感的には、あちこちの言語群からランダムに特徴を借りてくるとは考えにくい。接触時にはこういう変化が起きやすいという一般的な傾向を捉えるようなモデルにしたい。

一応、STRUCTURE には特徴量間の依存関係を扱うための拡張が入っていた。隠れマルコフモデルによって、隣と同じクラスになりやすいという性質を扱っていた。しかし、言語類型論の特徴量は、便宜的に列で表現しているが、実際には集合。順番に意味はないので、マルコフモデルでは表せない。やはり、表層特徴量をそのまま扱うのではなく、依存関係を捉えるような深層構造に写像するという私の現状の方針が良さそう。

2015-09-26

Support for linguistic macrofamilies from weighted sequence alignment

Gerhard Jäger. Support for linguistic macrofamilies from weighted sequence alignment. PNAS. 2015.

単語対の文字列的な類似度を定義する。各言語は単語の集合で表現される。言語対の距離は、単語集合同士を比較して、単語対の類似度の平均を用いて定義する。この距離を使って、昔ながらの距離ベースのクラスタリングを行って系統樹を作る。この手続きをユーラシアの言語約 1K 個に適用したところ、既存の語族群の上に大語族 (macrofamily) が作られた。それらの大語族を言語学で過去に提案された (怪しげな) 大語族と関連付けて議論している。

著者は Automated Similarity Judgment Program (ASJP) 一派の人。大規模なデータベースを頑張って作っているのは偉い。しかし、正直言って筋が悪い。

なぜこの論文を通してしまったのか理解に苦しむ。なぜ提案する手続きでうまくいくと期待できるかが説明されない限り、この研究は叩き潰すしかない。

まずはこの研究の位置づけから。広いくくりで言うと、この研究は語彙ベースの系統推定に分類できる (他の方法は、例えば言語類型に基づくもの)。語彙ベースの系統推定には。この研究以外に以下も含まれる。

[B] との違いは、音法則の中でも音対応、要するに現代語同士の対応を見ていること。[B] は音変化 (親から子への変化) をモデル化している。だから祖語の状態が推定できる。つまり、過去から現在への歴史的変化を直接説明している。これに対し、音対応は間接的な手がかり。祖語から分岐した 2 つの子孫において別々に音変化が起きた結果。音対応は歴史的変化を説明しない。だから、これに手続き的な操作を加えた結果出てくるものが何なのかわからない。Materials and Methods を見るとわかるが、謎パラメータつきの謎手続きを何段階も繰り返す。[B] の洗練されたモデルに比べると見劣りする。

[G] との違いは、同源語 (cognate) の扱い。[G] は専門家が cognate か否かを 0/1 で判定し、言語をバイナリ列で表現する。言語変化は 0 -> 1 あるいは 1 -> 0 の遷移でモデル化される。大幅に簡略化されてはいるものの、やはり過去から現在への歴史的変化を直接説明している。これに対し、この研究は、単語同士の関係を 0/1 ではなく連続値で表現する。この連続値が何を意味するかも分からない。語源的に無関係な単語対の類似度なんてノイズでしかない。個別には怪しくても 40 個集めて平均すれば使えるのではないかという希望的観測しか提示されていない。*1

さて、語彙ベースの手法であることを踏まえると、大語族の推定の怪しさは明らか。この研究は、提案手法によって既知の語族をうまく再現できたと主張している。しかし、そもそも既存の語族は語彙ベースの手法 ([H]) で作られたものである。そして、大語族は、語彙ベースの手法ではうまく作れなかったからこそ大語族と呼ばれているのである。前者が再現できただけでは、後者の推定は正当化できない。これが、例えば Pagel et al. (PNAS, 2013) であれば、ultraconserved な単語が存在するという主張にもとづいて大語族を構築している。つまり、大語族の推定が正当化されているし、その妥当性を検証しようと思ったら、ultraconserved とされる具体的な単語の妥当性を検証すれば良い。

もし何かやるとしたら、この研究を叩き潰す方向の検証。大語族を構成する語族間では、ろくに同源語を共有しているとは思えない。では、出てきた距離は一体何に左右されているのか。まず借用が効いていそう。あとは、素朴には、音素体系と音節構造が似ていたら、言語同士の距離も近くなりそう。ただし、この研究が使っている calibrated similarity は、名前の通り、その影響を補正するような類似度尺度になってはいる。何が起きているかを知るには、実際にデータを見るしかなさそう。

*1:考え方としては Greenberg の mass comparison に近いと思うのだが、その文脈では Greenberg を引いていない。

2015-09-14

The Ising model for changes in word ordering rules in natural languages

Yoshiaki Itoh and Sumie Ueda. 2004. The Ising model for changes in word ordering rules in natural languages. Physica D. 198. pp. 333-339.*1

言語類型論の話で、知りたいのは語順の通時変化。そのために今回着目するのが特徴量間の依存関係。例えば、SOV 語順の言語は接尾辞を取りやすい。日本語は一貫した語順を持ち、タイ語はその対極だがやはり一貫した語順を持つ。この両極端の間を、特徴量間の依存関係を考慮しながら遷移していくモデルとして Ising モデルを提案する。

年末までに系統論ネタで論文を書く約束になっているが、いまだにサーベイが足りていない。この論文 (とその関連論文) も取りこぼしていた。この分野は少しおかしい。通常であれば、新しめのまともな論文から引用関係をたどっていけば、主要な論文は把握できる。この分野では引用関係が途切れているか、やたら細い場面に出くわす。発表媒体が今回のように物理の雑誌だったり、生物系の雑誌だったりするのも影響しているのだろう。

認識している宿題は具体的には 2 つ。

この雑記では、後者について現状の理解を書き出す。そしてこの Itoh and Ueda (2004) を適切に位置づける。

状態のモデル

そもそも類型論は不思議な分野で、いつ誰が始めたかについて明確な記述を見かけない。類型論を広めに捉えれば、そうとう昔からあったことになる。例えば、19 世紀ぐらいの形態論の議論で、

isolating > agglutinating > inflecting > isolating

という順に変化するという説があった。*3

現代的な手法、大量の言語を集めてきてデータ駆動で議論する手法は Greenberg から始まると認識している。代表的な成果は Greenberg の言語普遍性。例えば、Universal 2 は以下の通り。

In languages with prepositions, the genitive almost always follows the governing noun, while in languages with postpositions it almost always precedes.

注意すべきは、大量の言語を集めてできあがるのは状態に関するデータベースであること。したがって、状態に関する議論が中心となる。変化に関する議論はその発展編となる。

とはいえ、状態を議論するからといって、変化を完全に無視できるわけではない。複数の言語の間である性質が成り立つとき、それが普遍性に起因するとは限らない。genetic な (共通の祖先から性質を引き継いだ) 要因と、areal な (接触を通じて性質を獲得した) 要因も考えられる。普遍性を主張するには、こうした要因を統制しなければならない。素朴には、地理的に離れていて、系統関係にない言語を世界中から拾ってくれば良い。*4データ収集ではなく、モデルによってそうした要因を統制しようという試みもある。Daumé III and Campbell (ACL2007) は、示唆的普遍性 (implicational universal) (例えば、OV ⊃ 後置詞型) を扱うベイズ生成モデルに、言語同士の関連を組み込んでいる。このモデルでは、implication が普遍性の側から生成される場合と、既知の語族や地理位置に基づくクラスタから生成される場合がある。

独立変化のモデル

いよいよここから言語類型の変化のモデルを見ていく。一番素朴なモデルは、特徴量間の依存関係を無視して、各特徴量を独立に扱うもの。そうしたモデルは進化生物学の分野で発展した。言語における適用例は基礎語彙に基づく系統推定が多いが、類型論データに応用した例がいくつかある。

Teh et al. (NIPS2007)ベイズ統計専門家の発表という点で他と毛色が異なる。論文の主眼はベイズの新しいクラスタリングモデルの提案だが、評価実験で類型論データから系統樹を作っている。特徴量の変化自体は普通の連続時間マルコフ連鎖。実験設定は、さらっと説明されているが、よく見ると無茶苦茶。上述の Daumé III and Campbell (ACL2007) が加工した WALS のデータを用いている。まずはいくつかの値を統合している。例えば、Glottalized Consonants は、元の WALS では 8 種類の値を取り得るが、2 種類に統合している。次に、多値特徴量を 2 値化している。K 種類の値を取り得える特徴量は K 個の 2 値特徴量に展開している (1-of-K 制約があるので、K 個のうち 1 個だけかならず 1 が立つ)。この2値ベクトルで要素間の独立性を仮定するのは明らかにおかしい。再構される祖語の状態は 1-of-K 制約に違反した、論理的にありえないものとなる。連続時間マルコフ連鎖自体は多値データを扱えるのだから、別に 2 値化しなくても良かったろうに。

Daumé III (NAACL2009) (雑記記事) は genetic な系統樹だけでなく、areal なクラスタ (言語連合) を同時にモデル化している。データは Teh et al. (NIPS2007) と同じだから同じ問題をかかえている。

Greenhill et al. (2010)類型論のデータを基礎語彙と比較し、系統推定において類型論データは今ひとつだと議論している。彼らは、系統樹自体は推定せず、既知の系統樹を与えてパラメータだけを推定している。使っているデータは WALS。recoding と称して、値をかなり加工している (Supplementary Table 3) ものの、2 値ではなく多値。

最初に言ったように、独立変化のモデルは特徴量間の依存関係を無視する。したがって、例えば祖語の状態を推定したとき、言語として不自然な状態を推定しかねない。

特徴量ペアの変化モデル

状態に関する議論で特徴量間の依存関係が認識されている以上、それを変化のモデルに組み込もうという試みもある。

Greenberg 自身が、Diachrony, Synchrony and Language Universals (1978)*5 において、状態過程モデル (state-process model) を提案している。この論文はオンラインで公開されていない。自作スライドに例を転載しているのでそちらを参照してほしい。

状態過程モデルは普通のマルコフ連鎖の状態遷移。いま 2 個の特徴量を考える。例では、数詞と名詞の語順 (QN: 数詞 + 名詞, NQ: 名詞 + 数詞) および、形容詞と名詞の語順 (AN: 形容詞 + 名詞, NA: 名詞 + 形容詞) に着目している。組み合わせると 2x2=4 種類の状態を取り得える。しかし、NQ, AN という状態を取る言語が全然存在しないことがわかっている。だとすると、仮に QN, AN から NQ, NA への遷移を考えたとき、中間状態として NQ, AN ではなく、QN, NA を経由する方が自然だと推測できる。

この状態過程モデルを系統推定と組み合わせたのが Dunn et al. (Nature, 2011) (雑記記事)。これもまた進化生物学のモデルの転用。

モデルは 2 種類。独立モデルと依存モデル。系統樹を与えた上で、モデル同士を Bayes factor で比較する。依存モデルが充分に勝っていれば特徴量ペアに依存があると解釈する。独立モデルは特徴量 A と特徴量 B を別々に用意する。2x2 の遷移率行列も 2 個。依存モデルは遷移率行列を 1 個しか用意しない。その代わり AxB の状態空間を考える。これは Greenberg の状態過程モデル。依存モデルであれば、NQ, AN という状態を取りにくいことがデータから学習できる。

類型論のデータは例によって WALS。調べる特徴量は 8 個だけで、すべて著者らによって 2 値化されている (S1.3)。

ペアではなく、3 個以上の特徴量を考慮することは原理的に不可能ではない。しかし組み合わせ爆発を起こすから現実的でない。Greenberg のように、計算機ではなく人間が議論する場合も、状態数が増えると手に負えなくなる。

そもそも研究の方向性にも違いがある。このモデルは説明指向だが、私がやりたいのは系統推定という予測 (過去の状態と変化の推定)。

複数の特徴量の変化モデル

1 個、2 個と来て、次は複数の特徴量の依存関係を扱うモデル。Itoh and Ueda (2004) はこれに該当する。

特徴量間の依存関係は一般にペアに限定されない。角田の語順データベースを例に取ると、「名詞と接辞」、「属格と名詞」、「関係詞節と名詞」等は強い依存関係にある。この関係を捉えるために導入されるのが Ising model。2 値化された各語順特徴量のうち、日本語の値を +1 とし、その反対を -1 としている。タイ語はほとんどの特徴量について -1。ある言語の特徴量群の値は、+1 なら +1、-1 なら -1 でまとまりやすい。この性質が、強磁性においてスピンが同じ向き (+1 あるいは -1) を取りやすいという性質と共通する。

しかし、私は何が Ising model なのか (というより何が Ising model に該当しないか) をいまだに理解していない。物理に不案内なので、知っている応用例は PRML に出てきた画像のノイズ除去だけ。ノイズ除去の場合は、隣り合うドットが同じ値を取りやすいという性質が Ising model にあっていた。このノイズ除去の例のように、エネルギーの確率分布が出てくると予想していたが、Itoh and Ueda (2004) には出てこない。代わりに ternary interaction model と呼ぶ確率的な操作が導入される。私の印象ではむしろ進化ゲームっぽい。それに、普通の Ising model なら隣接ノードとの関係を考えるとが、ternary interaction model では、3 個の特徴量をランダムに選ぶ。

言語に Ising model を適用した他の例を探したところ、Natalie Prévost の博論、The Physics of Language: Toward a Phase-Transition of Language Change (2003) が見つかった。こちらは個体の集団の中である変化が伝播していくという設定。ノード個体で、隣りあう個体同士が通信する。これこそ進化ゲームでモデル化すればよくある話になりそう。個体ではなく類型論の特徴量をノードとしたという点で Itoh and Ueda (2004) は独創的だと思う。

使用しているデータは角田の語順データベース。19 個の特徴量のうち、8 個だけを選択。

最後にこのモデルの限界をいくつか挙げる。まず、データの仕様に強い制限がある。

  • 特徴量がすべて 2 値
  • 値のうちいずれが +1 かを事前に指定

一般には多値の特徴量を使いたいし、ある特徴量の値が別の特徴量のどの値と共起するかは事前に指定するのではなく、データから学習させたい。

変化の振る舞いについても限界がある。一貫した、安定した語順が存在するという点は良い。問題は、一貫しない状態。Greenberg の例にあるように、QN, NA という状態はありえても、NQ, AN という状態は取らないという性質をこのモデルは捉えられない。

深層モデル

ここまでのモデルは特徴量の値の変化を直接モデル化していた。いわば表層モデル。これに対し、Chomskyan な生成文法一派は、表層の観測データの背後に隠れた構造を仮定する。

これまで見たいくつかの論文は Chomsky の弟子の Mark C. Baker による The Atoms of Language (2001) を参照している (未見)。本当はこの本を読むべきなのだろうが、ひとまず郡司先生の解説記事 (2005) でお茶を濁す。

まずパラメータという隠れ変数を導入する。パラメータは離散的で、ほとんどが 2 値。パラメータ群は階層的に組織されており、それらのパラメータの値をすべて決めれば個別言語が出てくる。例えば、「多総合性: no」、「主要部方向性-随意的多総合性: 最後/no」、「能格: 対格」、「主題卓越: yes」と設定すれば、日本語が出てくる。パラメータの値を変更すれば別の言語になる。

元の特徴量とパラメータに大差がないように見えるが、抽象化が進んでいる。これまでに見てきた語順の特徴量群は「主要部方向性パラメータ」にまとめられている。この隠れ変数から観測変数たる特徴量群が生成される。

しかし、こんなおもちゃモデルを実データにあてはめることはできない。「主要部方向性パラメータ」を導入すると、上述の QN, NA は行き場を失う。実データには例外がつきものだし、例外のない部分に対象を制限したら、重要な性質を取りこぼしてしまう。状態だけでなく、変化を考慮するならなおさら。

郡司先生は離散表現を支持しつつも、この点に触れている。

歴史的に語順が変更された言語はあり、そのような言語は変更の途中の過渡期には、両方の言い方が混っていたかもしれない。

文法の変異の連続的なふるまいは、はじめから想定外としているが、それでよいのだろうか。

そういうわけで、Murawaki (NAACL2015) では隠れ構造として連続値ベクトルを採用した。変化は連続空間上の random walk。今から考えると、ちゃんと時間の項を入れればよかった。

生成文法 (や認知科学) では、言語普遍性と人間の生得的能力を結びつけて議論しがちだが、Evans and Levinson (2009) はこの点を痛烈に批判している。私自身は割り切っていて、普遍性の原因にまで踏み込む気はない。系統推定ができれば充分だと思っている。特徴量群によって空間が構成され、個別言語はその中の点として表現される。実在の言語群を適切に汎化すると、この空間の中でごく限られた部分空間が得られる。この部分空間が人間の言語能力 (capacity) に対応しているかはわからない。言語能力的には有り得るが、たまたま人間がまだ試していない領域が存在する可能性は否定できない。系統推定の場合は、現代語のデータベースから学習される部分空間に祖語が収まってさえいればよい。

その他

特徴量間の依存関係がどうこうという以前に、1 個の特徴量しか扱っていない研究もある。Maurits and Griffiths (PNAS, 2014) は、SVO の基本語順 6 種類の遷移をモデル化している。連続時間マルコフ連鎖で 6x6=36 セルの遷移率行列を用意し、既知の系統樹からそのパラメータを学習している。使用データは WALS。この研究に限らず、認知系の人は基本語順にだけこだわっている印象がある。語順は統語関係を encode するものという思い込みがうかがえる。

明示的に状態遷移を扱わず、古典的なクラスタリング手法に頼る研究に対象を拡大すれば、さらに古いのが見つかる。Cysouw のサーベイ (2007) によれば、Gabriel Altmann の Die phonologische Profilähnlichkeit. Ein Beitrag zur Typologie phonologischer Systeme der slawischen Sprachen (1971) (未見) が一番古く、別グループの研究としては Tsunoda et al. (1995) がそれに続くようである。このあたりの文献を生物系の人はちゃんと引用していない。

Dunn et al. (Science, 2005) は maximum parsimony tree を作っている。対象はパプア諸語とオーストロネシア語族の (西) オセアニア諸語。類型論のデータは自作。2 値化された特徴量が 125 個。強い相関を示す特徴量はあらかじめ排除したという。彼らは Dunn et al. (2007) の段階で、ベイズ手法を存在を知ったらしい。長編の Dunn et al. (Language, 2008) が総仕上げ。

変わったところでは、Dunn と同じグループの Reesink et al. (2009) が、Structure という混合分布モデルのソフトに類型論のデータを突っ込んでいる。

Longobardi らの一連の研究 (いまのところ読んだのは Longobardi and Guardiano (2009)Longobardi et al. (2013) だけ) は、一応深層構造を考えているが、変化をモデル化していない。Longobardi は生成文法の人。データベースを自作している。その代わりモデルは借りもの。対象分野をしぼれば網羅的に特徴量を列挙できて bias が生じないという主張のもと、Determiner Phrase (DP) の特徴を列挙している。対象言語はほとんどがヨーロッパ語派の言語。申し訳程度にインド・イラン語派と別系統の言語も加えている。

Longobardi らの論文からは普遍文法への篤い信仰がうかがえる。Chomsky 流に特徴量を parameter と呼んでいる。しかし、その parameter 群は、Baker (2001) と違ってあまり構造化されていない。ほとんど生の特徴量と言ってよい。基本的には + と - で 2 値化されてている。ただし、特徴量間の依存を考えており、他の parameter セットに含意されるものは 0 で表す。この 0 を考慮するような言語対の距離を定義している。結局は距離ベースのクラスタリングによって系統樹を作っている。

Longobardi らは独立変化のモデルの存在を知っている。でも、特徴量間の依存関係を指摘して、あえて採用しない。一般に、データについて知りすぎていると蛮勇に走れなくなる。これは吉と出ることも凶と出ることもある。

まとめ

これまで取り上げたモデルは以下のように整理できる。

  • 表層モデル
    • 独立
    • ペア
    • 複数
  • 深層モデル

まずは表層変化を直接扱うか、背後に隠れ構造を仮定するか。表層モデルの場合は、特徴量間の依存関係の扱い方で 3 種類に細分化できる。深層モデルは複数の依存関係を考慮している。

*1シンポジウムで発表した際に第一著者より拝領。

*2WALS の introduction でも言及がない。しかし、そもそもこのページは Greenberg への言及すらない。考えてみたら、WALS 以前に誰がどういうデータを作っていたかまったく把握していない。

*3Croft の講義資料を参照した。

*4:しかし直観に従って集めると根拠として弱いので、サンプリング手法を真面目に考えようという論文がいくつかあった気がするが、ちゃんと調べていない。

*5:Greenberg 自身が断っているように、これが初出ではないけど。

2015-09-08

アイヌ学入門

瀬川拓郎. 『アイヌ学入門』(2015)

アイヌとその言語には、日本語の起源との関わりから興味を持っている。といっても、本腰を入れて追いかけているわけではない。本書のような新書*1であっても私にとっては新情報だらけ。

本書では、主に文化面について、著者の最近の主張が提示されている。一般の、中高の教科書レベルの認識では、アイヌ縄文人シーラカンスのように生き残ったかのように思われていそうだが、実際には大きな変化があったこと、その変化に日本が大きく関わっていることを著者は指摘する。

私にとっての新情報は後半、3章から7章までを中心に展開されている。*2 しかし、この部分については、私が著者以外の情報源を把握していないので、「へー」とか「ほー」とか間の抜けたことしか書けない。この雑記では、主に2章までの、私が他の情報源を多少は知っている部分について、コメントを書き散らす。

DNA

The history of human populations in the Japanese Archipelago inferred from genome-wide SNP data with a special reference to the Ainu and the Ryukyuan populations (Journal of Human Genetics, 2012) を引いて、「弥生時代朝鮮半島から渡来した人びとが縄文人と交雑して和人 (本土人) になり、周縁の北海道琉球には縄文人の特徴を色濃くもつ人びと、つまり琉球人とアイヌが残ったといいます。」(p.39) と要約しているのは少し乱暴。この研究が直接主張するのは主に次の2点。

この結果が従来の二重構造モデルと整合的だと慎重に議論している。現代人の DNA を調べただけでは直接故地を推定するのは難しい。交雑の時期についても今回は推定していない。

データに関しては、平取のサンプルが本当に (北海道) アイヌ全体を代表しているかが以前から気になっている。もう一つ、アイヌとニブフの関係については、先行研究を引くのみだが、データを採って分析してほしいところ。上記論文が引いている Genetic origins of the Ainu inferred from combined DNA analyses of maternal and paternal lineages (2004) はまだちゃんと読んでいない。

ちなみに、今年になって続報が出ている。Unique characteristics of the Ainu population in Northern Japan (Journal of Human Genetics, 2015). アイヌのデータは 2012 年版と同じだが、別ソースのデータと重ねあわせている (図 2)。このデータは本土のサンプル数が 1,000 程度と大規模で、関東に限らず、各地方のデータが使われている。大きな発見は、東北は (北海道) アイヌと似ていないこと。

その先に出てくるのが 3-population test (f3) や f4-ratio test。交雑の時期や割合を推定する話だが、モデルの詳細をまだ理解していない。言語に応用できなそうなモデルだし。アイヌ縄文の代わりに、漢人朝鮮人弥生の代わりとして使うのは微妙ではないかという感想を海外のブログで目にした。

あとは、細かいけど気になったのが、ハプログループがミトコンドリアのみに関するものであるかのような記述 (p.44 と p.55)。

2015年10月27日追記: Choongwon Jeong, Shigeki Nakagome, and Anna Di Rienzo. Deep History of East Asian Populations Revealed Through Genetic Analysis of the Ainu. Genetics. (2015) も読んだ。同じ平取のサンプルを使っているけど、分析が違う。

  • アイヌのサンプルは PCA で見ると heterogeneous だけど、ADLER で admixture time を推定すると、2 pulse model で古めに見積もっても 30-40 generations ago。弥生時代はもちろん、オホーツク文化との接触と比較しても新しすぎる。
  • ADMIXTURE (K=8) だと、アイヌは独自クラスタ。Japanese と Ulchi にアイヌ要素が見られる。
  • TreeMix をやると East Asian の中で outgroup を作る。でも Itelmen-Nganasan よりも内側。アイヌ白人幻想へのカウンターにはなっている。
  • allele の positive selection の話が面白い。East Asian に多い EDAR V370A をアイヌの 25% しか持っていない。ただし、同じく East Asian に多い OCA2 H615R はアイヌも高頻度に持っている。APO gene cluster の positive selection が海洋生物への依存を反映している可能性を指摘。

縄文人の南下

考古学的な詳細を知らないまま、修辞を追いかけていて気になった部分。

p.50 あたり。「オホーツク人の集落は海岸線から二キロメートル以内にしかな」い一方、「アイヌの集落は縄文時代以降近世まで、沿岸から内陸奥地にまで設けられてい」るのに、「アイヌはこれ [注: オホーツク人の南下] を避け、北海道の南半に押しこめられるかたちにな」ったのはなぜ? これだけ読むと、素朴には、沿岸を占拠されても、上流域は引き続き確保できそうなものである。オホーツク人が「クマなどの毛皮獣も多数捕獲していた」ことと関係ある?

東北のアイヌ語地名の担い手

東北のアイヌ語地名をいつ誰が残したのかという問題は、私にとってアイヌに関する最大の関心事の一つ。本書では、p.52 での導入に続き、p.70 以降で議論している。

本書は、「古墳時代の四世紀になると、北海道の続縄文文化の人びと (アイヌ) はこの [注: 本州の] 鉄製品を手に入れるために、古墳社会の前線地帯だった仙台新潟付近まで南下していました」(p.71) とさらっと記述している。この主張にどの程度強い根拠があるのか気になる。「そのため東北地方の遺跡からは、当時の北海道と同じ土器や墓がみつかります」(p.71) と書くが、典拠を付けていない。

関連文献のうち、本書が引く (松本 2006) は未見。同じ著者による『蝦夷(えみし)とは誰か』(2011) は読んだ。それによると、「東北北部では、弥生時代後期~古墳時代中期に併行する時期、すなわち1世紀後葉~5世紀前半ころの住居は発見されていない」(p.96) が、「3世紀後半ころ~5世紀後葉までは、東北北部でも、北海道の続縄文土器とほぼ同じものが作られていた」(p.97) とのことである。北海道と東北北部が同じ文化圏に属していたというだけで、この時期に南下が起きたとは言っていない。松本は、前時代との連続性を想定しているようである。

南下を主張するには、前時代との断絶を示す必要があるように思う。

接頭辞優勢言語?

アイヌ語は接頭辞が優勢」(p.68) という話。あまり気にしてなかったが、確かにそうだ。(中川 2010) は未見。

WALS で Feature 26A: Prefixing vs. Suffixing in Inflectional Morphology を見ると、アイヌ語は Equal prefixing and suffixing に分類されていた。ケット語は Weakly prefixing。周辺を見るとチベットビルマ系のギャロン語が Weakly prefixing、台湾のルカイ語とパイワン語が Equal prefixing and suffixing。

最近ケットと同系かもしれないと言われている北米のナ・デネ語族を見ると、結構接頭辞が優勢。

  • Slave, Tanacross, Chipewyan, Navajo が Strong prefixing
  • Sarcee, Hupa が Weakly prefixing
  • Tlingit, Apache (Western) が Equal prefixing and suffixing

最近考えている語順変化のモデルに例として使えるかもしれない。

相互理解可能性

北海道サハリンの基礎語彙残存率が70%程度で、宮古首里のペア*3と同程度であるから、「意思の疎通も困難なほど異なっていたというわけではありません」(p.85) という。ここで引いている (金田一, 1960c) は未見 (そればっかり...)。

相互理解可能性はそもそも 0/1 で割り切れる性質のものではないが、一般に聞く話では宮古沖縄は相互理解不可能。それもかなり昔からそうだったらしい。1390年に宮古の与那覇勢頭豊見親が首里朝貢したが、言葉が通じないので「怜悧の者二十名を選んで学ばせ」、3年にして言葉が通じたという (出典?)。

北海道サハリンは実際のところどうなのだろうか?

基礎語彙残存率と相互理解可能性の相関を真面目に調べた研究は存在するのだろうか?

Bayes 系統モデル

Lee and Hasegawa (2013) を「言語年代学的にあらためて計算しなおし...」(p.87) と説明するのは変。服部四郎が採取したデータこそが言語年代学の遺産。彼らの手法は、言語年代学というか語彙統計学の研究が低迷している間に発展した進化生物学統計的手法に由来する。正確には、進化生物学から直接借りてきたのではなく、他の研究グループがインド・ヨーロッパ語族に適用して話題になったので、同じ手法アイヌ語適用したもの。

「この [注: 年代] 推定をもとに考古学的な事象を解釈し、もともとサハリン方言とはオホーツク人の言語だったのであり、オホーツク人が八世紀に北海道全域へ拡散し、アイヌと融合するなかで、アイヌ語北海道方言が成立した、とのべています」(p.87) という結果の要約も変。彼らの主張は以下の通り。

系統モデルの性質上、全子孫の共通祖先にたどり着いたら終わりで、それ以前の状態は推定しない。彼らの主張はその祖語が北海道北部で成立したというだけ。考古学的知見の解釈についても、その言語を縄文人オホーツク人のどちらから引き継いだかについては何も言っていない。

もう少し真面目な言語学議論で、アイヌとニブフの接触を扱ったものを最近見つけた。Alexander Vovin の On the Linguistic Prehistory of Hokkaidōアイヌ語とニブフ語に共通する特徴 (接頭辞と語彙) を認定したうえで、主にアイヌからニブフへの借用を推測している。しかも、いくつかの要素は北海道アイヌ語にも確認され、アイヌ祖語にさかのぼるとみられる。ニブフ側も、サハリン・ニブフだけでなく、アムール・ニブフにも確認できる。このことから、オホーツク人が北海道 (のオホーツク海沿岸) でアイヌ語話者と接触したと推測している。たいした根拠があるわけではないし、話半分に聞いておくぐらいで良い。

*1:想定読者を広く設定すると仕方がないのかもしれないが、個人的には新書という形式は好きではない。引用しにくいし。典拠不明の記述が多いのも不満。本書は要所要所では文献を引いているけど。

*2:特に3章のコロポックル伝承の起源と展開が刺激的。以前、同じ著者の『コロポックルとはだれか』(2012) を読んで感心したが、本書はそこから何歩も先に議論を進めていた。

*3:「琉球語における宮古方言と首里方言」という表現が気になる。「琉球語」は存在しない。首里の言語をそう呼ぶのでないなら。そもそも「言語」と「方言」の識別に関して取り得る立場は2つある。日本語族に属する lect を分類すると taxonomy ができる。一つの立場はすべての階層のノードを「方言」と呼ぶもの。この場合、当然「琉球語」は出てこない。もう一つは、相互理解可能性という怪しげな基準を使って「言語」と「方言」を識別するもの。この場合も、具体的に何言語を認定するかは別として、それらは琉球よりも下位の階層に位置する。よって、琉球ノードは「琉球語」となる。どこかに「琉球語宮古方言」を支持する立場の人がいたりするのだろうか? 「言語」と「方言」の識別は、分類学者が「科」なのか「亜科」なのかと悩むようなもので、本質的に重要な区別ではない。しかし、社会的には方言は言語よりも劣るという観念が根強いようである。ある種の質の悪い言説は、このような社会的背景を認識しているにも関わらず、「言語」の認定と危機言語の保存運動を同時に行おうとする。この言説は、方言に対する社会的偏見をむしろ強化するという点で有害である。そもそも、この手の言説は、「言語」という分類学上の階層が保存運動の単位となる階層とどう対応するかを一切説明しない。これは自明ではない。話者自身が認識するまとまりは、一般に「言語」と対応しない。おそらく、保存運動とは、進歩的な自分たちが、遅れた話者に対して、学問の権威を背景に下す神託だと考えているのだろう。

arch74324arch743242015/09/10 19:47問題点のご指摘をいただき、ありがとうございました。明らかな誤り、勘違い、説明不足など、どれもご指摘のとおりとおもいます。現在別著にかかっておりますので、それらの点をふまえて論じてみたいとおもっております。お礼申し上げます。

murawakimurawaki2015/09/11 10:38こんな半可通の雑記にコメントいただいて恐縮です。次の本も楽しみにしております。