2012年1月13日金曜日

第12回助教の会

第12回数理助教の会では数理第4研究室ポスドクの坂下達哉さんに「量子i.i.d.状態の仮説検定問題における数値的手法の実装および計算精度に関する研究」というタイトルでおはなししていただきました。
坂下さんは昨年9月に電通大で学位を取得され、現在、さきがけ数学領域「統計モデル多様体の普遍的な性質のベイズ予測理論への応用」の研究員としても精力的に研究を進めています。



坂下さんは、ここ数十年で急速な発展を遂げた量子情報科学の分野で、特に、量子仮説検定の問題に対して、数値的な取り扱いを研究しています。 実験的に準備された量子状態が、2つの異なる量子状態のどちらであるかを、統計的仮説検定の問題として判定する方法を考えています。通常の仮説検定論が情報理論の主要な結果に応用されているように、量子仮説検定論は量子情報理論への応用を念頭においたものになっています。 坂下さんが取り組んでいる量子Hoeffdingの定理の問題設定は数学的に精密な定式化で煩雑なため、ここでは、Hoeffdingの定理のイメージを簡単に説明しておきます。

たとえば、1/2の確率で表が出るコインAと2/3の確率で表が出る偽コインBがあり、コインをn回ふって判断することにします。 コインを10回ふって6回表が出たときだと、AなのかBなのか判断に迷います。 しかし、コインをふる回数を100回、1000回と増やしていくと、表の出る確率は1/2 もしくは2/3に近づいていき判断しやすくなります。 いいかえるとコインがAの時とBの時とで、それぞれ間違った判断をする確率(誤り確率)が十分小さくなります。 コインをふる回数nに対して誤り確率は指数的に減少していくことが知られており、その速さを指数誤り率と呼びます。さて、コインAをコインBに間違えてしまう確率とコインBをコインAに間違えてしまう確率の間にはトレードオフの関係があります。2つの指数誤り率のトレードオフはHoeffdingの定理によって簡単な形で表現できます。このような仮説検定の漸近理論の量子版が、坂下さんが注目している量子Hoeffdingの定理で、2006年に証明されたばかりです。



量子では試行回数ではなくテンソル積の次数nの極限を考え、指数誤り率は定理から簡明な形で書けますが、有限の場合には簡単にはかけません。 そこで、nが有限の場合の指数誤り率の振る舞いについて、数値的に詳しく調べたのが坂下さんの主要結果の一つです。


数値的に計算というと簡単そうに聞こえますが、この点について様々な工夫を行っています。本研究では、量子i.i.d.状態を表すテンソル積行列(指数サイズ)を多項式サイズの複数の行列に分解する「テンソル積の既約分解」という手法を用います。このような複数の行列に対して固有値計算が必要になるのですが、この計算で非常に大きな数値誤差が生じます。これは、このような行列では0の近くに固有値が密集しているためです。 この傾向は、nが大きくなるほど顕著になります。 実際、比較的小さなnでも、多倍長演算を用いて100桁(10進法)程度で計算を行って、初めて有効な数値結果が得られています。計算機的にも非常にハードな計算ですので、 固有値ルーチンの改良、プロセス単位の並列化、そして、東大のスパコン(!)を用いてようやく可能になったそうです。数値計算の応用分野において、これほど大きな桁数を用いた固有値分解が必要な例は他になく、計算負荷を均等にする並列化法にも特色があり、数値解析や計算機実装の研究者にとっても面白いテーマを与えると思いました。



時間の関係で後半の一部は省略されましたが、最後に、新しい漸近理論に関する予想と数値的な検証について説明してもらいました。 既に示されている量子Hoeffdingの定理を用いて、数値計算が信頼できることを確認した後だからこそ検証に役に立つそうです。 数値的に試してうまくいくことを確認して、厳密な証明を与えるというのは、統計理論でもよくあるアプローチですが、 そこに量子論特有の難しさ(非可換な行列の扱いやテンソル積)が入っており、分野間融合の新しい可能性に溢れる話題だと思いました。









数理第4研究室 助教 &さきがけ数学領域研究者(兼任)田中冬彦


2011年12月5日月曜日

第11回助教の会

 第11回の数理助教の会では数理第6研究室の冨岡亮太さんに「行列およびテンソルデータに対する機械学習」というタイトルでおはなししていただきました。冨岡さんは機械学習の分野において第一線で活躍されている研究者です。また冨岡さんは、この数理助教の会の「いいだしっぺ」であり、この集まりを通じて多岐にわたる領域をカバーする数理工学分野の若手研究者の横のつながりを活発にするためにご尽力されております。

 行列は行と列の2軸上のデータとして見ることができます。さらに軸を増やしたデータはテンソルとよばれます。行列の低ランク分解についてはリコメンデーションに利用される協調フィルタリングなどの重要な応用がよく知られています。その一方で、テンソルに関しては機械学習においてまだ新しい研究対象であり、また最近冨岡さんが活発に取り組んでいる研究テーマだそうです。今回のトークでは、行列に対する判別モデルにおける低ランク分解の応用研究と、テンソルに対する生成モデルにおける基礎理論の研究を紹介していただきました。


 前半のトピックは、ブレイン・ コンピュータ・インタフェース(BCI)における行列の低ランク分解の応用のおはなしです。まず今回扱っている視覚と脳波を用いた文字入力のBCIであるP300 speller システム(Farwell & Donchin, 1988)について解説します。被験者はタテ・ヨコに6つずつ並んだ、計36個の文字(アルファベット26文字、1~9までの数字とアンダーバー)のうちの1つを一定時間じっと見続け、その間、ある1行またはある1列にある6文字が同時に光るというパターンがランダムに切り替わります。行と列はそれぞれ6つあるので、光り方のパターンは12通りとなります。被験者が見ている文字の位置を複数の電極から得られる脳波データを用いて推定することが本システムの目的です。


 冨岡さんらの提案した判別手法では、ある1つの行または列の6文字が光っている短時間の脳波の行列データXについて、被験者が見ている文字が光っているか光っていないかを評価する判別器 f (X) = <X, W> + b を考えます。ここで、W b を次の条件を満たすように決定します。
 (1)訓練サンプルに対する当てはまりが良い。
 (2)f を決める行列 W が低ランク分解される。
条件(1)に関連して損失項を、条件(2)に関連して正則化項を適切に設定することで、最小化問題を解くことで判別器が決定されます。


 冨岡さんらの提案手法のポイントは、正則化項でSchatten 1-ノルム(行列の特異値の線形和)を用いていることです。これによって考えるべき最小化問題が凸となり、高速に判別器を設計することができます。さらに、行ごと、列ごとのデータを別々に考慮することで、「もっともらしい」時空間フィルタを得ることに成功したそうです。


 後半のトピックはテンソルの低ランク分解です。テンソルは数学的に非自明な点が多く、サイズの小さいテンソルでも扱いが難しい面もあるそうです。テンソルのランクはCANDECOMP / PARAFAC 分解(CP分解)の意味でのランクとTucker分解によるランクなどがあります。


 冨岡さんの研究ではTucker分解を扱っており、またテンソルに対して低ランク化を促す正則化項として、いくつかの行列のSchatten 1-ノルムで表される、overlapped Schatten 1-ノルムを採用しています。このノルムを用いることで、低ランクテンソルの推定が凸最適化により可能となります。例えば、テンソル補完問題はテンソルの一部の値が見えている状況でランクの最小のテンソルを求める問題ですが、テンソル補完に対しoverlapped Schatten 1-ノルムを用いた緩和問題は凸最適化手法で解けるそうです。冨岡さんはテンソル分解に関する理論的な解析を与え、さらに解析結果と実験結果が「そこそこ」一致していることが確認されたとのことです。


 私自身は最適化理論の研究をしているのですが、冨岡さんの研究において最適化問題の扱いやすさがポイントとなっている点が興味深いです。連続最適化の分野と機械学習の分野の積極的な交流(このような交流は国際的にはある程度は進んではいるのですが)によって日本のグループでも面白い研究ができるであろうと感じました。冨岡さんによれば「テンソル業界はまだまだ人手不足」だそうですので、新しい領域に乗り込む意欲のある方は挑戦してみてはいかがでしょうか?

生産技術研究所 最先端数理モデル連携研究センター 永野清仁


2011年11月30日水曜日

第10回助教の会

 第10回助教の会は、生産技術研究所 最先端数理モデル連携研究センター 特任助教の永野清仁さんにお話してもらいました。永野さんは、数理第2研究室のご出身で、2008年3月に博士号を取得され、離散アルゴリズムの研究に従事しておられます。最近は、機械学習と関連した離散最適化問題などを扱っているそうです。

 今回は、永野さんの研究テーマである、「劣モジュラ制約下の凸最適化」について、理論および応用の両側面での研究についてそれぞれ話していただきました。

 劣モジュラ関数とは、集合を引数に取る関数fで、「大きな集合に要素を加えるよりも、小さな集合に要素を加えたほうが影響が大きい」という性質を(数式では、∀S, T⊆V, f(S)+f(T)≧f(S∪T)+f(S∩T)と表される)持つもので、この劣モジュラ関数の理論は、グラフ、ネットワーク、ゲーム理論、オークション理論、機械学習など、様々な場面で使われているそうです。


 劣モジュラ関数fの例として、集合に対する2つのコスト関数の例を説明していただきました。一つは、「ホットドックの代金」、例えば「Aさんが2個、Bさんが4個、Cさんが8個のホットドックを食べるときに、必要なお金」であり、これは、それぞれの代金の和となります。(f(AさんとBさん)=f(Aさん)+f(Bさん)、など。)もう一つは、「コピーフリーのCDの代金」、例えば、「Aさんが2枚、Bさんが4枚、Cさんが8枚のCDを手に入れる時に、必要なお金」であり、これは、どの場合でも、CD1枚分の値段のままになります。(f(AさんとBさん)=f(Aさん)=f(Bさん)=定数。)いずれのfも劣モジュラ関数ですが、さらに、この両極端の場合の中間にも、様々なコスト関数を定義することができます。



 このようなfが決まると、それに対して「基多面体」B(f)と呼ばれるものが定義でき、この基多面体の上で、「もっとも良い点」(良さは、B(f)上の各点に対する関数g(x)で決まる)を見つけるのがすなわち「劣モジュラ制約下の凸最適化」ということです。

 g(x)には様々なものがあり、例えばLexicographically optimal bases (Fujishige,80)という有名な問題(これは、「なるべく中心に近い点を見つける」という問題で、様々なタスクが、この形式で表現できるそうです。)があるのですが、永野さんらは、α-カーブというアイデアに基づいて、このLexicographically optimal basesの問題が、Submodluar Utility Allocation (SUA)という、一見別の問題設定と、最適解が一致するということを発見したそうです。

 発表の後半では、この理論を、実際にネットワークの分析に応用した例を紹介していただきました。応用するのは、「最密部分グラフ問題」すなわち、「与えられたノード数の部分グラフの中で、最もエッジ重みの合計が大きいもの」を見つける問題です。この「与えられたノード数」というのが厄介で、これがなければ簡単に(多項式時間で)解けるのに、この制約があるととたんに難しく(NP-hardに)なるそうです。永野さんらは、制約なしの場合に使われる「Fujishige-Wolfe法」を拡張することで、「さまざまなノード数について、もしも最適解が見つかれば、それを出力する」というアルゴリズムを設計しました。Fujishige-Wolfe法では活用しきれていなかった情報をより「しゃぶりつくす」ことで、Fujishige-Wolfe法では出せていなかった答を出力させることができるそうです。必ず最適解が見つかるわけではありませんが、もし見つかれば高速に答えを見つけることができます。

 このFujishige-Wolfe法は、まさに前半のお話にあった、「基多面体上での最適化」に基づくアルゴリズムであり、通常の多項式時間アルゴリズムでは現実的には解けないような大きな問題まで解くことができるそうです。「最適解がもしも見つかれば、それを出力する」というアルゴリズムはなかなか変わっていて、面白いと思いました。

 劣モジュラの理論は、頭の普段使わない部分を使う感じで難しかったのですが、永野さんの力強い発表のおかげで、なんとなくやりたいことの気持ちがわかってきたような気がします。構造の複雑そうなグラフの問題が、きれいな理論で表現できる様子が魅力的でした。

情報基盤センター 助教 吉田稔


2011年11月4日金曜日

第9回助教の会

こんにちわ、先月の頭に風邪をひいたのに、今月の頭も風邪を引いたので、来月の頭が心配な東大情報基盤センターの佐藤です。

第9回助教の会では、東京大学 情報基盤センターの吉田稔さんに「接尾辞配列とディリクレ過程混合モデルを用いたテキスト中の数値表現マイニング」というタイトルで話していただきました。吉田さんは、東京大学の元辻井研で博士号を取得しており、主にテキストマイニングの研究をしています。

今回の発表では、「テキストマイニング」についての説明から始まり、東京大学中川研で公開しているテキストマイニングツールの説明とご自身が取り組んでいる数値情報と言語情報を解析する研究について、説明をしていただきました。

吉田さんの説明によると
「テキストマイニングとは、テキストデータを統計的に処理し、自明でない知見を発見する技術」のことを言います。

発表中には、「自然言語処理」と「テキストマイニング」の関係についての議論が為されました。吉田さんの認識では、自然言語処理を基礎技術として応用したのがテキストマイニングである一方で、テキストマイニングで得られた知見を自然言語処理へと活かすという相補的な関係にあるようです。

吉田さんの現在の研究テーマは、「テキスト中に含まれる数値表現をデータベースとして扱う研究」です。
テキスト中に含まれる数値表現を陽にデータベース化することなく、テキストのままデータベースとして扱うことで、言語と数値の関係を抽出する研究を行っています。

言語と数値の関係では、
例えば、年齢ごとに「人」に関する呼び名が変わる現象が挙げられます。

[12〜19]歳という数値表現で表された「男性/女性」は「少年/少女」という単語に関係しており、
[65〜歳]という数値表現で表された人間は、「高齢者」という単語に関係しています。

このような関係をテキストデータから自動で抽出することができるシステムの開発をしているそうです。

また、「75歳男性が脳梗塞で死亡」などのテキストデータが大量にある場合に
「男性」,「脳梗塞」という単語から、[60-75]歳という統計処理された数値表現データを抽出することも可能になります。


実際にシステムで使われている技術は、suffix arrayを数値データを扱いやすいように改良したデータ構造や、数値表現から抽出した数値データを統計処理するためにディリクレ過程混合モデルを検索時にリアルタイムに用いるなど、データ構造と機械学習技術の実践的な融合がなされていると感じました。









2011年10月24日月曜日

第8回助教の会


第8回助教の会では生産技術研究所の田中剛平さんに「ネットワークの動的ロバスト性」というタイトルで話して頂きました。田中さんは今年7月に「複雑系動力学とその応用」というテーマを掲げて助教から特任准教授に昇進されたばかりです。

複雑系動力学を研究をする目的は、対象となる動的システムの定性的な挙動の変化(分岐現象や相転移)を調べたり、それらの性質を工学的に応用したりすることです。

その中でも、田中さんがとくに注目しているのはネットワークのロバスト性です。ネットワークは神経回路や細胞内シグナル伝達のネットワークなど自然界に普遍的に存在するだけでなく、電力ネットワーク、情報ネットワークなどがあり、私達の生活にも深く関わっています。これらのシステムはネットワークを通してつながっているため、システムの一部に障害が発生したとき、例えば今年3月にあったみずほ銀行のATM障害のように、その影響が広範囲に拡大してしまう可能性があります。そのため、一部に障害が発生した際の影響に対してネットワーク全体がどの程度ロバスト(頑健)であるか解析することは重要なのですが、これはネットワークが複雑であればあるほど容易ではありません。

田中さんによると、ネットワークのロバスト性には構造的なロバスト性と動的なロバスト性があると考えることができます。構造的なロバスト性は2000年ごろから Barabasiら[1]によって研究されてきました。例えばネットワークの一部の構成要素を取り除いたときに、ネットワーク全体の繋がりがどの程度保たれるか、さらに、それがネットワークの種類によってどのように変化するか、といったことが調べられています。一方で、動的ロバスト性はネットワークの繋がり具合ではなく、機能がどの程度保たれるかを問題にする比較的新しい考え方です。ネットワークが繋がりを保っていても、果たすべき機能を果たさなければ困るからです。

・・・とだんだん本題に迫ってきたのですが、ここから先は未発表の内容なので残念ながらブログに書くことはできません。情報が出せる段階になりましたら、更新させていただきます。

2012/2/3 追記:
上記のネットワークの動的なロバスト性に関する論文が Scientific Reports に採録されたそうです:

Gouhei Tanaka, Kai Morino & Kazuyuki Aihara (2012) Dynamical robustness in complex networks: the crucial role of low-degree nodes. Scientific Reports, vol. 2.

おめでとうございます!


[1] Réka Albert, Hawoong Jeong & Albert-László Barabási (2000) "Error and attack tolerance of complex networks." Nature 406, 378-382.

数理第6研究室 冨岡亮太

2011年7月26日火曜日

第7回助教の会


第7回目となる今回の数理助教の会は,情報基盤センターの佐藤一誠さんに「Quantum Annealing in Statistical Machine Learning - 統計的機械学習における量子アニーリング -」というタイトルで発表していただきました.佐藤さんはこの3月に博士号を取得され,4月から情報基盤センターで助教として勤務している若手研究者です.統計的機械学習の研究をされており,特に自然言語処理に興味をお持ちとのことです.

タイトルにもある「統計的機械学習」とは,多くののデータが与えられたときに,これらのデータがどのような過程で生成されたのかを統計的に記述することを目的としています.例えば,数値データが与えられたときに,似たデータ同士をグループ分けする(クラスタリングする)といったことが代表的な問題になります.対象とするデータは数値データに限らず,例えば多くの文書をクラスタリングする手法も研究されており,Latent Dirichlet Allocation と呼ばれる手法では単語の出現頻度に注目することで文書をトピックごとにクラスタリングしています.文書のクラスタリングは,文書要約や翻訳の性能向上,評判分析などに用いられており,実用上重要な問題となっています.


「統計的機械学習」という用語自体は非常に広い意味を持っていますが,今回は,確率的潜在変数モデルを用いた統計的機械学習について講演して頂きました.これは,与えられたデータが「未知の変数(潜在変数)によって定まる確率過程から生成される」というモデルであり,研究の目的はいかにこの潜在変数を推定するかということになります.上のクラスタリングの例であれば,「どのグループに入っているのかを表す変数」と「各グループ内の分布を表す変数」が潜在変数となります.潜在変数の推定には,事前分布に基づいた MLもしくは MAP といった各点ごとに値を推定する方法もありますが,より良い推定をする際には,多くの場合事後分布を用いる必要があります.事後分布の計算には積分が必要なため,事後分布(の近似)をいかに効率的に計算するかが重要な問題となってきます.

事後分布の近似には様々な手法が研究されており,それらはサンプリング(MCMC)を用いる手法と変分ベイズ法(Variational Bayes) を用いる手法に大別されます.サンプリングは,多くのサンプル点を選ぶことで積分計算を近似する手法であり,容易なアルゴリズムを構成できる汎用的な手法なのですが,時間のかかるランダムなアルゴリズムとなっています.一方,変分ベイズ法は,計算しやすい関数クラスの中で真の関数に近いものを求める手法であり,最適化問題として定式化できます.この手法は高速で決定的なアルゴリズムですが,求めている関数自体が近似関数となっています.佐藤さんは,さらにこれらの手法を No interaction と Interaction という視点から分類し,今まで手法が提案されていなかった,Interaction タイプの最適化型の手法(ML/MAP, 変分ベイズ法)を提案しています.Interaction タイプとは複数の初期値から過程を計算していく際に,単純に複数回計算を繰り返して行うのとは異なり,それぞれの過程が相互に影響することを用いた手法を指しています.


本講演では,分割数が未知の場合のクラスタリングの問題(無限混合モデル)に対する Interaction タイプの最適化型の手法(ML/MAP)を説明して頂きました.無限混合モデルにおいては分割数が未知のため,Chinese Restaurant Process (CRP) と呼ばれる過程を用いて探索を行います.この過程はランダムな過程なのですが,Simulated Annealing 法を用いて,徐々に決定的な探索に近づけていく手法が既に知られていました.佐藤さんが提案した手法では,Simulated Annealing の代わりに,物理において量子系の解析で発展してきた Quantum Annealing (量子アニーリング)という手法を用いています.この手法では,複数の過程を同時に計算していく際に,個々の過程を別々に扱うのではなく,それぞれの過程における離散状態の重ね合わせを一つの状態と見て操作を加えていきます.離散状態を重ね合わせたものを一つの状態を見るというのが,物理の意味での量子揺らぎと対応しています.量子系における手法を機械学習に適用した,という発想自体が佐藤さんの大きな貢献ですが,実際のアルゴリズムの構成のためには更なる工夫が必要となります.単純に量子アニーリング法を適用するだけでは,非常に大きな行列の固有値分解を扱うことになってしまうのですが,佐藤さんのアルゴリズムは大きな行列の出現を避けた,高速なアルゴリズムとなっています.

今回の講演の中では,線形代数,確率,微積分,最適化,から物理に至るまで,数学の様々な分野が登場しました.機械学習という応用のはっきりした研究の中で,これだけ様々な分野の道具が使われているということに驚かされました.幅広い分野の知識が必要とされるので大変だとは思いますが,様々な分野と関連してくる活発で魅力的な研究だと感じました.

数理第二研究室 小林 佑輔

2011年7月11日月曜日

第6回助教の会


第6回目となる今回の数理助教の会は,数理第2研究室の小林佑輔さんで,「点素パス問題に対するアルゴリズム」について発表していただきました.小林さんは組合わせ的問題に対するアルゴリズムの研究を行っていて,より具体的には,グラフ上の問題に対し,それを解くアルゴリズムの計算量の評価および高速化を考えています.こういった問題は,ちょっとした設定の違いでP(多項式時間で解ける)からNP困難に切り替わることがあり,このような問題の解きやすさの変化は大変魅力的であり,自身も興味をもって研究に取り組んでいるとのことです.



今回の発表では,表題のとおりグラフ上の点素パス問題について説明していただきました.点素パス問題とは,上図のように与えられた頂点対に対し,パスが頂点を共有しないようなパス(点素なパス)を見つける問題で,点素パス問題の研究の応用としては,VLSIの設計などが挙げられるそうです.一言で点素パス問題と言っても,グラフが無向グラフか有向グラフか,平面グラフかどうか、頂点対数kが定数か変数かなどの違いで,問題にはいくつかバリエーションが考えられ,それぞれの問題に対してそれを解くための理論的計算量(NP困難か多項式時間で解けるか線形時間で解けるか)が精力的に研究されています.単純なケースとして,頂点対の行き先tが一点である場合は,学部でも習うような最大流アルゴリズムにより多項式時間で解けますが,一般の入力に対しては,計算量の評価は難しいものになるとのことでした.

こういった研究の中で,今回はこの業界の大きな成果である,無向点素パス問題を多項式時間で解くRS(Robertson-Seymour)アルゴリズムについて簡単に紹介していただきました.このアルゴリズムは,まず扱っているグラフに対し木幅というグラフの複雑さの指標を計算し,木幅がある定数より小さければ動的計画法で解き,大きければ頂点を取り除いて木幅をどんどん小さくしていき,点素パスが見つかる(あるいはないことが分かる)までこの操作を繰り返すというもので,これは1980年代から現在に至る23本の論文にわたるグラフマイナー理論のもと完成したアルゴリズムだそうです(下図参照,赤枠のGraph Minors 13 にあるとのこと).ただし,このRSアルゴリズムの計算量はグラフの頂点数nに対しては多項式時間であるものの,頂点対数kに依存する非常に大きな定数がかかるという問題点がありました.



これに対して小林さんは,オイラー的もしくは4辺連結なグラフを考え,この場合の辺素パス問題に対する単純なアルゴリズムを提唱し,これによりオーダー評価における頂点対数kに依存する係数がRSアルゴリズムに比べ非常に小さくなることを示しました.他にも,辺に長さが定義されているようなグラフに対する点素パス問題や,パス同士が隣り合う頂点対を持たないようなパスを見つける問題(誘導点素パス問題)といったものを扱い,それぞれに対して計算複雑度の評価を行っています.

実は僕はこの話を以前もっと短い時間で聞いていて,今回は2回目なのですが,知らない専門用語がたくさん登場するにもかかわらず最後まで楽しんで聞くことができました.そして2回目ですがBreak timeの点素パスは見つけられませんでした.どうも自分にこの手の研究は向いてないようですね.かなりセンスの必要な研究分野だろうなと改めて感じました.

数理第3研究室 助教 相島健助