世界の言語入門
- 作者: 黒田龍之助
- 出版社/メーカー: 講談社
- 発売日: 2008/09/19
- メディア: 新書
- 購入: 3人 クリック: 14回
- この商品を含むブログ (29件) を見る
もちろん、筆者も言語学者なので、あらかじめ「これはエッセイ集です」と断っていて、それを知らずに買った僕が悪いのですが。小説のように、エンターテイメントとして読むには面白い本だとは思います。
系列ラベリングのための Forward-Backward アルゴリズムの一般化
これも、頑張れば、breakthroughになりそうな研究。前向き後ろ向きアルゴリズムというと、隠れマルコフモデル(HMM)のBaum-Welchアルゴリズムが有名だけど、実は、HMMに限らず、前向き後ろ向きアルゴリズムで行っている計算は、系列ラベリングを行う時に本質的に必要になってくる。
結局、入力系列と出力系列(ラベルの系列)があるとき、パラメータと、パラメータの良さ評価する関数を作ってやって、これを最大化するようにしてやるわけだ。今、ある入出力ペアとパラメータがあるときに、さぁ、このパラメータがどれだけ良いパラメータなのですか?ということを測りたい。測るのに使えるデータは、出力系列(正解のラベル系列)だけ。
まっとうな方法は、その入力とパラメータを与えた時の全ての出力系列のパターンと比較して、がどれだけ寄与するか(確率で考えれば、出やすいか)を計算することだろう。つまり、を計算してやる。
条件付確率場(Conditional Random Field, CRF)は、この関数fが、の形をとる時の話なわけだ。fの形が複雑だと、が出力系列長に対して指数関数的になるので、長い系列が事実上計算できなくなる。この論文は、このfとしてどんな関数が取れるかを考えて、その関数の幅を広げましたよ、という話。さらに、fをテイラー展開で近似するのでよければ、fとして大抵の関数は持ってきてよさそうだ、ということも書いてある。
恥ずかしながら、HMMのBaum-Welchと、CRFのZ項の計算が本質的に同じものだって、この記事書いてて初めて理解しました。もっと勉強しなければ・・・
多重トピックを用いたブログ空間の情報伝搬解析
かなり面白い研究。ブログの記事間のリンクのうち、正しく情報伝搬を反映しているものを選別するタスク。そこで、記事と記事の間の類似度を測るのだが、そのとき、普通に単語ベクトルの類似度を使うのではなくて、LDAでトピック分布を推定してトピック分布の類似度を使用した方がよくなるんじゃないですか、という話。
確率分布間の近さを測るのには普通KLダイバージェンスを使うが、よく知られているようにKLダイバージェンスは非対称なので、これだと、コサイン類似度のような普通の類似度の意味では使えない。そこで、JSダイバージェンスというのを使う。KLダイバージェンスをと置くと、JSダイバージェンスは、で表わされる。JSダイバージェンスという言葉を初めて知った。勉強になりました。
言い換え箇所と言い換え候補の提示による解説文リライト支援の評価実験
これは、「へぇ、言い換えに、こんな応用があるのか」と思ったもの。博物館などの解説文に含まれる表現を、子供や非専門家に分かりやすく書きかえるためのタスクを言い換えの問題に落とし、実際に専門家に解説文を作ってもらった、というもの。「博物館などの解説文の作成支援」は、非常に重要ではあるが収益性が見込みにくく、研究としてやることが重要なタスクだと思う。まぁ、言い換え研究については、全然知らないのですが。
NL研の受付〜2日目〜
NL研の受付二日目。研究室に泊って、朝9:30に集合。以下、二日目で面白かった研究について。
教師なし形態素解析
初日のハイライトは、やはり、色々なところで既にすごいすごいと言われている、daiti-mさんの、教師なし形態素解析。論文は、daiti-mさんのサイトのPublicationsに載っています。で、これはすごい。とにかくすごい。daiti-mさんの言う通り、ベイズをやっていない人がちょっとやそっとで出来るものではないです。簡単な解説は、[id:mamoruk:20090325]さんが書いてくださっています。他にも、この論文を理解しようという動きが、[id:nokuno:20090326:1238085058]などをはじめ色々なところで、既に始まっているようです。
T2 Meeting
NL研終了後に、T2 Meetingという東大と東工大合同の研究会が同じ会場で別に開かれました。今回が第2回目で,第一回目は,mamorukさんが[id:mamoruk:20090212]に詳細を書いてくださっています.
うちのMくんの発表。簡単に補足しておくと、サポートベクターマシン入門の4章に汎化理論についての解説があり、それを彼と2人で読みました。この章は、件の本の中では、一番、読むのが大変な章だと思います。彼は、これに加えて、汎化性能の観点から導き出された最適化問題とその解法の文献を読み、しっかりした発表を行ってくれました。
- 作者: ネロクリスティアニーニ,ジョンショー‐テイラー,Nello Cristianini,John Shawe‐Taylor,大北剛
- 出版社/メーカー: 共立出版
- 発売日: 2005/03/01
- メディア: 単行本
- 購入: 8人 クリック: 135回
- この商品を含むブログ (42件) を見る
次に、東工大のIさんの発表。シード語を与えられた上で、語をpos/negに分類するタスクを、語をノードと見たグラフを作り、ノード間にエッジを張るかどうかを判定する整数計画問題(ILP)に落として解く、という話でした。ノード間(単語間)の類似度は、共起ベクトルのコサイン類似度を使用しているらしいのですが、普通に特徴ベクトルを作ってクラスタリングするのと、どのように違うのかが気になりました。