輪講
輪講のお知らせです
日時:2011/07/05 16:50~18:00
場所:R2 6F 第3会議室
発表者:鳥居
概要:7/5の輪講では以下の論文を紹介します。
Template-Based Information Extraction without the Templates
Nathanael Chambers and Dan Jurafsky
ACL 2011
http://www.aclweb.org/anthology/P/P11/P11-1098.pdf
輪講のお知らせです
日時:2011/07/05 16:50~18:00
場所:R2 6F 第3会議室
発表者:鳥居
概要:7/5の輪講では以下の論文を紹介します。
Template-Based Information Extraction without the Templates
Nathanael Chambers and Dan Jurafsky
ACL 2011
http://www.aclweb.org/anthology/P/P11/P11-1098.pdf
輪講のお知らせです
日時:2011/06/28 16:50~18:00
場所:R2 6F 第3会議室
発表者:小笠原
概要:6/28の輪講では以下の論文を紹介します。
Lexical Normalisation of Short Text Messages: Makn Sens a #twitter
Bo Han and Timothy Baldwin
ACL 2011
http://aclweb.org/anthology-new/P/P11/P11-1038.pdf
輪講のお知らせです
日時:2011/06/21 16:50~18:00
場所:R2 6F 第3会議室
発表者:川崎
概要:6/21の輪講では以下の論文を紹介します。
Recognizing Authority in Dialogue with an Integer Linear Programming Constrained Model
Elijah Mayfield, Carolyn Penstein Rosè
ACL 2011
http://aclweb.org/anthology-new/P/P11/P11-1102.pdf
輪講のお知らせです
日時:2011/06/7 16:50~18:00
場所:R2 6F 第3会議室
発表者:森田
概要:6/7の輪講では以下の論文を紹介します。
Reinforcement Learning for Mapping Instructions to Actions
S.R.K. Branavan, Harr Chen, Luke S. Zettlemoyer, Regina Barzilay
輪講のお知らせです
日時:2011/05/24 16:50~18:00
場所:R2 6F 第3会議室
発表者:五十嵐
概要:5/24の輪講では以下の論文を紹介します。
Time is of the Essence: Improving Recency Ranking Using Twitter Data
Anlei Dong, Ruiqiang Zhang, Pranam Kolari, Jing Bai, Fernando Diaz, Yi Chang, Zhaohui Zheng, Hongyuan Zha
WWW 2010
http://portal.acm.org/citation.cfm?id=1772725
輪講のお知らせです
日時:2011/05/17 16:50~18:00
場所:R2 6F 第3会議室
発表者:WANVARIE Dittaya
概要:以下の論文を紹介させていただきます。
Analyzing and Integrating Dependency Parsers
Ryan McDonald and Joakim Nivre
Journal of Computational Linguistics
Volume 13 Issue 1, March 2011
http://www.aclweb.org/anthology/J/J11/J11-1007.pdf
専攻によって時刻・場所が異なるので注意してください
10:30-11:00 | 全体説明 | G2棟2F 221講義室 |
11:00-12:00 | パネル説明 | G2棟5F 501号室 |
12:00-17:00 | 研究室見学 | 各研究室(当研究室はR2棟7階の724,727,728) |
11:00-11:30 | 全体説明 | G5棟1F G511講義室 |
11:30-13:00 | 研究紹介 | G4棟1Fロビー |
13:00-16:00 | 研究室公開 | 各研究室(当研究室はR2棟7階の724,727,728) |
全体説明:専攻のあらまし,入学試験,奨学金制度等について説明します.
研究紹介:全教員がポスターを用いて研究室の研究内容を紹介します.
研究室公開:各研究室で研究内容を公開します.
会場までの地図:http://www.igs.titech.ac.jp/map/campusmap.html
専攻によって時刻・場所が異なるので注意してください
11:30-12:00 | 全体説明 | G2棟2F 221講義室 |
12:00-13:00 | パネル説明 | G2棟5F 501号室 |
13:00-17:00 | 研究室見学 | 各研究室(当研究室はR2棟7階の724,727,728) |
13:00-13:30 | 全体説明 | G5棟1F G511講義室 |
13:30-15:00 | 研究紹介 | G4棟1Fロビー |
15:00-17:00 | 研究室公開 | 各研究室(当研究室はR2棟7階の724,727,728) |
全体説明:専攻のあらまし,入学試験,奨学金制度等について説明します.
研究紹介:全教員がポスターを用いて研究室の研究内容を紹介します.
研究室公開:各研究室で研究内容を公開します.
会場までの地図:http://www.igs.titech.ac.jp/map/campusmap.html
松田さんの輪講です。
Ioannis P. Klapaftis and Suresh Manandhar
Word Sense Induction & Disambiguation Using Hierarchical Random Graphs
(EMNLP 2010)
http://www.aclweb.org/anthology/D/D10/D10-1073.pdf
Abstract:
Graph-based methods have gained attention in many areas of Natural Language Processing (NLP) including Word Sense Disambiguation (WSD), text summarization, keyword extraction and others.
Most of the work in these areas formulate their problem in a graph-based setting and apply unsupervised graph clustering to obtain a set of clusters.
Recent studies suggest that graphs often exhibit a hierarchical structure that goes beyond simple flat clustering.
This paper presents an unsupervised method for inferring the hierarchical grouping of the senses of a polysemous word.
The inferred hierarchical structures are applied to the problem of word sense disambiguation, where we show that our method performs significantly better than traditional graph-based methods and agglomerative clustering yielding improvements over state-of-the-art WSD systems based on sense induction.
------
語義曖昧性解消 をグラフを用いて解くという論文です。
グラフベースの語義曖昧性解消は多くの研究があるのですが、この論文において特徴的なのは、一度共起関係を用いてグラフ(コンテキスト間の共起グラフ)を作ったあとで、そのグラフを元に別なグラフ (Hierarchical Random Graphという二分木)を作り、その上で曖昧性の解消を行うという点です。
語義曖昧性解消において広く用いられているフラットなクラスタリングではキャプチャーすることが難しい語義に存在する階層関係を用いるために、フラットなグラフを階層構造を表現した木に落とす、というのが主なポイントになっています。
木の構造を推定する際の組み合わせ爆発に対処するために、MCMC(マルコフ連鎖モンテカルロ法)を用いていますが、MCMCを使った他の研究とくらべると比較的分かりやすい使い方になっていますので、あまり身構えずに聞いてください。