アカデミアの観点から見た災害
この記事は、IT DARTアドベントカレンダー 2015 の24日目です。ついにクリスマスイブですね!
IT DARTの村上です。アメリカの企業に勤めているので、もう22日にはお仕事納めました。しかし昨日からずっとMacの前にいます。何でかというと、このアドベントカレンダーの記事を書くためにいろいろと調べていたのですね。結論はデータアクセスは大事だよってことです。最後まで読めば分かる仕組みになっています。
学会での災害の扱い
私はIT DARTの理事であり隊員であるのですが、本職は自然言語処理とか人工知能とかの研究をしています。最近では災害系の活動と、この本職の研究とを結びつけて学会でも災害分析の研究を発表したりしています。
正直に言うと、私は2011年の前に災害系の活動なんて全く関係していなかったのです。以前からこのような活動をされていた方には頭が下がります。一方で、震災がきっかけでこのような活動に興味を持つことはいいことなのではと思います。阪神淡路大震災はボランティア元年なんて言われていますし、その後に多くの災害関連の研究機関もできました。
私は人工知能学会の理事でもあるのですが、この全国大会でも多くの災害系の研究発表を見かけるようになってきました。でも、なんだか減ってきている気がするなあと思ったので、調べてみました。下記のデータは2010年から2015年までの全国大会で「災害」「震災」「地震」を含むタイトルの発表の件数の推移を年数ごとに表示しています。
図1:人工知能学会全国大会タイトルに含まれる災害系用語の推移
そもそも一桁なので、推移を見るほどではなかった、というのが正直なところです。2011年の開催は6月ですが、原稿の提出は311の前であるので震災の影響は受けていません。震災後の2012年に震災関連の話題は一気に発表され、その後は「災害」という少し一般化した話題に移ったのかもしれません。2013年から「異種協調型災害情報支援システム実現に向けた基盤技術の構築」というチャレンジセッションがあり、その中で発表された論文の半数近くが震災か災害を含んでいました。逆に言うと、そのセッション以外での発表はかなり少なかったのです(2015年で1件)。
では海外はどうかでしょうか。AAAIという人工知能では最高峰の一つのカンファレンスの予稿集タイトルからdisasterという文字列を含む論文を数えたところ、2011年に1件、2012、2013と0件、2014年1件、と2015年2件という結果でした。これは査読が厳しいカンファレンスなので研究者のトレンドを示しているとは限らないのですし、どちらかというとワークショップで議論すべき内容だから、というのはあるかもしれません。
あと、ワークショップでdisasterという単語を入れているものはAAAIでは存在しませんでした。村上は何回か国際ワークショップでも論文を出していますが(INTERNATIONAL WORKSHOP ON SOCIAL WEB FOR DISASTER MANAGEMENT2012など。これはWWWというWeb系の学会のワークショップです)、ワークショップで災害を扱っていてもdisasterという文字を入れてるとは限らないのですね。RiskとかRecoveryとかどちらかというとメソドロジーにフォーカスを当てたタイトルがAI系のワークショップには多いみたいです。
で、結局のところトレンドはどうなの?
ということなのですが、数としては減っている傾向などはこの少ないデータからは見いだせませんでした。しかし、残念ながら2012,3年に感じていた大きなうねりというか、注目は感じられなくなっているのは確かです。特別セッションやパネルなどもほとんど見かけなくなりました。先ほどの災害関連のチャレンジセッションも3年限定のセッションです。
これは非常に残念な傾向です。大きな災害の後には研究としてもそこに予算がつくために人が集まりますが、研究費がなくなってくると人がいなくなる。これはどうしようもありません。しかし、研究者として、自分のやっていることが世の中にどう役に立つのか、それが災害だったらどうなのか?は、特に災害大国日本を中心として考えていくべきなのではないかと思います。
お約束の蛇足
本当はこのエントリーは「近年の論文タイトルをざっとテキストマイニングしてみて傾向を見てやるよ!」という壮大なエントリーになるはずでした(構想1時間。近所を10キロほど走っている間に考えついただけです)。
しかしそれを阻んだのはデータとツールの壁でした。
まず、データ。人工知能学会は全国大会のホームページが毎年ほぼ同じ形式のため、データ抽出のコードを6年分使いまわせました。AAAIもそうです。ところが他の学会では違うところも多くありました。見た目はファンシーなサイトなんですが。あとはPDFのみで公開、というところもあります。
タイトルと著者とアブストくらいはどこかにCSVにして置いておいてほしいよ、そう切に願いました。
そして、ツール。テキストにしてしまえば、弊社のテキストマイニングツールなんてものにかければ5分後くらいにはお茶飲んでいる間にいろんなデータが取れると思います。しかし、このIT DARTは私の個人活動なのでIBMとして発表しない以上、そのツールは使えません。なので今回は自然言語処理の研究者なのに無念のgrep。grepならHTMLでよかったじゃんとか思ったんですが、もういいです。あ、ちなみに、最近のツールをいじってなかったのでkuromojiっていうjavaで使える形態素解析を使えるようにしてみました。なかなか、良い感じです。時間あればこれでやってみたかった。
もしかして気が向いたら、論文タイトルから見る研究の傾向とか分析して発表しちゃうかもです。その時は会社のツールを使おう・・・
という、最後の結論は「データ大事。使い慣れたツール大事。」ということでした。
それでは、Merry Christmas and Happy Hacking!