311の時に何が作られたのかをデータの観点から考える
この記事は、IT DARTアドベントカレンダー 2015 の19日目です。
IT DARTの村上です。好きな言語はJavaです。Pythonも趣味とか実験とかプロトタイプレベルで書きます。昔はPerl書きでしたが、先輩にバカにされて以来書くのをやめました。先日後輩に「Javaってレガシー言語ですよねプププ」と言われましたが書くのをやめるには至っていません。javascriptとはお友達になれないようです。
さて、今回は「災害とデータとツール」についてフォーカスを当ててみようと思います。311の際にいろんなツールが立ち上がり、役に立ったり立たなかったりしました。今回は「その時、誰かの役に立ちたい」という明確なモチベーションを持って立ち上げたツールについて整理してみたいと思います。
311の時にどんなツールが作られたのか
大きく分けて4つのグループに分けられます。今回はあえて、具体的なツールの名前は記載していません。
情報入力・収集
人手によって画像などから文字・数値データとして入力してもらうもの。避難所に貼られた避難者の名前を記載した紙を撮影したデータから、文字入力を行って検索可能なデータに変換したり、政府や企業から発表された画像PDFのデータ化などを行うものもありました。
情報抽出
テキストなどの非構造データから、情報を抽出し集計したり可視化したりして判りやすくしたもの。Twitterから「助けて」という表現をキーに救助を求めている人の場所を特定したり、「たりない」という表現から不足している物品を見つけるなどが試みられました。
可視化
数値などのそのままでは判りにくいデータを可視化したもの。自動車の通行履歴から通行可能な道路を表示したり、炊き出しの場所や営業しているガソリンスタンドなどといった情報を地図上にマップするなど空間情報としての可視化が多くありました。また電気の現在の使用量などの可視化などもありました。
予測
現状のデータを可視化するだけではなく、そこから未来に何が起こるかを予測するもの。例えば現時点での放射線量と風向きを同時に可視化することで、今後の放射線量を予測できるものなどがありました。
この分類の幾つかにまたがっているものも多くあります。例えばデータを収集し、それを可視化する、といったものです。この4つのツールに共通して言えるのは「データの重要さ」ではないでしょうか。抽出・可視化・予測とそれぞれの結果は様々なものに役立てることができます。さらに、そのツール単体ではなく、連携してさらに意味のあるものになる場合もあります。あるツールのアウトプットが別のツールのインプットにもなりえるということです。しかし、そのデータが機械的に理解できるものでないものの場合、それを収集し、データ化するというツールが、まず根底にあるのです。
データはツールの基本
そもそも、何か役に立つツールが作りたいと思った時に、そのためのデータが綺麗に用意されていることはほとんどありません。発災時などの時のツールの提案は、主に先に目的がある「ニーズベース」がほとんどです(データやAPIが用意されており、それを利用した「シーズベース」のツール提案もあります。データやテーマが用意されたハッカソンなどはそうですね)。
では何か目的を持ったツールを考えついた時、そのデータをどこから手に入れるか。運良く、自分の手元にデータがある・・・なんてことはほぼありえませんので(^^;; 手に入れる必要がありますね。また、災害時に役に立つツールのほとんどはその時々の「新鮮なデータ」が重要になりますから、データのヴァージョニングなども重要になってきます。さらに、そのデータの「信頼性」も重要になってきます。デマを流すツールを作りたくはないですよね。
公開されているデータを使おう
まずは、国や企業などによって公開されている情報を使うのが良いでしょう。しかし、311の時に「画像PDFの壁」が技術者の前に立ちはだかりました。実は311の前からオープンガバメント/オープンデータの流れを汲んで様々な情報が公開されつつあり、災害をきっかけにして多くのデータも公開されたのですが、これがいわゆるお役所の「紙データ」でした。オープンデータを提唱したTim Berners-Leeによるオープンデータのレベルでいうと1つ星でしかないものです(オープンデータの5つのレベルについてはこちらが参考になります)。
しかし、情報がないよりはある方がいいに決まっています。震災復興の時はこのようなデータをクラウドソーシングで画像からデータに変換したり、自動で画像から数値に落としたりといったことが試みられ、多くのツールとして公開れていました。このような数値化されたデータをさらに公開するという流れがあると良いのですが、それを個人が公開することによってデータの信頼性をどう担保するのか、といった問題も出てきます。
さすがに311から5年が経とうとしている今日では、多くのデータがAPIで取得できるようにはなってきています。以前はSOAPとかいうプロトコルもありましたが(遠い目)、今ではRESTでの取得が主になりますよね。例えば、Yahoo!の電力使用状況APIでは各電力会社から提供された電力の最大供給量と使用量を取得することができます。例えば「http://setsuden.yahooapis.jp/v1/Setsuden/latestPowerUsage?appid=<Yahoo!に登録したアプリケーションID> &area=<取得したいエリア>」というリクエストを投げることで下記のような情報が帰ってきます。
もちろん、jsonでの取得も可能です。これだとぐっと使い勝手がよくなります。どんなデータがあるのかを普段から調べておくのも、良いかもしれません。
例えば、政府などが公開しているオープンデータのカタログはこちらにあります。また災害関連であれば、防災科学研究所が公開しているデータもあります。総務省が出している防災・災害情報の公開・二次利用促進のためのガイドも参考になります。普段から、どのようなデータが公開されているかチェックし、利用方法などを考えておくことが必要ですね。
「データ利用訓練」とハッカソン
データの利用を普段から考えておく、と言ってもなかなか継続的にチェックしたり、思考実験をしたりというのは難しいものです。先日行われた「第3回IT×災害会議」の午後のセッションでは、ハッカソンを「データ利用訓練」として利用すれば良いのではというアイデアも出ました。
災害に関連したハッカソンは多く行われています。世界銀行主催のCode for Resilieneの日本大会として行われたRace for Resiliencecなどもありましたし、Code for Japan Summitとの併催イベントとしてHack for Japanが主催した減災ハッカソンなどもあります。また、企業が構築環境やデータAPIなどを提供して行うものも多くあります(東北docomo 減災ハッカソン、IBM Bluemix ハッカソン「災害復旧や街に役立つアプリを作ろう」など)。お恥ずかしながら、村上はこのうちの一つのハッカソンに出て、自分がいかに普段慣れていないツールをその場で使いこなせないかというのを痛感したことがあります。何事も「訓練」が必要ということはデータの利用に関しても言えることだと思います。
最後に
今回は311の時のツールから、データ利用に関して思考、そして利用方法の訓練が必要ということをお話ししました。これを読んで、ハッカソンなんて待っていられない!常日頃から災害にITを役に立てることを考えたい!という考えを持ったそこのあなた、ぜひ私と一緒に考えて、手を動かしましょう。IT DARTでは「情報発信・分析ワーキンググループ」というのを立ち上げました。ぜひ、IT DARTに参加して、この活動を一緒にやっていきましょう!こちらから応募どうぞよろしくお願い位します。