災害時の図書館・博物館・公文書館等の情報を集めるツールなど

6月18日に発生した大阪府北部地震の際、ウェブ上で発信されている被災地域の図書館等の情報を集めるお手伝いをする機会がありました。大した内容でもないですが、ちょっと書いておきます。

Google/Twitter検索で観測

お手伝いをする段になって最初に考えたのは、被災地域の期間のウェブサイトを一つ一つ見ていくことでした。ただ、あいにく震災の発生後にすぐ情報が出るわけではなく、また被災したであろう館の数も少なくはありません。最初の一手としてはあまり賢くないなあということで、しらみつぶし作戦は数分で却下。

次に考えたのがTwitter検索です。最近はTwitterのアカウントを以下のような目的で使用する館も増えており、きっとウェブサイトよりも早く情報が載るだろうということで、ざっくり検索をしてみました。
  • ウェブサイトのメンテナンス/障害が発生した時の情報発信用
  • ウェブサイトに詳細な情報が公開されるまでの速報を掲載
その結果、最初に見つけたのが大阪大学附属図書館さんのツイート。地震の発生が7時58分頃でしたので、1時間もたたないうちに初報を出されていたということですね。


で、そんな感じで検索結果のタイムラインを眺めていたら続いて神戸大学附属図書館さんのツイートが流れてきたので、その後はそのまま定点観測をすることにしました。
あとはちょいちょい上の検索結果を見て情報を拾っていくだけ。もちろんTwitterをやっているところ、また緊急時に情報を出しているところとなると機関数も限られますが、速報という点ではわりと効率の良い集め方だったのかな、と思っています。(観測結果はTogetterにまとめておきましたので、興味のある方はご覧ください。)
その後、あれこれやっているうちに時間が経ってきたのでそのまま同じ要領でGoogleでの定点観測もしてみました。Googleでは以下のような感じで、加えて検索ツールのところで直近1時間とか、演算子のIntitle:でページタイトル縛り、Site:で自治体(lg.jp/*osaka*など)や学術機関縛り(ac.jp)とかTwitterよりは手を加える余地がある感じです。
私の場合は広く浅くやってましたが、例えば都道府県図書館の方でしたらクエリの中に地名や自治体名を、館種に縛りがあるような立場の方ならそういった要素をクエリに入れてみたりすると良さそうですね。あるいは、災害の種類や呼称もいろいろですので、そういったことも考慮して事前にパターンを作っておくのも面白いかもです。(大学での演習や課題とかに手ごろな材料かも?いざ災害が起こっている時でなくても、untilなど更新時間で縛ることで当日に近い検索結果を確認することはできそう。)


大チェッカーとかRSS的なサービス

大チェッカーははてなさんが提供するサービスです。かつての「はてなアンテナ」とRSSリーダをくっつけたようなサービスで、登録しておいたRSSフィードやウェブサイトを巡回して更新があったら教えてくれます。

大チェッカーがリリースされた際、どんな具合か見るため公立図書館のお知らせ(ページもしくはRSS)を一通り登録していたものがあったので、情報収集をするにあたってはこちらも参照しました。震災のあった日は月曜で公立図書館の多くがお休みだったこともあり、収穫はあまりありませんでしたが、ほかの場合なら役に立つんじゃないかと思います。


Google Apps Script とかでスクレイピング

Google Apps Script(GAS) はGoogleの各種サービスを操作することができるサービスで、これを使うとGoogleの各種サービスをあれこれできます。お勉強という名のお遊びで作っていた京都の図書館botに吐き出す情報もGASで作っており、普段は日次で図書館のウェブサイトをチェックして新着情報などをTwitterに吐き出してりしてます。

震災当日は周回の頻度をあげて情報を収集しましたが、大チェッカーと同じく公共図書館がメインだったのでそれほど情報は取れなかったように記憶しています。どちらかというと、定期的に自動チェックをしてくれることで翌日以降の週や月単位で発信される後続の情報をチェックするのに役立ちました。

GASに関してはわかりやすい解説がウェブ上にいっぱい転がっているので、興味がある方は関心分野に合わせたスクリプトを用意しておいてはいかがでしょーか。

ウェブアーカイブ

情報を収集する、というのとは少し違うのですが、#saveMLAKInternet Archiveの紹介をされている方がいらっしゃったので便乗です。ウェブサイトを保存するサービスはいろいろとありますが、図書館な方からすると比較的なじみ深いのがInternet Archiveなのではないかと思います。


ツイートに記載のとおり、Internet Arechiveのウェブサイトではあらかじめ収集された情報を見るだけでなく、URLを指定してウェブサイトの情報を収集してもらうことができます。災害時に一時的に公開されていた情報も、収集されていれば後々に確認をすることができますね。以下の例はInternet Archiveに保存された震災当日の国立国会図書館のウェブサイトです。オリジナルのウェブサイトと区別ができるよう、上部にWayBack Machineの説明や、いつ保存したか版なのかなどの情報が記載されています。

2018年6月18日に保存された国立国会図書館ウェブサイト

また、Wayback Machineをより簡単に使用できるChromeの拡張機能も公式に公開されています。ブラウザで開いたページがNot foundだった場合はInternet Archiveへのリンクを表示したり、現在開いているページの保存履歴や最新の保存版などを簡単に表示てきたりとなかなか便利ですので、興味のある方はぜひ使ってみてください。

そうそう、それからウェブアーカイブといえば、以下のようなプロジェクトもありました。公式に終了したという話は聞いていないので、まだ実施されている…はず!?このプロジェクト開始時に国立国会図書館が公開したお知らせ自体がすでにNot Foundになっており、アーカイブされた情報を見るしかないという点ではまさに身を張った企画になっている感じですね!

アイデアはとても良いものなので、東日本大震災に限らず、他の災害でも実施されるような汎用的な枠組みにできるとよいなあと思います。

以上、とりあえず思いついたことなど書いてみました。他にもあれを書いたほうが、これを書いたほうが、ということあるかと思いますので、そういう方はぜひTwitterやブログなどでどんどん発信してみてください~。


コメント