TODO/備忘録用のリスト作成の勧め

マインドテックの冨です。物覚えは良い方ではないですが、貸したお金は覚えています。

日々のスケジュールは作成している人は多いかと思います。ただ、いろいろな知人に話を聞いている限りでは、具体的にやらなければならない事をリストを作って管理している人は、思ったよりは少ないかな感じました。たとえば、「今日はこれをやる」「今週中にこれを終わらせないといけない」などです。

私の場合は、「そのうち時間ができたらやりたいこと」や「店にいったら買うもの」なども含めて、まとめてツールで管理するようにしています。人によっては手帳でもポストイットでも、自分が使い易いもので良いと思いますが、とにかく書き出す事が重要と思います。

メリット1:気軽に忘れられる

いきなり何言っているんだとツッコミ入りそうですが、とにかく書き出してあれば、あとは気になったらそこをみればよいという安心感が生まれます。これをやっておかないと、常に忘れないようにと頭のなかで何度もぐるぐると思い出す必要があり、その負担は自分が思っている以上に大きいと感じました。

メリット2:作業量の可視化

今日、帰宅するまでにどの程度の作業があるのかを、ある程度見積る事が出来ます。それによって仕事のペースがコントロールできるようになります。

メリット3:達成した事項をリストから削除する事による達成感

タスクが終わった後にリストから削除する際に、ささやかながら達成感が生まれます。とにかく終わらせようというモチベーションにもつながります。


私が使っているツール

Wunderlistというツールを使っています。Microsoft社に買収されましたが、PCでもWebでもスマートフォンでも統合的に利用できるのが良いです。アプリで管理する方は、他にもToodle, Remember the milkなどの著名ツールがあります。私もいろいろと使ってみましたが、最終的にWunderlistに落ち着きました。ただUIの使い勝手もふくめ、人それぞれと思いますので、自分にとって使い易いものを選んで頂ければと思います。

Wunderlistを選んだ理由としては

  • UIがサクサク動き、あまりストレスを感じない
  • サブタスクに分割して管理できる。
  • 通知機能が使える。
  • 各タスクについてメモが追加できる。(やりかけ作業の経過をメモったり、必要な資料、場所などを記録しています)

タスクの分類の仕方

タスク分類はいろいろな基準があると思います。私の場合はプライベートも仕事も区別せずに、リストに突っ込んでいます。「とにかく、これを見ていれば良い」という状況を作りたいため、あまり複数のアプリを使い分ける事は想定していません。非常にものぐさなので、ちょっとした面倒臭さがツール利用を止めてしまう原因になるんです。

Wunderlist

 

 

 

 

 

 

 

受信箱: とにかく気になったものはここに入れておきます。タスク以外にも単なるメモでも、まずはここに入れておくものもあります。定期的に見直して、タスクについては、別のカテゴリーに振り分けていきます。メモについては別のメモ帳に移したり、内容によってしかるべき対応を取ります。

星付き、今日、週: 各タスクに付与した期限などの属性により、自動的にこのカテゴリに表示されます。

優先度:高(今日中に): 字面通りで、今日はこれが終わらないと帰らない/寝ないなどのタスクを書いていきます。

優先度:中(今週中めど): こちらも字面通り。「時間が出来たらやっといて」レベルのタスクがここに入ります。

・優先度:小 : 急がなくとも、そのうち時間がある時にやっておけばよいもののメモ。「いつか、やりたいなあ」といった希望もこちらへ。

・ペンディング: タスクのうち、何らかの理由で一時中断になっているもの。

・買い物、欲しい円盤、欲しい本、欲しいものリスト: 実際に買い物に行く際のリストとしても使います。円盤=CD, DVDは趣味のもの、本などは、いずれ本屋などに立ち寄った時に買うもののメモです。

・行きたい店: 雑誌の記事やTVなどで紹介されて、いつか行きたい店をメモっています。

こんな感じで直近でやる必要があるタスクの他にも、時間があるときに仕込んでおこうと考えている事項や買い物メモまでもWunderlistで管理しています。(以前は別途にEvernoteなどを併用していましたが、いちいち別のアプリを立ち上げるのが面倒になり、全部を1つのツールにまとめました。)

作業管理や日常の物忘れ防止対策としてお勧めですので、ぜひ自分なりの使い方を模索してみてください。

学習に便利なIBM Data Scientist Workbench

マインドテックの冨です。

先月、今月とWatson Summitやdatapalooza Tokyoに出てきて、IBM社のデータ処理系のツールなどを見てきましたが、BluemixからWatsonが手軽に利用できるようになったりと、同社のいう”Cognitive”な環境とともに、分析系のツールが展示されておりました。もっとも同社は著名な統計分析ツール”SPSS”やBIツール”Cognos”を買収したという経緯もあり、幅広い製品ポートフォリオを有しています。

そんな中で面白いと思ったのがタイトルにもつけた”Data Scientist Workbench”

https://datascientistworkbench.com/

データ分析に利用できるオープンソース系のツールを、統合的に利用できるようにしたサービスです。つらつらと触ってみていましたが、どうしてこれがナカナカ便利。特に学習用途には向いているなと思った次第です。

データ投入、データ整形、分析に必要なツールが揃っています。それぞれのツールの利用方法の詳細は、それぞれググってくださいませ。

Data Scientist Workbench

Data Scientist Workbench

 

 

 

 

 

 

 

データ投入:”MyData”

データファイルのアップローダーです。ディレクトリで階層管理する事もでき、アップロードしたデータファイルは各種分析ツールから利用することができます。また有名なiris.csvなどのデモ用データなども用意されていました。

データ整形:”Open Refine”

もともとはGoogleで開発されたGoogle Refineがベースで、2012年にオープンソース化されたデータクレンジングやデータ抽出、フォーマット変換を行うためのツールです。

Text, CSV, TSV, XML, RDF, JSONなどのデータフォーマットに対応し、データの前処理を行えます。

データ分析:R studio

分析用言語”R”を使い易くするためのIDE・統合開発環境です。コードのエディタの他、コンソールやグラフ表示なども併せて行う事が出来ます。またBig RやSparkなどとも連携しており、即時に利用可能です。

データ分析: Jupyter Notebook

“Notebook”というツールはあまり馴染みが無いかもしれませんが、いわゆる普通の作業記録のためのノートのデジタル版と言ってもいいでしょう。分析用の”Notebook”は登録したコマンドとその応答結果を記録し、再現性のある分析と文書化を行えるようにしたものです。

Jupyter Notebookは、もともとはpython用に開発されたIPythonをベースに2015にリリース。作業に関するコメントの他に、R, Python, Scalaのコードを書いて実行する事が出来ます。またグラフの描画も可能です。

また作成したノートは他の人と共有することができるため、作業記録の共有や分析方法のハンズオンなどに利用することもできそうです。

データ分析: Zeppelin Notebook

こちらもJupyter同様に、作業を記録するためのツールであり、2014年にASFインキュベーションプロダクトになりました。

Webブラウザからの操作で、Python, SQL, Scala, shellコマンドなどが利用できます。

これらのツールを利用するためには、まずは環境の準備を自前でやろうとすると、それだけで結構めんどうなのですが、サインアップすればすぐに利用できる環境というのは魅力的です。

そんなに使い込んでいないため、業務でバリバリ使えるのかは分かりませんが、少なくともお手軽にRやSpark、Pythonを利用した分析を学習するための環境としては非常に優れていると感じました。

残念なビッグデータの例

マインドテックの冨です。

ビッグデータブームも落ち着きをみせ、最近はIoTだ、FinTechだと、別のキーワードにトレンドが移っているようです。そんなこともあって、以前ほどは「データ分析、いぇい!」なシーンも減ってきているかと思いますが、特にIoTではリアルタイム計測~リアルタイム処理と分析の難易度が上がってきています。Apache Sparkだ!MQTTだ!とか、いろいろと聞こえてきます。そんな中でもデータ処理関連のご相談を時々受けるのですが、少しヒアリング&サンプルを見せて頂くと、「これはシンドイなあ・・・」と思う案件がいくつかございます。(知人では「データ分析案件で出てくるデータの9割以上はゴミだ!」と言い切る人もいます。)

そんな中で「こんなデータは嫌だ!」というケースをいくつかご紹介して、他山の石と頂ければと思います。(もちろんフィクションです。かなりを脚色していますが、似たような事が起こっています・・・)

1.そもそもデジタル化されていない

「うちには大量にデータがあるから」と出かけていくと、大量の段ボール箱に入った記録シートなどがお目見えするシーンです。思わず涙がこぼれそうです。これらを実際に分析の俎上にのせるには、データの手打ちでの移し替えが常です。最近はOCRの精度も良くなってきているので、昔と比較したら格段に作業効率は良くなっているのですが、センサーの設置地点ごとに記録表の表組が変わっていたりすると目まいがします。

当然、手打ち写経で打ち間違いなどの作業ミスも発生しますし、なかなか困難を極める現場となりますね。

2. フォーマットがバラバラ

取得した時期、拠点などで、フォーマットが異なっていたりすると、単純にデータストアにロードできず、整形など何らかのプレ処理が必要になります。こちらも最近はETLなどのローダーが普及してきていますし、インポート処理も親切な作りになっているツールも多いので、何らかのデータストアに格納されているものであれば、変換は容易になりました。単純に数字だけといったものは意外とやりやすいのですが、手入力したコメントのような文章が入ってくる平文のテキストファイルだとツライ事が多いです。’  や ” 、,  :; スペース、タブ文字など、どんな文字でも入りうると、正規表現を駆使してもデータの区切りを定義する難易度が跳ね上がります。レコード数が多いと「おお!やっと入った!」と一時的に安心しても、途中から列がずれているのを見つけて落胆すること数限りありません。

3. データの連結を考慮していない。

最近のアドテク関連は、いかにしてデモグラ情報と行動ログを関連づけるかとか、同一人物が違うデバイスを使った時の記録をどのように突合させるかなど、データ連携をさせるための工夫の歴史といっても過言ではないと思います。そんな中、結合に必要なキー情報(会員番号とか、機器の識別コードとか)が無い状態で、「年齢別とか男女別の売上比を出してみて」と言われましても、どうしようもないんですね。あとから追加できる情報ではないため、お手上げ状態になります。

似たような例としては、名寄せを全く考慮していないケースもあります。例えば「NTT東」「NTT東日本」「東日本電信電話株式会社」は一般的に同一会社とみなされます。これを何も前処理をしないで単純に集計すると、異なる3つの会社があると見なされるんですね。そうすると結果を見誤る事になります。こちらもデータ名寄せを支援するためのツールやサービスも出てきていますが、もともとはデータ取得時に考慮されているとベストです。

4. 必要なデータが取れていない

データマイニングといった探索的な処理の場合には、あまり表だった問題にならないわけですが、知りたい集計結果、KPIを出すために必要なデータが、なぜか取れていないというケースが、ちらほら見かけます。分かりやすい例えでいうと、コンビニの売り上げ分析で「年齢別」「男女別」の集計をしたいというニーズがある場合、レジに登録する際に「**歳台」「男性」といった情報も併せて登録する必要があります。または「”**ポイントカード”はお持ちですか?」といった具合に、カードの登録情報と上記のような名寄せを行って得られる場合もありますが、いずれにせよ、何らかの手段でデータ化しないと分析に使えないわけです。

この逆もしかりで、欲しい分析結果に関連性が薄いデータを大量に渡されることもあります。「とりあえず何かの役に立つかもしれないから」と言われましてもねえ。

5. 欠測が多い、精度が怪しい

データ前処理の段階で、クレンジング等を行う際に、ひとまず仮にデータを可視化して傾向を見るといった作業をすることが多いです。その際に極端に大きい/小さい値を異常値として取り除く事があります。すると、明らかに異常値だらけというデータを見つける時があります。センサーの管理が無茶苦茶だったりするわけですね。同様に欠測期間がやたらに長いものが見つかることもあります。メンテナンス期間とか停電など、ある程度の期間に固まっているとかであれば、比較的対応しやすいのですし、一時的な欠損であれば前後の値の平均を暫定的に使うなどで処理できます。ついでに言うと、データソースが複数にわたっている場合、それぞれの時計が同期しているかも重要です。

 

現場のトラブルは挙げていくとキリがないわけですが、他には保存メディアに関するトラブルは比較的多いですね。保存したCD-ROM, DVD-ROMが読めなくなったなどが典型例ですね。(「”MOドライブ”, “zipドライブ”, “DATテープ”に入っているんだよ」みたいな希少メディア関連は、最近はほとんど無くなりました 🙂 )

こんなわけで、ただただ「大量にあるデータを使って、何かうまい事を言ってみせろ。ビッグデータだろ」的なケースにおかれましては、しばしばご期待にお応えしかねるケースも出てくるわけですが、逆に言えば、これからのデータ分析プロジェクトにおいて、欲しい成果が決まっているのであれば、それに合わせる形で分析手法、取得データの設計をされるのが望ましい限りです。

アクセス解析データの取得にも節度を持ちなさいというGoogle様のポリシー変更

マインドテックの冨です。ストーキング癖はありません。

ITProさんの記事で知ったのですが、Chrome拡張のポリシー変更があったのですね。

グーグルがChrome拡張機能のデータポリシー変更、他のWeb解析サービスに打撃か

http://itpro.nikkeibp.co.jp/atcl/column/14/346926/042200513/

で、平たく言えば、ユーザーの許諾なしで行動履歴データを取得・利用するなという事でございます。至極まっとうなポリシーであると存じます。

影響を食らう先としてSimilarWebが上がっておりますが、これは競合などの他社のサイトのPVや訪問者数の推定値を提供するサービスだったりします。サイト運用担当者は競合の動向分析に利用したり、業界トレンドを知る意味でも便利なツールとして利用されておりました。

アクセス解析データ取得の仕組み

そもそもWebアクセス解析の仕組みを改めて振り返りますと、大きくWebサーバーのログを分析する手法と、JavaScript等のスクリプトを使ってブラウザーから計測情報をログ収集サーバーに飛ばすというやり方があります。有名なGoogle Analyticsは後者の良い例です。

これらのデータ取得のポリシーに関しては、各国・エリアなどでプライバシー情報の扱いに関する様々な法規制や業界団体による自主規制などがあります。厳しい所ではEUなどがありますが、内容に関してここでは深入りしません。

もっぱら技術的な観点からみますと、JavaScriptベースのデータ取得では取得できる情報に一定の制約があります。またCookieを利用する場合でもファーストパーティー/サードパーティーの違いがありますが、特に前者の場合には閲覧しているサイトのみしかデータ保存が出来ないものです。「ある人が何ページ見た」「ある人が今週、何回サイトを訪問した」などは、ユーザーごとに固有のIDを割り当てるわけですが、ファーストパーティーCookieの場合にはサイトごとに変える必要があります。つまり「サイトAを見ている人がサイトBも見ている」という事は、原則としてデータとして取得できないことを意味しています。ただし、このようなサイトを横断して行動情報を把握するのはデジタルマーケターの悲願でもあり、このために”Cookie Sync”といったIDを統合する技術や、独自の”会員番号”で認証させることによる名寄せなどが行われています。(あるECサイトで見た商品について、別のサイトを訪問した際に、その商品の広告を掲載するのは、このような仕組みを使っています。)

ややダークサイド寄りな計測

Cookieを使った計測に関しては、ユーザー側で計測されたくなければブラウザ側の機能で消去できますし、そもそもCookieの受け入れを拒否することもできます。つまりはユーザー側がコントロールできる範囲です。逆に、計測したいマーケター側のモチベーションとしては、そうはいってもユーザーの行動情報の把握はしたいですし、さらにはドメインをまたがったサイト間の遷移を知りたいわけです。ドメイン間遷移に関しては明示的に「遷移しますよ」という情報をブラウザから送らせる事で、2つのサイトのデータを突き合わせる事が出来ます。そのような手段を取らず、ブラウザ側で何らかのデータを保存できる機能や通信プロトコル上で情報を維持できる機能を、ユーザー特定の情報を保持するために利用する事があります。Flashやブラウザの一時ストレージ、HTTPの一部のヘッダーなどを利用して、Cookieや他の情報が消去されても、いずれかの手段で情報が残っていれば、それを利用してリカバリーを行うというやり方です。(“EverCookie”などの名前で発表されています。)技術的にみれば良く見つけたなあと思う所もあるのですが、利用者の意向を無視するという意味では、あまり褒められたやり方ではないです。

他社サイトデータの分析

これまで見た通りWebサイトのアクセス解析の手法はいくつかありますが、基本的にはサイトのコンテンツに計測のための仕組み(計測タグなど)を入れて計測します。逆に言えば、自分の管理下にあるこれらの仕組みを導入出来ない限り、基本的にはデータ取得は不可能でした。特に他社のサイトには入れようがありません。1つの例外は、閲覧するブラウザにデータを取得する機能を持たせる事です。Internet ExplorerやChrome, Firefoxなどの著名ブラウザにそのような機能を組み込むのは、拡張機能を利用したアプリケーションやツールバーなど形態をとります。例えばUCカードの永久不滅プラスはそのいい例でしょう。提携ECサイトへのポイント付与というメリットを提供する代わりに、ブラウザでの行動情報を取得しているものと思われます。利用規約にはこんな一文があります。

①本ソフトウェアを利用しているインターネットブラウザ上の行動履歴等のうち、下記の情報

(イ)本ソフトウェアを利用しているインターネットブラウザ上でアクセスしたすべてのウェブサイトのURL(ファイル名、リファラー(参照元URL)、検索キーワードを含みます)、アクセス日時(秒)

(ロ)本ソフトウェアを識別するための情報

この場合、「永久不滅プラス」をインストールしているブラウザで閲覧したサイトの情報は、UCカードと提携しているマーケティング会社に送られて利用される事になります。注意すべき点としては、このデータは計測対象サイトを限定していない事です。すなわち統計的に有効となる一定数以上のユーザーからのデータが取得できれば、おおむね大手のサイトであればどんなサイトであっても、UCカードはそれらのアクセス動向を推定出来る事になります。

こんな感じでブラウザに計測機能を紛れ込ませれば、デジタルマーケターにとっては非常に有益なデータが取得出来ます。これが「永久不滅プラス」のように明示的にポリシーを提示しているのであれば良いですが、ユーザーに了解を取らずにこれらの計測をしているケースが散見されます。上記のITProの記事で名指しされたSimilarWebに関してもChromeの拡張機能を利用して、バートナーに作成させたアプリを利用して無断でデータを取得していたのではないでしょうか。今回のGoogleのポリシー変更は、このようなデータ取得を禁止するという意味だと思います。放っておけば「ストア」の運用者としての責任を取らされる法的リスクを鑑みたものではないかと考えています。

知らぬ間にプライバシー情報へのアクセスを許している場合がある

なんだかんだで、この手の話題は以前からのいたちごっこでもありまして、ないがしろにされてきては規制が入るところでもあります。(これらの自分が意図しない計測を行われていないか個人レベルでチェックするのであれば、Wiresharkなどのパケットスニファーと呼ばれるツールを使って、意図していないサイトに通信が発生していないかを確認することができます。ただしネットワークなどに関する知識が必要。)特にPCブラウザーからスマートフォンに利用者が移行するにしたがって、この傾向はひどくなっているんじゃないかと思います。アプリケーションをインストールする際には、それらがどのような権限を持つかをチェックする事ができますが、例えば某Androidで動く、おばけから逃げつつ道ばたのエサを食べまくるゲームでは、なぜか「カメラ」や「保存した写真」へのアクセスを要求しているのを見つけてビックリしました。(ゲームをする上では絶対に不要な機能のはず)

他の例としてはSNSでの占いアプリなどで、自分の友人関係のデータを引き渡すように求めてくるものもあります。気にせずOKをしている人も多いかと思いますが、サービス提供者にそれらのデータを引き渡している事と同義です。ユーザー側の観点で自営するとすれば、ブラウザであれスマートフォンであれ、提供者が怪しいものは利用しない。利用規約をよく読む。アプリの場合は許諾範囲もチェックするといったところではないでしょうか。

新しいOneDriveクライアントに仕事用のアカウントを追加する方法

マインドテックの冨です。報道を見ていると九州の地震の話題で持ち切りです。いまだに余震も続いているようですが、早く落ち着いてもらいたいものですね。

前の記事で、以前からOffice365 ProPlusを利用しているにも関わらず、OneDrive for Businessが利用できなかった私のようなかわいそうな人のために、設定上のチェック項目を指摘しました。(そもそも当時はSkyDriveという名前だった)

その際にMicrosoftのサポートの方から教わった新しいOneDriveクライアントのネタです。利用しているバージョンは2015(ビルド17.3.6381.0405)です。OSは今をときめくWin10(64bit)です。

OneDriveのバージョン

“OneDrive for Business”を利用できなかったがOneDriveは使いたかったので、hotmail.comなどで登録した個人用のアカウントで無料の枠内でOfficeに登録していました。

個人用のOneDrive

これにもう一つ法人用の”for Business”のアカウントを登録することが出来ます。

OneDriveのアイコンを右クリック>設定>アカウント

で上の図のような設定画面が表示されます。ここで「アカウントを追加」欄の「仕事用アカウントを追加(B)」をクリック。続く画面でOffice365で利用しているアカウントで認証してください。

 

すると、次のように個人用と法人用の2つのアイコンが表示されます。青い方が”OneDrive for Business”で登録されているものですね。

OneDriveのアイコン

こちらも同様にアカウントの画面を出すと次の通り

法人用OneDrive

上部のアカウント欄の名義が変わっている事にご注意。こんな感じで2つの個人用と法人用のアカウントを管理できるようになります。ローカルでは2つの同期フォルダは別にすることが出来て、これを変更する場合にはいったんリンク解除する必要があるとの事です。

マシンによってはOneDrive中の一部のフォルダだけ同期がとれていればよいケースもありますが、この場合には「フォルダーの選択」ボタンをクリックして表示された画面にて、同期対象のフォルダーにスイッチを入れていきます。

最近Dropboxでもクライアントの改良があり、共同作業がやりやすくなりましたが、OneDriveも徐々に使い易くなればいいなと思います。

Office365 ProPlusを使っていて、OneDrive for Businessが使えない場合のチェックポイント

マインドテックの冨です。MacよりはWindows派です。

2014年の秋にMicrosoftが太っ腹の発表をされたのを覚えておいででしょうか。OneDriveの容量無制限ですよ。わたしは心ときめいておりました。

Office 365 ProPlus ユーザーへの OneDrive for Business の提供に関する詳細を発表

https://blogs.technet.microsoft.com/microsoft_office_/2014/11/20/announcing-details-onedrive-business-availability-office-365-proplus-customers/

で、ProPlusユーザーには段階的にOneDriveを開放するという事で、待ち焦がれていたのですが、なかなかその時が来なかったのですよ。業を煮やしてサポセンにコールしたら「あなたの使っているProPlusのライセンスはOneDriveの利用対象外かもしれない。でもUSの発表以上の情報はないよん。」という事で、なんだかよくわからないまま月日は流れていきました。

そうこうしているうちにOneDriveの容量無制限も見直しが入り、Office365のライセンス体系も変わり、なんだかモヤモヤしながらも、私のOffice365の画面にOneDriveアイコンが来ることはなかったのです。ていうか、そもそも”OneDrive for Business”の存在自体を忘れていました。

でですね、ひょんなことから製品ページをみたんですよ。いつの間にか、しっかり提供サービスに入っているじゃないのさと。

Office 365 ProPlus

https://products.office.com/ja-jp/business/office-365-proplus-business-software

私の中の何かがはじけて、MSのサポセンにコール。有効にする手順を教わりました。

  1. Office365の管理画面を開く
  2. ユーザー>アクティブなユーザー>対象ユーザーの右のスイッチON
  3. 画面右にユーザー情報の枠が表示される。「割り当て済みのライセンス」の下「編集」をクリック
  4. “Office 365 ProPlus”の右側の下向き矢印をクリック

ライセンスの割り当て

 

すると、以下のように展開されます。この”OneDrive for Business”のスイッチが入っていなければ入れる!

ライセンスの割り当て

あとはサーバー側で準備が整えば(私の場合に数分かかった)、指定したアカウントのOffice365のページでOneDriveのアイコンが表示されました。(もう・・・最初からスイッチONにしてくれればいいのに・・・)

あと、サポートの方から教わったのは、OneDrive for Business 同期クライアントの新しい版がリリースされたとの事です。個人用のOneDriveのアカウントに加えて、OneDrive for Business用のアカウントの追加もできました。詳細は下記のページをご覧ください。

https://support.office.com/ja-jp/article/7af500d9-a18e-4abb-8450-b94f4e52c1a0

肝心の容量ですが、先にマイクロソフト社から発表が合った通りで(無制限ではなく)1TBでした。

絶望の炎上プロジェクトを救い出す考え方

マインドテックの冨です。いやあ、お前が言うなというタイトルですけどね(汗

最近も某炎上プロジェクトの現場にヘルプに出かけ、久々に業火の黒煙の香りに懐かしさを覚えました。
自身も散々プロジェクトを燃え盛る炎の中に叩き込んでは屍の山を築き上げた経験が多数ありますので、名PMからはほど遠く、あまり人の事を言えた立場でもないのですが、逆に経験者ゆえに学んだ事も多いなあと感じています。

炎上する過程に関しては、PMの経験不足によるものや、リソース等の内的・外的環境による制約、顧客との関係性など多種多様の要因があるわけで、防止・対策については多くの要因を振り返る必要があります。

ただ、現実に燃え盛っているプロジェクトの火消しを行う際に、鎮火のためには2つの事を決めるのが必須と考えます。
(1) プロジェクトのゴールの設定
(2) 現実に達成可能な工程への見直し

「いや、それ当たり前でしょ」という声が聞こえてきそうですが、燃えているプロジェクトでは徹底出来ていないのです。直近でヘルプに入ったところもゴール設定が曖昧で作業量が見積もれませんでしたし、完成までにあと何が必要というのが見えないので、ひたすら目の前の作業を深夜残業・徹夜・休日出勤でつぶしていたわけです。当然、担当者も疲弊して離脱者も出ていたようでした。

(1) プロジェクトのゴールの設定

これは最重要です。何をもって完成品とし、作らなければいけない制作物、準備をしなければいけない事、完了させておかなければならない作業など、プロジェクトのゴールを決める必要があります。これが決まらないと、どんな作業が残っていて、そのボリュームはどの程度という評価が出来ないのです。プロジェクトを遂行するメンバーにしても、作業の達成基準が明確でないと、ひたすらゴールの見えないマラソンを走り続けるようなもので、心身ともに大きなストレスを受けます。最悪の場合にはプロジェクトからの離脱も発生して状況が悪化します。

不幸なことに、お客さん側からのリクエスト(追加のリクエスト、認識してなかった要件の顕在化など)により、ゴールが動くことがままあります。それでも当初のゴールが決まっていないと、「ゴールが動いた/動かした」ことが共通認識として持てなくなります。つまり、締め切り日の変更や追加費用の請求などを行う根拠が無くなる事を意味しますので、PMとしてはクリティカルな問題です。

(2) 現実に達成可能な工程への見直し

これも、締め切りのスケジュールやマイルストーンから逆算して、この時期にはここまで出来ていなければならないという「べき」論でプロジェクト計画がなされる場合があります。プロジェクト当初の計画立案の段階では良いのですが、炎上している状況では見直す必要があります。つまり、プロジェクトで確保している人的・物的リソースやスキルレベル、健康状態、その他もろもろの事情を考慮して、(a)残りの作業項目の一覧 (b) 担当者の割り当て (c) スケジュールの調整 を行います。

(a)は一覧の作業が全て遂行されたら(1)のゴールが達成できるように、すべて網羅され、かつ具体的なものでなければなりません。当然、各作業に要するスケジュールも見積れる必要があります。(そうでないとスケジュールが組めません)

(b) は一覧化された各作業を遂行するために必要なスキルを持つ人員を割り当てます。スキル的にチャレンジ要素を含むものには極力割り当てない方が良いです。人が足りない場合も出てくると思いますが、その際には(a)に戻って作業を減らす(それに伴い、最終ゴールを調整する。品質を落とすなどの調整も必要)か、新たに調達してくる手はずを整える事になります。ただし単純作業を除いて新規のメンバー調達は避けるべきでしょう。新メンバーへの作業内容の説明の教育や作業管理のコストは、特に要する時間を考えると大きいとみるべきです。

(c) は(a)の各作業を締め切り日に向かって調整していくわけですが、この時期にはこれが終わっていなければならないといった理想論からスケジュールを決めてはいけません。現実的に達成できる基準で設定する必要があります。(また、可能であればトラブル発生時のリスクヘッジの日程も含めるべきです)

スケジュール調整を行っていくと、どうしても締め切りに間に合いそうに無いという局面が現れます。この場合には締め切り日の調整などを含めた交渉に入る必要が出てきます。最悪の場合には訴訟をちらつかされる場合もありますが、(a)~(c)の調整後ではリソースの都合などで「出来ないものは出来ない」ので「べき」論でいうスケジュール要求は飲まずに、現実的に達成できるレベルを基にして、ビジネス的な落としどころを探るべきです。炎上プロジェクトでは現場PMの決裁権を越える調整が必要な場合もありますので、鎮火のために速やかに上席者の同席を求めるなどの対応が必要です。

現実的に達成できることを基準にプロジェクトを見直すこと

炎上プロジェクトと一言で言っても、いろいろな背景・局面があるので、対応の方針については一概に言い切れないのですが、少なくとも現場の作業遂行担当者にとっては、自分のやるべき作業内容・成果物が定義されていること。それが自分が遂行できそうだと確信できること。指定の期限で作業がこなせそうなこと。これらが揃って心的な負担が軽くなり、モチベーションも生まれます。引き続きハードワークが必要だとしてもゴールが見える事でずいぶんと違ってきます。

一番のプレッシャーは、お客さんとのスケジュールを含めた事前合意を変更しなければいけない事だと思います。契約や「すでにリリース日程を告知して、メディアにも発表したし、予約も入ってきている」などの厳しい外部要因がある場合もあります。ただ、現実問題として出来なそうな事については、そのままにするとお客様も不幸になるので、一緒にプロジェクトの着地点や、残りの日程のプロジェクトの運営を探る動きに入るべきです。「それはお宅の責任でしょ。ちゃんと期限内にやれるやり方を考えて持ってきなさい」とお客様に詰められる場合も多いわけですが、それが出来ない見込みなので相談に行くわけでして、事前にいろいろと着地点のオプションや話の進め方を考えて臨んでください。

 

とか書いていて、いろいろな悪い思い出が頭をよぎりました・・・(汗

基幹系のクラウド利用は、まだまだ道のりが遠いと感じたこの頃

マインドテックの冨です。

Webを使ったSaas/ASPの開発運営やWebマーケティング関連に携わってきたことから、今まで、データ分析やWeb系の開発者との接点が多かったのですが、ここ最近になっていわゆる基幹系やインフラ系の方々とお話することが増えました。そして驚いた事が、結構な割合で”AWS”をご存じないという事。

AWS Summitでの展示や各種の勉強会などでも、データのクラウド連携とかオンプレ&クラウド連携など、基盤をどのようにクラウド化、またはクラウドと連携していくかのソリューションの発表を多く目にしていたので、それなりには進んでいるんだろうなあという印象を持っていたんです。

ところが、いろいろとお話を伺ってみると”AWSを触ったことが無い”ではなくて”AWSって何?”ということなんですね。”ECサイトのAmazon社が提供しているクラウドサービス”なんですよと説明をすると、ああ、なるほどねと納得いただけるんですが、AzureやSoftlayerなどは言わんやおやだったりします。

“クラウド”という言葉にはさすがに反応されるんですが、その具体的なプレイヤーやサービスに関してはご存じなく、”レンタルサーバーみたいなもんでしょ”という理解に留まっている感じでした。

つまり、開発・運用を行うようなIT企業であっても、「クラウドはうちの仕事じゃない」と認識されている会社がまだまだ多数あり、具体的なサービス内容も知られていないという事なんですね。これは自分にも意外でした。同様に著名なOSSの製品に関して話を振ってみてもご存じないという反応でして、バックエンド系は昔ながらのやり方がまだまだ根強いのだと感じました。

もちろん、これが単純に悪いという話でもないですし、さらには早々にASP/SaaSの導入、開発、運用を手掛けられている会社も多いのは知っていますが、ユーザー企業側も開発・運用側も、もっと効率的な開発・運用手法が全然取り入れられていないんじゃないかと危惧しました。レガシーをレガシーのまま、安定して運用し続け、リスク要因を極力排除するという方向感が、新しいもの・ことを選択肢から外すという行動につながっているのかなと思いました。
往々にしてレガシー系はパンドラの箱であったりするので、移行は容易でないのは理解できるのですが、モダンな手法や考え方を取り入れる事で業務改善につながる現場も多いと思います。

怒涛の攻めを見せるMicrosoft社のデータ分析ツール

マインドテックの冨です。

3月末のカンファレンス”Build 2016″で、Ubuntu Linuxの環境をWindowsネイティブで稼働させたり、従来のPowerShellに加えてLinuxの事実上の標準のシェルbashを利用できるようにするなどの発表を行いました。今年の夏の予定とのことですが、これはすごい事ですね。まあMac使いの人には今までできているけど何か?とか言われそうですけど。

それにしても昨年から今年にかけてのMicrosoftの攻勢は圧巻だなあと思う次第なのです。OS+Office屋さんから、改めてクラウドやデータ分析などのビジネスのメインストリームに食い込んできています。クラウドでは先行するAmazonに一日の長がありますが、それでもAzureの充実ぶりを見るとよくぞここまでという感があります。

以前、Excelを持っているMicrosoftが本気でデータ分析の領域に突っ込んで来たら、分析領域のツール開発ベンチャーが軒並み吹き飛ばされるんじゃないかと思っていましたが、なんとなくそんな雰囲気も改めて感じています。まあ、TableauやQlikViewなどが持っているシェアをひっくり返すには相当時間がかかると思いますけど。

そんなわけで、Microsoft社が提供しているデータ分析関連の主なツールをまとめてみました。(「アレが入ってない」とか見落としがあるかと思いますがご容赦を)

(1) Excel

Wordとならび、ほぼすべてのPCにインストールされているのではというくらいに普及している表計算ソフト。単純な集計の他にもソルバー機能やピボットテーブルも使える。予測もできる万能ツール。UI面でちょっとしんどい事を除けば、機能的にはたいていのことは対応できる。少なくとも中小企業のレベルではデータ分析の専用ツールを買う前に、Excelの機能をしゃぶりつくす位でちょうどよいくらい。(アルゴリズム的にいろいろある話も聞きますが、そういう業務の方は専用ツールを買うべき)

(2) Power Pivotアドイン for Excel

https://support.office.com/ja-jp/article/PowerPivot-%E3%82%A2%E3%83%89%E3%82%A4%E3%83%B3-a9c2c6e2-cc49-4976-a7d7-40896795d045
Excel2010から利用できるようになったピボットのプラグイン。ノーマルのExcelを越えて大量データの集計処理が可能になる。これもあまり使っている人をみかけないが勿体ない。(ついでにPowerViewも)一般的なビジネスデータの分析であれば、ここまでで大抵は何とかなる。

(3) PowerBI

https://powerbi.microsoft.com/ja-jp/
ビジュアライゼーションやレポートのためのダッシュボードのサービスであるが、驚くことに無料!これもあまり利用されていませんが、もっと知られて良いサービスだと思いますよ。

(4) Microsoft R Server

https://www.microsoft.com/en-us/server-cloud/products/r-server/
2015年4月に買収したRevolution Analyticsが提供していたディストリビューション。R言語はデータ分析界隈では有名ですが、MS社が買収した時は驚きをもって迎えられました。今後、いろいろな製品・サービスと連携していくと思われますので非常に楽しみです。

(5) Microsoft Azure HDInsight

https://azure.microsoft.com/ja-jp/services/hdinsight/
HadoopファミリーのSaaSサービス(素のHadoopの他にも、Pig/Hive, HBase, Storm, Sparkなど)

(6) Microsoft Azure Machine Learning

https://azure.microsoft.com/ja-jp/services/machine-learning/
cortana Intelligence suiteとして提供されている機械学習のプラットフォーム

こうしてみるとデスクトップからクラウドまで、そつなく網をかけにきています。しかも独自サービスのみならず、RやHadoopファミリーなどの業界標準までもカバーしてきており、ユーザー/開発者側への歩み寄りも見て取れます。

AI/人工知能の領域ではWatsonを有するIBM社の存在感も大きいですが、AWS, GCPとならんでのクラウド業者としての位置づけや、Officeツール領域では依然として大きなシェアを持っていることから、2016年の動向も興味深いです。

WinXPなどの古いPCを使い続けるリスク

マインドテックの冨です。東京では桜が一気に開花したなと思ったら雨。花散らしの雨にならないといいのですが。

最近、お客さんから開発やIT設備導入に関するの相談を受ける際に、すごく気になるのですが、現場で古いWinXP機やWindowsサーバーが現役で動いているんですね。それで独自開発した業務アプリケーションが保守されなくなってどうしようかとか、データ処理ソフトが最新フォーマット対応のアップデートができなくなって困ったとか。

この場合のリスクは大きく2つあります。

  1. 古いOSのセキュリティーアップデートが受けられない
  2. ハードウェア(特にハードディスク)の故障によるデータ損失
セキュリティーアップデートが受けられない

1については言うまでもないでしょう。ネットにもつながず、外部とのファイルの受け渡しも行わない(SDカードやUSBメモリなどを経由してもダメですよ!)完全なクローズド環境であれば情報漏えいのリスクは無いですが、大抵の場合はそんなこともないですし、特にサーバー機の場合には何らかの形でデータの送受信が行われるのが前提です。

「インターネットにつなげていないから大丈夫」といってもLANに接続されていれば、LAN内の他のPCがウィルス感染すると、LAN経由で感染することがあります。サポート切れOSに対してはセキュリティーソフトもサポートを停止する可能性が高いので、守る手段がなくなるのですよね。

ハードウェアがヘタる

2も発生した場合のダメージは大きいです。「ある日突然PCが起動しなくなった」「作業中にPCが突然落ちるようになった」などが典型です。特にHDDは稼働部品が多い消耗品です。データのバックアップさえ取れていれば、最悪の場合でもXP機であれば中古で調達できますが、それもあと数年の事でしょう。延命できるうちにリプレイスを行うべきです。

なんでリプレイス出来ないの?

お話をうかがっていると、ほぼ全ての場合で「予算」理由なんですね。無い袖は振れないと申しますか、どうしても現状で使えるものであれば、「入れ替えなくてもいいじゃん」と優先順位を落とす傾向があります。

中小ですとカツカツの資金で回している所も多いので、さすがに借金してでもリプレイスしろとも言えないわけですが、いろいろなリスクとのバランスをとる事となります。「年賀状の住所を保管している」程度であればダメージ少ないですが、日々の出納、受発注などを行っているような「PCが止まれば業務も止まる」レベルのものであれば、借金してでも入れ替えろと言いたい局面もあるんですけどね。


それでも使うならリスクヘッジを

継続利用を勧めるわけではありませんが、それでも使い続けるというのなら、最悪の事態に備えてリスクヘッジをする必要があります。(「電源が入らない」「起動しても固まる」と電話いただいても打てる手は限られるんですよ)

①なにはともあれデータのバックアップ

これは絶対!代替機が調達できれば復旧できます。もちろんアプリケーションのメディアやシリアル番号なども揃っていることを確認してくださいね。ここに至って同型機が調達できる見込みは薄いと思われますので、システム全体のバックアップをとってもリストアできるハードが無い可能性もありますが、最低限、アプリが出力したデータファイルや作成したドキュメントファイルなど、CD-R、USBメモリなど何でもいいから保存!保存!

②できれば予備機の調達

アプリが新しいOSに対応できない場合、XPなどが動く環境を用意しておく必要があります。最近はアキバの中古屋で1~2万といった機体も見かけますので、調達しておけば吉です。

③オフラインでの利用

インターネットにつなげるとかはもってのほか。出来ればLANとも切り離すべきです。(その昔、LAN経由でウィルスのピンポン感染があって大変だったんですよ・・・)

④データ復旧屋の連絡先をおさえる

最悪の中の最悪の場合、ハードディスクからのデータ救出を行わないといけない局面も出てくる可能性があります。そのような場合の連絡先やサービス内容、費用などを確認しておいてください。(ただ、このお金が出せるならPC買っとけよと思うのですが。)

いろいろと事前の用意が出来ていて分かる人がいるなら半日もあれば、業務復旧は出来ると思いますが、そうでなければダウン時の復旧に要する人件費やら業務が止まる日数やら、もろもろリスクと隣り合わせになりますので、その辺も考慮の上、予算の立案やリスクヘッジを行っていただければ幸いです。

もちろん、新しいPC利用の場合でもバックアップは必要ですよ。