データの利活用や人工知能の開発、運用あたって、どのような手順で何をやればよいのかということに悩んでしまうことは多いと思います。

データ分析やデータ関連の開発といったことをソフトウェアベンダーやシステムインテグレーターと外部企業にまる投げするのではなく、コアとなる部分はしっかりと自社で主導権をもって実施していくことが成功の近道です。

今回は、そのためのフレームワークとして「ABCDEフレームワーク」というものをご紹介致します。

「ABCEDフレームワーク」とは

「ABCDEフレームワーク」とは、以下の単語の頭文字を取ったものです。

ABCDEフレームワーク

・A = Aim(目的)
・B = Brain(手法の選定)
・C = Coding/Construction(プログラミング・実装)
・D = Data(データ選定・整備)
・E = Execution(実行)

まずは、データ分析やAIで何を解決したいか、達成したいのか、ということを決めます。その次に分析手法やアルゴリズムといった、どのように目的に対してアプローチをしていくかを決めます。さらにプログラミングやサーバーといったシステム的な要件を決め、実際に度のデータを使用するかを決めていきます。最後はこのプロセスを実行に移していく際の組織体制やオペレーションといったことを決めていきます。

以下では「ABCDEフレームワーク」の1つ1つの要素を簡単にご紹介致します。

Aim(目的)

データサイエンスやAI関連の分野ではどうしても「技術面」に目がいきがちですが、なにより大切なことはこの「A (Aim:目的)」をしっかりと考えることです。
この「A」がしっかりと定まっていない限り、次のB/C/D/Eというステップはうまくいきません。

よくありがちな「データはあるから何かできないか?」というのはデータ利活用において非常に失敗する可能性が高いです。

その失敗のリスクを最小限にして、データから最大限の価値を引き出すために、この「A」のフェーズは最も大切と言ってよいです。

この「A」をしっかりと定めるためには、「SMART(スマート)」に目標設定をしていくと具体的になります。

「SMART」な目標設定

「SMART(スマート)」 というのは、

・Specific(具体的に)
・Measurable(測定可能な)
・Achievable(達成可能な)
・Related(意味のある)
・Time-bound(期限付きの)


という5つのワードの頭文字を取ったものです。

この 「SMART(スマート)」は、データ利活用の場面ではなく様々なビジネスシーンで活用することができますので、おススメです。

Brain(手法の選定)

上記の「A」で「何を達成するために何をすればよいのか」、ということが決まったら、実際にそれを達成するための手段を考えていきます。

データ利活用でいうと、データ分析の手法やAIのアルゴリズムの選定といったことになります。

このフェーズではアナリストやデータサイエンティストといったデータの扱いに強い人材と共に選定していくことになりますが、「A」でのビジネス要件がしっかりと決まっていれば、選択肢はある程度限られてきます。

一般的なデータ分析であれば、
・「集計レベルでよいのか」あるいは「統計的な解析も必要になるのか」

データサイエンスであれば、
・可視化をしたいのか(「教師なし」モデル)
・予測や分類をしたいのか(「教師あり」モデル)

といった具合で考えていきます。

データサイエンス分野の分析になってくると、一般の社員がその意味を理解したり結果を解釈することが難しくなりますので、アナリストやデータサイエンティストといった専門家に、
・なぜその手法(アルゴリズム)なのか
・その手法(アルゴリズム) のメリットやデメリットはあるのか

といったことを確認しながら進めていくとよいでしょう。

ここできちんと説明ができるアナリストやデータサイエンティストは信頼に足りると考えてよいと思います。

ただし、後々のプログラミング段階やデータの選定の段階になって「この分析やアルゴリズムには無理がある」ということになる場合もありますので、あまり1つの手段にこだわりすぎず、いくつかの案を出しておくと対応しやすくなります。

Coding/Construction(プログラミング・実装)

この段階では、データ分析やAIアルゴリズムを実現するためにどのようなプログラミング言語やITシステムを利用するかということを考えていきます。

データの量や種類が少ない場合は、ExcelやAccessといったなじみのあるOfficeソフトでも分析は可能ですが、ビッグデータの処理が必要になる場合はデータの加工をSQLやPythonといったプログラミングで実施し、クラウドサーバーと連携するといった方法を取ることが多くなっています。

ここでは、あまり「自前主義」にこだわらないことも大切です。自社の環境でデータ処理や加工といったことを賄おうとすると、サーバー管理や大規模な並列演算などに多くの工数と費用がかかり、自社のエンジニアに非常に負荷がかかります。

近年ではクラウドサービスも非常に安価になってきていますので、AmazonやGoogle、Microsoftといった企業が提供しているサービスを中心に検討してみるとよいでしょう。

Data(データ選定・整備)

「A」で決めた目標達成や課題解決に対して実際にどのようなデータを使用すればよいのか、というのがこの「D:Data(データ選定・整備)」のフェーズです。

目標達成や課題解決に対して最も理にかなったデータというのは、なかなか手に入れることが難しい場合がありますが、もし手元にデータがあった場合でも、すぐにそのデータを利用することができず、加工したり別の情報を紐づけたりしなければならないといった作業が必要になる場合が非常に多いです。

「B (Brain:手法の選定)」と、この「D」は表裏一体の関係と言えます。

分析手法やアルゴリズムがいくら優れたものであっても、データ自体に抜けや漏れがたくさんあるような場合では良い結果は望めませんし、逆に完璧なデータであったとしても選定した手段が課題解決に沿ったものでなければ、データから価値を引き出すことができません。

この「D」のフェーズでのポイントは、
・「A」に対してどのような「D」が必要か

ということを逆算して考えるということです。

「今あるデータを使う」ということも悪いことではありませんが、その手持ちのデータでビジネス上の目標達成や課題解決ができるとは限りません。

ゴールから逆算して考えることによって、
・社内のデータを加工すれば実現できるのか
・社外からデータを調達する必要があるのか

といった議論ができるようになります。

データ利活用というのは成果を出すまでに時間がかかるものです。
そこに至るまでの工数や作業といったものはすべて「コスト」になってしまいます。

「D」フェーズでは、
・データの収集方法
・データの管理・保存方法
・外れ値、欠損値の定義と扱い方
・データクリーニングやマート作成

などの業務でかなり多くの工数を割くことになります。
「A」の目的がないままであったり何度もブレてしまうと、「D」の工数も飛躍的に増大してしまうことになります。

Execution(実行)

「E」のフェーズは、実際に行ったデータ分析の結果や開発したAIが機能を発揮するまでに、社内外のステークホルダーとの交渉や合意形成、現場への啓蒙といったことをどのようなプロセスで実施していくか、というものです。

データ利活用はこの段階まで来てようやく「価値」を生み出すかどうかのスタートラインに立てるといっても良いですが、データ分析の結果がビジネスに活かされなかったり、AIの開発がPoC(検証)の段階で終わったりしてしまうことが多いです。

この過程についてはなかなか目立つことがなく、取り上げられている事例なども少ない印象がありますが、ビジネスのリアルな現場でデータ利活用を進めるためには非常に大切なフェーズになります。

この「E」のフェーズを円滑にするためには、
・そもそもデータ分析やAI開発運用は失敗の連続である

ということを関係者が認識できているかが重要です。
データ分析の結果やAIを活用したビジネス改善がいきなり大当たりするということは滅多にありません。
成功している事例といえど、幾度も試行錯誤や失敗を重ねて少しずつ改善されたものがようやく形となっているのです。

経営層はデータサイエンスチームからの良い結果がなかなか出ないからといってすぐに見放したりせずに、不確実性の多いデータ利活用は「育てる」気持ちでマネジメントをしていくことが大切になると感じます。

まとめ

今回は、データ利活用での「データ分析」や「AI開発・運用」に役立つヒントとなるフレームワークとして「ABCDEフレームワーク」というものをご紹介致しました。

ABCDEフレームワーク

・A = Aim(目的)
・B = Brain(手法の選定)
・C = Coding/Construction(プログラミング・実装)
・D = Data(データ選定・整備)
・E = Execution(実行)

データ利活用の大前提は「達成したい目標や解決したい課題」を明確にして、それに沿ってどのようにデータを扱っていくか、ということになります。

よって、「ABCDEフレームワーク」では「A」が最も大切になりますが、ABCEDの順番は一度決めたら手戻りをしないのではなく、何度も試行錯誤しながら精度を上げていくことが求められます。

データ利活用は不確実性の多いものでもあるため、1つの考え方や方法に捉われず、柔軟に進めていくことが大切になります。