必要なのは結果であって過程では無い・ビッグデータは要らない場合も少なくないという話

| コメント(0)


コンピューターの処理能力が格段に向上したことなどを受けて、これまでは到底精査が出来なかった大量のデータを一気に用い、細かい部分まで検証をして世の中のあれこれを探求したり予想しようという、いわゆる「ビッグデータ」を用いようじゃないかというムーブメント。データの量が煩雑すぎるので、いかに合理的かつ適切に精査し、その結果を人間の能力で把握できるように可視化するかが一つの課題となる。まぁ簡単に例えると、ライフゲームで地球上の人間全員を全部別々のものとしてシミュレートするのがビッグデータによるもので、これまでは一つの国に付き数十人ぐらいでサンプリングして検証したって感じ。あるいはボードゲーム(特にシミュレーションゲーム)において、サイコロで結果を判定するような。

で、そのビッグデータを用いて衆議院議員選挙をシミュレートしたところ、結局サンプリングによる検証と同じ結果が出たというところから始まった話。サンプリングデータによる検証の裏付けとなったということで、悪いことではないのだけど、投入するリソースを考えた上でのコストパフォーマンスまで考えると......というところ。


ビッグデータを使えばより細かい、より確証度の高い推測を成せる可能性がある。但しその推測を成す過程の公式の上で間違いがあると、いくらデータの量が多くても推論は明後日の方向に行ってしまいかねない。さらにいえば、コストパフォーマンスの上で結局優先順位が下ガリざるを得ない。「綿密な結果を出せるから」といって、プレイする時にサイコロを1アクション毎に500個振らせるゲームなどしたくないよね? 見方を変えると先日のヤフーが行った予想のように、それ自身がセールスポイントであり、さらに内部リソースを活用することで、コストパフォーマンスをあまり考えなくても良い場合は、むしろビッグデータを使った方が良いこともあるのだけど。

ところが昨今では何でもかんでもビッグデータという感は否めない。


指摘の通り、ビッグデータには得手不得手がある。ビッグデータで初めて検証ができるものもあり、思いっきり精度が上がり有用性が高まるものもある。それらにはビッグデータを使うべき。ただ、オールマイティーカードのように振りかざして、言葉面で騙される人たちを鴨にしている事案も結構あるのではないかな、という気がする。上でも指摘しているけど、ウェブサイトやブログ、ソーシャルメディア、そして昨今では震災周りの放射線測量などなど。

まぁ、山師のネタは尽きるところが無い、ということだな。

関連記事             

コメントする

            
Powered by Movable Type 4.27-ja
Garbagenews.com

この記事について

このページは、不破雷蔵が2014年12月13日 07:47に書いた記事です。

ひとつ前の記事は「今度の衆議院議員総選挙ではテレビ放送が減るそうだけど、理由は視聴率が見込めないからだそうです」です。

次の記事は「大学のレポート提出で一工夫したらコピペが皆無になったという話」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

* * * * * * * * * * * * * *


2021年6月

    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30