見出し画像

Raspberry Piを迎えることにした

なぜ?
Virtual BoxでLinuxを稼働させてだましだまし使っていたらNote PCを稼働させっぱなしにせざるを得ない状況になった。
マーケットリサーチ用のWeb Crawlerやクロール結果のData抽出とDatabase化を自動的に動かすためだ。

遅くても着実にターゲットの情報を取ってくるのはとても便利だがさすがに
Intel i5は発熱量も多いし、その他の処理をさせると極端にパフォーマンス(スループット)が悪化する。Excelのグラフ処理でもとんでもない状況になる。

じゃあどうすんの?
2017年現在この問題に対応するたもの方策は以下の3つが考えられる。
1.処理専用のPCを購入する
2.クラウドサーバを借りる
3.あきらめる(現状維持)

3はあり得るがさすがに生産性の低下はストレスになるので1か2を選ぶことにした、別の案件でクラウドサーバを借りることになるとは思うけど、
a)データの方向性
ネットに公開するためではなく、ネットから情報を集めてくることが目的のため、公開サーバ上に置く必要はない。
b)データの秘匿性

クラウド業者の責任の下に…なんてことは安価なサービスではありえない。結果自分でセキュリティ管理をしなくてはならない。
集めてきて加工という作業自体がノウハウなのだ、プログラムもデータも漏洩したくはないから目立つ場所”公開サーバ”には置かない。
c)意外に便利な自宅のネット環境
Gbpsの光サービスを受けているので、そんなに遅くはない(Gbpsは出ないが)だからクラウドサーバ上で稼働させてもElapsed Timeにはさほど影響しない。

ということで1.の処理専用PCを購入を選択した。

ここで思い出すのがRaspberry Piの話、小型のワンボードPCが使えるらしいと頭の片隅にあったのでネットで調査、新しいMacBook(Proではない)を買う言い訳にはなるけどRaspberry Piを調べれば、使えるサーバになるだろうという見通しができてしまった。しかも10万もかける必要はない。
また、新しいソリューションを考える上でのベンチにもなりそうだということもあり、Raspberry Pi 3を購入することにした。

今回のキーワード(試験に出るよw)
Virtual Box : Oracle社の仮想PC環境、Windows、Linux、Mac OS X、Solaris上で稼働できる。(オープンソース)
Web Crawler:ネットを徘徊して情報を集めるプログラム。今回はなぜかPHPで書いた。
マーケットリサーチ:市場調査 これはやっておいたほうがいいではなく必ずやらなくてはならない営業施策のひとつ
Database:データベース ただ情報を保存しておくだけでは使い勝手が悪い。保管管理、検索などデータを蓄える箱として大活躍。今回はMariaDBを使った。
スループット:単位時間あたりに処理できるデータ量(見た目の処理速度に影響を与える)
生産性
:何かを作る出すための効率の良さ、ITが帳簿や図面を書くための紙に取って代わったのは生産性の高さからだといってもいい。
Elapsed Time:経過時間、実際に処理にかかった時間。CPUでの処理+I/Oでの処理+待ち時間が構成要素。この時間が業務処理においては重要。







この記事が気に入ったらサポートをしてみませんか?