ちょっと早めのアドベントカレンダー

今日 1/28から毎日12/25までの332日間

ミドルウェアの概要 インストール手順 設定項目・設定方法 動作確認 負荷テスト

の5項目をまとめ続ける企画を始める。 12/25までに332個のミドルウェアの引出しが出来るはず。

まず第1回目は

vsftpd


ユーザ名 shinmai

パスワード 01lkD(o2h(%Ll38

で/home/shinmaiにアクセス出来るように。

shinmaiがログインすると、/home/shinmaiが/として見れるように。

GDポイント制度開始

うちに修行に来ているD君

最近はミーティングなどに出席させている。

ミーティングの中で良い質問をしたり、仕事の中で積極性を見せた時にポイントを付与することに。

Good Dxxxxポイント

略してGDポイント。

良い質問・発言をするとGDポイントゲット。

積極性を見せても、GDポイントゲット。

毎日10GDポイントゲットを目指して頑張ってもらいたい。

100ポイント貯めたら何かあげよう。ビスコとか

f:id:tottokug:20160121160231p:plain

ユークリッド互除法をbashで

今日の課題は世界最古のアルゴリズムと言われている、ユークリッド互除法の実装

digo.sh n m

という形で引数を受け取る

Step.1

 1-1. nとmの両方が揃ってないと(引数の数が2個じゃないと)STDERRにエラーを出力

 1-2. nとm どちらにも数字以外が入っていたら STDERRにエラーを出力

 ここまでがtest (or [ )コマンドの練習とstderrへの出力の練習

Step.2    ユークリッド互除法の実装  while , exprの練習

楽しく、面白く

新米インフラエンジニアがブログを毎日書いているけれど、 どうも面白くない。

無感情というか、抑揚がないというか とりあえず、読んでいて面白くないなぁと。

そのことは初日から毎日伝えている。

今日はタイトルに工夫をしてきたようで、やっと読み手の顔が見えてきたのかなと感じた。

アウトプットをする時は受け取る側の事を考えてアウトプット出来るようになるといいな。

課題への回答。詳細編

the-casket-of-star.hatenablog.jp

この仕組をミドルウェアレベルで何を選定するのか、その選定の理由は? という課題に対しての回答がこちら。

apacheじゃなくてnginxを選んだのは、リクエストの処理の速さ。

ElasticSearchを選んだのはSolrよりも扱い易い。 kibana使いたいから

たぶんこれを参考にしたのかな 楽しい可視化 : elasticsearchとSpark Streamingの出会い | NTTデータ先端技術株式会社

Sparkを使う意味は? =>リアルタイム処理はHadoopじゃ弱いから。 リアルタイム処理が必要なものはなに? =>大量のアクセスがあった時に稼働し続けるから。 fluentd から直接リアルタイムの分析をできたらいいな。 =>リアルタイムの分析はどんなサービスのために必要?

ElasticSearchを通さずにfluentdから直接sparkはダメなのか? =>直接でもよいです。用途によって両方に投げてもいい。

一番悩んだところは? WebからDBのところ。 flume + HBaseにするかなやんだ

所管  ElasticseasrchはNoSQLで、スケールし易いから選定したと言ったけれど  データベースの選定方法が弱いなと思った。  CAP定理について話したので、その辺りを今日のブログでまとめてもらえるんだろうなと期待。