冬は手荒れの季節である。
スキーの後は特に人差し指がぼろぼろになってしまうが、その人差し指を登録してしまったわがnexus6p
当然のように手荒れた人差し指だと、指紋認証に失敗すること多数。数回失敗するとキーボードでパスコードを打たないと復帰できないモードになってしまう。
というわけで手荒れがひどい人は冬場は指紋認証をはずしておくか荒れにくい指に変更するとよいでしょう!
iPhone6は親指だったので比較的安定している。
冬は手荒れの季節である。
スキーの後は特に人差し指がぼろぼろになってしまうが、その人差し指を登録してしまったわがnexus6p
当然のように手荒れた人差し指だと、指紋認証に失敗すること多数。数回失敗するとキーボードでパスコードを打たないと復帰できないモードになってしまう。
というわけで手荒れがひどい人は冬場は指紋認証をはずしておくか荒れにくい指に変更するとよいでしょう!
iPhone6は親指だったので比較的安定している。
matchで複数のアウトプットソースに保存したい時がある。
その場合はcopyプラグインを利用すると複数のアウトプットを指定できる。
今回の例ではファイルに書き出しつつ、1時間ごとにS3にApacheログファイルを送信している。
time_slice_format %Y%m%d_%H_apache.logがその設定であり、サイズがあふれない限り、このファイル名単位でS3に送信される。下記例では、年月日_時間_apache.logとなっていて、一時間単位でファイルをまとめてS3に送信する。time_slace_waitがその時間が終わったときに何分待つかという設定値だが、デフォルトは10分なので毎時10分過ぎにS3に送信される。
S3に送信される内容はfluentdのjson形式のファイルのようだ。
# Apache log <source> type tail format apache path /var/log/httpd/blog_access_log tag apache.access pos_file /tmp/fluentd-apache.pos </source> <match apache.access> type copy <store> type file path /var/tmp/apache.log </store> <store> type s3 buffer_path /var/tmp/fluentd_s3 buffer_chunk_limit 100m #1chunkに保存できるデータサイズ上限 buffer_queue_limit 3 #1queueに保存できるchunk数の上限 retry_wait 30s #再送を実行するまでの待ち時間 retry_limit 5 #再送実施回数 aws_key_id "PUT YOUR AWS_KEY_ID" aws_sec_key "PUT YOUR AWS KEY" s3_region ap-northeast-1 s3_bucket バケット名 path logs/ #時間単位でログファイルを生成 time_slice_format %Y%m%d_%H_apache.log # デフォルトは10分待ってからアップする。 # time_slice_wait 1m </store> </match>
Jenkinsを使っているとビルドで利用されているワークスペースの内容をクリアしたいときがある。
今まではサーバーにログインしてコマンドで消していたのだが、同じことは画面上からできた。
該当ジョブをクリックして、ワークスペースメニューを開くと「ワークスペースのクリア」があるのでそれをクリックするだけ!
実に簡単。
Apacheログの取り込みで全部取り込むと膨大になる場合、Filterを使うと絞り込みができる。
たとえば特定のhttpステータスを除外したり、大量アクセスするクローラーを除外したい場合などは以下のように設定ファイルを記載する。
CentOS系であればデフォルトログファイルの場所は/var/log/httpd/access_logである。
# Apache log <source> type tail format apache path /var/log/httpd/blog_access_log tag apache.access pos_file /tmp/fluentd-apache.pos </source> <filter apache.access> type grep # HTTP statusコードで除外 exclude1 code (200|301|302|304) # User-Agent文字列で除外 exclude2 agent (Mozilla|Safari) </filter> <match apache.access> type file path /var/tmp/apache.log </match>
MySQLの日時データーベースバックアップが取得できていたためあまり気にしていなかったが、毎日以下のワーニングが出力されていた。
Skipping the data of table mysql.event. Specify the –events option explicitly.
どうもeventテーブルなるものが追加されたらしく、これをダンプするオプションを追加せねばならない。
# before mysqldump -u root -x --all-databases --password=xxxx | gzip > ${BACKUP_BASE}/mysqldump.sql.gz # after mysqldump -u root -x --all-databases --events --password=xxxx | gzip > ${BACKUP_BASE}/mysqldump.sql.gz
実行してワーニングが出力されないことが確認できた!
AzureでMSDNの無料枠をあえて使い切ってみたが、クレジット復活の一日前に残高0円となり、仮想マシン停止。
しかしこれを復活させるのが大変めんどくさかった。
まず、クレジットが5500円に復活しているにもかかわらず、使用制限の解除をするのにクレジットカードの登録が必要となる。
さらに復帰させて15分ぐらいは仮想マシンを立ち上げようとしても、反映が遅いらしく起動に失敗した。
というわけで一回使用制限状態にはいると復活させるのがめんどくさいので、0円になる前に対応すべしという教訓を得たのであった。
diffで改行コードだけの違いは無視してほしいときがある。
よく使うのに長すぎて覚えられないので再掲載。
diff --strip-trailing-cr fileA fileB
MSDN Professionnalを利用しているので月額5500円分の無料使用枠がついてくる。
一番安いのぐらいしか使えないだろうと思ったら、結構使える。
まず一番安いA0であれば常時起動してても無料枠を超えることはない。
A1でも大丈夫。
調子に乗って残り1000円ぐらいでA2を利用していたら一日300円ぐらいの勢いで減っていき、クレジットを使い果たした。
Azureの場合デフォルトでは無料枠を超えた場合は、リソースが停止状態になるだけで課金されることがない。
(AWSの場合は無料枠を超えても、上限がないので怖い)
リージョンごとに微妙に料金が違うのと、Windowsだとまた料金が違ってくるので参考程度に!
Windows10に嫌気がさして、サクッとWindows7をクリーンインストールの訳はなく、
D2DでのWindows7自体は30分あれば終わるのだが、そこから長いのが更新プログラムの確認である。
確認していますの画面で止まること30分以上。
そして出てきたのは更新プログラム141個で700M以上!
オプションプログラム58個の合計199個のパッチである。
このパッチあてが複数化の再起動&再びパッチあての繰り返しで、また数時間かかるのだよな。
今回はパッチあてが終わった段階でシステムイメージのバックアップを取るつもり!
今後のための記録
141個のパッチあては約100分で終了。ただし途中Internet Explorer 11のインストールが40分近く続いて、フリーズかと思わされた。129番目だったのでここでこけられたら困る。しかしなんとか完了!
再起動したら、自動的にもう二回再起動が走って操作できるようになったら残り58個のオプション更新プログラム。
何もしていない状態のCF-SX1のファンがけたたましく回りだした。
温度を調べたらなんと85度を超えている!
アイドル状態なので何か悪さをするプロセスがあると調べたら、
windows modules installer workerというプロセスがCPUを30%ほど利用していた。
WindowsUpdateのクリーンアップのプロセスらしいが、温度を下げるためにwindows modules installer workerには死んでもらった。
停止してしばらくしたら、CPUファンの回転は静かになり、CPU温度は50度以下になったとさ。
一応90度でも耐えられる設計に放っているはずだが、周りの半導体への影響を考えると90度が長く続くのは好ましくない!