どうも動いていない模様。rootではなく一般ユーザであればcronスケジュールは動いている。しかし,rootではcronを設定してもその通りに動かない。Debianでは定期的にスケジュールをするにはanacronを使うようにデフォルトでなっているようだが,設定の書式がいまいちよくわからず,cronのように一日の指定した時間にタスクを実行をするというようなことはできないらしい(私が知らないだけかも・・・)。
毎日定期的に再起動をスケジュールするというのはDebianではどうしたらいいんでしょ。
どうも動いていない模様。rootではなく一般ユーザであればcronスケジュールは動いている。しかし,rootではcronを設定してもその通りに動かない。Debianでは定期的にスケジュールをするにはanacronを使うようにデフォルトでなっているようだが,設定の書式がいまいちよくわからず,cronのように一日の指定した時間にタスクを実行をするというようなことはできないらしい(私が知らないだけかも・・・)。
毎日定期的に再起動をスケジュールするというのはDebianではどうしたらいいんでしょ。
ルータによるアクセス制限の方法についてのメモ。
UbuntuにMySQLをソースから/usr/local/mysqlにインストールした場合。
ウェブサービスを提供しているサイトでサーバに障害が発生して,一時的にサービスを提供することができない場合の管理者としての正しいと思われる対処方法。
mysqlのインデックスの作成やテーブルのバックアップ方法についてのメモ。
StrutsとはJavaサーブレットでウェブアプリケーションを作成するときに利用するフレームワーク(枠組み)である。
Strutsを使ったらよいと思われるケースをStrutsなどのフレームワークが必要な開発って – 教えて!gooより主観で抜粋して加筆してみる。
めちゃめちゃワロタ
データ形式が違う2つのものを合体させてからソートをするというような時,どういう方法があり得るかというのをなんとなく考えてみた。例えば,xml形式のデータと,sql発行の結果データなど,違う形式のデータを扱う場合。
プログラミング言語はなんだって構わないんだけれど,とりあえずJavaではどうなるかというのを考えてみる。
Baiduspiderという中国のクローラーと、ipアドレス61.247.222.*からはじまるYetiという韓国のクローラーの巡回を禁止するためにrobots.txtファイルを作成する。あまりにも負荷が酷いので。robots.txtというテキストファイルに下記内容を記述してサイトのルートへ保存した。効くといいんだが・・・。
User-agent: Yetibot
Disallow: /iuser-agent: Baiduspider+
disallow: /user-agent: BaiduImagespider
disallow: /