Keisuke Nakamura
k.xna****@gmail*****
2015年 11月 24日 (火) 17:24:25 JST
passは j2G49di2sd となります。 2015年11月24日 17:23 Keisuke Nakamura <k.xna****@gmail*****>: > 申し訳ありません。添付漏れです。 > > 2015年11月24日 17:20 Keisuke Nakamura <k.xna****@gmail*****>: > > 関係者各位 >> >> お世話になっております。nakaと申します。 >> >> 環境: >> 2ノード構成(pacemaker+heartbeat) ※nodeA,nodeBとします。 >> OS:CentOS6.2(x86_64) >> pacemaker-1.0.12-1.el6.x86_64 >> heartbeat-3.0.5-1.1.el6.x86_64 >> >> nodeAで全てのグループリソースを起動させた状態で、 >> nodeBでの障害時動作を確認しております。 >> >> /etc/init.d/heartbeat stop >> /etc/init.d/heartbeat start >> >> nodeBでheartbeatデーモンを上記コマンドでstop/startさせたところ、 >> startを実行後になぜかnodeA側で動いている[lsb:initスクリプト名]の >> RAが停止してしまい、その後すぐにRAはstartしました。 >> >> 想定動作としては、stopせずにそのまま起動させておきたいのですが、 >> 上記動作の原因と、どのように設定したらよいかをご教授頂けませんでしょうか? >> >> >> 参考までにheartbeatデーモンをstop/startさせた時のシスログを添付しておきます。 >> 以下、crmの設定内容となります。 >> $ sudo crm configure show >> >> node $id="1fc381d6-d6ad-a50f-9aab-cd8ace90fa70" nodeA >> node $id="4a851515-443f-6140-b38f-dfb4bb46c010" nodeB >> primitive ip_sfdb01v ocf:heartbeat:IPaddr2 \ >> meta migration-threshold="5" \ >> params ip="10.2.28.62" cidr_netmask="24" nic="eth0" iflabel="0" \ >> op monitor interval="3s" >> primitive res_ping ocf:pacemaker:ping \ >> params name="eth0_ping_set" host_list="10.2.28.1" >> multiplier="200" dampen="1" debug="true" attempts="10" \ >> op monitor interval="10s" timeout="60" \ >> op start interval="0" timeout="60" >> primitive service_naka01v lsb:pkg_naka01v \ >> op start interval="0s" timeout="90s" \ >> op monitor interval="300s" timeout="20s" \ >> op stop interval="0s" timeout="100s" \ >> meta is-managed="true" >> primitive service_sfdb01v lsb:pkg_sfdb01v \ >> op start interval="0s" timeout="90s" \ >> op monitor interval="300s" timeout="20s" \ >> op stop interval="0s" timeout="100s" \ >> meta is-managed="true" >> primitive vgsfdb01v ocf:heartbeat:LVM \ >> params volgrpname="vgsfdb01v" >> primitive vgsfdb01v_LogVol00 ocf:heartbeat:Filesystem \ >> meta migration-threshold="5" \ >> params device="/dev/vgsfdb01v/LogVol00" fstype="ext4" >> directory="/mysf" \ >> op monitor interval="20s" >> primitive vgsfdb01v_lv_quorum ocf:heartbeat:sfex \ >> params index="1" device="/dev/vgsfdb01v/lv_quorum" >> group pkg_naka01v service_naka01v \ >> meta is-managed="true" target-role="Started" >> group pkg_sfdb01v ip_sfdb01v vgsfdb01v vgsfdb01v_lv_quorum >> vgsfdb01v_LogVol00 service_sfdb01v \ >> meta is-managed="true" target-role="Started" >> clone clone_ping res_ping \ >> meta target-role="Started" >> location pkg_naka01v-location pkg_naka01v \ >> rule $id="pkg_naka01v-location-0" 200: #uname eq nodeA \ >> rule $id="pkg_naka01v-location-1" 100: #uname eq nodeB >> location pkg_naka01v-service-location pkg_naka01v \ >> rule $id="pkg_naka01v-service-location-rule" -inf: defined >> eth0_ping_set and eth0_ping_set lt 200 >> location pkg_sfdb01v-location pkg_sfdb01v \ >> rule $id="pkg_sfdb01v-location-0" 200: #uname eq nodeA \ >> rule $id="pkg_sfdb01v-location-1" 100: #uname eq nodeB >> location pkg_sfdb01v-service-location pkg_sfdb01v \ >> rule $id="pkg_sfdb01v-service-location-rule" -inf: defined >> eth0_ping_set and eth0_ping_set lt 200 >> property $id="cib-bootstrap-options" \ >> dc-version="1.0.12-066152e" \ >> cluster-infrastructure="Heartbeat" \ >> stonith-enabled="false" \ >> no-quorum-policy="ignore" \ >> default-action-timeout="120s" \ >> last-lrm-refresh="1441681923" >> rsc_defaults $id="rsc-options" \ >> resource-stickiness="INFINITY" >> >> お手数おかけ致しますが、何卒宜しくお願い致します。 >> 以上 >> >> -- >> Naka >> > > > > -- > Nakamura > -- Nakamura -------------- next part -------------- HTML$B$NE:IU%U%!%$%k$rJ]4I$7$^$7$?(B... 下載