Added new ipmi ports
[invirt/doc/xvm.git] / xvm-host-setup-notes
index 4a078d1..7ea6613 100644 (file)
@@ -77,6 +77,10 @@ Currently allocated backend IPs:
 18.4.58.232 new a-s IPMI
 18.4.58.233 new s-m IPMI
 18.4.58.234 new a-m IPMI
+18.4.58.235 new d-o IPMI
+18.4.58.236 new g-d IPMI
+18.4.58.237 new b-f IPMI
+18.4.58.238 new m-a IPMI
 
 
 10.6.128.16 c-s
@@ -120,8 +124,33 @@ net.ipv4.conf.eth0.rp_filter = 0
 net.ipv4.conf.eth1.rp_filter = 0
 net.ipv4.conf.all.rp_filter = 0
 
+Comment out in /etc/init.d/clvm:
+# if [ ! -f /etc/cluster/cluster.conf ]; then
+#       log_failure_msg "clvmd: cluster not configured. Aborting."
+#       exit 0
+# fi
+
+# if ! cman_tool status >/dev/null 2>&1; then
+#       log_failure_msg "clvmd: cluster is not running. Aborting."
+#       exit 0
+# fi
+
+
 On boot, you'll need to run /usr/lib/xvm-iscsi-connect to bring up
 iscsi. Multipath will come up automatically along with that.
 
 Make sure corosync is running before starting clvmd (I know, obvious, but still)
 
+Copy /etc/init/ttyhvc0.conf from another new host
+
+On another XVM host, run ipmitool -I lanplus -U ADMIN -H <address of
+new machine's ipmi> shell
+user list
+user set password <ID of ADMIN user>
+Change the password to the XVM root password
+exit
+
+Serial console: from another XVM host run ipmitool -I lanplus -U ADMIN
+-H <address of new machine's ipmi> shell
+sol activate
+