include looking up admin uid as per Mitch's suggestion
[invirt/doc/xvm.git] / xvm-host-setup-notes
index 4a078d1..b932f2e 100644 (file)
@@ -120,8 +120,30 @@ net.ipv4.conf.eth0.rp_filter = 0
 net.ipv4.conf.eth1.rp_filter = 0
 net.ipv4.conf.all.rp_filter = 0
 
+Comment out in /etc/init.d/clvm:
+# if [ ! -f /etc/cluster/cluster.conf ]; then
+#       log_failure_msg "clvmd: cluster not configured. Aborting."
+#       exit 0
+# fi
+
+# if ! cman_tool status >/dev/null 2>&1; then
+#       log_failure_msg "clvmd: cluster is not running. Aborting."
+#       exit 0
+# fi
+
+
 On boot, you'll need to run /usr/lib/xvm-iscsi-connect to bring up
 iscsi. Multipath will come up automatically along with that.
 
 Make sure corosync is running before starting clvmd (I know, obvious, but still)
 
+On another XVM host, run ipmitool -I lanplus -U ADMIN -H <address of
+new machine's ipmi> shell
+user list
+user set password <ID of ADMIN user>
+Change the password to the XVM root password
+exit
+
+Serial console: from another XVM host run ipmitool -I lanplus -U ADMIN
+-H <address of new machine's ipmi> shell
+sol activate