include setting up ttyhvc0
[invirt/doc/xvm.git] / xvm-host-setup-notes
index 4a078d1..e64bfce 100644 (file)
@@ -120,8 +120,33 @@ net.ipv4.conf.eth0.rp_filter = 0
 net.ipv4.conf.eth1.rp_filter = 0
 net.ipv4.conf.all.rp_filter = 0
 
 net.ipv4.conf.eth1.rp_filter = 0
 net.ipv4.conf.all.rp_filter = 0
 
+Comment out in /etc/init.d/clvm:
+# if [ ! -f /etc/cluster/cluster.conf ]; then
+#       log_failure_msg "clvmd: cluster not configured. Aborting."
+#       exit 0
+# fi
+
+# if ! cman_tool status >/dev/null 2>&1; then
+#       log_failure_msg "clvmd: cluster is not running. Aborting."
+#       exit 0
+# fi
+
+
 On boot, you'll need to run /usr/lib/xvm-iscsi-connect to bring up
 iscsi. Multipath will come up automatically along with that.
 
 Make sure corosync is running before starting clvmd (I know, obvious, but still)
 
 On boot, you'll need to run /usr/lib/xvm-iscsi-connect to bring up
 iscsi. Multipath will come up automatically along with that.
 
 Make sure corosync is running before starting clvmd (I know, obvious, but still)
 
+Copy /etc/ttyhvc0.conf from another new host
+
+On another XVM host, run ipmitool -I lanplus -U ADMIN -H <address of
+new machine's ipmi> shell
+user list
+user set password <ID of ADMIN user>
+Change the password to the XVM root password
+exit
+
+Serial console: from another XVM host run ipmitool -I lanplus -U ADMIN
+-H <address of new machine's ipmi> shell
+sol activate
+