remove the obsolete ipmux component.
[metze/ctdb/wip.git] / config / ctdb.sysconfig
1 # Options to ctdbd. This is read by /etc/init.d/ctdb
2
3 # you must specify the location of a shared lock file across all the
4 # nodes. This must be on shared storage
5 # there is no default
6 # CTDB_RECOVERY_LOCK="/some/place/on/shared/storage"
7
8 # when doing IP takeover you also may specify what network interface
9 # to use by default for the public addresses. Otherwise you must
10 # specify an interface on each line of the public addresses file
11 # there is no default
12 # CTDB_PUBLIC_INTERFACE=eth0
13
14 # Should ctdb do IP takeover? If it should, then specify a file
15 # containing the list of public IP addresses that ctdb will manage
16 # Note that these IPs must be different from those in $NODES above
17 # there is no default.
18 # The syntax is one line per public address of the form :
19 #   <ipaddress>/<netmask> <interface>
20 # Example: 10.1.1.1/24 eth0
21 #
22 # CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses
23
24 # Should CTDB present the cluster using a single public ip address to clients
25 # and multiplex clients across all CONNECTED nodes ?
26 # This is based on LVS 
27 # When this is enabled, the entire cluster will present one single ip address
28 # which clients will connect to.
29 # CTDB_LVS_PUBLIC_IP=10.1.1.1
30
31
32 # should ctdb manage starting/stopping the Samba service for you?
33 # default is to not manage Samba
34 # CTDB_MANAGES_SAMBA=yes
35
36 # If there are very many shares it may not be feasible to check that all
37 # of them are available during each monitoring interval.
38 # In that case this check can be disabled
39 # CTDB_SAMBA_SKIP_SHARE_CHECK=yes
40 # CTDB_NFS_SKIP_SHARE_CHECK=yes
41
42 # specify which ports we should check that there is a daemon listening to
43 # by default we use testparm and look in smb.conf to figure out.
44 # CTDB_SAMBA_CHECK_PORTS="445"
45
46 # should ctdb manage starting/stopping Winbind service?
47 # if left comented out then it will be autodetected based on smb.conf
48 # CTDB_MANAGES_WINBIND=yes
49
50 # should ctdb manage starting/stopping the VSFTPD service
51 # CTDB_MANAGES_VSFTPD=yes
52
53 # should ctdb manage starting/stopping the ISCSI service
54 # CTDB_MANAGES_ISCSI=yes
55
56 # should ctdb manage starting/stopping the NFS service
57 # CTDB_MANAGES_NFS=yes
58
59 # should ctdb manage starting/stopping the Apache web server httpd?
60 # CTDB_MANAGES_HTTPD
61
62 # The init style (redhat/suse/ubuntu...) is usually auto-detected.
63 # The names of init scripts of services managed by CTDB are set
64 # based on the detected init style. You can override the init style
65 # auto-detection here to explicitly use a scheme. This might be
66 # useful when you have installed a packages (for instance samba
67 # packages) with a different init script layout.
68 # There is no default.
69 # CTDB_INIT_STYLE=redhat
70
71 # The following are specific Samba init scripts / services that you
72 # can override from auto-detection.
73 # There are no defaults.
74 # CTDB_SERVICE_SMB=smb
75 # CTDB_SERVICE_NMB=nmb
76 # CTDB_SERVICE_WINBIND=winbind
77
78 # you may wish to raise the file descriptor limit for ctdb
79 # use a ulimit command here. ctdb needs one file descriptor per
80 # connected client (ie. one per connected client in Samba)
81 #  ulimit -n 10000
82
83 # the NODES file must be specified or ctdb won't start
84 # it should contain a list of IPs that ctdb will use
85 # it must be exactly the same on all cluster nodes
86 # defaults to /etc/ctdb/nodes
87 # CTDB_NODES=/etc/ctdb/nodes
88
89 # a script to run when node health changes
90 # CTDB_NOTIFY_SCRIPT=/etc/ctdb/notify.sh
91
92 # the directory to put the local ctdb database files in
93 # defaults to /var/ctdb
94 # CTDB_DBDIR=/var/ctdb
95
96 # the directory to put the local persistent ctdb database files in
97 # defaults to /var/ctdb/persistent
98 # CTDB_DBDIR_PERSISTENT=/var/ctdb/persistent
99
100 # the directory where service specific event scripts are stored
101 # defaults to /etc/ctdb/events.d
102 # CTDB_EVENT_SCRIPT_DIR=/etc/ctdb/events.d
103
104 # the location of the local ctdb socket
105 # defaults to /tmp/ctdb.socket
106 # CTDB_SOCKET=/tmp/ctdb.socket
107
108 # what transport to use. Only tcp is currently supported
109 # defaults to tcp
110 # CTDB_TRANSPORT="tcp"
111
112 # When set, this variable makes ctdb monitor the amount of free memory
113 # in the system (the second number in the buffers/cache output from free -m).
114 # If the amount of free memory drops below this treshold the node will become
115 # unhealthy and ctdb and all managed services will be shutdown.
116 # Once this occurs, the administrator needs to find the reason for the OOM
117 # situation, rectify it and restart ctdb with "service ctdb start"
118 # The unit is MByte
119 # CTDB_MONITOR_FREE_MEMORY=100
120
121 # When set to yes, the CTDB node will start in DISABLED mode and not host
122 # any public ip addresses. The administrator needs to explicitely enable
123 # the node with "ctdb enable"
124 # CTDB_START_AS_DISABLED="yes"
125
126 # LMASTER and RECMASTER capabilities.
127 # By default all nodes are capable of both being LMASTER for records and
128 # also for taking the RECMASTER role and perform recovery.
129 # These parameters can be used to disable these two roles on a node.
130 # Note: If there are NO available nodes left in a cluster that can perform
131 # the RECMASTER role, the cluster will not be able to recover from a failure
132 # and will remain in RECOVERY mode until an RECMASTER capable node becomes
133 # available. Same for LMASTER.
134 # These parametersd are useful for scenarios where you have one "remote" node
135 # in a cluster and you do not want the remote node to be fully participating
136 # in the cluster and slow things down.
137 # For that case, set both roles to "no" for the remote node on the remote site
138 # but leave the roles default to "yes" on the primary nodes in the central
139 # datacentre.
140 # CTDB_CAPABILITY_RECMASTER=yes
141 # CTDB_CAPABILITY_LMASTER=yes
142
143 # NAT-GW configuration
144 # Some services running on nthe CTDB node may need to originate traffic to
145 # remote servers before the node is assigned any IP addresses,
146 # This is problematic since before the node has public addresses the node might
147 # not be able to route traffic to the public networks.
148 # One solution is to have static public addresses assigned with routing
149 # in addition to the public address interfaces, thus guaranteeing that
150 # a node always can route traffic to the external network.
151 # This is the most simple solution but it uses up a large number of 
152 # additional ip addresses.
153 #
154 # A more complex solution is NAT-GW.
155 # In this mode we only need one additional ip address for the cluster from
156 # the exsternal public network.
157 # One of the nodes in the cluster is elected to be hosting this ip address
158 # so it can reach the external services. This node is also configured
159 # to use NAT MASQUERADING for all traffic from the internal private network
160 # to the external network. This node is the NAT-GW node.
161 #
162 # All other nodes are set up with a default rote with a metric of 10 to point
163 # to the nat-gw node.
164
165 # The effect of this is that only when a node does not have a public address
166 # and thus no proper routes to the external world it will instead
167 # route all packets through the nat-gw node.
168 #
169 # CTDB_NATGW_NODES is the list of nodes that belong to this natgw group.
170 # You can have multiple natgw groups in one cluster but each node
171 # can only belong to one single natgw group.
172 #
173 # CTDB_NATGW_PUBLIC_IP=10.0.0.227/24
174 # CTDB_NATGW_PUBLIC_IFACE=eth0
175 # CTDB_NATGW_DEFAULT_GATEWAY=10.0.0.1
176 # CTDB_NATGW_PRIVATE_NETWORK=10.1.1.0/24
177 # CTDB_NATGW_NODES=/etc/ctdb/natgw_nodes
178
179 # where to log messages
180 # the default is /var/log/log.ctdb
181 # CTDB_LOGFILE=/var/log/log.ctdb
182
183 # what debug level to run at. Higher means more verbose
184 # the default is 2
185 CTDB_DEBUGLEVEL=2
186
187 # set any default tuning options for ctdb
188 # use CTDB_SET_XXXX=value where XXXX is the name of the tuning
189 # variable
190 # for example
191 #    CTDB_SET_TRAVERSETIMEOUT=60
192 # you can get a list of variables using "ctdb listvars"
193
194
195 # any other options you might want. Run ctdbd --help for a list
196 # CTDB_OPTIONS=
197