banner

[Rule] Rules  [Home] Main Forum  [Portal] Portal  
[Members] Member Listing  [Statistics] Statistics  [Search] Search  [Reading Room] Reading Room 
[Register] Register  
[Login] Loginhttp  | https  ]
 
Forum Index Thảo luận hệ điều hành *nix Xin hỏi về load balancer trên hệ thống Mysql cluster.  XML
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 02/11/2012 16:42:17 (+0700) | #1 | 270678
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Xin chào mọi người, dạo này mình làm phiền mọi người nhiều quá, tại công việc yêu cầu ^^.
Nay mình có 1 vấn đề về Mysql cluster muốn nhờ mọi người giúp đỡ.
Mình mới setup xong hệ thống Mysql Cluster, bây giờ mình muốn load balancer hệ thống này, mô hình Mysql cluster của mình như sau
1 Manager Node: 192.168.2.52
2 Sql Node: 192.168.2.53 192.168.2.54
2 Data Node: 192.168.2.55 192.168.2.56

Mình cài mysql-proxy trên máy manager.
Nếu cả 2 sql node đều chạy, thì khi mình truy cập mysql thông qua địa chỉ 192.168.2.52 port 3306 thì ok.
Mình thử tắt sql node 1 đi (192.168.2.53) thì khi truy cập lại qua ip 52 thì không thể vào được mysql. Thông báo lỗi như sau:
Error: EMyError:
#07000(proxy) all backends are down

Log khi mình start mysql-proxy:
Code:
root@ubuntu:/etc/mysql-proxy# 2012-11-02 19:03:43: (critical) chassis.c:981: could not raise RLIMIT_NOFILE to 8192, Invalid argument (22). Current limit still 1024.
2012-11-02 19:11:12: (critical) proxy-plugin.c.1574: Cannot connect, all backends are down.


Bây giờ mình bật lại sql node 1 và tắt sql node 2 đi thì truy cập qua ip 52 bình thường.

Mình cấu hình file mysql-proxy.conf như sau:
[mysql-proxy]
daemon = true
keepalive = true
proxy-address = 192.168.2.52:3306
# db0
proxy-backend-addresses = 192.168.2.53:3306
# db1
proxy-backend-addresses = 192.168.2.54:3306

Cảm ơn mọi người.
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 05/11/2012 09:08:11 (+0700) | #2 | 270749
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
- Bạn dùng MySQL Cluster cho ứng dụng gì vậy?
- Mình đọc thấy dòng này trên trang chủ "MySQL Proxy is currently an Alpha release and should not be used within production environments.", nên cũng chưa thử MySQL Proxy bao giờ.

Nếu chỉ là HA cho ứng dụng web thông thường, bạn có thể tìm hiểu vài giải pháp sau:
- MySQL Master Master (có thể cắm thêm 1 Slave nếu muốn) Active Passive (nghĩa là phải đảm bảo để chỉ write vào 1 con tại 1 thời điểm)
- Percona XtraDB Cluster

Cả 2 cách trên đều có thể dùng HAProxy để load balancing được (dual Master thì chỉ nên dùng cho việc đọc thôi).
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 05/11/2012 18:07:21 (+0700) | #3 | 270759
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Thank anh quanta.
Em đang thử các phương án database server nào tối ưu nhất, mysq cluster là phương án đầu tiên.
Em dùng cho hệ thống website thương mại điện tử anh, phục vụ với số người lớn (>200.000 account). Truy xuất dữ liệu liên tục, cho nên hệ thống database của web phải có khả năng phục vụ 24/24.
Mô hình Cluster theo cá nhân em nghĩ nó hay hơn Replication ở chổ khả năng đồng bộ hoá dữ liệu synchronous, còn Replication chỉ là asynchronous. Đồng thời nó đa Master, khả năng thêm server Data và SQL dễ dàng hơn.
Em tìm hiểu thì thấy mysql-proxy đa số chỉ được sử dụng trong mô hình Replication ( http://jan.kneschke.de/2007/8/1/mysql-proxy-learns-r-w-splitting/) với khả năng phân luồng được READ và WIRTE.
Em bây giờ chỉ vướng mắc nội chỗ mysql-proxy thôi, nếu giải quyết được nó thì tốt, em có thể áp dụng mô hình này vào demo để thử nghiệm. Em sẽ nghiên cứu thêm những giải phải anh đã chỉ. Thank anh rất nhiều

[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 06/11/2012 08:13:36 (+0700) | #4 | 270768
traunui
Member

[Minus]    0    [Plus]
Joined: 28/02/2012 20:23:08
Messages: 62
Offline
[Profile] [PM]
Cluster, LoadBalancing em tưởng hay chơi với heartbeat nhỉ
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 07:47:03 (+0700) | #5 | 270786
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]

traunui wrote:
Cluster, LoadBalancing em tưởng hay chơi với heartbeat nhỉ 

Chào bạn, chắc bạn cũng có kinh nghiệm về heartbeat, mình có thể hỏi tí được không.
Mình mới đọc về heartbeat nhưng không hiểu lắm về mô hình của nó. Bây giờ áp dụng luôn vào mô hình cluster mình đã nêu ở đầu, vậy mình phải cài heartbeat vào 2 SQL node hả bạn ?, hay là tạo 2 server lb khác rồi cài vô 2 server đó, rồi 2 server đó cấu hình xuống 2 server SQL ?
Rồi IP ảo, mình lấy 1 ip bất kỳ cùng lớp mạng hay là sao nhỉ ? có cần phải setup 1 server mysql-proxy rồi sử dụng ip của server đó làm ip ảo hay không ?
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 09:04:08 (+0700) | #6 | 270789
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]

ngtrongtri wrote:

Mình mới đọc về heartbeat nhưng không hiểu lắm về mô hình của nó. Bây giờ áp dụng luôn vào mô hình cluster mình đã nêu ở đầu, vậy mình phải cài heartbeat vào 2 SQL node hả bạn ?, hay là tạo 2 server lb khác rồi cài vô 2 server đó, rồi 2 server đó cấu hình xuống 2 server SQL ?
 

Còn tuỳ vào mục đích của bạn:

1. Nếu muốn dựng load balancers đứng trước thì cài lên 2 LB đó. Hiểu nôm na thế này:
- bạn có 2 SQL nodes và cần cân tải.
- OK, bạn dựng 1 LB.
- Câu hỏi đặt ra: nếu LB đó chết thì sao?
- Trả lời: clients khỏi kết nối luôn --> SPOF (Single Point Of Failure).
- Khắc phục: dựng 2 LB và setup 1 Virtual IP giữa 2 LB đó. Client chỉ kết nối qua VIP này, nếu 1 trong 2 LB chết, VIP sẽ nhảy sang LB còn lại.

2. Nếu thiếu server, bạn có thể cài Heartbeat lên 2 SQL nodes luôn. Tương tự như trên, cũng setup 1 VIP giữa chúng. Lúc này, 2 SQL nodes chỉ hoạt động theo kiểu Active Passive, tức là: tại một thời điểm chỉ làm việc với 1 node, nếu node đó chết thì VIP nhảy sang node kia.

ngtrongtri wrote:

Rồi IP ảo, mình lấy 1 ip bất kỳ cùng lớp mạng hay là sao nhỉ ?
 

Đúng rồi.

PS:
- mình chưa dùng MySQL Cluster với Heartbeat bao giờ smilie
- tiện tay, bạn có thể ngâm cứu luôn Corosync/Pacemaker.
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 09:29:00 (+0700) | #7 | 270792
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Cảm ơn anh quanta nhiều, em hiểu rồi. Hy vọng em sẽ setup được mô hình này và sẽ có một bài viết cho HVA smilie
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 15:54:45 (+0700) | #8 | 270799
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Anh quanta cho em hỏi thêm tí ạ. Em đã setup heartbeat trên 2 server sql như hướng dẫn này
http://crzyorc-linux.blogspot.com/2010/02/how-to-configure-mysql-cluster-with.html
Sau đó em có thực hiện lệnh update-rc.d -f mysqld remove trên 2 server (em dùng Ubuntu), xong start heartbeat, không có error nào.
Tuy nhiên khi em ping ip ảo thì mới start heartbeat lên được vài phút thì ping thông, sau đó tí thì lại không được. Nó bị sao vậy anh ?
Đây là một số đoạn log của nó

Nov 07 01:55:47 server01 heartbeat: [13752]: info: All HA resources relinquished.
Nov 07 01:55:48 server01 heartbeat: [12951]: WARN: 1 lost packet(s) for [server02] [305:307]
Nov 07 01:55:48 server01 heartbeat: [12951]: info: No pkts missing from server02!
Nov 07 01:55:49 server01 heartbeat: [12951]: info: killing HBFIFO process 12956 with signal 15
Nov 07 01:55:49 server01 heartbeat: [12951]: info: killing HBWRITE process 12957 with signal 15
Nov 07 01:55:49 server01 heartbeat: [12951]: info: killing HBREAD process 12958 with signal 15
Nov 07 01:55:49 server01 heartbeat: [12951]: info: Core process 12956 exited. 3 remaining
Nov 07 01:55:49 server01 heartbeat: [12951]: info: Core process 12957 exited. 2 remaining
Nov 07 01:55:49 server01 heartbeat: [12951]: info: Core process 12958 exited. 1 remaining
Nov 07 01:55:49 server01 heartbeat: [12951]: info: server01 Heartbeat shutdown complete.
Nov 07 02:04:31 server01 heartbeat: [14261]: WARN: Core dumps could be lost if multiple dumps occur.
Nov 07 02:04:31 server01 heartbeat: [14261]: WARN: Consider setting non-default value in /proc/sys/kernel/core_pattern (or equivalent) for maximum supportability
Nov 07 02:04:31 server01 heartbeat: [14261]: WARN: Consider setting /proc/sys/kernel/core_uses_pid (or equivalent) to 1 for maximum supportability
Nov 07 02:04:31 server01 heartbeat: [14261]: info: Version 2 support: false
Nov 07 02:04:31 server01 heartbeat: [14261]: WARN: Logging daemon is disabled --enabling logging daemon is recommended
Nov 07 02:04:31 server01 heartbeat: [14261]: info: **************************
Nov 07 02:04:31 server01 heartbeat: [14261]: info: Configuration validated. Starting heartbeat 3.0.2
Nov 07 02:04:31 server01 heartbeat: [14262]: info: heartbeat: version 3.0.2
Nov 07 02:04:31 server01 heartbeat: [14262]: info: Heartbeat generation: 1352281165
Nov 07 02:04:31 server01 heartbeat: [14262]: info: glib: UDP Broadcast heartbeat started on port 694 (694) interface eth0
Nov 07 02:04:31 server01 heartbeat: [14262]: info: glib: UDP Broadcast heartbeat closed on port 694 interface eth0 - Status: 1
Nov 07 02:04:31 server01 heartbeat: [14262]: info: G_main_add_TriggerHandler: Added signal manual handler
Nov 07 02:04:31 server01 heartbeat: [14262]: info: G_main_add_TriggerHandler: Added signal manual handler
Nov 07 02:04:31 server01 heartbeat: [14262]: info: G_main_add_SignalHandler: Added signal handler for signal 17
Nov 07 02:04:31 server01 heartbeat: [14262]: info: Local status now set to: 'up'
Nov 07 02:04:31 server01 heartbeat: [14262]: info: Link server01:eth0 up.
Nov 07 02:04:33 server01 heartbeat: [14262]: info: Link server02:eth0 up.
Nov 07 02:04:33 server01 heartbeat: [14262]: info: Status update for node server02: status active
harc[14271]: 2012/11/07_02:04:33 info: Running /etc/ha.d//rc.d/status status
Nov 07 02:04:34 server01 heartbeat: [14262]: info: Comm_now_up(): updating status to active
Nov 07 02:04:34 server01 heartbeat: [14262]: info: Local status now set to: 'active'
Nov 07 02:04:34 server01 heartbeat: [14262]: info: remote resource transition completed.
Nov 07 02:04:34 server01 heartbeat: [14262]: info: remote resource transition completed.
Nov 07 02:04:34 server01 heartbeat: [14262]: info: Local Resource acquisition completed. (none)
Nov 07 02:04:35 server01 heartbeat: [14262]: info: server02 wants to go standby [foreign]
Nov 07 02:04:46 server01 heartbeat: [14262]: info: standby: acquire [foreign] resources from server02
Nov 07 02:04:46 server01 heartbeat: [14290]: info: acquire local HA resources (standby).
ResourceManager[14304]: 2012/11/07_02:04:46 info: Acquiring resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
IPaddr[14331]: 2012/11/07_02:04:46 INFO: Resource is stopped
ResourceManager[14304]: 2012/11/07_02:04:46 info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 start
IPaddr[14411]: 2012/11/07_02:04:46 INFO: Using calculated netmask for 192.168.2.57: 255.255.255.0
IPaddr[14411]: 2012/11/07_02:04:46 INFO: eval ifconfig eth0:0 192.168.2.57 netmask 255.255.255.0 broadcast 192.168.2.255
IPaddr[14387]: 2012/11/07_02:04:46 INFO: Success
ResourceManager[14304]: 2012/11/07_02:04:46 ERROR: Cannot locate resource script mysqld
ResourceManager[14304]: 2012/11/07_02:04:46 ERROR: Cannot locate resource script mysqld
ResourceManager[14304]: 2012/11/07_02:04:46 ERROR: Cannot locate resource script mysqld
ResourceManager[14304]: 2012/11/07_02:04:46 CRIT: Giving up resources due to failure of mysqld
ResourceManager[14304]: 2012/11/07_02:04:46 info: Releasing resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
ResourceManager[14304]: 2012/11/07_02:04:46 ERROR: Cannot locate resource script mysqld
ResourceManager[14304]: 2012/11/07_02:04:46 ERROR: Cannot locate resource script mysqld
ResourceManager[14304]: 2012/11/07_02:04:47 info: Retrying failed stop operation [mysqld]
Nov 07 02:04:33 server01 heartbeat: [14262]: info: Status update for node server02: status active
harc[14271]: 2012/11/07_02:04:33 info: Running /etc/ha.d//rc.d/status status
Nov 07 02:04:34 server01 heartbeat: [14262]: info: Comm_now_up(): updating status to active
Nov 07 02:04:34 server01 heartbeat: [14262]: info: Local status now set to: 'active'
Nov 07 02:04:34 server01 heartbeat: [14262]: info: remote resource transition completed.
Nov 07 02:04:34 server01 heartbeat: [14262]: info: remote resource transition completed.
Nov 07 02:04:34 server01 heartbeat: [14262]: info: Local Resource acquisition completed. (none)
Nov 07 02:04:35 server01 heartbeat: [14262]: info: server02 wants to go standby [foreign]
Nov 07 02:04:46 server01 heartbeat: [14262]: info: standby: acquire [foreign] resources from server02
Nov 07 02:04:46 server01 heartbeat: [14290]: info: acquire local HA resources (standby).
ResourceManager[14304]: 2012/11/07_02:04:46 info: Acquiring resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
IPaddr[14331]: 2012/11/07_02:04:46 INFO: Resource is stopped
ResourceManager[14304]: 2012/11/07_02:04:46 info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 start
IPaddr[14411]: 2012/11/07_02:04:46 INFO: Using calculated netmask for 192.168.2.57: 255.255.255.0
IPaddr[14411]: 2012/11/07_02:04:46 INFO: eval ifconfig eth0:0 192.168.2.57 netmask 255.255.255.0 broadcast 192.168.2.255
IPaddr[14387]: 2012/11/07_02:04:46 INFO: Success
ResourceManager[14304]: 2012/11/07_02:04:56 ERROR: Cannot locate resource script mysqld
ResourceManager[14304]: 2012/11/07_02:04:56 ERROR: Resource script for mysqld probably not LSB-compliant.
ResourceManager[14304]: 2012/11/07_02:04:56 WARN: it (mysqld) MUST succeed on a stop when already stopped
ResourceManager[14304]: 2012/11/07_02:04:56 WARN: Machine reboot narrowly avoided!
ResourceManager[14304]: 2012/11/07_02:04:56 info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 stop
IPaddr[14914]: 2012/11/07_02:04:57 INFO: ifconfig eth0:0 down
IPaddr[14890]: 2012/11/07_02:04:57 INFO: Success
Nov 07 02:04:57 server01 heartbeat: [14290]: info: local HA resource acquisition completed (standby).
Nov 07 02:04:57 server01 heartbeat: [14262]: info: Standby resource acquisition done [foreign].
Nov 07 02:04:57 server01 heartbeat: [14262]: info: Initial resource acquisition complete (auto_failback)
Nov 07 02:04:57 server01 heartbeat: [14262]: info: remote resource transition completed.
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 16:14:58 (+0700) | #9 | 270800
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]

ngtrongtri wrote:
Em đã setup heartbeat trên 2 server sql như hướng dẫn này
http://crzyorc-linux.blogspot.com/2010/02/how-to-configure-mysql-cluster-with.html
Sau đó em có thực hiện lệnh update-rc.d -f mysqld remove trên 2 server (em dùng Ubuntu), xong start heartbeat, không có error nào.
Tuy nhiên khi em ping ip ảo thì mới start heartbeat lên được vài phút thì ping thông, sau đó tí thì lại không được. Nó bị sao vậy anh ? 

Trên node 1, bạn chạy `ip addr sh` rồi gửi kết quả lên.
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 16:21:28 (+0700) | #10 | 270801
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Trên node 1, bạn chạy `ip addr sh` rồi gửi kết quả lên. 


Đây anh

Code:
root@server01:/usr/share/doc/heartbeat# ip addr sh
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e8:11:ee brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.53/24 brd 192.168.2.255 scope global eth0
    inet6 fe80::20c:29ff:fee8:11ee/64 scope link 
       valid_lft forever preferred_lft forever
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 07/11/2012 20:37:39 (+0700) | #11 | 270803
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
Mình có thấy cái Virtual IP nào đâu? node 2 thì sao?
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 06:43:43 (+0700) | #12 | 270809
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]

quanta wrote:
Mình có thấy cái Virtual IP nào đâu? node 2 thì sao? 


Node 2 cũng vậy anh ạ:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:b8:26:cf brd ff:ff:ff:ff:ff:ff
inet 192.168.2.54/24 brd 192.168.2.255 scope global eth0
inet6 fe80::20c:29ff:feb8:26cf/64 scope link
valid_lft forever preferred_lft forever

Virtual IP thì em chỉ cấu hình duy nhất ở file /etc/ha.d/haresources
Code:
server01 IPaddr::192.168.2.57/24/eth0 mysqld

Còn lại thì em không cấu hình gì thêm liên quan tới Virtual Ip, có phải em còn thiếu bước nào nữa không ạ ?
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 07:11:21 (+0700) | #13 | 270810
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Em mới set thêm 1 ip ảo trong phần cấu hình network. Đây là nội dung khi em thực hiện lệnh ip addr sh
Code:
root@server01:/usr/share/doc/heartbeat# ip addr sh
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e8:11:ee brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.53/24 brd 192.168.2.255 scope global eth0
    inet 192.168.2.57/24 brd 192.168.2.254 scope global secondary eth0:1
    inet6 fe80::20c:29ff:fee8:11ee/64 scope link 
       valid_lft forever preferred_lft forever

Không biết như thế này có đúng không anh ?
Đây là thông báo khi em start heartbeat:
Code:
root@server01:/usr/share/doc/heartbeat# /etc/init.d/heartbeat start
Starting High-Availability services: IPaddr[15833]: INFO:  Running OK
ResourceManager[15810]: CRITICAL: Resource IPaddr::192.168.2.57/24/eth0 is active, and should not be!
ResourceManager[15810]: CRITICAL: Non-idle resources can affect data integrity!
ResourceManager[15810]: info: If you don't know what this means, then get help!
ResourceManager[15810]: info: Read the docs and/or source to /usr/share/heartbeat/ResourceManager for more details.
CRITICAL: Resource IPaddr::192.168.2.57/24/eth0 is active, and should not be!
CRITICAL: Non-idle resources can affect data integrity!
info: If you don't know what this means, then get help!
info: Read the docs and/or the source to /usr/share/heartbeat/ResourceManager for more details.
ResourceManager[15810]: CRITICAL: Non-idle resources will affect resource takeback!
ResourceManager[15810]: CRITICAL: Non-idle resources may affect data integrity!
Done.

Rồi em telnet tới 192.168.2.57 3306 cũng không được. (em telnet tới 2 sql node thì bình thường)
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 07:52:29 (+0700) | #14 | 270811
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Em xin phép được nêu lại các bước em làm, anh xem giúp em thử em thiếu và sai chỗ nào ạ.
server01: 192.168.2.53
server02: 192.168.2.54
virtual ip: 192.168.2.57
Step 1:
Cấu hình file hosts, cài đặt heartbeat trên cả 2 máy.
Step 2: em copy các file sau
Code:
# cp /usr/share/doc/heartbeat/authkeys /etc/ha.d
# cp /usr/share/doc/heartbeat/ha.cf /etc/ha.d
# cp /usr/share/doc/heartbeat/haresources /etc/ha.d

Step 3: config file /etc/ha.d/authkeys
thêm vào nội dung sau:
Code:
auth 2
2 sha1 test-HA

Step 4:
Code:
chmod 600 /etc/ha.d/authkeys

Step 5: config file /etc/ha.d/ha.cf
thêm vào nội dung sau:
Code:
logfile /var/log/ha-log
logfacility local0
keepalive 2
deadtime 30
initdead 120
bcast eth0
udpport 694
auto_failback on
node server01
node server02

Step 6: config file /etc/ha.d/haresources
thêm vào nội dung sau:
Code:
server01 IPaddr::192.168.2.57/24/eth0 mysqld

Step 7:
Code:
etc/init.d/heartbeat start

Em thực hiện giống nhau trên cả 2 server
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:16:41 (+0700) | #15 | 270812
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
Code:
CRITICAL: Resource IPaddr::192.168.2.57/24/eth0 is active, and should not be!

ngtrongtri wrote:
Em mới set thêm 1 ip ảo trong phần cấu hình network.
 

Tháo phần config VIPA (Virtual IP Address) trong `/etc/network/interfaces` ra, restart heartbeat rồi gửi output lên đây.
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:26:25 (+0700) | #16 | 270813
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Dạ, em remove nó rồi. Sau đó em restart lại heartbeat

Code:
root@server01:/usr/share/doc/heartbeat# /etc/init.d/heartbeat restart
Stopping High-Availability services: Done.

Waiting to allow resource takeover to complete: Done.

Starting High-Availability services: IPaddr[20225]: INFO:  Resource is stopped
Done.


Code:
root@server01:/usr/share/doc/heartbeat# ip addr sh
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e8:11:ee brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.53/24 brd 192.168.2.255 scope global eth0
    inet6 fe80::20c:29ff:fee8:11ee/64 scope link 
       valid_lft forever preferred_lft forever


Đây là đoạn log trong /var/log/ha-log

Code:
ResourceManager[20323]: 2012/11/07_18:22:35 info: Acquiring resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
IPaddr[20350]:  2012/11/07_18:22:35 INFO:  Resource is stopped
-loResourceManager[20323]:      2012/11/07_18:22:35 info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 start
IPaddr[20430]:  2012/11/07_18:22:35 INFO: Using calculated netmask for 192.168.2.57: 255.255.255.0
IPaddr[20430]:  2012/11/07_18:22:35 INFO: eval ifconfig eth0:0 192.168.2.57 netmask 255.255.255.0 broadcast 192.168.2.255
IPaddr[20406]:  2012/11/07_18:22:35 INFO:  Success
ResourceManager[20323]: 2012/11/07_18:22:35 ERROR: Cannot locate resource script mysqld
ResourceManager[20323]: 2012/11/07_18:22:35 ERROR: Cannot locate resource script mysqld
ResourceManager[20323]: 2012/11/07_18:22:35 ERROR: Cannot locate resource script mysqld
ResourceManager[20323]: 2012/11/07_18:22:35 CRIT: Giving up resources due to failure of mysqld
ResourceManager[20323]: 2012/11/07_18:22:35 info: Releasing resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
ResourceManager[20323]: 2012/11/07_18:22:35 ERROR: Cannot locate resource script mysqld
...
ResourceManager[20323]: 2012/11/07_18:22:45 ERROR: Cannot locate resource script mysqld
ResourceManager[20323]: 2012/11/07_18:22:45 ERROR: Resource script for mysqld probably not LSB-compliant.
ResourceManager[20323]: 2012/11/07_18:22:45 WARN: it (mysqld) MUST succeed on a stop when already stopped
ResourceManager[20323]: 2012/11/07_18:22:45 WARN: Machine reboot narrowly avoided!
ResourceManager[20323]: 2012/11/07_18:22:45 info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 stop
IPaddr[20933]:  2012/11/07_18:22:45 INFO: ifconfig eth0:0 down
IPaddr[20909]:  2012/11/07_18:22:45 INFO:  Success
Nov 07 18:22:45 server01 heartbeat: [20309]: info: local HA resource acquisition completed (standby).
Nov 07 18:22:45 server01 heartbeat: [20279]: info: Standby resource acquisition done [foreign].
Nov 07 18:22:45 server01 heartbeat: [20279]: info: Initial resource acquisition complete (auto_failback)
Nov 07 18:22:46 server01 heartbeat: [20279]: info: remote resource transition completed.         
hb_standby[20957]:      2012/11/07_18:23:15 Going standby [foreign].           
Nov 07 18:23:16 server01 heartbeat: [20279]: info: server01 wants to go standby [foreign]  
Nov 07 18:23:16 server01 heartbeat: [20279]: info: standby: server02 can take our foreign resources
Nov 07 18:23:16 server01 heartbeat: [20982]: info: give up foreign HA resources (standby).
Nov 07 18:23:16 server01 heartbeat: [20982]: info: foreign HA resource release completed (standby).
Nov 07 18:23:16 server01 heartbeat: [20279]: info: Local standby process completed [foreign].  
Nov 07 18:23:17 server01 heartbeat: [20279]: WARN: 1 lost packet(s) for [server02] [29924:29926]
Nov 07 18:23:17 server01 heartbeat: [20279]: info: remote resource transition completed.             
Nov 07 18:23:17 server01 heartbeat: [20279]: info: No pkts missing from server02!       
Nov 07 18:23:17 server01 heartbeat: [20279]: info: Other node completed standby takeover of foreign resources.


Còn đây là một số đoạn log /var/log/messages em xem trên server02
Code:
Nov  7 18:21:34 server02 ResourceManager[10165]: CRIT: Giving up resources due to failure of mysqld
Nov  7 18:21:34 server02 ResourceManager[10165]: info: Releasing resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
Nov  7 18:21:35 server02 ResourceManager[10165]: info: Retrying failed stop operation [mysqld]
Nov  7 18:21:44 server02 ResourceManager[10165]: last message repeated 9 times
Nov  7 18:21:44 server02 ResourceManager[10165]: WARN: it (mysqld) MUST succeed on a stop when already stopped
Nov  7 18:21:44 server02 ResourceManager[10165]: WARN: Machine reboot narrowly avoided!
Nov  7 18:21:44 server02 ResourceManager[10165]: info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 stop
Nov  7 18:21:44 server02 IPaddr[10774]: INFO: ifconfig eth0:0 down
Nov  7 18:21:44 server02 IPaddr[10750]: INFO:  Success
Nov  7 18:21:44 server02 mach_down[10140]: info: /usr/share/heartbeat/mach_down: nice_failback: foreign resources acquired
Nov  7 18:21:44 server02 mach_down[10140]: info: mach_down takeover complete for node server01.
Nov  7 18:21:44 server02 heartbeat: [4446]: info: mach_down takeover complete.
Nov  7 18:22:05 server02 heartbeat: [4446]: WARN: node server01: is dead
Nov  7 18:22:05 server02 heartbeat: [4446]: info: Dead node server01 gave up resources.
Nov  7 18:22:05 server02 heartbeat: [4446]: info: Link server01:eth0 dead.
Nov  7 18:22:14 server02 hb_standby[10798]: Going standby [foreign].
Nov  7 18:22:14 server02 heartbeat: [4446]: info: server02 wants to go standby [foreign]
Nov  7 18:22:17 server02 heartbeat: [4446]: info: Heartbeat restart on node server01
Nov  7 18:22:17 server02 heartbeat: [4446]: info: Link server01:eth0 up.
Nov  7 18:22:17 server02 heartbeat: [4446]: info: Status update for node server01: status init
Nov  7 18:22:17 server02 heartbeat: [4446]: info: Status update for node server01: status up
Nov  7 18:22:17 server02 harc[10837]: info: Running /etc/ha.d//rc.d/status status
Nov  7 18:22:17 server02 harc[10852]: info: Running /etc/ha.d//rc.d/status status
Nov  7 18:22:20 server02 heartbeat: [4446]: info: Status update for node server01: status active
Nov  7 18:22:20 server02 harc[10867]: info: Running /etc/ha.d//rc.d/status status
Nov  7 18:22:20 server02 heartbeat: [4446]: info: remote resource transition completed.
Nov  7 18:22:24 server02 heartbeat: [4446]: WARN: No reply to standby request.  Standby request cancelled.
Nov  7 18:22:25 server02 heartbeat: [4446]: info: server02 wants to go standby [foreign]
Nov  7 18:22:25 server02 heartbeat: [4446]: info: standby: server01 can take our foreign resources
Nov  7 18:22:25 server02 heartbeat: [10882]: info: give up foreign HA resources (standby).
Nov  7 18:22:25 server02 ResourceManager[10896]: info: Releasing resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld
Nov  7 18:22:26 server02 ResourceManager[10896]: info: Retrying failed stop operation [mysqld]
Nov  7 18:22:35 server02 ResourceManager[10896]: last message repeated 9 times
Nov  7 18:22:35 server02 ResourceManager[10896]: WARN: it (mysqld) MUST succeed on a stop when already stopped
Nov  7 18:22:35 server02 ResourceManager[10896]: WARN: Machine reboot narrowly avoided!
Nov  7 18:22:35 server02 ResourceManager[10896]: info: Running /etc/ha.d/resource.d/IPaddr 192.168.2.57/24/eth0 stop
Nov  7 18:22:35 server02 IPaddr[11263]: INFO:  Success
Nov  7 18:22:35 server02 heartbeat: [10882]: info: foreign HA resource release completed (standby).
Nov  7 18:22:35 server02 heartbeat: [4446]: info: Local standby process completed [foreign].
Nov  7 18:22:46 server02 heartbeat: [4446]: WARN: 1 lost packet(s) for [server01] [24:26]
Nov  7 18:22:46 server02 heartbeat: [4446]: info: remote resource transition completed.
Nov  7 18:22:46 server02 heartbeat: [4446]: info: No pkts missing from server01!
Nov  7 18:22:46 server02 heartbeat: [4446]: info: Other node completed standby takeover of foreign resources.
Nov  7 18:23:17 server02 heartbeat: [4446]: info: server01 wants to go standby [foreign]
Nov  7 18:23:17 server02 heartbeat: [4446]: info: standby: acquire [foreign] resources from server01
Nov  7 18:23:17 server02 heartbeat: [11300]: info: acquire local HA resources (standby).
Nov  7 18:23:17 server02 heartbeat: [11300]: info: local HA resource acquisition completed (standby).
Nov  7 18:23:17 server02 heartbeat: [4446]: info: Standby resource acquisition done [foreign].
Nov  7 18:23:18 server02 heartbeat: [4446]: info: remote resource transition completed.
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:36:10 (+0700) | #17 | 270814
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
Bắt đầu từ đây:
Code:
ResourceManager[20323]: 2012/11/07_18:22:35 ERROR: Cannot locate resource script mysqld
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:47:15 (+0700) | #18 | 270815
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]

quanta wrote:
Bắt đầu từ đây:
Code:
ResourceManager[20323]: 2012/11/07_18:22:35 ERROR: Cannot locate resource script mysqld
 


Dạ đây là do em chủ quan, tưởng lỗi đó không liên quan tới việc ping thông hay không.
Dạ em đã fix lại rồi ạ, bây giờ em khai báo lại file haresources
server01 IPaddr::192.168.2.57/24/eth0 mysql

Bây giờ em thực hiện lại lệnh ipconfig

Code:
root@server01:/etc/ha.d# ifconfig
eth0      Link encap:Ethernet  HWaddr 00:0c:29:e8:11:ee  
          inet addr:192.168.2.53  Bcast:192.168.2.255  Mask:255.255.255.0
          inet6 addr: fe80::20c:29ff:fee8:11ee/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:4620474 errors:0 dropped:0 overruns:0 frame:0
          TX packets:37909 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000 
          RX bytes:337488285 (337.4 MB)  TX bytes:5986012 (5.9 MB)

eth0:0    Link encap:Ethernet  HWaddr 00:0c:29:e8:11:ee  
          inet addr:192.168.2.57  Bcast:192.168.2.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

lo        Link encap:Local Loopback  
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:1649 errors:0 dropped:0 overruns:0 frame:0
          TX packets:1649 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0 
          RX bytes:393945 (393.9 KB)  TX bytes:393945 (393.9 KB)


Em ping được rồi, nhưng sao em vẫn không thể telnet tới 192.168.2.57 3306 được anh nhỉ (trong khi em telnet tới 192.168.2.53 3306 thì được anh)
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:50:24 (+0700) | #19 | 270816
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]

ngtrongtri wrote:

Dạ đây là do em chủ quan, tưởng lỗi đó không liên quan tới việc ping thông hay không.
 

Có liên quan đấy. Đọc kỹ logs bạn sẽ thấy:
Code:
ResourceManager[20323]: 2012/11/07_18:22:35 CRIT: Giving up resources due to failure of mysqld
ResourceManager[20323]: 2012/11/07_18:22:35 info: Releasing resource group: server01 IPaddr::192.168.2.57/24/eth0 mysqld

ngtrongtri wrote:

Em ping được rồi, nhưng sao em vẫn không thể telnet tới 192.168.2.57 3306 được anh nhỉ (trong khi em telnet tới 192.168.2.53 3306 thì được anh) 

Trong `my.cnf` bạn có set `bind-address = 192.168.2.53` không? `netstat --inet -nlp | grep :3306`?
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:53:39 (+0700) | #20 | 270817
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Dạ có chứ anh.
Code:
root@server01:/etc/ha.d# netstat --inet -nlp | grep :3306
tcp        0      0 192.168.2.53:3306       0.0.0.0:*               LISTEN      23562/mysqld
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 08:59:12 (+0700) | #21 | 270819
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
Hì, nó là "thủ phạm" đấy. Nếu bạn để `bind-address = 192.168.2.53` thì làm sao bạn có thể telnet vào một IP (VIPA) khác được.
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 09:12:36 (+0700) | #22 | 270820
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]

quanta wrote:
Hì, nó là "thủ phạm" đấy. Nếu bạn để `bind-address = 192.168.2.53` thì làm sao bạn có thể telnet vào một IP (VIPA) khác được. 

Yeah, thành công rồi. Cảm ơn anh rất nhiều ^^
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 09:39:48 (+0700) | #23 | 270821
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
ah anh ơi, trên sever02 không có virtual ip hả anh ?
Em thấy không có nhưng vẫn chạy bình thường.
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 09:44:23 (+0700) | #24 | 270822
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]

ngtrongtri wrote:
ah anh ơi, trên sever02 không có virtual ip hả anh ?
Em thấy không có nhưng vẫn chạy bình thường. 

Đọc kỹ lại post số #6: /hvaonline/posts/list/43715.html#270789

Tham khảo thêm các tài liệu khác để hiểu:
- mục đích sử dụng VIPA là gì?
- cơ chế hoạt động của VIPA?
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 09:53:53 (+0700) | #25 | 270823
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Dạ, em sẽ tìm hiểu thêm ạ smilie.
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 08/11/2012 09:56:44 (+0700) | #26 | 270824
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
http://scale-out-blog.blogspot.com/2011/01/virtual-ip-addresses-and-their.html
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 19/11/2012 08:44:05 (+0700) | #27 | 271123
[Avatar]
ngtrongtri
Member

[Minus]    0    [Plus]
Joined: 27/03/2012 22:54:13
Messages: 114
Offline
[Profile] [PM]
Anh, em đã đọc tài liệu VIPs như anh nói, nhưng có phần Virtual IP Addresses and Split-Brain em không hiểu cho lắm.
Ở đây nó nói đến trường hợp kết nối ngẫu nhiên đến các Mysql server khác nhau, như thế là very bad. Em nghĩ nếu như là 2 mysql server riêng lẽ thì đúng là trường hợp này làm cho dữ liệu lưu tung lung. Nhưng nếu trong trường hợp đã replication 2 mysql server rồi thì em nghĩ việc kết nối ngẫu nhiên như thế này sẽ tạo được load balancer (phân tải) chứ ạ, tại sao nói đây là một vấn đề nghiêm trọng
"If you use database replication and both databases are open for writes, as would be the default case with MySQL replication, Tungsten, or any of the PostgreSQL replication solutions like Londiste, your applications will randomly connect to each DBMS server. Your data will quickly become irreparably mixed up. All you can do is hope that the problem will be discovered quickly. " 
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 19/11/2012 12:25:41 (+0700) | #28 | 271132
[Avatar]
quanta
Moderator

Joined: 28/07/2006 14:44:21
Messages: 7265
Location: $ locate `whoami`
Offline
[Profile] [PM]
Mình thấy bạn diễn giải hơi tối nghĩa. Đoạn trên có thể hiểu nôm na thế này: mô hình MySQL replication Active-Active không được khuyến cáo dùng.

(Active-Active có nghĩa là bạn có thể write vào cả 2 servers cùng lúc. Ngược lại với Active-Passive, chỉ write vào 1 server tại 1 thời điểm)

Lý do:
- chuyện gì xảy ra nếu 2 ứng dụng khác nhau update cùng 1 row tại 1 thời điểm?
- chuyện gì xảy ra nếu 2 ứng dụng insert vào cùng 1 bảng có AUTO_INCREMENT column?
- ...
Let's build on a great foundation!
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 11/12/2012 15:03:23 (+0700) | #29 | 271731
redwolf458
Member

[Minus]    0    [Plus]
Joined: 15/03/2012 21:28:30
Messages: 2
Offline
[Profile] [PM]

ngtrongtri wrote:
Trên node 1, bạn chạy `ip addr sh` rồi gửi kết quả lên. 


Đây anh

Code:
root@server01:/usr/share/doc/heartbeat# ip addr sh
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e8:11:ee brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.53/24 brd 192.168.2.255 scope global eth0
    inet6 fe80::20c:29ff:fee8:11ee/64 scope link 
       valid_lft forever preferred_lft forever
 
[Up] [Print Copy]
  [Question]   Xin hỏi về load balancer trên hệ thống Mysql cluster. 11/12/2012 15:03:35 (+0700) | #30 | 271732
redwolf458
Member

[Minus]    0    [Plus]
Joined: 15/03/2012 21:28:30
Messages: 2
Offline
[Profile] [PM]

ngtrongtri wrote:
Trên node 1, bạn chạy `ip addr sh` rồi gửi kết quả lên. 


Đây anh

Code:
root@server01:/usr/share/doc/heartbeat# ip addr sh
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e8:11:ee brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.53/24 brd 192.168.2.255 scope global eth0
    inet6 fe80::20c:29ff:fee8:11ee/64 scope link 
       valid_lft forever preferred_lft forever
 
[Up] [Print Copy]
[digg] [delicious] [google] [yahoo] [technorati] [reddit] [stumbleupon]
Go to: 
 Users currently in here 
1 Anonymous

Powered by JForum - Extended by HVAOnline
 hvaonline.net  |  hvaforum.net  |  hvazone.net  |  hvanews.net  |  vnhacker.org
1999 - 2013 © v2012|0504|218|