banner

[Rule] Rules  [Home] Main Forum  [Portal] Portal  
[Members] Member Listing  [Statistics] Statistics  [Search] Search  [Reading Room] Reading Room 
[Register] Register  
[Login] Loginhttp  | https  ]
 
Messages posted by: romeo_txh  XML
Profile for romeo_txh Messages posted by romeo_txh [ number of posts not being displayed on this page: 0 ]
 
Nếu máy bạn báo lỗi báo transmit failed. general thì có nghĩa là card mạng Ethernet của bạn có vấn đề.1 là card mạng đó hỏng 2 là card mạng driver ko chuẩn nên mới thế
Tốt nhất bạn nên uninstall driver card mạng đi và down card mạng từ trang chủ về là ok
Xưa cài Win mình cũng đã bị trường hợp như thế.Bạn thử dùng đĩa Hirentboot 15 xem.Lần trước mình dùng đĩa HB và vào Menu Recovery->Partition find and Mount.Sau đó mount Ổ E lên copy sang 1 ổ cứng di động rồi Format ổ thì bạn có thể cứu được dữ liệu trên ổ E đó.
Bạn làm thử xem nhé
Thân
Nếu bạn chưa muốn cài lại win thì có thể copy file ping.exe từ thư mục C:\Windows\System32 từ 1 máy tính ko bị virut là ok mà
@wirzfog:Mình có cách hiểu khác,thực ra câu lệnh :$cat file1 < file2 ko bỏ qua đối số input file2 mà đầu tiên câu lệnh này thực hiện input parameter file 2 vào cat.Sau đó cat check đối số đầu vào là tên file.Nếu có tên tệp thì nội dung sẽ được ghi đè vào dữ liệu đã input của cat và output ra màn hình là nội dung của file 1
Mô hình có thể giải thích như sau:
Code:
input parameter---->cat-----read file,ghi đè lên dữ liệu input parameter----->output

Ví dụ:
Code:
$ cat file1
xin chao cac ban
$ cat < file1
xin chao cac ban
$ cat file2
XIN CHAO CAC BAN
$ cat < file2
XIN CHAO CAC BAN
$ cat < file2 file1
xin chao cac ban
$ cat file1 < file2
xin chao cac ban
$ cat < file1 < file2 file2 < file1 file2
XIN CHAO CAC BAN
XIN CHAO CAC BAN
-->câu lệnh này chứng tỏ toàn bộ dữ liệu input parameter đã bị ghi đè bởi dữ liệu của đầu vào là file
và ko phân biệt thứ tự của input và file.

Thân

@m3onh0x84:Có thể bạn đã bật tính năng "Opera Turbo On" ,khi được bật lên,khi bạn gửi 1 yêu cầu URL thì sẽ được gửi đến server của opera trước sau đó nén lại rồi gửi đến máy tính của bạn.Tại đây Opera Turbo mới giải nén ra.Như thế bạn vừa duyệt web nhanh vừa có thể sử dụng proxy có sẵn để vào trang web bị chặn(ở đây là facebook)
Còn mình vừa test xong,khi dùng Open DNS thì cả firefox,IE,Opera đều vào dược chứ ko phải mỗi Opera(ko bật tính năng "Opera Turbo On").Bạn có thể đưa thêm thông tin để mọi người cùng check dược ko?
Thân
@khuecoi94:bạn cho mình hỏi:Nếu nhà bạn có 1 cái cổng để ra vào(Tương đương với mỗi 1 ISP có 1 vài cổng để kết nối ra thế giới).Trên cái cổng đó bạn để ra 1 luật:nếu gặp 1 ai đó tên là "facebook" thì ở bên trong không cho forward ra ngoài(discard luôn packet đó) thì làm sao mà bạn gửi packet đến open DNS để resquest.Bạn có thể giải thích cho mình hiểu cơ chế bạn đi ra ngoài bằng Open DNS trong trường hợp này được ko?
Thân.
nếu muốn vào được trang đó phải đổi DNS 

Có nhiều cách để vào dược trang facebook.com mà chứ ko cần phải đổi DNS,bạn cho mình hỏi nếu ISP chặn các URL có chứa chữ "facebook" thì theo bạn đổi DNS có vào dược facebook nữa ko ? smilie
Thân
@khuecoi94:bạn vẫn chưa trả lời câu hỏi của mình mà?Còn khi bạn ko vô được trang web đó,thế còn các trang khác bạn có vào dược ko.Còn mình dùng cách đó vẫn vào dược facebook bình thường mà.Mong nhận dược câu trả lời của bạn
Thân
@khuecoi94:oái,bạn hiểu link mình đưa như thế nào mà lại nói thế smilie.Còn chờ bạn kiemsitocno thông báo kết quả mà.Cùng thảo luận mới vui chứ :-P
@kiemsitocno:bạn thử cách này xem sao nhé
Code:
http://www.lite.facebook.com

Thân.
@quanta:bạn có thể nói rõ hơn tại sao bạn lại muốn check processes interact with these devices trong trường hợp này được ko
Chọn PP size lớn hay nhỏ còn tuỳ thuộc vào dữ liệu mà bạn có trên đĩa. Ví dụ: nếu bạn có hàng nghìn files có kích thước nhỏ thì chọn PP size nhỏ sẽ đỡ lãng phí các khoảng trống hơn 
Mình nghĩ khác,cái quyết định sự lãng phí khoảng trống do 3 yếu tố:dữ liệu của mình,physical block,logical block.Chứ mình nghĩ PP ở tâng trên rồi nên sẽ ko ảnh hưởng nhiền lắm.Không biết ý kiến của mình có đúng ko mong bạn và mọi người cùng góp ý.
Thân.
@quanta:cảm ơn bạn đã giúp đỡ mình,trên AIX ko có câu lệnh :lsof,còn mình đã đối chiếu khi chạy câu lệnh thứ 2 của bạn search process trên fs Code:
/proc
mình thấy ko có số lượng process trong fs và số lượng process chạy check qua câu lệnh Code:
ps -ef
ko khác nhau bạn à.Mình mong bạn cho ý kiến về vấn đề đầu tiên của mình,liệu PP size là 1024MB có ảnh hưởng gì đến performance của hệ thống ko?
Thân.
@quanta:cảm ơn bạn đã đưa link cho mình,mình đã đọc khá kĩ link đó nhưng mình thấy hình như là chưa đúng với trường hợp của mình.Mình mong bạn và mọi người cùng giúp đỡ mình thêm.
Mình cũng trình bày thêm ý kiến của mình về vấn dề này như sau:
1.Code:
PP size: 1024 megabyte(s)

Có ảnh hưởng gì dến performance của hệ thống hay ko,vì đây là kích thước lớn nhất của 1 PP .

2. df includes both user data (files and directories) plus meta data nhưng ko thể chiếm đến 20GB

3.Application run mỗi ngày sinh ra log theo ngày,sau khoảng 3 ngày thì mình có xóa log cũ đi và sau tầm 1 tuần mày có reboot server nên mình ko nghĩ có hiện tượng remain count size file open .Mong nhận dược thêm lời khuyên của mọi người . smilie

Thân.
Mình đang có 1 vấn đề thắc mong được mọi người giải đáp.Đó là bên mình có 1 server IBM cài AIX 5.3 trong đó có cấu hình 1 file system như sau:
Code:
LOGICAL VOLUME: lv21 VOLUME GROUP: appvg
LV IDENTIFIER: 00c02c4200004c000000011b9f0d9f7a.2 PERMISSION: read/write
VG STATE: active/complete LV STATE: opened/syncd
TYPE: jfs2 WRITE VERIFY: off
MAX LPs: 512 PP size: 1024 megabyte(s)
COPIES: 2 SCHED POLICY: parallel
LPs: 65 PPs: 130
STALE PPs: 0 BB POLICY: relocatable
INTER-POLICY: minimum RELOCATABLE: yes
INTRA-POLICY: middle UPPER BOUND: 32
MOUNT POINT: /21 LABEL: /21
MIRROR WRITE CONSISTENCY: on/ACTIVE
EACH LP COPY ON A SEPARATE PV ?: yes
Serialize IO ?: NO

Và mình có mirror Logical Volum này nên size LV này chỉ là 65G.
Tuy nhiên có 1 vấn đề xảy ra đó là dung lượng sử dụng trên filesystem của LV này đuơc check qua câu lệnh DF và lệnh DU khác nhau
Cụ thể là
Command: df -g
Code:
/dev/lv21 65.00 10.69 84% 198707 4% /21
=>dung lượng dùng là :65-10,69=54,31G
Command :du -g
Code:
/21 :34.46

Mình đang cố gắng tìm hiểu nguyên nhân tại sao lại bị thiếu gần 20GB như thế, LV này là nơi chứa log của hệ thống chay hàng ngày và dữ liêu được sinh ra theo ngày và tầm 3 ngày thì mình delete dữ liêu cũ 1 lần.Mong được mọi người giúp để tìm được nguyên nhân.Cảm ơn mọi người đã quan tâm smilie
Thân.
@quanta:bạn có thể nói rõ hơn về ý của bạn được ko,mình vẫn chưa hiểu ý bạn!
Thân
MÌnh mới gặp,ko rõ tại sao nữa.Tại bên mình thi thoảng hay phải restart server,tại hôm đó mình check qua hệ thống thì tự nhiên thấy có hiện tượng đó ,search cái tài liệu nước ngoài thì ko nói gì đến vấn đề này cả nên mình dang ko biết giải quyết thế nào.Mong được mọi người cho thêm các ý kiến
Thanks
@quanta:Mình ko động gì đến VG gì cả,còn tối thứ 7 mình restart lại server thì ko còn hiện tượng duplicate này nữa,bạn có kinh nghiệm có thể chỉ cho mình đọc log tracert lỗi này được ko?Thanks bạn.
Mình đang có 1 vấn đề ko rõ mong được mọi người giải đáp:
Bên mình cấu hình có 1 con là NFS server share 2 file system cho tất cả các máy chủ đều có thể mount về dùng(Tất cả các máy đều cài OS AIX 5.3)
Ở /etc/filesystems mình chỉ add duy nhất 2 filesystem đó thôi.
Nhưng có 1 vấn đề là khi 2 máy chủ mount 2fs đó về nhưng có 1 trong 2 máy chủ đó đã mount duplicate 1fs ,mọi người cho mình lời khuyên để mình tracert lỗi này với.Thanks mọi người đã quan tâm
Cụ thể Server A bị lỗi : df -g

h1:/samfile1 10.00 9.93 1% 12 1% /samfile
h1:/special1 5.00 4.97 1% 90 1% /special
/dev/lv_temp 4.88 4.87 1% 6 1% /home/temp
h1:/samfile1 10.00 9.93 1% 12 1% /samfile

Nhưng khi dùng lệnh lsfs thì okie:

/samfile1 h1 /samfile nfs -- rw,bg,hard,intr,sec=sys yes no
/special1 h1 /special nfs -- rw,bg,hard,intr,sec=sys yes no

Còn server B cũng mount fs từ máy chủ NFS server thì ko sao

h1:/samfile1 10.00 9.93 1% 12 1% /samfile
h1:/special1 5.00 4.97 1% 90 1% /special

lsfs trên Server B:

/samfile1 h1 /samfile nfs -- rw,bg,hard,intr,sec=sys yes no
/special1 h1 /special nfs -- rw,bg,hard,intr,sec=sys yes no
Thank mọi người đã giúp đỡ mình,còn mình đã giải quyết được vấn đề.Lỗi của hệ thống mình là '/dev file system not found' do disk chứa OS bị lỗi nên đã bị missing file system /dev.
Mình đã dùng disk khác ,sau đó restore OS full từ tape tới disk đó by command:
make_recovery -AC -d /dev/rmt/0m
Và hệ thống của mình đã okie.

Best&Regards.
Thank anh nhiều lắm smilie
@quanta:ý mình là trong file /etc/hosts của tất cả các server của hệ thống của mình đều add ip và hostsname để có thể hiểu dược nhau nên các server luôn có thể được đặt ưu tiên để có thể login vào lẫn nhau khi hệ thống có quá nhiều sesion.Nhưng lần này cả khi mình đứng ở secondary ssh vào primary cũng ko dược Còn system của mình chỉ có 1 file hosts ghi lại ip và hostname của các server nằm trong hệ thống

@pnco:Bên hệ thống của mình ko cấu hình file /etc/hosts.allow và /etc/hosts.deny vì hệ thống bên mình chạy riêng mạng Private chỉ có đứng trong mạng các client mới có thể connect tới server.Còn bên ngoài External ko thể connect tới được.
Tối qua lúc mình chẹck lại thì phát hiện đã bị missing /dev nên hệ thống giờ ko thể boot dược.Mong được mọi người giúp đỡ thêm
Thanks alot
Info:
OpenSSH_5.1p1+sftpfilecontrol-v1.2-hpn13v5, OpenSSL 0.9.7m 23 Feb 2007
HP-UX Secure Shell-A.05.10.006, HP-UX Secure Shell version
debug1: Reading configuration data /opt/ssh/etc/ssh_config
debug2: ssh_connect: needpriv 0
debug1: Connecting to 10.0.91.10 [10.0.91.10] port 22.
debug1: Connection established.
debug1: identity file /home/sysopr2/.ssh/identity type -1
debug1: identity file /home/sysopr2/.ssh/id_rsa type -1
debug1: identity file /home/sysopr2/.ssh/id_dsa type -1
ssh_exchange_identification: Connection closed by remote host


Còn secondary app mình nói ở đây là do hệ thống của mình có tất cả là 4 app,server die là primary app còn 3 server còn lại là các server phụ để blance khi hệ thống quá tải.Còn mình đáng lệnh ssh -vv có result ở trên là mình đứng ở 1 trong server app phụ đó.
Thanks alot
@pnco:Theo mình thì chắc là ko phải vì cách đây 2h mình vẫn vào bình thường,còn ko chỉ ip của mình mà bất kì ip nào cũng ko thể ssh vào dược.Kể cả khi mình add trong file hosts ip của secondery app cũng bị thế màsmilie
Còn mình ko thể login trực tiếp vào server vì server ko đặt ở gần vị trí của mình.
Thanks alot
Khi mình vào bằng Scrt thì bị báo là not conectted, còn khi mình ssh từ 1 app secondary vào con primary nào thì bị nhận thông báo:
ssh_exchange_identification: Connection closed by remote host
Mong được mọi người chi giáo
Thanks alot
Hệ thống của mình đang dùng HP9000 cho app,bình thường ko sao nhưng đã từ cách đây 2h đồng hồ ko thể ssh được vào hệ thống mặc dù scanport thì port 22 vẫn mở và ping thì okie.Bên mình ko thể shutdown được vì phải thực hiện giao dịch 24/24.Mong được mọi người giúp đỡ để có thể giải quyết được vấn đề này.
Thank alot
ý của em là muốn nhờ mọi người giải thích cho em có thể hiểu rõ hơn về khái niệm corefiles in AIX 5.3.Và em muốn hiểu về nó thì em phải làm gì,vì em hoàn toàn ko có 1 định hướng nào để có thể hiểu về nó.Mong dược mọi người chỉ bảo thêm.
Thank
Mình đang nghiên cứu corefiles in AIX 5.3 và cũng đã dùng 1 số câu lệnh như:chcore,dbx nhưng thực sự mình vẫn chưa thực sự hiểu lắm về corefiles này.Rất mong mọi người có thể giải thích giùm mình với.
Cảm ơn
Mình đang có 1 vấn đề thắc mắc mong được mọi người giải đáp.Mình có 1 mô hình mạng các máy tính đều nằm cùng dải địa chỉ 192.168.x.x ,cùng kết nối cùng 1 switch gồm có 4 máy.Điều mình thắc mắc là ping tất cả các máy đều thông nhau nhưng mà chỉ có cặp máy (192.168.1.3,192.168.1.5),(192.168.1.2,192.168.1.4) là truy cập dược vào thư mục share của nhau còn ko thể nhìn sang các máy tính còn lại được.Mình đã nghĩ tới virut nên đã quét virut và thấy ko bị nhiễm smilie
((
9t đó bạn có tính cả màn hình vào ko nếu ko tính màn hình thì mình nghĩ là tầm tiền đó là ổn,còn nếu tính cả màn vào thì mình sợ là hơi ít đó bạn
Thank bạn nha, khi lần đầu tiên nó báo lỗi này mình lại đánh -pn là chữ thường nên soft báo là ko tìm thấy dòng lệnh này,đúng là sẩy 1 li đi 1 dặm bạn à smilie
 
Go to Page:  Page 2 Last Page

Powered by JForum - Extended by HVAOnline
 hvaonline.net  |  hvaforum.net  |  hvazone.net  |  hvanews.net  |  vnhacker.org
1999 - 2013 © v2012|0504|218|