banner

[Rule] Rules  [Home] Main Forum  [Portal] Portal  
[Members] Member Listing  [Statistics] Statistics  [Search] Search  [Reading Room] Reading Room 
[Register] Register  
[Login] Loginhttp  | https  ]
 
Messages posted by: mR.Bi  XML
Profile for mR.Bi Messages posted by mR.Bi [ number of posts not being displayed on this page: 0 ]
 
---> Tại sao lại có việc này? Thật sự squid có trách nhiệm thực thi công tác ấy không?  

Em không rõ, nên em đặt câu hỏi này với anh. Thật ra squid có thực thi công tác này hay không không quan trọng, không phải squid thì cái gì khác cũng phải tìm kiếm, cho dù số lượng object được cache được index kĩ lưỡng đến mấy thì cũng phải có tác vụ tìm kiếm để trả kết quả về cho client, hoặc là em đang nhầm lẫn cái gì đấy.

Đối với một Linux server khi đã tối ưu và được sắp xếp để thực hiện một số công việc cụ thể như trường hợp ở đây thì CPU + memory phải được tính toán thật kỹ. Trong 512Mb RAM thì kernel và OS chỉ sử dụng chừng 10Mb là tối đa. Phần còn lại dành cho squid và dansguardian. Bởi thế, những object được cache và được dùng thường xuyên hầu hết là nằm trên bộ nhớ cho nên việc tái sử dụng chúng để cung cấp cho trình duyệt của các máy con trong mạng sẽ xẻ ra hết sức nhanh chóng và nhẹ nhàng. Bản thân cấu hình squid theo mặc định đã khá tối ưu. Tuy nhiên người quản lý nó cần theo dõi để ấn định "tuổi thọ" của cache một cách hợp lý để tránh tình trạng trì trệ trong quy trình xử lý thông tin đã cache trên đĩa.

Đối với việc duyệt web thì tính hiệu suất của disk i/o không quá nghiêm trọng và không phải là tiêu điểm cần chú ý bởi vì dù có chậm mấy đi chăng nữa thì cũng chỉ ở biên độ ms (millisecond) chớ không phải s (second). Cổ chai thường nằm ở băng thông của đường truyền chớ không phải ở chỗ i/o trên hệ thống cache. Disk I/O chỉ thật sự nghiêm trọng đối với các hệ thống CSDL.
 


Đúng là với một hệ thống rất ít người sử dụng như thế, tài nguyên server như trên là đủ. Tuy nhiên theo em, lượng ram mà server tốn ngoài cung cấp cho Kernel + OS + squid + Dansguardian còn có dnscache, clamav, qmail cho nên 512MB ram này bị ngốn bởi nhiều tiến trình. không chỉ mỗi squid.
Hơn nữa, disk cache dành cho squid phụ thuộc vào lượng available ram của server.
Em không thắc mắc gì về cách triển khai server của anh, em chỉ thắc mắc liệu anh dùng 19GB có cần thiết và có tối ưu?
Nếu là em, trong trường hợp này em chỉ dành 200 MB disk space cho squid cache, vì em vẫn thiên về hướng làm sao cho squid đáp ứng nhanh nhất có thể.
Sở dĩ em đặt câu hỏi này là vì, em cũng có triển khai một Linux server dùng centos, tài nguyên server gồm cpu core2duo 2GB, 160GB disk và 1GB ram. Server này dùng Netfilter/iptables, BIND9, squid làm caching proxy. Trên server này em chỉ dùng 300MB disk cho squid cache, hiện tại cũng rất ổn định. Nhân viên ở đây khoảng chừng 50 người. Khi đọc topic của anh, em thấy với một server yếu như thế, anh dùng 19GB cache cho squid, vậy tại sao em không thể? smilie , nhưng khi nâng lượng cache lên 10GB thì squid hoạt động kém hẳn, thậm chí đơ ra, chỉ khi restart squid thì trở lại bình thường. Cứ khi nào nhân viên đến đủ và bắt đầu truy cập ồ ạt vào web hoặc download, thì squid lại chết đứng. Quay trở lại cấu hình cũ (300MB) thì mọi chuyện lại ok.
Hi sorrylove567,
Vẫn giữ ý kiến lúc đầu là em nên đi học ĐH. Đừng nên tự ti là mình không có khả năng, em cứ học rồi sẽ thấy khả năng của mình ngày càng nâng cao, em chưa học, chưa có khả năng là đúng rồi còn gì.
Về phần đại học và các trung tâm dạy chứng chỉ, anh không đưa ra so sánh. Thực tế công việc và tiếp xúc cho anh thấy, nhiều bạn bỏ công học ĐH bao nhiêu năm ra chả để làm cái gì, anh tự hỏi mấy bạn ấy lúc học ĐH đã làm gì để có được tấm bằng trên tay, để rồi ra đi làm, kiếm được việc làm vì một lí do nào đấy, may mắn? hay cái gì đó sâu xa hơn smilie
Anh cũng thấy nhiều bạn học ĐH ra, đi làm và cho rằng những bạn không có bằng đh là kém cỏi, là không có nền tảng, là kiến thức ăn liền, nhưng bản thân mấy bạn ấy cũng có hơn ai đâu smilie

Về kinh nghiệm cá nhân, anh đã từng học ĐH, sau đó bỏ, đi làm. Sau thời gian đi làm anh cũng học ĐH lại. Em còn quá trẻ, con đường phía trước còn dài, ước mơ em có, định hướng em có, thì cứ thế nhẳm thẳng hướng mà đi. Trường ĐH cho em nhiều thứ hơn là kiến thức.
Ráng luyện thi đi, vào trường nào không quan trọng, quan trọng là vào rồi đừng "ra trường" sớm quá là được smilie .
19 GB cache với tốc độ của một cpu PII 400MHz và 512MB Ram thì có "ngợp" không anh?
Disk I/O luôn là vấn đề nhức đầu với system admin, em cứ nghĩ tới việc tìm cho ra một object có dung lượng 10kB trong 19GB cache với hệ thống cũ kĩ đó cũng đã mệt mỏi rồi.
Em thắc mắc anh cấu hình squid thế nào?
Học xong 12 sao em không thi tiếp lên ĐH ? Quản trị mạng hay quản trị hệ thống cũng cần một nền tảng kiến thức vững vàng mới có nhiều khả năng tìm được viêc làm và tự tin khi làm việc.
Code:
sudo yum clean dbcache
sudo yum clean metadata
sudo yum update
sudo yum install tenpackage

conmale wrote:
Squid thì tích hợp với dansguardian + clamav để lọc và scan "Windows virus" ngay trên proxy trước khi đi vào trình duyệt của còn cái qmail thì làm SMTP gateway có tích hợp với spamdyke + odeiavir để lọc spam và virus đi xuyên qua mail. DNS forward thì dùng dnscache trong bộ djbdns. Linux server này chỉ có 512Mb RAM (chủ yếu cho squid và dansguardian) và chạy trên trên một con PII (400Mhz) cũ kỹ với ổ đĩa là 20Gb (chủ yếu để chứa cache cho squid). Nếu cần VPN cho Windows network bên trong thì đã có sẵn pptp module. Chỉ cần NAT vào một Windows server bên trong là xong. Windows client bên ngoài chỉ cần dùng pptp client connect với public IP của cái Linux server ấy là xong (nhưng cty ấy không có nhu cầu phải VPN). Server này chưa hề cần được restart ngoại trừ phải shutdown vài lần vì phải di chuyển server sang vị trí khác trong văn phòng.  

Xin lỗi anh vì em thắc mắc vấn đề không liên quan đến chủ đề.
Chỗ màu đỏ em không hiểu ý anh lắm, anh "mở ngoặc" 20GB ngoài phần không gian dành cho OS và các ứng dụng khác, phần còn lại để chứa cache của squid? Có nghĩa là anh dùng khoảng chừng 10GB cho squid cache?
Bạn thử
Code:
chroot_local_user=YES
Đương nhiên là tớ mới cài thì dùng genkernel rồi. nhưng thấy trong /usr/src/ có genkernel 2.6.31. Còn đọc trên hướng dẫn thấy có đoạn copy kernel của arch vào , k0 hiểu sao nữa.
 

Dùng genkernel thì không có đoạn copy kernel vào /boot. Mình đã nhắc bạn rồi, làm genkernel thì chỉ đọc genkernel, làm bằng tay thì đọc phần bằng tay. Tới khi bạn "thạo" rồi và cần những cái sâu hơn tí như lvm2 thì lúc đó làm bằng tay xong rồi genkernel, nhưng bước đầu bạn hãy làm sao cho hệ thống boot được đã. Nhưng boot được tới khi xài được thì còn xa lắm smilie

Cái hướng dẫn đó là tớ đọc trên forum của gentoo nhưng thực tế. là phải symbolic link từ /boot đến /dev/sda1 mới được  

Ô, bạn tạo symbolic link thế nào hay thế? tạo link từ mount point của /dev/sda1 đến /dev/sda1 được kia à?
Code:
thực ra cài gentoo cũng k0 khó , cũng chỉ như cài backtrack 3 thôi. nhưng nó lằng nhằng và dài hơn bt3

Mình chưa bao giờ đụng tới backtrack nên không dám nói, cái đấy thuộc hàng advance linux rồi, mình không biết xài.

ps: Đọc cái grub config của gentoo đó đến mòn mắt roài 

Mắt bạn mau mòn vậy.
Bạn dùng genkernel hay cấu hình manual? Sao grub.conf của bạn nó tây ta lẫn lộn thế ?
Cái phần mount /boot rồi tạo symbolic link đó, thực chất không cần thiết, menu.lst luôn là symbolic link của grub.conf mà (?)
Bạn đọc lại cái này: http://www.gentoo.org/doc/en/handbook/handbook-x86.xml?part=1&chap=10
Dùng genkernel thì đọc hướng dẫn cài grub cho genkernel, làm bằng tay thì theo hướng dẫn bằng tay.
Bạn đang dùng phần mềm nào làm proxy và triển khai LDAP ? Đã xây dựng và cấu hình được LDAP server chưa (Windows AD, OpenLDAP..? )
Bạn tìm thế nào mà không thấy?
Hi anh,
Anh đã làm được chưa, có thể chia sẻ một chút cách làm của anh để em học tập được không?
Hiện tại bên em gặp một vấn đề khá nhức đầu, một vài cá nhân nào đó sử dụng email free (yahoo, google) gởi các email giả mạo, nói xấu người khác vào hệ thống mail nội bộ công ty.
Việc chặn các email này theo blacklist thì thụ động quá, em cũng muốn setup một hệ thống có thể làm việc:
+ Email từ các dịch vụ free như yahoo, google, hotmail...được đưa vào một nơi đặt biệt, chờ kiểm duyệt, nếu vi phạm thì xóa, không vi phạm thì cho qua.
+ Các email từ các nơi khác thì cho vào bình thường.

Nếu anh làm được rồi thì cho em biết hướng giải quyết của anh với nhé.
Cám ơn anh.
Đọc thật kĩ handbook. Không phải handbook bày cài trên 4 phân vùng là chỉ cài được trên 4 phân vùng. Nếu bạn muốn cài trên chỉ 2 phần vùng thì thời gian cài sẽ...nhanh gấp đôi chứ chẳng thể nào có lỗi cả :-p.
Lỗi chỗ nào thì wgetpaste nó lên đây, mình hứa sẽ giúp tận tình.
bolzano_1989: lol. Nhưng nó nói về Gentoo là thật đấy. Đừng thấy ai cũng bảo gentoo khó mà sợ, hãy nghĩ tới cảm khác khi cài xong Gentoo, em nắm rõ được hệ thống mình có gì, phần cứng, phần mềm đang sử dụng ra sao, sẽ có cảm giác sương sướng, ha ha.
Không cần phải PCI express, nếu bạn không mua card đồ họa sử dụng PCI exp :-p. Để dạy học các ứng dụng đồ họa thì theo mình nghĩ chắc không cần sử dụng card mạnh làm gì, vì một bài đồ họa ít khi nào sử dụng nhiều lớp layer và file lớn, card đồ họa bình thường là được.
Tuy nhiên cái khó của Betwin là nó không ổn định, nhất là bạn xài hàng non-license.
Chỗ mình cũng xài Betwin :-D, nhưng có kế hoạch gỡ bỏ và xài máy riêng lẻ cho từng nhân viên.
Với Betwin bạn có thể chia 1 máy thành 5 máy với 5 màn hình, 4 card đồ họa rời + 1 onboard, 5 phím, 5 chuột. Vẫn xài máy in ok, chỗ mình đang xài, không hiểu chỗ anh Thắng bị gì smilie
Tuy nhiên, tiết kiệm chi phí thí kéo theo cái khác. Với máy riêng lẻ, một máy hư, thì một người duy nhất bị ảnh hưởng, nhưng nếu bạn sử dụng máy in, một người gặp vấn đề là 4 người khác ngồi chơi chung luôn :-p.

Nếu bạn mua License Betwin nữa thì có lẽ ok, nó sẽ ổn định hơn, mình tin là vậy.
ha ha, mắt với mũi.
nhưng vẫn thắc mắc sao lại không tóm được zombie nào?
@Abe: con số 100 req/s là nhầm lẫn, 200 req/phút thì chính xác hơn. Còn con số 10.000 IP thì nói cho nó chẵn lại, chênh lệch trên hay dưới nó không bao nhiêu cả. Lưu ý cách làm là lấy ra từ NSM những IP gửi lớn hơn 200 req/phút, và chặn chúng nó lại trên firewall. Do đó chọn cái con số này cũng phải tính toán, chọn như 100 req/s thì sẽ không bắt được anh zombie nào, còn chọn thấp quá thì sẽ có nhiều khách hàng chết oan. Việc này tính toán này thường là *trial-and-error*, chọn đại một con số nào đó, rồi thử xem có phù hợp hay không.  

Phần màu đỏ khiến em hơi thắc mắc, nếu 200reqs/s là con số chính xác, thì con số 100reqs/s là một sai số (dù lớn) nhưng cũng nằm trong mức độ tóm được và có thể tóm nhầm, sao lại không tóm được anh zombie nào ?
Dù chưa từng đảm trách một hệ thống cỡ bự nào, nhưng đã có lần làm việc với một website chịu tần cống từ khá nhiều IP, mặc dù hệ thống servers chịu tải cho website này là khá lớn và rất chuyên nghiệp nhưng vẫn rụng như thường smilie . Cách mà em áp dụng lúc đó (nhất thời) : Tính toán số request mà customer thật sự cần thiết tạo ra trong thời gian nhất định, sau đó đặt rule loại trừ. Trong một khoản thời gian đó, một IP request quá con số cho phép, DROP. Nếu IP này tiếp tục thực hiện những request vi phạm rule này trong n lần, dựa theo log, BLOCK. Sau một khoản thời gian nào đó thì UNBLOCK nó.

Thật chất thì cách đó hoàn toàn là nhất thời và không lâu dài, vì dù cho tính toán đến đâu thì vẫn BLOCK nhầm số lượng khách hàng nào đó.
Cách nữa là cho qua tất, cách này thì anh conmale đã có nhắc đến trong kí sự DDOS, bằng cách sử dụng Discard service.

Còn nguyên tắc không chặn bừa mà chặn chắc chắn như mrro thì em chưa có điều kiện, cũng như khả năng để làm. Thật chất là vẫn chưa hình dung được hệ thống "máy học" NSM này hoạt động thế nào mà chặt chẽ như thế.




Sorry anh, em trả lời hơi chậm. Hiện tại client đã login được qua ldap và dùng nfs.
Tuy nhiên, việc dùng autofs và mount cứng /home ở mỗi client thì autofs có ưu điểm gì hơn anh?
Giả sử chỗ em có 50 client, 50 client này lúc boot lên đều mount /home về nó, thì nfs server có khả năng đáp ứng không?
So với việc nếu user nào login thì $HOME của user đó mới đc mount, phương thức nào đảm bảo nfs server "sống dai" hơn smilie.

+Gentoo : (Nghe nói ko phải đất của Newbie vì từ đâu đã bắt tự dịch kernel :-ss)  

Sao mình thấy ở http://uncyclopedia.wikia.com/wiki/Gentoo#Installation nói dễ lắm mà smilie

brucelee.star wrote:
tại sao python của mình lại bị lỗi này nhỉ?
các bạn giải thích giùm với...
>>> blog[0]
sau đó ấn enter thì nó báo lỗi:
Traceback (most recent call last):
File "<pyshe11#0>", line 1, in <module>
blog[0]
NameError:name 'blog' is not defined

(python 3.0) 

Python báo lỗi not defined kìa bạn, bạn tìm tài liệu nào đó về đọc đi, hay ngay chính topic này của onlinehack cũng đã chỉ rồi.
VN mình có vithon.org với nguyên bộ python tutorial được dịch công phu, bạn vào đó mà đọc.
Code:
>>> blog = [ 'new', 'old' ]
>>> blog[0]
'new'


bật php log lên xem thử bạn. apache log có gì?
Việc server có 50.000 visits per day liên quan gì tới việc không show logs lúc bị lỗi smilie
Hì, cái này em giải quyết được rồi, unmask setuptools phiên bản mới, resync rồi install lxml lại là ok.
Cám ơn anh.

quanta wrote:
PS: Mình cũng đã từng thử Chrome browser trên Linux nhưng không được "nuột" lắm. Firefox vẫn là vô địch. 

Đối với em, Chromium chỉ thua Firefox ở chỗ vào HVA không dùng được bộ gõ mà phải dùng bộ gõ của mình thôi. Còn các điểm khác ăn đứt firefox.
À, còn một điểm nữa là đôi lúc vào những website bằng chromium thì khung một đường, text một nẻo.
/etc/init.d/dhcpd configtest
Chào mọi người,
Mình đang có vấn đề chưa hiểu được cách thức hoạt động cũng như tiến trình thực hiện của mô hình bên dưới

Code:
Openldap============Client==============NFS server

Mô hình mình muốn thực hiện cần đảm bảo yêu cầu:
1. User login vào Client (Linux) được authenticate qua OpenLDAP
2. Home directory của User được automount từ NFS server.
3. User dù login ở bất cứ client nào thì /home/$USER vẫn tự động mount cho user này mà không thay đổi.

Vậy để làm được yêu cầu trên thì cần những gì ngoài Client, NFS server và Openldap smilie. Hiện tại mình đã có OpenLDAP, và NFS nằm trên 2 con server khác nhau, nhưng vẫn chưa biết hướng đi để đạt được mục đích trên là thế nào.
Mong mọi người giúp.

Thật chất thì mình đặt câu hỏi khá mơ hồ vì mình chưa biết nói sao cho dễ hiểu hơn được smilie .

Trong trường hợp này mình nghĩ chỉ cần thêm một rule là Clients có thể ra internet được:

iptables -A RH-Firewall-1-INPUT -i $LAN_IF -p tcp -m tcp --dport $SQUID_PORT -j ACCEPT

Trong đó $LAN_IF là interface kết nối với LAN của bạn. $SQUID_PORT là port bạn cấu hình để squid tiếp nhận request.
Bạn sử Distro Linux nào? Squid phiên bản bao nhiêu? Bạn cấu hình Squid làm Transparent proxy hay http proxy?
Nếu bạn muốn squid hoạt động như là một transparent proxy thì bạn cần cấu hình iptables cho phép:

1. Client được phép truy cập đến squid port trên chính server bạn đang cấu hình iptables.
2. Request của client phải được iptables forward sang squid port.
3. Các request từ bên ngoài truy cập đến server ở port 3128 phải bị DROP.

Trong trường hợp bạn tắt Firewall, thì Squid của bạn hoàn toàn không hoạt động, nó chẳng có vai trò gì ở đây cả.
Muốn squid hoạt động, thì phải kết hợp squid với iptables.

Mình không hiểu thuật ngữ "disable firewall" của bạn lắm bởi vì khi bạn disable iptables mà client vẫn truy cập internet được thì đối vơi mình...hơi lạ.
http://www.levenez.com/unix/
http://www.unix.org/what_is_unix/history_timeline.html
http://www.cs.cmu.edu/~awb/linux.history.html
Chào mọi người,
Mình đang muốn cài đặt gói dev-python/lxml trên gentoo, nhưng cứ compile là lỗi setuptools, mình đang sử dụng setuptools 0.6.4.
Thông tin lỗi:
Code:
>>> Unpacking source...
>>> Unpacking lxml-2.2.3.tgz to /var/tmp/portage/dev-python/lxml-2.2.3/work
>>> Source unpacked in /var/tmp/portage/dev-python/lxml-2.2.3/work
>>> Preparing source in /var/tmp/portage/dev-python/lxml-2.2.3/work/lxml-2.2.3 ...
* Applying lxml-2.0.3-no-fake-pyrex.patch ...
 [ ok ]
>>> Source prepared.
>>> Configuring source in /var/tmp/portage/dev-python/lxml-2.2.3/work/lxml-2.2.3 ...
>>> Source configured.
>>> Compiling source in /var/tmp/portage/dev-python/lxml-2.2.3/work/lxml-2.2.3 ...
* Building of dev-python/lxml-2.2.3 with Python 2.6...
python2.6 setup.py build -b build-2.6
Traceback (most recent call last):
File "setup.py", line 17, in <module>
pkg_resources.require("setuptools>=0.6c5")
File "/usr/lib/python2.6/site-packages/pkg_resources.py", line 621, in require
needed = self.resolve(parse_requirements(requirements))
File "/usr/lib/python2.6/site-packages/pkg_resources.py", line 519, in resolve
raise DistributionNotFound(req) # XXX put more info here
pkg_resources.DistributionNotFound: setuptools>=0.6c5
*
* ERROR: dev-python/lxml-2.2.3 failed.
* Call stack:
* ebuild.sh, line 49: Called src_compile
* environment, line 3396: Called distutils_src_compile
* environment, line 823: Called python_execute_function 'building'
* environment, line 2978: Called die
* The specific snippet of code:
* die "${failure_message}";
* The die message:
* Building failed with Python 2.6 in building() function
*
* If you need support, post the topmost build error, and the call stack if relevant.
* A complete build log is located at '/var/tmp/portage/dev-python/lxml-2.2.3/temp/build.log'.
* The ebuild environment file is located at '/var/tmp/portage/dev-python/lxml-2.2.3/temp/environment'.
*


Thông tin: Code:
uname -a
Linux lunix 2.6.31-gentoo-r5osvn #3 SMP Mon Nov 9 10:32:38 ICT 2009 i686 Intel(R) Core(TM)2 Duo CPU T7300 @ 2.00GHz GenuineIntel GNU/Linux

python 2.6.2-r1
t
Đã thử: gỡ bỏ python cài đặt lại, gỡ bỏ và cài đặt tất cả các thư viện của python, cài đặt lại setuptools, chạy python-updater, emerge --sync, update hệ thống, vẫn gặp phải lỗi trên.
Có bạn nào gặp lỗi này rồi hoặc biết cách khắc phục giúp đỡ dùm mình.
Thanks.
Bạn backup rồi fsck phân vùng bị lỗi thử?
Có lẽ HDD của bạn có vấn đề chứ không liên quan gì đến việc cài đặt apache cả.
 
Go to Page:  First Page 1 2 3 5 6 7 Page 8 Last Page

Powered by JForum - Extended by HVAOnline
 hvaonline.net  |  hvaforum.net  |  hvazone.net  |  hvanews.net  |  vnhacker.org
1999 - 2013 © v2012|0504|218|