| 여러장의 이미지 간단히 합치기 | 움직이는GIF만들기 | 썸네일 쉽게 만들기
분류 전체보기 (85)
I am (0)
Today (1)
개발자이야기 (11)
나만의 유용한정보 (7)
서버관련 (40)
지름신 (5)
사진/여행 (1)
끄적끄적 (5)
골프 (11)
주식 (2)

«   2024/11   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
Visitors up to today!
Today hit, Yesterday hit
daisy rss
티스토리 가입하기!
2015. 11. 2. 17:23

다음쪽 IP에서 무차별적으로 긁어가는 웹페이지 접속때문에

서버부하가 순간순간 너무 올라가서 골치거리였습니다.ㅠㅠ  (어디에 쓰는건지도 모른다는....)

 

IP도 C클래스 대역 몇개로 해서 특정IP를 막는것도 그렇고, agent를 보니 Daum Raam/Daum OA 이런식..ㅠ

통상적으로  검색엔진이 초당 수개~ 수십번 접속을 하지 않습니다.

 

 

 

일단 서버부하를 너무 유발하여 막기로 결정~ nginx로 막아보았네요..

 

nginx의 limit_req_zone 는  server / http/ location 절에만 기술이 가능하므로 아래와 같이 해결했네요.

 

    map $http_user_agent $limit_bots {
        default '';
        ~*(Daum|Raam) Daum;
    }

    limit_req_zone $limit_bots zone=antiddos:20m rate=3r/s;   # 초당 3개로 제한

 

당연히 적당한곳에 아래도 기술해야겠지요.

 

limit_req zone=antiddos burst=3;   # 초당 3개 제한이 초과될때 3개까지 대기허용?

 

검색엔진이 컨턴츠를 가져가려면, 서버부하를 고려해서 적당히 가져가는 센스를 보여줘야 하는데.

정도가 심해서 부득이 하게 막았네요.ㅠㅠ