로봇 배제 표준 (robots.txt) 검색엔진상위등록을 위한 검색엔진최적화 작업은 어떻게하면 검색엔진에게 잘보일까하는 것이 관건일 것이다. 검색엔진의 로봇은 링크를 타고 다니면서 정보를 수집, 정리 하여 검색결과를 보여주므로 링크에 대해 상당히 민감하다. 따라서 웹사이트 내부 링크 중 깨진 링크는 없는지 잘 살펴보고 깨진 링크를 제거 하는 것이 검색엔진최적화 중 한 부분이다. 그런데 노출을 하면 안되는 파일이나 폴더, 또는 게시판을 크롤링하여 이미 삭제된 게시물 까지 깨진링크로 나오는 경우가 있다. 이런 경우 게시판 전체를 검색로봇의 크롤링에서 제외시키는 것이 오히려 검색엔진상위등록에 유리할 수 있다. 검색로봇이 웹사이트를 방문했을 때 없는 파일 계속 찾는 수고(?)를 덜어 주는 것이다. 사람도 길을 잘가고 있는데 갑자기 막다른 길이 나오.. 더보기 이전 1 ··· 64 65 66 67 68 69 70 ··· 89 다음