기업이나 단체의 홈페이지가 검색엔진 최적화 되지 않으면

2013. 3. 15. 10:18블로그

기업이나 단체의 홈페이지가 검색엔진 최적화 되지 않으면



  홈페이지나 블로그을 만들어 놓고 검색엔진 최적화을 하지 않으면 세상과 소통할 수 없다.


  검색엔진 로봇이 사용자들의 홈페이지나 블로그에 방문하였을 때 홈페이지나 블로그에서 robots.txt을 통해 검색로봇이 들어오지 못하게 하거나 noindex태그을 이용하여 차단할 경우 일반 사용자들이 해당 사이트에 일일이 들어가야 해당 정보을 확인할 수 있다. 이로 인해 국내 주요 포털이나 구글을 통한 검색이 불가능하기 때문에 관련 정보을 찾기가 쉽지 않다.



  대학, 기업, 교회등 많은 비용으로 홈페이지나 블로그을 만들고 매월 많은 비용의 콘텐츠을 제작하여 게시하고 있지만 해당 사이트가 검색엔진에 노출되지 않거나 해당 사이트에서 올린 콘텐츠들이 검색엔진을 통해 검색되지 않게 되면 소통하지 않는 사이트로 남게 된다. 마케팅입장에서 보면 비용대비 효과가 없다. 나아가 기업이나 단체의 비용적 사회적 손실로 찾아올 것으로 보인다.


  

  그렇다면 검색엔진 최적화을 하기 위해 진행해야 할 최소한의 프로세스는 다음과 같다. 앞서 설명한 검색로봇이 해당 사이트에 접근을 허락해 주어야 하기 때문에 robots파일과 메타태그에서 경로들이 쉽게 찾아갈 수 있도록 연결해 주기만 하면 된다.


  

  자신의 사이트가 검색엔진 최적화가 되었는지 안되었는지를 알기 위해서는 서버에 robots.txt 파일이 있는지 인덱스파일안에 메타태그을 살펴보기를 바란다.