[개인정보유출 연재 03] 홈페이지(블로그)로 인해 개인정보 유출은 더 이상은 용납하지 않는다.

2012. 3. 22. 14:59교육


[개인정보유출 연재 03] 홈페이지(블로그)로 인해 개인정보 유출은 더 이상은 용납하지 않는다.


    사람들은 자신의 홈페이지, 카페, 블로그에 올린 글이 아이디와 비밀번호가 없으면 볼 수 없다고 생각한다.

    물론 그것도 사실이지만 비공개 카페나 비공개 블로그의 글임에도 불구하고 구글링되어 검색되어진다. 사람으로는 불가능하지만 구글봇이나 검색로봇들은 불가능이란 없다. 

    홈페이지를 통한 개인정보 누출방지를 위해서는 홈페이지에서 노출된 개인정보를 구글 검색엔진이나 타 검색엔진이 수집할 수 없도록 점검해야 한다.  일반적으로 검색엔진에 자신의 개인정보가 유출되는 경우는 다음과 같은 프로세스로 진행되므로 주의가 필요하다.

    검색엔진 로봇은 방문한 해당 웹페이지에 개인정보가 발견되면 찾아서 주민등록번호중 뒤의 7가지를 *표시로 치환하여 검색결과의 일부를 제공하며 특정 사이트에서는 주민등록번호 13자리가 모두 검색되는 결과값도 제공하고 있어 문제의 심각성은 크다고 본다.  검색결과값에 *값으로 치환을 하듯 안하듯 자신의 개인정보가 유출되었다는 것 자체만으로도 심각하다.

    그렇다면 자신의 홈페이지나 블로그에 검색로봇이 마음대로 들어오지 않도록 할려면 어떻게 해야할까? 대답은 간단하다. 검색엔진이 해당 웹페이지에 있는 개인정보를 바로 삭제하는 일에서부터 시작된다.  그리고 나서 검색엔진이 자신의 웹사이트나 블로그에 함부로 접근하지 못하도록 하는 것이 중요한데 이런 일을 하기 위해서는 웹서버의 루트디렉토리에 robots.txt파일을 작성하여 검색되지 않도록 하는 방법과 메타태그를 적용하여 로봇들이 함부로 돌아다니지 못하도록 하면 된다.

    이후 구글의 자동제외 시스템에 접속하여 개인정보 노출이 발견된 웹사이트를 캐쉬에서 삭제해 달라고 요청하면 된다.  정상적인 프로세스을 거치게 되면 보편적으로 1-2주이내에 처리가 완료된다.


     robots.txt 파일 생성방법과 인텍스파일의 메타태그넣는 방법은  다음과 같다.

 


1. robots.txt을 만들기 위해 메모장을 열어 아래의 내용을 타이핑한 후 저장한다. 저장된 파일을 서버 루트디렉토리에 넣어둔다.

  User-Agent: * 
 
  Disallow:/


  모든 검색엔진들이 웹사이트의 정보을 가져갈 수 없다라는 명령어이다.

 


2. 인텍스파일을 열어 메타태그값을 넣어준다.

  웹페이지의 소스코드 파일을 열어 헤드사이에 아래의 내용을 넣어준다.

  <Meta Name = "Googlebot" Content="Noindex", "Nofollow">

  구글로봇이 인텍스파일과 함께 링크등을 따라다니면서 검출할 수 없다는 의미이다.

 

 

* 구글자동삭제 시스템에 대해서는 개인정보유출 연재 04에서 다룬다.