멀웨어(Malware)로부터 내 컴퓨터를 보호하는 방법


구글은 온라인상의 정보(본문의 글과 같은 블로그)를 어떻게 하면 보다 안전하게 만들고 유해 프로그램으로부터 우리 스스로를 보호할 수 있는지에 관해 많은 고민을 합니다.-편집자

컴퓨터 보완과 관련하여 오늘은 멀웨어(malware)에 대해 이야기해 보도록 하겠습니다. 멀웨어란 "악성 소프트웨어(malicious software)"에서 나온 용어로 여러분이 사용하는 컴퓨터나 소프트웨어에 해를 끼칠 목적으로 만들어진 프로그램을 말합니다.

멀웨어는 여러분이 인식하거나 또는 그렇지 못한 상황에서 다양한 방법으로 우리의 컴퓨터에 침입하게 됩니다. – 이러한 침입은 흔히 멀웨어가 포함되어 있는 웹사이트를 방문하거나 겉으로 보기에는 아무 이상이 없는 소프트웨어를 다운로드 받을 때 일어날 수 있습니다. 멀웨어는 감염된 컴퓨터의 시스템을 느리게 하거나 사용자의 이메일 계정을 통해 가짜 메일을 전송하기도 합니다. 또한 여러분의 컴퓨터에 저장된 신용카드 번호나 패스워드 등 중요한 정보를 빼내어 갈 수도 있습니다.

과거에는 이 같은 멀웨어의 피해를 막는 방법으로 멀웨어 확산 목적으로 만들어진 유해 사이트나 기타 위험성이 있는 사이트에 대한 접근을 피하는 것이 해결책의 전부였습니다. 그러나 구글의 최근 연구에 따르면 멀웨어의 공격은 여러분이 흔히 안전하다고 느끼거나 합법적이라고 판단되는 사이트를 통해 더욱 많이 발생하고 있습니다. 이러한 사이트들은 실제로 여러분의 시스템을 지켜줄 보안 능력이 없습니다.

구글은 웹상의 멀웨어를 찾기위해 보안업계와 긴밀하게 협력하고 있으며, 관련 정보도 더욱 광범위하게 공유하고 있습니다. 구글은 수많은 자동화 시스템을 통해 잠재적 위험이 있는 사이트에 인덱스를 형성하고, 멀웨어를 확산하는 연결 사이트에 라벨을 추가 하고 있습니다. 구글에서 검색을 할 때 신고 표시가 있는 링크를 클릭하면, 사이트 실행에 앞서 경고 페이지가 뜨는 것을 볼 수 있습니다.

구글은 또한 안전하지 않은 사이트를 발견했을 경우, 사이트의 웹마스터에게 이를 알리게 됩니다. 이를 통해 웹마스터가 직접 해당 사이트를 정리하고 검사를 요청할 수 있는 방법을 제공하게 됩니다. 구글은 머지않아 멀웨어 확산을 부추기는 것으로 판단되는 사이트에 대한 상세한 정보를 제공할 것입니다. 이를 통해 사용자들은 왜 우리가 특정 사이트에 신고 표시를 했는지를 더욱 잘 이해할 수 있고, 웹마스터들은 자신들이 관리하는 웹사이트와 관련한 문제를 더욱 쉽게 파악해 문제점을 바로잡을 수 있을 것입니다.

구글의 이러한 모든 정책은 보안에 관한 구글의 철학을 반영하는 것입니다. 다시 말해 우리 모두가 위협요인을 찾고 이를 몰아내기 위해 함께 노력한다면 구글은 더욱 안전한 웹 공간을 만들 수 있을 것이라고 생각합니다. 물론 우리가 모든 것을 다 해결할 수는 없겠지요. 그만큼 구글 사용자들이야말로 멀웨어 방지에 핵심적인 역할을 하고 있다고 할 수 있습니다.

멀웨어에 노출될 가능성을 줄일 수 있는 몇 가지 유용한 방법을 아래와 같이 제안합니다:

바이러스 백신 프로그램의 사용. 대부분의 바이러스 백신 프로그램은 사용자 컴퓨터에 유해한 프로그램을 찾아 제거할 수 있는 기능을 갖고 있습니다. 여러분의 컴퓨터에 바이러스 백신 프로그램이 설치되어 있는지를 확인해 보세요. (만일 설치되어 있지 않다면 Google Pack을 통해 무료로 백신 샘플을 사용할 수 있습니다. 백신 프로그램은 항상 업데이트 해야하며 시스템 전체에 대해서도 주기적으로 검사해보아야 합니다.

운영체제와 브라우저의 주기적인 업데이트. 멀웨어가 전형적인 공격 표적으로 삼는 것은 컴퓨터 운영체제(Operating System)의 취약한 부분으로 여러분의 브라우저를 통해 멀웨어가 컴퓨터에 침입하도록 만듭니다. 운영체제와 브라우저 업체는 이 같은 취약점을 해결하기 위해 종종 프로그램 업데이트를 제공합니다. 브라우저와 운영체제는 모두 자동 업데이트를 설정해 놓으시고, 최신 업데이트가 잘 되고 있는지, 보안은 제대로 작동하는지를 경고 기능을 통해 확인할 수 있도록 설정하시기 바랍니다.

다운로드는 무엇이든 조심. 구글과 온라인 커뮤니티의 모든 사람들이 유해 사이트를 찾기 위해 열심히 노력하고 있음에도 불구하고, 멀웨어는 새로운 소스를 통해 계속적으로 나타나고 있습니다. 이메일 첨부문서를 열거나 플러그-인을 설치할 때 또는 익숙하지 않은 소프트웨어를 다운로드 받을 경우에는 항상 철저하게 생각하는 습관을 가지세요. 여러분이 위험성이 있는 다운로드를 항상 찾아낼 수 있는 것은 아니지만 몇 가지 주의 의무를 실천한다면 이러한 위험을 충분히 감소시킬 수 있을 것입니다.

신고 표시가 안된 잠재적 위험성이 있는 사이트를 발견하시면, 바로 신고를 부탁 드립니다. 멀웨어의 예방에 관한 더 자세한 설명은 StopBadware.org도움말 페이지를 참고하시기 바랍니다.

오늘은 지구의 날

블로그 운영팀

오늘은 지구의 날입니다!

지구의 날은 지구환경문제의 위기를 극복하고 함께 뜻을 모으기 위한 전 세계 시민들의 축제 입니다. 한국을 포함한 세계 184개국 약 50,000여개의 단체들이 지구의 날 행사에 참여하고 있으며, 매년 4월 22일 지구의 날에 각 국의 환경, 사회 상황에 맞게 자유롭게 지구를 위한 행사를 진행하고 있습니다. 세계 각 국에서 약 5억명 이상의 시민들이 참여하는 역사상 최대 규모의 글로벌 네트워크를 통한 환경행사가 바로 지구의 날인 것입니다.

음식 남기지 않기, 휴지 줍기와 같은 작지만 큰 실천으로 지구를 사랑하는 하루가 되시길 바랍니다.

유튜브코리아가 한국 최초 우주인 이소연씨의 무사귀환을 기원합니다!




한국 최초의 우주인인 이소연씨가 10일간의 우주생활을 마치고 귀환합니다. 한국 우주인의 무사귀환을 기원하며 우리나라가 이로써 전세계 36번째 우주인 배출 국가가 되는 것을 축하하기 위해 18일부터 21일간 유튜브코리아 메인 페이지에서는 모두 12개의 우주 관련 동영상을 추천 동영상으로 소개하는 “스페이스 코리아 데이”를 진행합니다.

유튜브는 세계 최대의 동영상 사이트로 우주와 관련된 동영상도 다양하게 검색해 찾아 볼 수 있습니다. 이번에 소개드리는 추천 동영상에는 방송에 소개되지 않았던 이소연씨와의 인터뷰, 소유즈 우주선의 발사 시뮬레이션 화면 뿐 아니라, 닐 암스트롱이 달에 착륙한 화면, 우주인들이 식사를 하고 이발을 하는 등의 다양한 우주 관련 동영상이 포함되어 있습니다.

내 블로그를 더 많은 사람들이 찾게 하는 법

R&D 센터 소프트웨어 엔지니어 변정근

내 블로그는 '구글 블로그 검색'에 있을까?

블로그를 사용하는 주된 이유 중 하나는 우리가 가지고 있는 좋은 정보들을 다른 사람들과 함께 공유하기 위해서 입니다. 이를 위해서는 내가 원하는 블로그 정보를 쉽게 찾을 수 있도록 하는 것 뿐만 아니라 내 블로그를 다른 사람들이 쉽게 접근할 수 있도록 하는 일 또한 중요합니다. 그래서 오늘은 여러분의 블로그 정보를 다른 사람과 쉽게 공유할 수 있도록 구글 블로그 검색에 나타낼 수 있는 방법을 소개하고자 합니다.

먼저 blogsearch.google.co.kr 검색창에 blogurl:'나의 블로그주소'를 입력합니다. 예를 들어 구글 코리아 블로그(http://googlekoreablog.blogspot.com)의 글들을 찾아보시려면 검색창에 blogurl:googlekoreablog.blogspot.com을 입력합니다.


그리고 '블로그 검색' 버튼을 눌러 검색결과를 확인합니다.




핑 서비스

내 블로그 글이 없다면 핑 서비스를 이용해보세요. 핑 서비스는 새로 작성된 블로그 글을 검색 엔진에 알려주는 서비스입니다. 새로운 주소의 블로그가 만들어졌거나 새로운 글이 작성되었을 때 검색 엔진이 바로 수집하는 것은 쉽지 않습니다. 그래서 새롭게 작성된 블로그 글을 검색 엔진에 직접 알려주어 가능한 빠른 시간내에 검색 가능하도록 하는 것이 핑 서비스입니다.

블로그 사이트나 설치형 블로그 저작 도구에 핑 서비스가 제공되는지 확인합니다.

• 핑 서비스가 제공되는 경우:
관리자 설정 페이지에 명시적으로 구글로의 핑 서비스 제공 여부를 선택할 수 있는 경우가 있습니다. 그렇지 않은 경우 해당 업체에 문의합니다.

• 핑 서비스가 제공되지 않는 경우:
새로운 글을 작성하신 후, http://blogsearch.google.com/ping 에서 블로그 주소를 입력하고 'Submit Blog'버튼을 누릅니다.



핑이 완료되면 다음과 같은 메시지가 출력됩니다.

Thanks for the ping.


검색 허용

핑 서비스는 블로그 검색에 새로운 글이 작성 되었음을 알려주는 방법입니다. 핑 서비스를 이용하는 것이 곧 검색 결과에 포함되는 것을 의미하지는 않습니다. 특히 블로그 사이트의 기술적인 문제로 검색이 허용되지 않는 경우도 있으므로 블로그 사이트의 검색 수집 설정 및 정책을 확인하시는 것이 바람직합니다.

웹 페이지를 검색 엔진이 검색해도 되는지를 명기하고 검색엔진이 이를 지키도록 하는robots.txt라는 파일과 이와 관련된 사항들이 있습니다. 현재 구글 블로그 검색은 다음의 세 항목이 모두 검색 허용되어 있는 경우에 한하여 검색 수집을 하고 있습니다.

• 블로그 URL: 블로그 HTML 페이지가 존재하는 주소
예를 들어 http://blog-searchable.blogspot.co.kr/robots.txt에는 다음과 같은 내용이 있습니다.

User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /search
Disallow: /

위 예제의 내용은 모든 검색 엔진이 이 블로그 안의 모든 글을 수집할 수 없다는 의미입니다.

• 피드(Feed) URL: RSS나 ATOM이 존재하는 주소
피드에 대한 수집 정책은 별도로 명시하지 않는 경우가 많습니다. 이 경우 피드를 검색할 수 있습니다.

• Permalink: 블로그 글 각각의 주소 및 해당 HTML 페이지
robots.txt뿐 아니라 소스의 NOINDEX, NOFOLLOW 관련 메타 태그도 없어야 합니다. 예를 들어 http://blog-searchable.blogspot.com/2008/04/blog-post.html의 HTML 원문을 보시면 < content="'NOINDEX,NOFOLLOW'" name="'robots'/">와 같은 메타 태그가 있어 검색 수집이 불가능합니다.

일부 국내 포털의 경우 블로거가 해당 블로그 또는 블로그 글을 검색 가능하도록 설정하더라도 블로그 URL과 메타태그를 검색 허용하지 않는 경우가 있사오니 위 내용을 확인해 주시기 바랍니다. 피드 URL만 검색 허용하는 경우 다음과 같은 이유로 정상적인 검색을 구현할 수 없습니다.

• 피드 내용과 본문 내용이 일치하지 않는 경우, 블로그 검색이라기 보다 피드 검색 결과를 출력함.
• 피드에 블로그 글의 부분 공개만 이루어지는 경우, 전문 내용과 이미지 등을 검색 결과에 반영할 수 없음.
• 최신 글들에 의하여 피드에서 제외된 글의 변경된 내용을 검색에 반영할 수 없음.

보다 자세한 기술적 내용은 다음의 문서를 참조하시기 바랍니다.
Google Blog Search Pinging Service
Google Blog Search Pinging Service API

구글 문서도구, 이제 오프라인에서 사용해 보세요.

자나니 라비, 소프트웨어 엔지니어

구글 워드프로세스팀은 어떻게 하면 사용자들이 이동 중에도 구글 문서도구(Google Docs)를 좀더 편리하게 사용할 수 있을까에 관해 많은 고민을 합니다. 여러분들은 구글 문서도구가 언제 어디서나 쉽게 사용 가능하다는 사실을 이미 알고 있을 것입니다. 뿐만 아니라 구글 문서도구를 통해 이메일로 자신에게 파일을 보내거나 드라이브에 백업 파일을 저장하지 않아도 된다는 것이 얼마나 편리한지, 또한 얼마나 쉽게 다른 사용자들과 공동으로 작업을 할 수 있는지를 경험했을 것입니다.

물론 구글 문서도구 사용을 위해서는 인터넷 연결이 필요하다는 작은 문제가 있었습니다. 그러나 이제 이러한 제약이 없어졌습니다. 구글 문서도구 블로그에도 공지되어 있는 바와 같이 오늘부터 오프라인상에서도 편집이 가능한 서비스를 제공하고 있습니다. 이제 사용자들은 인터넷에 접속하지 않고도 좋은 생각들이 떠오르면 언제든지 작업할 수 있게 되었습니다. 비행기나 카페에서도 자동으로 언제든지 자신의 컴퓨터에 있는 구글 문서도구를 사용하실 수 있습니다. 오프라인 상에서의 구글 문서도구 사용법을 확인하고 싶으신 분들은 관련 동영상을 참조하시기 바랍니다.

robots.txt를 현명하게 사용하는 방법

Search Quality팀 석인혁, Chao Ma


검색엔진
자신의 사이트를 많은 사람에게 알릴 수 있는 가장 좋은 방법 중 하나입니다. 이를 활용하기에 앞서 고려해야 할 것은 여러분들의 사이트에 있는 정보를 얼마 만큼 외부에 제공할 것인가를 설정하는 일입니다.

만약 여러분의 사이트에 검색엔진을 통해 색인이 생성되지 않도록 하려는 콘텐츠가 있다면, robots.txt 파일을 사용하여 웹을 색인하는 검색엔진 로봇(이하 "검색봇")을 차단하거나 필요한 부분만을 검색엔진에 나타나게 할 수 있습니다. 검색봇은 자동으로 작동하며, 한 사이트의 하위 페이지에 접근하기 전에 먼저 특정 페이지에 대한 접근을 차단하는 robots.txt 파일이 있는지 여부를 확인합니다. 이번 기회를 통하여 여러분들에게 올바르게 robots.txt를 사용하는 방법을 제공하고자 합니다.

robots.txt 의 배치

robots.txt는 HTML 파일이 아닌 일반 텍스트 파일로 도메인의 root에 있어야 하며 반드시 'robots.txt'로 저장되야 합니다. 검색봇은 도메인의 root에 있는 robots.txt 파일만을 체크하기 때문에 하위 디렉토리에 있는 파일은 유효하지 않습니다.

예를 들어 http://www.example.com/robots.txt는 유효한 위치이지만, http://www.example.com/mysite/robots.txt는 유효하지 않습니다.

robots.txt 사용 예제:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/

Disallow: /~name/

robots.txt 파일을 사용하여 전체 웹사이트를 허용/차단하기


전체 웹사아트를 검색엔진이 색인하도록 허용하고자 할 때에는 다음과 같이 robots.txt
일을 추가합니다.
User-agent: *
Disallow:

또 다른 해결 방법으로는 단순하게 robots.txt를 사이트로부터 제거 하는 것입니다.

검색엔진에서 사이트를 삭제하고 향후 어떤 검색봇도 접근하지 못하게 하려면 robots.txt 파일에 다음 내용을 추가합니다.
User-agent: *
Disallow: /

주의) 이 경우 검색봇이 차단되어 사이트가 더이상 검색엔진에 나타나지 않게 됨으로 검색엔진을 통 들어오게 되는 사용자들에게 불이익을 제공하게 됩니다.

각 포트에는 전용 robots.txt 파일이 있어야 합니다. 특히 http와 https 모두를 통해 사용자들에 콘텐츠를 제공하려면 이 두 가지 프로토콜에 대해 각각의 robots.txt 파일이 있어야 합니다.

예를 들어 검색봇을 통해 https 페이지를 제외한 모든 http 페이지에 대한 수집을 허용하려면 다음 robots.txt 파일들을 각의 프로토콜에 사용해야 합니다.

http 프로토콜의 경우
(http://yourserver.co.kr/robots.txt):
User-agent: *
DIsallow:

https 프로토콜의 경우
(https://yourserver.co.kr/robots.txt):

User-agent: *
Disallow: /

robots.txt 파일을 사용하여 페이지 차단하기

예를 들어, 검색봇이 특정 디렉토리(: board )의 모든 페이지를 검색하지 않도록 차단하려면 다음과 같이 robots.txt를 사용 하시면 됩니다.
User-agent: *
Disall
ow: /board/

Googlebot이 특정 형식(: .gif)의 파일을 모두 검색하지 않도록 차단하려면 다음과 같이 robots.txt를 사용 하시면 됩니다.
User-Agent: Googlebot
Disallow: /*.gif$

Googlebot이 ?가 포함된 URL 즉, 도메인 이름으로 시작되거나 임의의 문자열 또는 물음표로 구성된URL 검색을 차단하려면 다음과 같이 하시면 됩니다.
User-agent: Googlebot
Disallow: /*?

구글은 웹마스터 도구의 일원으로 robots.txt 분석 도구를 사용자들에게 제공하고 있습니다. robots.txt 분석도구는 여러분의 robots.txt 화일을 검색봇이 읽는 그대로 인식하여 그 결과를 여러분들께 제공하고 있습니다. robots.txt의 올바른 사용으로 사이트 방문자에게 보다 쉬운 접근 방법을 제공하는 동시에 필요한 부분을 보호, 차단할 수 있기 바랍니다.