가정의 로컬 네트워크에 수백 기가바이트 또는 테라바이트의 데이터가 있는 경우 컴퓨터, 외장 하드 드라이브 또는 NAS (네트워크 연결 저장 장치) 장치에 모두 저장되어 있을 것입니다. 데이터를 백업하는 것은 매우 중요하지만 모든 데이터를 한 곳에 보관하는 것은 결코 좋은 생각이 아닙니다.
로컬 NAS(NAS) 에 2TB가 넘는 사진, 비디오, 백업 등이 저장되어 있는 것을 보고 스스로 깨달았습니다 . 물론 4개의 하드 드라이브가 있으며 하나가 실패해도 내 데이터는 손실되지 않습니다. 그러나 내 집이 불타거나 물에 잠기면 NAS 와 함께 모든 것이 손실됩니다 . 그래서 데이터를 클라우드에 백업하기로 결정했습니다.
나는 마침내 Amazon S3 에 정착하기 전에 Dropbox , SkyDrive , Google Drive , CrashPlan 및 Amazon S3(CrashPlan and Amazon S3) 와 Glacier 를 확인했습니다 . 왜 아마존(Amazon) 인가? 글쎄(Well) , 그들은 최대 16TB 크기의 외장 하드 드라이브(hard drive) 를 보내고 서버에 직접 업로드할 수 있는 멋진 서비스를 가지고 있습니다(Internet connection) .
우리 동네에 AT&T가 있어서 업로드 속도 가 무려 Mbytes/secNAS 에 저장한 2.5TB의 데이터를 업로드하려면 몇 달이 걸릴 것입니다 . Amazon Import/Export 를 사용 하면 $80의 서비스 요금(service fee) 을 지불하고 하루 만에 모든 데이터를 업로드하도록 할 수 있습니다. Amazon Web Services 에 가입하는 것부터 하드 드라이브를 포장하여 Amazon 으로 배송하는 것까지 전체 프로세스를 안내하는 (Amazon)비디오 자습서(video tutorial) 를 만들었습니다 .
다음은 비디오의 전체 스크립트입니다.
안녕하세요 여러분(Hey everyone) . 저는 Online Tech Tips(Online Tech Tips) 의 Aseem Kishore 입니다 . 나는 오늘 새로운 일을 할 것이다. Amazon Web Services 가져오기 내보내기 기능(Import Export feature) 에 대한 비디오 자습서(video tutorial) 를 수행하겠습니다 . 가져오기 내보내기 기능은(Import Export feature) 무엇 입니까? 기본적으로 Amazon S3 버킷(Amazon S3 bucket) 이나 Glacier 볼트(Glacier vault) 로 대량의 데이터를 가져오는 방법 입니다. Amazon S3 및 Glacier(Amazon S3 and Glacier) 는 기본적으로 Amazon을 통한 데이터 백업 및 데이터 보관을 위한 두 가지 스토리지 (Amazon)옵션(backup and data) 입니다 . 그렇다면 왜 Amazon 에서 이 서비스를 사용하고 싶 습니까?
기본적으로 많은 양의 데이터를 클라우드(Cloud) 로 매우 빠르게 이동할 수 있습니다. 나 같은 사람이라면 컴퓨터나 외장 하드 드라이브에 로컬로 저장된 수백 기가바이트의 사진과 비디오를 가지고 있을 것입니다. 100GB 또는 500GB 또는 1테라바이트의 데이터를 클라우드 에 업로드하려고 하면 느린 (Cloud)업로드 연결(upload connection) 에서 몇 달은 아니더라도 몇 주가 걸립니다 . 대신 사용자가 할 수 있는 일은 해당 데이터를 최대 16테라바이트 크기의 외장 하드 드라이브에 복사하고 Amazon으로 배송하면 아마존에서 데이터 센터로 가져간 다음 버킷이나 볼트(bucket or vault) 로 바로 업로드(center and upload) 할 수 있습니다. 웹에서 액세스할 수 있습니다.
시작하려면 가장 먼저 해야 할 일은 Amazon Web Services 계정(Amazon Web Services Account) 을 만드는 것 입니다. 그렇게 하려면 aws.amazon.com으로 이동하여 Sign Up 버튼을 클릭합니다(Sign Up button) . Amazon 계정(Amazon account) 이 아직 없는 경우 이메일 주소를 입력한 다음 "I am new user"를 선택하십시오 . 그렇다면 "나는 복귀 사용자입니다"를 선택하고 현재 계정인 Amazon 계정 을 사용하여 (Amazon account)Amazon Web Services 에 가입할 수 있습니다 .
Amazon Web Services 계정(Amazon Web Services Account) 을 만든 후에 는 Import Export 도구(Import Export tool) 를 다운로드해야 합니다 . 이 도구는 사용이 매우 간단합니다. 약간의 구성이 필요하므로 계속해서 설명하겠습니다. 그러나 화면에서 볼 수 있습니다 . 이 비디오 하단의 캡션에 추가할 다운로드 링크 가 있습니다. (load link)계속해서 다운로드한 다음 컴퓨터의 디렉토리에 압축을 풉니다.
이제 해당 도구를 다운로드하고 압축을 풀었으므로 다음과 같은 디렉토리가 있어야 합니다. 이 시점에서 "AWS Credentials"라는 파일을 편집해야 합니다. 여기에는 액세스 키 ID 및 비밀 키(Access Key ID and Secret Key) 의 두 값이 포함 됩니다. 기본적으로 이것은 (Basically)Amazon 이 귀하의 계정에 연결하는 데 사용하는 두 가지 값입니다 . 다음 주소로 이동 하여 Amazon Web Services 계정(Amazon Web Services Account) 에서 이 두 값을 가져올 수 있습니다 . aws.amazon.com/securitycredentials입니다. Security Credentials 페이지(Security Credentials page) 에서 Access Keys 를 클릭합니다 .
이제 여기서 약간 혼란스러워집니다. 이미 Amazon Web Services 를 사용 하고 과거에 이미 키를 생성했다면 여기에서 비밀 키를 볼 수 없습니다. 이것은 Amazon 의 새로운 인터페이스 이며 기존 비밀 키를 보려면 이전 Legacy 페이지 로 이동하는 (Legacy page)Security Credentials 링크를 클릭해야 합니다 .
방금 새 계정을 만든 경우 새 루트 키(root key) 를 만들 수 있습니다 . 이 버튼이 활성화됩니다. 이 시점에서 액세스 키 ID(Key ID) 를 얻고 두 값을 모두 제공하는 비밀 키를 얻게 됩니다. 그리고 이것은 이미 Amazon Web Services 에 대한 액세스 키 ID(Access Key ID) 를 생성한 경우 비밀 키에 액세스할 수 있는 레거시 보안 페이지(Legacy Security page) 입니다. 여기에서 볼 수 있듯이 두 개의 액세스 키가 있습니다. 계속해서 내 비밀 키를 보려면 표시 버튼(Show button) 을 클릭한 다음 이 두 값을 내가 표시 한 AWS 자격 증명 파일(AWS Credentials file) 에 복사할 수 있습니다. 당신은 더 일찍. 그래서 당신은 계속해서 붙여 넣기를 원합니다. 여기에 ID 키에 액세스 하고 여기에 (Access ID key)비밀 키(Secret key) 를 붙여넣습니다 .
이제 이 시점에서 Access Key ID 와 Secret Access key 가 헷갈리더라도 괜찮습니다. 당신은 정말로 그들이 무엇인지 알 필요가 없으며 어떤 식으로든(way whatsoever) 그들에 대해 관심을 가질 필요가 없습니다 . 서명하고 값을 가져온 다음 복사하여 해당 파일에 붙여넣기만 하면 됩니다.
다음으로 진행할 작업은 가져오기 작업(import job) 을 생성하는 것 입니다. 이제 다음 두 부분은 이 전체 절차에서 가장 어려운 두 부분입니다. Amazon S3 에 대한 가져오기 작업(import job) 을 생성하기 위해 매니페스트 파일을 생성하겠습니다. 이 매니페스트 파일에는 기본적으로 기기에 대한 일부 정보가 포함되어 있습니다. 데이터를 저장하려는 곳과 장치를 다시 배송하려는 곳.
이제 좋은 점은 이 매니페스트 파일을 직접 만들 필요가 없다는 것입니다. 그것은 이미 우리를 위해 생성되었으며, 우리는 계속해서 작성하기만 하면 됩니다. 따라서 계속 진행하고 싶은 것은 가져오기 내보내기 도구(import export tool and click) 가 있는 디렉토리로 이동하여 예제를 클릭하는 것입니다. 여기에서 S3 가져오기(S3 import) 매니페스트를 엽니다. 여기에서 볼 수 있듯이 이미 가져오기 작업(import job) 에 대한 정보를 작성했습니다 . 그럼 이 부분을 조금 더 자세히 살펴보도록 하겠습니다.
보시다시피 가장 먼저 해야 할 일은 액세스 키 ID를 다시 입력하는 것입니다. 대괄호를 제거하고 콜론 바로 뒤에 붙여넣기만 하면 됩니다. 다음으로 할 일은 버킷 이름(bucket name) 을 입력하는 것 입니다. 계속해서 버킷을 생성해야 합니다. 이 버킷은 이후에 보여드릴 것입니다. 하지만 지금은 데이터가 있는 위치에 원하는 이름을 입력하세요. 저장. 따라서 백업(Back Up) 이라는 폴더를 생성하면 기기에 있는 모든 것보다 폴더 또는 그 안에 있는 모든 항목이 해당 버킷 이름(bucket name) 아래에 표시됩니다 .
다음으로 하고 싶은 일은 장치 ID를 입력하는 것입니다. 이것은 기본적으로 외장 하드 드라이브의 고유 식별자입니다. 이것은 하드 드라이브 뒷면에 있는 일련 번호일 수 있습니다. 하드 드라이브 뒷면에 일련 번호가 없는 경우 고유한 번호를 생성하거나 식별자를 생성하면 됩니다. 장치에 붙일(Just) 수 있는 스티커에 이 값을 쓰고 여기에 해당 값을 입력하면 됩니다. 장치와 이 파일에서 동일한 것이어야 합니다. Erase device 는 이미 No로 설정되어 있으므로 그대로 둡니다. 다음을 남길 수 있습니다. 서비스 수준(Service level) 은 표준이므로 그대로 둘 수 있습니다. 그리고 반품주소(return address), 여기에서 내가 한 것처럼 주소를 입력합니다. 원본 파일에는 몇 가지 선택적 필드가 있습니다. 사용하지 않을 경우 제거하고 진행해야 합니다. 따라서 해당 라인을 삭제하면 됩니다.
좋습니다(Okay) . 매니페스트 파일을 작성한 후 다음으로 할 일은 파일을 적절한 디렉토리에 저장하는 것입니다. 그렇게 하기 위해 계속해서 파일(File) , 다른 이름으로 저장 을 클릭하고 (Save As)가져오기 내보내기 (import export) 웹 (Web) 서비스 (Services) 도구 디렉토리(Tool directory) 로 다시 이동합니다 . 이것은 또한 우리가 이전에 채운 해당 도트 속성 파일 의 위치입니다. (property file)여기에서 파일 이름을 "my import manifest.txt "로 지정해야 합니다 . ” 파일 (Save As) 형식 이 이미 txt이므로 (Type)파일 이름(file name) 에 입력할 필요가 없습니다 . 계속해서 저장(Save) 을 클릭 합니다.
AWS Credentials 파일(AWS Credentials file) 을 편집하고 My Import Manifest 파일(My Import Manifest file) 에 크레딧을 부여 했으므로 Amazon S3 에서 버킷을 생성할 수 있습니다 . 이것은 매우 간단합니다. 계속해서 하려는 작업은 aws.amazon.com으로 이동하여 My Account 콘솔(My Account console) 을 클릭한 다음 AWS Management Console 을 클릭하는 것 입니다. 로그인하면 모든 다른 Amazon Web Services 에서 다음과 같은 화면이 표시 됩니다. 이 시점에서 우리가 관심 을 갖는 것은 여기 왼쪽 하단에 있는 Amazon S3뿐입니다 . (Amazon S3)그것을 클릭 하면 (Click)S3 콘솔 이 로드됩니다.(S3 console). 그리고 여기에서 볼 수 있듯이 버킷 외에는 별로 없습니다. 그래서 두 개의 버킷이 있습니다. 이것은 네트워크 유형 저장 장치(network type storage device) 인 내 synology nas의 백업입니다 .
계속 진행하고 싶은 것은 Create Bucket 을 클릭하고 버킷에 (Create Bucket)버킷 이름(bucket name) 을 지정할 것이라고 생각하는 것 입니다. 다른 지역을 선택할 수도 있지만 자동으로 채워지는 지역으로 이동하는 것이 좋습니다. 버킷 이름(bucket name) 은 점만 포함할 수 있으며 저장되는 전체 지역에서 고유해야 합니다. 따라서 다른 사람이 이미 해당 버킷 이름(bucket name) 을 갖고 있다면 오류가 발생합니다. 예를 들어, 내가 nasbackup이라고 말하고 생성이라고 말하면 요청한 버킷 이름 이(bucket name)사용할 수 없습니다. 이 경우 점을 사용하여 '점'을 입력하고 원하는 것을 추가하고 생성을 클릭하면 고유한 경우 계속 진행하여 해당 버킷 이름(bucket name) 을 생성할 수 있습니다. 따라서 버킷을 생성할 수 있습니다. 즉, 모든 외장 하드 드라이브의 데이터가 저장됩니다.
이 시점에서 다른 작업을 수행해야 하는 경우가 있습니다. 그럼 지금까지 어떤 작업을 했는지 살펴볼까요? AWS 서비스(AWS service) 에 가입했습니다 . 도구를 다운로드하고 추출했습니다. 파일 및 편집기 키를(file and editor keys) 편집했습니다 . 이제 매니페스트 파일을 생성하여 자격 증명 파일과 동일한 디렉터리의 가져오기 매니페스트에 저장하고 Amazon S3 에 버킷을 생성했습니다 . 따라서 이 작업을 수행하려면 몇 가지만 더 해야 합니다.
다음으로 해야 할 일은 Java 명령 (Java command)줄 도구(line tool) 를 사용하여 작업 요청(job request) 을 만드는 것 입니다. 이것은 약간의 기술적인 부분이며 아마도 여러분이 해야 할 가장 기술적인 일이지만 실제로 그렇게 어렵지는 않습니다. 이제 이 작업 요청(job request) 을 생성 하려면 명령 프롬프트 에서 (command prompt)Java 명령(Java command) 을 실행해야 합니다 . 하지만 그렇게 하려면 Java 개발(Java development) 키트가 설치되어 있어야 합니다. 이것은 일반적으로 대부분의 컴퓨터에 설치되는 Java 런타임 환경과 다르지만 (Java runtime)명령 프롬프트(command prompt) 에서 Java 명령(Java command) 을 실행할 수 없습니다 .
그렇게 하려면 Google(Google) 에 가서 Java SE 를 검색하면 됩니다. 이것이 바로 Java Standard Edition 입니다. 여기에서 첫 번째 링크를 클릭하면 이 페이지로 이동합니다. 여기에서 아래로 스크롤하면 JDK 서버(JDK server) , JRE 및 JRE 의 세 가지 옵션이 표시 됩니다. 여기서 우리는 이 두 가지에 대해 걱정할 필요가 없습니다. 계속해서 JDK 를 다운로드하겠습니다 . 다음 페이지에서 라이센스 계약 동의(Accept License Agreement) 를 클릭 하면 시스템 사양과 일치하는 파일을 다운로드할 수 있습니다. 제 경우에는 Windows 64 비트 실행 파일을 다운로드했습니다.
이제 Java 실행 키트를 설치했으므로 Java 명령(Java command) 을 실행할 수 있습니다. 여기에서 강조표시한 설명서에서 이 명령을 볼 수 있습니다. 그리고 참고로 이 문서가 필요한 경우 가장 쉬운 방법은 Google 에 가서 "AWS import export docs "를 검색하는 것입니다. 그런 다음 가져오기 작업(import job) 생성 을 클릭한 다음 첫 번째 Amazon S3 가져오기(Amazon S3 import) 작업 생성을 클릭하면 이 페이지로 이동합니다.
이제 명령 프롬프트(command prompt) 로 이동하여 명령을 실행할 수 있습니다 . 그렇게 하려면 시작(Start) 을 클릭 하고 CMD를 입력하고 Enter 키를 누릅니다(CMD and press Enter) . 이제 명령 프롬프트 가 있으므로 (command prompt)Amazon 가져오기 (Amazon import) 내보내기 도구(export tool) 가 있는 디렉터리로 이동해야 합니다 . 우리의 경우 Downloads 에 있고 (Downloads)Import Export Web Service Tool 이라는 폴더가 있습니다. 따라서 디렉터리를 명령 프롬프트(command prompt) 로 이동하려면 "cd"를 입력하고 "downloads"를 입력한 다음 "cd"를 다시 입력합니다. " 가져오기 내보내기(import export) 웹 서비스 도구(service tool) "를 입력하려면," 디렉토리(Directory) 의 이름입니다 . 이제 해당 Directory 에 있으므로 이 명령을 복사 하여 명령 프롬프트 에 (command prompt)붙여넣(command and paste) 습니다 .
방금 복사하여 붙여넣은 명령에서 매니페스트 파일의 이름이 My S3 Import Manifest.txt 임을 눈치채셨을 것입니다 . 이 방법으로 실행하려고 할 때 파일 이름이 My Import Manifest.txt 여야 한다는 오류가 발생했기 때문에 이것이 문서의 문제라고 생각합니다 . 따라서 간단히 커서를 이동하고 S3 부분(S3 part) 을 삭제 하면 명령을 실행할 수 있습니다. 이제 이전에 이미 실행했기 때문에 지금 바로 실행하지 않을 것입니다. 그러나 계속해서 Enter 키를 누르면 작업(Enter) 생성, 작업 ID, AW 배송(AW shipping) 주소 및 서명 파일 내용(Signature File Contents) 과 같은 정보를 얻을 수 있습니다.
서명 파일(signature file) 내용은 기본적으로 여기에서 가져오기 내보내기 웹 (Import Export Web)서비스 (Services)도구 호출 (tool call)서명 아래의 (Signatures)루트 디렉터리(root directory) 에 생성 된 파일입니다 . 실제 명령을 실행할 때 생성됩니다. 모든 것이 정상(Okay) 이면 이 파일을 가져 와서 하드 드라이브의 루트에 복사해야 합니다.
이제 거의 끝나가고 있습니다. 다음으로 해야 할 일은 서명 파일(Signature File) 을 하드 드라이브의 루트에 복사하는 것입니다. Java 명령(Java command) 을 실행한 후 가져오기 내보내기 웹 (Import Export Web)서비스 (Services)도구 디렉토리(Tool Directory) 에서 서명이라는 파일을 찾을 수 있습니다 .
마지막 단계에서 두 번째 단계는 포장 전표를 인쇄하여 채우는 것입니다. 패킹 슬립은 이렇게 생겼습니다. 아주 간단한 문서입니다. 날짜, 이메일 계정 ID, 연락처, 이름과 전화번호(name and phone number) , 작업 ID, 장치에 입력한 식별자를 입력합니다. 여기에서 문서에서 이 문서를 다시 찾을 수 있습니다.
마지막 단계는 하드 드라이브를 포장하여 아마존 으로 (Amazon)배송(drive and ship) 하는 것 입니다. 주의해야 할 몇 가지 작은 사항이 있습니다. 첫째(Firstly) , 전원 공급 장치(power supply) , 전원 케이블 및 인터페이스 케이블을 포함해야 하므로 USB 2.0 , 3.0, esata인 경우 USB 케이블 또는 esata 케이블(USB cable or esata cable) 을 포함해야 합니다 . 그렇지 않은 경우 계속 진행하여 다시 귀하에게 반환합니다. 아까 말씀드린 포장 전표도 작성해서 상자 안에 넣어야 합니다. 마지막으로 우리가 실행한 응답 생성 명령(create response command) 에서 얻은 주소로 패키지를 보낼 것입니다 .
배송할 때 주의해야 할 두 가지 다른 작은 사항이 있습니다. 먼저 배송 레이블(shipping label) 에 해당 작업 ID가 있는지 확인합니다. 그렇지 않은 경우 다시 반환할 것입니다. 따라서 배송 레이블(shipping label) 에 작업 ID가 있는지 확인해야 합니다 . 둘째, 반품 배송지 주소(return shipping address) 도 작성해야 합니다 . 이것은 매니페스트 파일에 입력 한 반품 배송 주소 와 다릅니다. (return shipping address)어떤 이유로 하드 드라이브를 처리하지 않거나 문제 가 있는 경우 (problem or something)배송 레이블(shipping label) 에 있는 배송 주소(shipping address) 로 하드 드라이브를 반품합니다.. 그들이 당신의 하드 드라이브를 처리하고 모든 데이터를 전송할 수 있다면, 그들은 당신이 이 기사에 나와 있는 배송 주소(shipping address) 로 하드 드라이브를 반품 할 것입니다. 따라서 라벨에 반품 배송지 주소(return shipping address) 를 넣는 것도 중요합니다 . 원하는 이동통신사를 선택할 수 있습니다. 나는 UPS 를 선택했다 . 추적 번호(tracking number) 가 있는 것이 좋으며 문제 없이 이 모든 작업을 진행할 수 있습니다.
그게 다야. 그것은 몇 단계이며 처음 할 때 약간의 시간이 걸립니다. 그러나 그 후에는 꽤 빠르고 많은 데이터를 Cloud 에 저장하는 좋은 방법입니다. Amazon 도 저장 비용이 저렴합니다. 따라서 저장해야 할 하루가 많고 집이나 외장 하드 드라이브가 아닌 다른 곳에 백업하려는 경우 Amazon Web Services S3 가 훌륭한 옵션입니다.
이 튜토리얼 온라인 기술 팁(Online Tech Tips) 을 즐겼기를 바랍니다 . 다시 방문하여 주십시오 .(Please)
Transfer Data to Amazon S3 Quickly using AWS Import Export
If yоυ have hundreds of gigabytes or eνen terabytes of data оn your locаl network at home, you probablу have it all ѕtored on a computer, an externаl hard drive or a NAS (network attached storage) devicе. Having backups of your data is extremely importаnt, but having them all in onе place is nevеr a good idea.
I realized this myself when I saw I have over 2 TB of photos, videos, backups, etc stored on my local NAS. Sure it has 4 hard drives and if one fails, none of my data will be lost. However, if my house burns down or gets flooded, everything will be lost along with the NAS. So I decided to backup the data to the cloud.
I checked out Dropbox, SkyDrive, Google Drive, CrashPlan and Amazon S3 and Glacier before finally settling on Amazon S3. Why Amazon? Well, they have a cool service where you can send in an external hard drive up to 16 TB in size and have it uploaded directly to their servers, thereby bypassing the massive problem of trying to upload that data over your slow Internet connection.
With AT&T in my neighborhood, I get a whopping 1.4 Mbytes/sec upload speed. It would take many months to upload the 2.5 TB of data I have stored on the NAS. With Amazon Import/Export, you can pay a $80 service fee and have them upload all that data for you in one day. I ended up making a video tutorial that walks you through the whole process from signing up for Amazon Web Services to packing your hard drive and shipping it to Amazon.
Here is the full transcript of the video:
Hey everyone. This is Aseem Kishore from Online Tech Tips. I’m going to be doing something new today. I’m going to do a video tutorial on Amazon Web Services Import Export features. So what is the Import Export feature?
Well it’s basically a way to get a large amount of data into an Amazon S3 bucket or into a Glacier vault. Amazon S3 and Glacier are basically two storage options that you have for data backup and data archiving with Amazon. So why would you want to use this service from Amazon?
Well, it basically lets you move a large amount of data into the Cloud very quickly. If you are someone like me, you might have hundreds of gigabytes of photos and videos stored locally on your computer or on an external hard drive. Trying to upload 100 gigabyte or 500 gigabyte or even a terabyte of data into the Cloud will take you weeks if not months on a slow upload connection. Instead what you can do is copy that data onto an external hard drive that can be up to 16 terabytes in size and just ship that to Amazon where they will take it to their data center and upload it straight to your bucket or vault and then you can go ahead and access that from the web.
So to get started, the first thing you are going to have to do is create an Amazon Web Services Account. To do that, you’re going to go to aws.amazon.com and you’re going to go ahead and click on the Sign Up button. Go ahead and type in your e-mail address and then select, “I am a new user,” if you do not have an Amazon account already. If you do, go ahead and select, “I am a returning user,” and you can use your current account Amazon account to sign up for Amazon Web Services.
Once you created your Amazon Web Services Account, you’re going to have to download the Import Export tool. This tool is very simple to use. It does take a little configuration, which I am going to go ahead and explain. But you can see on the screen, there is a down load link which I am going to add in the caption in the bottom of this video. So go ahead and download that and then extract that into a directory on your computer.
Now that you’ve downloaded that tool and extracted it, you should have a directory that looks like this. At this point, we will need to edit a file called, “AWS Credentials.” This contains two values, Access Key ID and Secret Key. Basically, these are two values that Amazon uses to link to your account. You can get these two values from your Amazon Web Services Account by going to the following address. It’s aws.amazon.com/securitycredentials. On the Security Credentials page, you’re going to go ahead and click on Access Keys.
Now it gets a little confusing here. If you’ve already used Amazon Web Services and have already created keys in the past, then you won’t be able to see your secret key here. This is kind of a new interface from Amazon and in order to see your existing secret keys, you have to click on a Security Credentials link that takes you to the old Legacy page.
If you just created a new account, then you’ll be able to create a new root key. This button will be active. At that point you’ll get an access Key ID, and you’ll get the secret key so that it will give you both the values. And this is the Legacy Security page where you can access your secret keys if you have already created an Access Key ID for Amazon Web Services. So as you can see here, I have two access keys and if I wanted to go ahead and see my secret key, I can go ahead and click the Show button and then I can copy those two values into AWS Credentials file that I had shown you earlier. So you want to go ahead and paste the Access ID key here and paste the Secret key here.
Now at this point, if you are getting confused by the Access Key ID and the Secret Access key, that’s okay. You really don’t need to know what they are or care about them in any way whatsoever. All you have to do is sign and, get the values, and copy and paste them into that file.
The next thing we’re going to go ahead and do is create import job. Now the next two parts are the two hardest parts of this whole procedure. In order to create an import job for Amazon S3, we’re going to go ahead and create a manifest file. This manifest file basically contains some information on your device. Wherever you want to store the data and where do you want the device shipped back to.
Now the nice thing is that we don’t have to create this manifest file ourselves. It’s already created for us, we just have to go ahead and fill it out. So what you’ll want to go ahead and do is go into the directory and where you have your import export tool and click on Examples. Here you are going to go ahead and open up the S3 import manifest. As you can see here, I’ve already gone ahead and filled out the information for my import job. So let’s go ahead and take a look at this a little bit more closely.
As you can see, the first thing you have to do is type in your access key ID again. You have to get rid of the brackets, and you just go ahead and paste it directly after the colon. The next thing you’re going to want to do is type in the bucket name. You’re going to have to go ahead and create a bucket, which I’m going to go ahead and show after this, but for now go ahead and type in whatever name that you will want where you’re data is going to be stored. So if you create a folder called Back Up, than anything that you have on your device, any folders or anything in there, will go underneath that bucket name.
The next thing that you will want to go ahead and do is type in your device ID. This is basically a unique identifier for your external hard drive. This can be the serial number that’s on the back of the hard drive. If you don’t have a serial number that’s on the back of your hard drive, what you can go ahead and do is just create a number of your own or create an identifier. Just write that on something, a sticker that you can put onto your device and then just type that value here. It just has to be something that is the same on the device and in this file. Erase device, it’s already set to No, so you are going to leave that. You can leave the next one. Service level is standard, you can leave that. And the return address, you’re going to go ahead and fill out your address like I’ve done here. In the original file, there are some optional fields. You have to go ahead and remove those if you’re not going to use them. So you can just go ahead and delete those lines out.
Okay, so the next thing we’re going to do after we fill out the manifest file is save it into the appropriate directory. To do that, we’re going to go ahead and click File, Save As, and we’re going to move up back into the import export Web Services Tool directory. This is also the location of that dot property file that we filled out earlier. Here you are going to have the go ahead and name your file, “my import manifest.txt. ” Since your Save As Type is already txt, you don’t have to type that into the file name. Go ahead and click Save.
Now that we’ve edited the AWS Credentials file and credited the My Import Manifest file, we can go ahead and create a bucket in Amazon S3. This is very simple to do. What you are going to go ahead and do is go to aws.amazon.com, and you’re going to go ahead and click on My Account console and then click on AWS Management Console. Once you log in, you should get a screen that looks like this with all the different Amazon Web Services. At this point, all we care about is Amazon S3, which is down here at the bottom left. Click on that, and it’s going to go ahead and load up the S3 console. And as you can see here, there’s not really much to it other than buckets. So I have two buckets, this is my backup of my synology nas, which is the network type storage device.
What you’ll want to go ahead and do is click Create Bucket, and think you’re going to go ahead and give your bucket a bucket name. You can also choose a different region, but I suggest you just go to the region that it populates for you automatically. The bucket name just can only have dots, and it has to be unique in that entire region where it’s being stored. So if somebody else already has that bucket name, it’s going to give you an error. For example, if I say, nasbackup, and I say create, it’s going to give me an error that the requested bucket name is not available. In that case you can use dots so you can put ‘dot’, and whatever else you want and click create, and if that’s unique, and then it goes ahead and creates that bucket name. So you can go ahead and create a bucket, that is we a data on all of that external hard drive is going to be stored.
At this point, you might be wondering what else has to be done. So let’s take a look at what we have done so far. We signed up for the AWS service. We’ve downloaded and extracted the tool. We’ve edited the file and editor keys. We’ve gone ahead and created the manifest file is saved it in the import manifest in the same directory as the credentials file, and we created a bucket on Amazon S3. So there’s only a couple more things to do to get this done.
The next thing we have to do is create a job request using a Java command line tool. This is a bit technical and this is probably the most technical thing that you are going to have to do, but is really not that hard. Now in order to create this job request, we have to run a Java command at the command prompt. But in order to do that, we have to have the Java development kit installed. This is different from the Java runtime environment, which is normally installed on most computers, but it won’t let you run Java commands at the command prompt.
In order to do that, what you’ll do is go to Google and just do a search for Java SE, and this is Java Standard Edition. Go ahead and click on the first link here and this brings you to this page. Here you could scroll down, and you’ll see three options, JDK server, JRE, and JRE. We don’t need to worry about these two here. We’re going to go ahead and download the JDK. On the next page, go ahead and click, Accept License Agreement and then you can download the file that matches your system specifications. In my case, I downloaded the Windows 64 bit executable file.
Now that you’ve install the Java executable kit, we can go ahead and run the Java command, and you can go ahead and see this command here in the documentation that I have highlighted here. And by the way, if you need to get to this documentation, the easiest way is to go to Google and do a search for “AWS import export docs”. And then go ahead and click on create your import job, and then click on create your first Amazon S3 import job, and you’ll be brought to this page.
Now we can go ahead and run the command by going to the command prompt. In order to do that we click on Start, type in CMD and press Enter. Now that we have a command prompt, we need to go into the directory where the Amazon import export tool is located. In our case, it’s in Downloads, and then there’s a folder called Import Export Web Service Tool. So in order to navigate directories into the command prompt, you type in “cd”, and then I’m going to type in “downloads”, and then I’m going to type in “cd” again, and I’m going to type in “import export web service tool,” which is the name of the Directory. Now that I’m in that Directory, I’m simply going to go ahead and copy this command and paste that into the command prompt.
You may have noticed that in the command we just copied and pasted, the name of the manifest file is My S3 Import Manifest.txt. I think this is a problem with the documentation because when I tried to run it this way, I got an error saying that the file had to be named My Import Manifest.txt. So simply move your cursor and delete the S3 part, and you should be able run the command. Now I’m not going to go ahead and run the command right now because of already run it before. But when you go ahead and press Enter you should get something like this, job created, job ID, the AW shipping address, and the Signature File Contents.
The signature file contents is basically a file that’s created in the root directory here under Import Export Web Services tool call Signatures. This will be created when you run the actual command. If everything goes Okay, you can then take this file and you’re going to have to copy onto the root of your hard drive.
We’re almost to the end here. The next thing we have to do is copy the Signature File to the root of the hard drive. We can find the file called Signature in the Import Export Web Services Tool Directory after you run the Java command.
The second to the last step is printing out the packing slip and filling it out. This is what the packing slip looks like. It’s a very simple document. You go ahead and put date, your e-mail account ID, your contact number, your name and phone number, the job ID, and the identifier that you have put for your device. Again you can find this document here off of the documentation.
And finally the last step is to simply pack your hard drive and ship it to Amazon. There are few little things that you have to take note of. Firstly, you need to include the power supply and any power cables and any interface cables, so if it’s USB 2.0, 3.0, esata, you need to include the USB cable or esata cable. If not, they’ll go ahead and return it back to you. You’ll also have to fill out that packing slip that I mentioned earlier and put that inside the box. And lastly, you’re going to send the package to the address that you had gotten from that create response command that we ran.
There are two other small things to note when you are shipping. Firstly, you’re going to make sure that the shipping label has that job ID on there. If not, they’re going to return it back. So you need to make sure you have the job ID in the shipping label. Secondly, you should also fill out a return shipping address. This is going to be different than the return shipping address that we have put in the manifest file. If they do not process your hard drive for some reason, if there’s a problem or something like that, they will return the hard drive to the shipping address on the shipping label. If they process your hard drive and they are able to transfer all of the data, they’ll return the hard drive to the shipping address that you have in the man of this about. So it’s important to put in of return shipping address on the label too. You can choose whatever carrier you’d like. I chose UPS. It’s good to have the tracking number, and they can go ahead and do all of this for you without a problem.
And that’s about it. It is a few steps and it does take a little bit of time the first time you do it. But after that, it’s pretty quick and it’s a great way to save a lot of data to the Cloud, an Amazon is also cheap for storage. So if you have a ton a day to you need to store, and you want to back it up somewhere other than in your house or on your external hard drive, then Amazon Web Services S3 is a great option.
I hope you enjoyed this tutorial Online Tech Tips. Please come back and visit.