Skip to main content
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

스토리지 볼륨을 다시 마운트하고 다시 포맷합니다("수동 단계").

기여자

보존된 스토리지 볼륨을 다시 마운트하고 장애가 발생한 스토리지 볼륨을 다시 포맷하려면 두 개의 스크립트를 수동으로 실행해야 합니다. 첫 번째 스크립트는 StorageGRID 스토리지 볼륨으로 올바르게 포맷된 볼륨을 다시 마운트합니다. 두 번째 스크립트는 마운트 해제된 볼륨을 다시 포맷하고 필요한 경우 Cassandra를 재구축하며 서비스를 시작합니다.

필요한 것
  • 장애가 발생한 스토리지 볼륨의 하드웨어를 교체하도록 이미 교체했습니다.

    'n-다시 마운트-볼륨' 스크립트를 실행하면 오류가 발생한 추가 스토리지 볼륨을 식별하는 데 도움이 될 수 있습니다.

  • 스토리지 노드 사용 중지가 진행 중이 아니거나 노드 사용 중단 절차를 일시 중지했습니다. (Grid Manager에서 * 유지보수 * > * 작업 * > * 서비스 해제 * 를 선택합니다.)

  • 확장이 진행 중이 아닌 것을 확인했습니다. (Grid Manager에서 * 유지보수 * > * 작업 * > * 확장 * 을 선택합니다.)

  • 있습니다 스토리지 노드 시스템 드라이브 복구에 대한 경고를 검토했습니다.

    주의 두 개 이상의 스토리지 노드가 오프라인이거나 이 그리드의 스토리지 노드가 최근 15일 내에 재구축된 경우 기술 지원 부서에 문의하십시오. sn-recovery-postinstall.sh 스크립트를 실행하지 마십시오. 2개 이상의 스토리지 노드에서 Cassandra를 상호 간에 15일 이내에 재구축하면 데이터가 손실될 수 있습니다.
이 작업에 대해

이 절차를 완료하려면 다음과 같은 고급 작업을 수행해야 합니다.

  • 복구된 스토리지 노드에 로그인합니다.

  • 'n-다시 마운트-볼륨' 스크립트를 실행하여 적절하게 포맷된 스토리지 볼륨을 다시 마운트합니다. 이 스크립트가 실행되면 다음 작업을 수행합니다.

    • 각 스토리지 볼륨을 마운트 및 마운트 해제하고 XFS 저널을 재생합니다.

    • XFS 파일 일관성 검사를 수행합니다.

    • 파일 시스템의 정합성이 보장되면 스토리지 볼륨이 제대로 포맷된 StorageGRID 스토리지 볼륨인지 확인합니다.

    • 저장소 볼륨이 제대로 포맷된 경우 저장소 볼륨을 다시 마운트합니다. 볼륨의 기존 데이터는 그대로 유지됩니다.

  • 스크립트 출력을 검토하고 문제를 해결합니다.

  • 'sn-recovery-postinstall.sh' 스크립트를 실행합니다. 이 스크립트가 실행되면 다음 작업을 수행합니다.

    중요함 실행 전에 복구 중에 스토리지 노드를 재부팅하지 마십시오 sn-recovery-postinstall.sh 장애가 발생한 스토리지 볼륨을 다시 포맷하고 객체 메타데이터를 복원합니다. 전에 스토리지 노드를 재부팅합니다 sn-recovery-postinstall.sh 완료로 인해 서비스를 시작하려고 하는 서비스에 오류가 발생하여 StorageGRID 어플라이언스 노드가 유지보수 모드를 종료합니다. 의 단계를 참조하십시오 설치 후 스크립트.
    • 'n-remount-volumes' 스크립트가 마운트할 수 없거나 잘못 포맷된 스토리지 볼륨을 다시 포맷합니다.

      참고 저장소 볼륨이 다시 포맷되면 해당 볼륨의 모든 데이터가 손실됩니다. ILM 규칙이 두 개 이상의 개체 복사본을 저장하도록 구성되었다고 가정하여 그리드의 다른 위치에서 개체 데이터를 복원하려면 추가 절차를 수행해야 합니다.
    • 필요한 경우 노드에서 Cassandra 데이터베이스를 재구축합니다.

    • 스토리지 노드에서 서비스를 시작합니다.

단계
  1. 복구된 스토리지 노드에 로그인:

    1. 'ssh admin@grid_node_ip' 명령을 입력합니다

    2. "passwords.txt" 파일에 나열된 암호를 입력합니다.

    3. 루트로 전환하려면 다음 명령을 입력합니다

    4. "passwords.txt" 파일에 나열된 암호를 입력합니다.

    루트로 로그인하면 프롬프트가 '$'에서 '#'로 바뀝니다.

  2. 첫 번째 스크립트를 실행하여 적절하게 포맷된 스토리지 볼륨을 다시 마운트합니다.

    참고 모든 스토리지 볼륨이 새 볼륨이고 포맷해야 하거나 모든 스토리지 볼륨이 실패한 경우 이 단계를 건너뛰고 두 번째 스크립트를 실행하여 마운트 해제된 모든 스토리지 볼륨을 다시 포맷할 수 있습니다.
    1. 'n-다시 마운트-볼륨' 스크립트를 실행합니다

      이 스크립트는 데이터가 포함된 스토리지 볼륨에서 실행되는 데 몇 시간이 걸릴 수 있습니다.

    2. 스크립트가 실행되면 출력을 검토하고 프롬프트에 응답합니다.

      참고 필요에 따라 'tail-f' 명령을 사용하여 스크립트 로그 파일의 내용을 모니터링할 수 있습니다('/var/local/log/sn-다시 마운트-volumes.log"). 로그 파일에는 명령줄 출력보다 자세한 정보가 들어 있습니다.
      root@SG:~ # sn-remount-volumes
      The configured LDR noid is 12632740
      
      ====== Device /dev/sdb ======
      Mount and unmount device /dev/sdb and checking file system consistency:
      The device is consistent.
      Check rangedb structure on device /dev/sdb:
      Mount device /dev/sdb to /tmp/sdb-654321 with rangedb mount options
      This device has all rangedb directories.
      Found LDR node id 12632740, volume number 0 in the volID file
      Attempting to remount /dev/sdb
      Device /dev/sdb remounted successfully
      
      ====== Device /dev/sdc ======
      Mount and unmount device /dev/sdc and checking file system consistency:
      Error: File system consistency check retry failed on device /dev/sdc.
      You can see the diagnosis information in the /var/local/log/sn-remount-volumes.log.
      
      This volume could be new or damaged. If you run sn-recovery-postinstall.sh,
      this volume and any data on this volume will be deleted. If you only had two
      copies of object data, you will temporarily have only a single copy.
      StorageGRID Webscale will attempt to restore data redundancy by making
      additional replicated copies or EC fragments, according to the rules in
      the active ILM policy.
      
      Do not continue to the next step if you believe that the data remaining on
      this volume cannot be rebuilt from elsewhere in the grid (for example, if
      your ILM policy uses a rule that makes only one copy or if volumes have
      failed on multiple nodes). Instead, contact support to determine how to
      recover your data.
      
      ====== Device /dev/sdd ======
      Mount and unmount device /dev/sdd and checking file system consistency:
      Failed to mount device /dev/sdd
      This device could be an uninitialized disk or has corrupted superblock.
      File system check might take a long time. Do you want to continue? (y or n) [y/N]? y
      
      Error: File system consistency check retry failed on device /dev/sdd.
      You can see the diagnosis information in the /var/local/log/sn-remount-volumes.log.
      
      This volume could be new or damaged. If you run sn-recovery-postinstall.sh,
      this volume and any data on this volume will be deleted. If you only had two
      copies of object data, you will temporarily have only a single copy.
      StorageGRID Webscale will attempt to restore data redundancy by making
      additional replicated copies or EC fragments, according to the rules in
      the active ILM policy.
      
      Do not continue to the next step if you believe that the data remaining on
      this volume cannot be rebuilt from elsewhere in the grid (for example, if
      your ILM policy uses a rule that makes only one copy or if volumes have
      failed on multiple nodes). Instead, contact support to determine how to
      recover your data.
      
      ====== Device /dev/sde ======
      Mount and unmount device /dev/sde and checking file system consistency:
      The device is consistent.
      Check rangedb structure on device /dev/sde:
      Mount device /dev/sde to /tmp/sde-654321 with rangedb mount options
      This device has all rangedb directories.
      Found LDR node id 12000078, volume number 9 in the volID file
      Error: This volume does not belong to this node. Fix the attached volume and re-run this script.

      예제 출력에서 한 스토리지 볼륨이 성공적으로 다시 마운트되었으며 세 개의 스토리지 볼륨에 오류가 발생했습니다.

      • '/dev/sdb'는 XFS 파일 시스템 일관성 검사를 통과하고 유효한 볼륨 구조를 가지고 있으므로 성공적으로 다시 마운트되었습니다. 스크립트에 의해 다시 마운트된 디바이스의 데이터는 보존됩니다.

      • 스토리지 볼륨이 새 볼륨이거나 손상되었기 때문에 '/dev/sdc'가 XFS 파일 시스템 일관성 검사에 실패했습니다.

      • 디스크가 초기화되지 않았거나 디스크의 수퍼블록이 손상되어 '/dev/SDD'를 마운트할 수 없습니다. 스크립트가 스토리지 볼륨을 마운트할 수 없는 경우 파일 시스템 정합성 검사를 실행할 것인지 묻는 메시지가 표시됩니다.

        • 스토리지 볼륨이 새 디스크에 연결되어 있는 경우 프롬프트에 * N * 으로 응답합니다. 새 디스크에서 파일 시스템을 확인할 필요가 없습니다.

        • 스토리지 볼륨이 기존 디스크에 연결되어 있는 경우 프롬프트에 * Y * 로 응답합니다. 파일 시스템 검사 결과를 사용하여 손상의 원인을 확인할 수 있습니다. 결과는 '/var/local/log/sn-res마운트-volumes.log' 로그 파일에 저장됩니다.

      • '/dev/SDE'는 XFS 파일 시스템 일관성 검사를 통과하고 유효한 볼륨 구조를 가지고 있지만 volid 파일의 LDR 노드 ID가 이 스토리지 노드의 ID(맨 위에 표시된 구성된 LDR noid)와 일치하지 않습니다. 이 메시지는 이 볼륨이 다른 스토리지 노드에 속함을 나타냅니다.

  3. 스크립트 출력을 검토하고 문제를 해결합니다.

    중요함 스토리지 볼륨이 XFS 파일 시스템 일관성 검사에 실패했거나 마운트할 수 없는 경우 출력에서 오류 메시지를 자세히 검토합니다. 이러한 볼륨에 대해 'sn-recovery-postinstall.sh' 스크립트를 실행하면 어떤 영향이 있는지 이해해야 합니다.
    1. 결과에 예상한 모든 볼륨에 대한 항목이 포함되어 있는지 확인합니다. 목록에 볼륨이 없으면 스크립트를 다시 실행합니다.

    2. 마운트된 모든 디바이스에 대한 메시지를 검토합니다. 스토리지 볼륨이 이 스토리지 노드에 속해 있지 않음을 나타내는 오류가 없는지 확인합니다.

      이 예에서 '/dev/SDE'의 출력에는 다음 오류 메시지가 포함됩니다.

      Error: This volume does not belong to this node. Fix the attached volume and re-run this script.
      주의 스토리지 볼륨이 다른 스토리지 노드에 속하는 것으로 보고되면 기술 지원 부서에 문의하십시오. 'sn-recovery-postinstall.sh' 스크립트를 실행하면 스토리지 볼륨이 다시 포맷되어 데이터가 손실될 수 있습니다.
    3. 스토리지 디바이스를 마운트할 수 없는 경우 디바이스 이름을 기록해 두고 디바이스를 복구하거나 교체합니다.

      참고 마운트할 수 없는 스토리지 디바이스를 복구하거나 교체해야 합니다.

      디바이스 이름을 사용하여 볼륨 ID를 조회합니다. 볼륨 ID는 'repair-data' 스크립트를 실행하여 객체 데이터를 볼륨에 복원할 때 입력해야 합니다(다음 절차).

    4. UNMOUNTABLE 장치를 모두 복구하거나 교체한 후 'n-remount-volumes' 스크립트를 다시 실행하여 다시 마운트할 수 있는 모든 스토리지 볼륨이 다시 마운트되었는지 확인합니다.

      중요함 스토리지 볼륨을 마운트할 수 없거나 잘못 포맷한 경우 다음 단계를 계속 수행하면 볼륨의 모든 데이터와 볼륨이 삭제됩니다. 오브젝트 데이터의 복사본이 2개인 경우 다음 절차(오브젝트 데이터 복원)를 완료할 때까지 복사본 하나가 유지됩니다.
    주의 실패한 스토리지 볼륨에 남아 있는 데이터를 그리드의 다른 위치에서 재구축할 수 없다고 판단되는 경우(예: ILM 정책에서 하나의 복제본만 만드는 규칙을 사용하거나 여러 노드에서 볼륨이 실패한 경우) 'sn-recovery-postinstall.sh' 스크립트를 실행하지 마십시오. 대신 기술 지원 부서에 문의하여 데이터 복구 방법을 확인하십시오.
  4. sn-recovery-postinstall.sh 스크립트: sn-recovery-postinstall.sh를 실행합니다

    이 스크립트는 마운트할 수 없거나 잘못 포맷된 스토리지 볼륨을 다시 포맷하고, 필요한 경우 노드에서 Cassandra 데이터베이스를 재구축하고, 스토리지 노드에서 서비스를 시작합니다.

    다음 사항에 유의하십시오.

    • 스크립트를 실행하는 데 몇 시간이 걸릴 수 있습니다.

    • 일반적으로 스크립트가 실행되는 동안에는 SSH 세션만 남겨야 합니다.

    • SSH 세션이 활성화되어 있는 동안에는 * Ctrl + C * 를 누르지 마십시오.

    • 네트워크 중단이 발생하여 SSH 세션을 종료하는 경우 스크립트는 백그라운드에서 실행되지만 복구 페이지에서 진행률을 볼 수 있습니다.

    • 스토리지 노드가 RSM 서비스를 사용하는 경우 노드 서비스가 다시 시작됨에 따라 스크립트가 5분 동안 정지되는 것처럼 보일 수 있습니다. RSM 서비스가 처음 부팅될 때마다 5분 정도 지연될 수 있습니다.

      참고 RSM 서비스는 ADC 서비스를 포함하는 스토리지 노드에 있습니다.
    참고 일부 StorageGRID 복구 절차에서는 리퍼를 사용하여 Cassandra 수리를 처리합니다. 관련 또는 필수 서비스가 시작되는 즉시 수리가 자동으로 이루어집니다. "리퍼" 또는 "'Cassandra 수리'라는 스크립트 출력을 볼 수 있습니다. 복구가 실패했다는 오류 메시지가 나타나면 오류 메시지에 표시된 명령을 실행합니다.
  5. 을(를) 로 설정합니다 sn-recovery-postinstall.sh 스크립트가 실행되면 Grid Manager에서 복구 페이지를 모니터링합니다.

    복구 페이지의 진행률 표시줄과 단계 열은 'sn-recovery-postinstall.sh' 스크립트의 상위 상태를 제공합니다.

    그리드 관리 인터페이스의 복구 진행률을 보여 주는 스크린샷

'sn-recovery-postinstall.sh' 스크립트가 노드에서 서비스를 시작한 후 해당 절차에 설명된 대로 스크립트로 포맷된 모든 스토리지 볼륨에 객체 데이터를 복원할 수 있습니다.