Skip to main content
NetApp artificial intelligence solutions
본 한국어 번역은 사용자 편의를 위해 제공되는 기계 번역입니다. 영어 버전과 한국어 버전이 서로 어긋나는 경우에는 언제나 영어 버전이 우선합니다.

솔루션 검증 개요

이 섹션에서는 여러 소스에서 SQL 테스트 쿼리를 실행하여 기능을 검증하고 NetApp 스토리지로의 스필오버를 테스트하고 확인했습니다.

객체 스토리지에 대한 SQL 쿼리

  1. dremio.env에서 서버당 메모리를 250GB로 설정합니다.

    root@hadoopmaster:~# for i in hadoopmaster hadoopnode1 hadoopnode2 hadoopnode3 hadoopnode4; do ssh $i "hostname; grep -i  DREMIO_MAX_MEMORY_SIZE_MB /opt/dremio/conf/dremio-env; cat /proc/meminfo  | grep -i memtotal"; done
    hadoopmaster
    #DREMIO_MAX_MEMORY_SIZE_MB=120000
    DREMIO_MAX_MEMORY_SIZE_MB=250000
    MemTotal:       263515760 kB
    hadoopnode1
    #DREMIO_MAX_MEMORY_SIZE_MB=120000
    DREMIO_MAX_MEMORY_SIZE_MB=250000
    MemTotal:       263515860 kB
    hadoopnode2
    #DREMIO_MAX_MEMORY_SIZE_MB=120000
    DREMIO_MAX_MEMORY_SIZE_MB=250000
    MemTotal:       263515864 kB
    hadoopnode3
    #DREMIO_MAX_MEMORY_SIZE_MB=120000
    DREMIO_MAX_MEMORY_SIZE_MB=250000
    MemTotal:       264004556 kB
    node4
    #DREMIO_MAX_MEMORY_SIZE_MB=120000
    DREMIO_MAX_MEMORY_SIZE_MB=250000
    MemTotal:       263515484 kB
    root@hadoopmaster:~#
  2. dremio.conf 파일에서 스필오버 위치(${DREMIO_HOME}"/dremiocache)와 저장소 세부 정보를 확인하세요.

    paths: {
      # the local path for dremio to store data.
      local: ${DREMIO_HOME}"/dremiocache"
    
      # the distributed path Dremio data including job results, downloads, uploads, etc
      #dist: "hdfs://hadoopmaster:9000/dremiocache"
      dist: "dremioS3:///dremioconf"
    }
    
    services: {
      coordinator.enabled: true,
      coordinator.master.enabled: true,
      executor.enabled: false,
      flight.use_session_service: false
    }
    
    zookeeper: "10.63.150.130:2181,10.63.150.153:2181,10.63.150.151:2181"
    services.coordinator.master.embedded-zookeeper.enabled: false
  3. Dremio 스필오버 위치를 NetApp NFS 스토리지로 지정합니다.

    root@hadoopnode1:~# ls -ltrh /dremiocache
    total 4.0K
    drwx------ 3 nobody nogroup 4.0K Sep 13 16:00 spilling_stlrx2540m4-12-10g_45678
    root@hadoopnode1:~# ls -ltrh /opt/dremio/dremiocache/
    total 8.0K
    drwxr-xr-x 3 dremio dremio 4.0K Aug 22 18:19 spill_old
    drwxr-xr-x 4 dremio dremio 4.0K Aug 22 18:19 cm
    lrwxrwxrwx 1 root   root     12 Aug 22 19:03 spill -> /dremiocache
    root@hadoopnode1:~# ls -ltrh /dremiocache
    total 4.0K
    drwx------ 3 nobody nogroup 4.0K Sep 13 16:00 spilling_stlrx2540m4-12-10g_45678
    root@hadoopnode1:~# df -h /dremiocache
    Filesystem                              Size  Used Avail Use% Mounted on
    10.63.150.159:/dremiocache_hadoopnode1  2.1T  209M  2.0T   1% /dremiocache
    root@hadoopnode1:~#
  4. 맥락을 선택하세요. 우리 테스트에서는 ONTAP S3에 있는 TPCDS에서 생성된 Parquet 파일을 대상으로 테스트를 실행했습니다. Dremio 대시보드 → SQL 러너 → 컨텍스트 → NetAppONTAPS3→Parquet1TB

컨텍스트를 ontaps3 parquet 폴더로 설정하세요

  1. Dremio 대시보드에서 TPC-DS 쿼리67을 실행합니다.

TPC-DS의 99개 쿼리 중 하나인 쿼리 67을 실행합니다.

  1. 모든 실행자에서 작업이 실행 중인지 확인하세요. Dremio 대시보드 → 작업 → <작업 ID> → 원시 프로필 → EXTERNAL_SORT 선택 → 호스트 이름

Q67 쿼리의 노드 목록

  1. SQL 쿼리가 실행 중일 때 NetApp 스토리지 컨트롤러에서 데이터 캐싱을 위한 분할 폴더를 확인할 수 있습니다.

    root@hadoopnode1:~# ls -ltrh /dremiocache
    total 4.0K
    drwx------ 3 nobody nogroup 4.0K Sep 13 16:00 spilling_stlrx2540m4-12-10g_45678
    root@hadoopnode1:~# ls -ltrh /dremiocache/spilling_stlrx2540m4-12-10g_45678/
    total 4.0K
    drwxr-xr-x 2 root daemon 4.0K Sep 13 16:23 1726243167416
  2. 스필오버로 완료된 SQL 쿼리쿼리 67이 완료되면 세부 정보가 넘칩니다.

  3. 작업 완료 요약.완료된 쿼리 67의 작업 요약

  4. 유출된 데이터 크기를 확인하세요쿼리 결과의 splleddata 세부 정보

NAS 및 StorageGRID Object Storage에도 동일한 절차가 적용됩니다.