Se proporciona el idioma español mediante traducción automática para su comodidad. En caso de alguna inconsistencia, el inglés precede al español.
Duplicar archivos
Colaboradores
Sugerir cambios
NetApp recibió una solicitud para buscar archivos duplicados de un único volumen o de varios volúmenes. NetApp proporcionó la siguiente solución.
Para un volumen único, ejecute los siguientes comandos:
[root@mastr-51 linux]# ./xcp -md5 -match 'type==f and nlinks==1 and size != 0' 10.63.150.213:/common_volume/nfsconnector_hw_cert/ | sort | uniq -cd --check-chars=32 XCP 1.5; (c) 2020 NetApp, Inc.; Licensed to Calin Salagean [NetApp Inc] until Mon Dec 31 00:00:00 2029 176,380 scanned, 138,116 matched, 138,115 summed, 10 giants, 61.1 GiB in (763 MiB/s), 172 MiB out (2.57 MiB/s), 1m5s Filtered: 38264 did not match 176,380 scanned, 138,116 matched, 138,116 summed, 10 giants, 62.1 GiB in (918 MiB/s), 174 MiB out (2.51 MiB/s), 1m9s. 3 00004964ca155eca1a71d0949c82e37e nfsconnector_hw_cert/grid_01082017_174316/0/hadoopqe/accumulo/shell/pom.xml 2 000103fbed06d8071410c59047738389 nfsconnector_hw_cert/usr_hdp/2.5.3.0-37/hive2/doc/examples/files/dim-data.txt 2 000131053a46d67557d27bb678d5d4a1 nfsconnector_hw_cert/grid_01082017_174316/0/log/cluster/mahout_1/artifacts/classifier/20news_reduceddata/20news-bydate-test/alt.atheism/53265
Para varios volúmenes, ejecute los comandos siguientes:
[root@mastr-51 linux]# cat multiplevolume_duplicate.sh #! /usr/bin/bash #user input JUNCTION_PATHS='/nc_volume1 /nc_volume2 /nc_volume3 /oplogarchivevolume' NFS_DATA_LIF='10.63.150.213' #xcp operation for i in $JUNCTION_PATHS do echo "start - $i" >> /tmp/duplicate_results /usr/src/xcp/linux/xcp -md5 -match 'type==f and nlinks==1 and size != 0' ${NFS_DATA_LIF}:$i | sort | uniq -cd --check-chars=32 | tee -a /tmp/duplicate_results echo "end - $i" >> /tmp/duplicate_results done [root@mastr-51 linux]# nohup bash +x multiplevolume_duplicate.sh & [root@mastr-51 linux]# cat /tmp/duplicate_results