Como usar o TensorFlow com o Container Station


Data da última modificação: 2019-09-24

Sobre o TensorFlow

O TensorFlow™ é uma biblioteca de software de código aberto para computação numérica que usa gráficos de fluxo de dados. Os nós no gráfico representam operações matemáticas, enquanto as bordas do gráfico representam matrizes de dados multidimensionais (tensores) comunicadas entre elas.

Instalar o TensorFlow no Container Station

  1. Atribua GPUs ao Container Station.
    1. Vá para Painel de Controle > Sistema > Hardware > Placa gráfica.
    2. Em Uso de recursos, atribua GPUs ao Container Station.
    3. Clique em Aplicar.
  2. Abra o Container Station.
  3. Use a versão correta da imagem.
    1. Clique em Imagens.
    2. Clique em Pull para que a imagem desejada seja instalação.
      Nota: Recomenda-se usar a seguinte versão do TensorFlow de acordo com a versão do QTS e do driver Nvidia instalados:
      Versões do QTS e do driver Nvidia Marca Comando pull
      QTS 4.3.5 e driver Nvidia v1.3.5 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
      QTS 4.4.x e driver Nvidia v2.0.0 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
  4. Clique em Criar.
  5. Pesquise a palavra-chave "TensorFlow". Encontre tensorflow/tensorflow e clique em Instalar.
  6. Selecione uma versão do TensorFlow de acordo com a versão do QTS e do driver Nvidia instalados:
    Versões do QTS e do driver Nvidia Versão recomendada
    QTS 4.3.5 e driver Nvidia v1.3.5 1.11.0-gpu
    QTS 4.4.x e driver Nvidia v2.0.0 1.11.0-gpu
  7. Clique em Avançar.
  8. Clique em Configurações avançadas.
  9. Atribua GPUs ao recipiente.
    1. Vá para Dispositivo.
    2. Clique em Adicionar.
    3. Escolha as GPUs para adicionar ao recipiente.
  10. Opcional: Compartilhe uam pasta do NAS com o recipiente.
    1. Vá para Pasta compartilhada.
    2. Acima de Volume do host, clique em Adicionar.
      Um novo volume do host será adicionado.
    3. Selecione um caminho de host.
    4. Especifique um ponto de montagem.
  11. Clique em Criar.
    Um Resumo do seu novo recipiente será exibido.
  12. Verifique as configurações do recipiente.
  13. Clique em OK.
    A imagem do recipiente será instalada.

Montar uma GPU NVIDIA via SSH

  1. Conecte-se ao seu NAS via SSH.
  2. Monte GPUs no recipiente.
    1. Insira um dos seguintes comandos de acordo com a GPU que você deseja montar.
      GPU a montar Comando
      Primeira
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Segunda
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Ambas
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
    Nota: Os comandos de exemplo de acordo com as versões do QTS e do driver Nvidia estão listadas abaixo:
    Versões do QTS e do driver Nvidia Comando
    QTS 4.3.5/4.3.6 e driver Nvidia v1.3.5
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \
     -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f /etc/config/qpkg.conf -d 
    None `/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu
    QTS 4.4.x e driver Nvidia v2.0.0
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \-v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f 
    /etc/config/qpkg.conf -d
    None`/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu

Acessar o recipiente

  1. Abra o Container Station.
  2. Clique em Visão geral.
  3. Encontre o recipiente que você acabou de instalar e abra a página do recipiente.
  4. Copie o Token do Console.
  5. Clique na URL.
  6. Cole o Token em Senha ou token.
  7. Clique em Fazer login.
Agora você pode usar o Jupyter Notebook com o TensorFlow.

Este artigo foi útil?

63% das pessoas acham que foi útil.
Obrigado por seu retorno.

Conte-nos como podemos melhorar este artigo:

Se quiser enviar outros comentários, escreva-os abaixo.

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top