Divisão de Cirurgia Pediátrica Departamento de Cirurgia e Anatomia Faculdade de Medicina de Ribeirão Preto - Universidade de São Paulo

Computação de alto desempenho – HPC

Uma das competências da STI é a disponibilização de serviços para processamento de dados de alto desempenho em nuvens computacionais interconectadas. Os recursos computacionais para HPC disponibilizados pela interNuvem USP são dois clusters multiusuários, chamados de  Águia e Lince (http://www.usp.br/hpc).

 

 cluster01

Águia e Lince permitem a utilização de aplicações científicas nas mais variadas áreas incluindo, até o momento, usuários dos seguintes institutos: EACH, EEL, EP, ESALQ, FFCFRP, FM, FMRP, ICMC, IF, IFSC, IME, IQ, IQSC.

Cada cluster tem características e objetivos próprios. O cluster Águia tem como objetivo atender a aplicações paralelas e/ou distribuídas. Já o cluster Lince é voltado para Processamento de Alto Desempenho por Unidade de Processamento Gráfico, ou GPU.

Completa a oferta de recursos para HPC o convênio USP-RICE (http://usp.rice.edu), com o qual os pesquisadores da USP tem acesso a um supercomputador Blue Gene/Q, para aplicações massivamente paralelas.

 

Descrição

Os recursos computacionais da interNuvem que formam os dois clusters são compostos por servidores Cisco B230 M2. Cada servidor contém 512 GB memória DDR3 1333MHz, duas interfaces de rede 10Ge FCoE e  duas CPUs Intel E7-2870, cada CPU com 2,4 GHz, 10 Cores, 30MB cache

Cluster Águia

O cluster Águia é formado por 64 servidores, totalizando:

  • 1280 Cores Intel E7-2870 2,4 GHz
  • 32768 GB RAM
  • 45 TB disco

Atualmente há 262 usuários cadastrados, com uma média de 210 jobs executados diariamente.

Cluster Lince

O cluster Lince é formado por 32 servidores, com os seguintes recursos:

  • 64 placas Tesla k20m
  • 512 cores Intel E7-2870 (2,4 GHz)
  • 4128 GB RAM
  • 55 TB disco

Com 83 usuários cadastrados, tem a média de 35 jobs em execução diária.

Tesla K20m

A placa gráfica disponível nos servidores do cluster Lince tem as seguintes características:

GPU 1xGK110
Precisão Simples 3.5 TF
Precisão Dupla 1.2 TF
Memória 4.8 GB
Largura de Banda 208 GB/s
# Cores CUDA 2496
Energia 225W

Observa-se na tabela acima o desempenho desta placa. Em precisão simples, alcança-se 3.5 TF e em precisão dupla 1.2 TF, onde TF significa Tera Flops: um trilhão de operações, ou cálculos, por segundo.

É uma placa com baixo consumo de energia, tendo como consumo máximo de 225W.

tesla_k20m_01 tesla_k20m_02

A memória interna com cerca de 5 GB e 2496 Cores, possibilitam um bom desempenho na utilização em HPC

Aplicações

Várias aplicações estão disponíveis para o usuário e pode-se instalar novas aplicações conforme a necessidade dos usuários. Entre elas destacamos o Gromacs, Lammps, Nwchem, Gaussian G09-D01, gammes, Namd, R, OX, Matlab, Ansys, Meep, MPB, Caffe e as bibliotecas MKL, mpich, openmpi, netcdf, atlas, blas, fftw.

Também estão disponíveis ferramentas de desenvolvimento de software para o usuário, como os compiladores Intel, GNU C / C++, java, python, anaconda. Também estão disponíveis:

CUDA: Plataforma de computação paralela e um modelo de programação inventados pela NVIDIA. Ela permite aumentos significativos de performance computacional ao aproveitar a potência da unidade de processamento gráfico (GPU). CUDA estende as funções C para suportar programação paralela heterogênea. Além do C, há outras linguagens que podem ser utilizadas com CUDA, como C++, Python e Fortran.

OpenCL: (Open Computing Language) é uma API (Application Program Interface) para computação heterogênea que utiliza GPU. Com OpenCL, programadores podem acessar o poder de processamento da GPU através da linguagem de programação C.

O ambiente Linux com recursos de módulos permite a instalação de diferentes versões de cada programa, permitindo ao usuário configurar o ambiente necessário para a execução de sua aplicação.

 

Blue Gene/Q

O convênio USP-Rice University permite aos usuários da USP acesso a um supercomputador IBM com as seguintes características:

  • 209 teraflops de performance
  • 384 cores
  • 1024 nós
  • 16 cores por nó
  • 16 GB RAM por nó
  • 32 nós (512 cores) mínimo de recursos por job

Tem-se 71 usuários cadastrados neste supercomputador, com a utilização de 60% de todo sistema pela USP (a USP tem direito a 30%).

blue_gene_q_01

blue_gene_q_02

Para obter acesso aos recursos de HPC

Águia / Lince

Para ter acesso aos clusters Águia ou Lince, um professor da USP deve enviar uma mensagem para hpc@usp.br com resumo do projeto, nome, e-mail e número USP dos membros do grupo que vai utilizar os recursos. Também há a possibilidade do usuário preencher o formulário http://www.usp.br/hpc/acesso.php

 

Blue Gene

O pesquisador que necessita de processamento massivamente paralelo deve enviar as seguintes informações, em inglês, para hpc@usp.br:

Your name, position (i.e. grad student, post-doc, professor), department, the name of the PI (make sure to cc the PI when making the request, since they will need to confirm the request), software you want to use on the BG, estimated number of cores per calculation, and a 1-2 paragraph description of the types of calculations you want to perform.

Mais informações veja no site http://usp.rice.edu o item How to gain access to the BG?