Computação de alto desempenho – HPC
Uma das competências da STI é a disponibilização de serviços para processamento de dados de alto desempenho em nuvens computacionais interconectadas. Os recursos computacionais para HPC disponibilizados pela interNuvem USP são dois clusters multiusuários, chamados de Águia e Lince (http://www.usp.br/hpc).
Águia e Lince permitem a utilização de aplicações científicas nas mais variadas áreas incluindo, até o momento, usuários dos seguintes institutos: EACH, EEL, EP, ESALQ, FFCFRP, FM, FMRP, ICMC, IF, IFSC, IME, IQ, IQSC.
Cada cluster tem características e objetivos próprios. O cluster Águia tem como objetivo atender a aplicações paralelas e/ou distribuídas. Já o cluster Lince é voltado para Processamento de Alto Desempenho por Unidade de Processamento Gráfico, ou GPU.
Completa a oferta de recursos para HPC o convênio USP-RICE (http://usp.rice.edu), com o qual os pesquisadores da USP tem acesso a um supercomputador Blue Gene/Q, para aplicações massivamente paralelas.
Descrição
Os recursos computacionais da interNuvem que formam os dois clusters são compostos por servidores Cisco B230 M2. Cada servidor contém 512 GB memória DDR3 1333MHz, duas interfaces de rede 10Ge FCoE e duas CPUs Intel E7-2870, cada CPU com 2,4 GHz, 10 Cores, 30MB cache
Cluster Águia
O cluster Águia é formado por 64 servidores, totalizando:
- 1280 Cores Intel E7-2870 2,4 GHz
- 32768 GB RAM
- 45 TB disco
Atualmente há 262 usuários cadastrados, com uma média de 210 jobs executados diariamente.
Cluster Lince
O cluster Lince é formado por 32 servidores, com os seguintes recursos:
- 64 placas Tesla k20m
- 512 cores Intel E7-2870 (2,4 GHz)
- 4128 GB RAM
- 55 TB disco
Com 83 usuários cadastrados, tem a média de 35 jobs em execução diária.
Tesla K20m
A placa gráfica disponível nos servidores do cluster Lince tem as seguintes características:
GPU | 1xGK110 |
Precisão Simples | 3.5 TF |
Precisão Dupla | 1.2 TF |
Memória | 4.8 GB |
Largura de Banda | 208 GB/s |
# Cores CUDA | 2496 |
Energia | 225W |
Observa-se na tabela acima o desempenho desta placa. Em precisão simples, alcança-se 3.5 TF e em precisão dupla 1.2 TF, onde TF significa Tera Flops: um trilhão de operações, ou cálculos, por segundo.
É uma placa com baixo consumo de energia, tendo como consumo máximo de 225W.
A memória interna com cerca de 5 GB e 2496 Cores, possibilitam um bom desempenho na utilização em HPC
Aplicações
Várias aplicações estão disponíveis para o usuário e pode-se instalar novas aplicações conforme a necessidade dos usuários. Entre elas destacamos o Gromacs, Lammps, Nwchem, Gaussian G09-D01, gammes, Namd, R, OX, Matlab, Ansys, Meep, MPB, Caffe e as bibliotecas MKL, mpich, openmpi, netcdf, atlas, blas, fftw.
Também estão disponíveis ferramentas de desenvolvimento de software para o usuário, como os compiladores Intel, GNU C / C++, java, python, anaconda. Também estão disponíveis:
CUDA: Plataforma de computação paralela e um modelo de programação inventados pela NVIDIA. Ela permite aumentos significativos de performance computacional ao aproveitar a potência da unidade de processamento gráfico (GPU). CUDA estende as funções C para suportar programação paralela heterogênea. Além do C, há outras linguagens que podem ser utilizadas com CUDA, como C++, Python e Fortran.
OpenCL: (Open Computing Language) é uma API (Application Program Interface) para computação heterogênea que utiliza GPU. Com OpenCL, programadores podem acessar o poder de processamento da GPU através da linguagem de programação C.
O ambiente Linux com recursos de módulos permite a instalação de diferentes versões de cada programa, permitindo ao usuário configurar o ambiente necessário para a execução de sua aplicação.
Blue Gene/Q
O convênio USP-Rice University permite aos usuários da USP acesso a um supercomputador IBM com as seguintes características:
- 209 teraflops de performance
- 384 cores
- 1024 nós
- 16 cores por nó
- 16 GB RAM por nó
- 32 nós (512 cores) mínimo de recursos por job
Tem-se 71 usuários cadastrados neste supercomputador, com a utilização de 60% de todo sistema pela USP (a USP tem direito a 30%).
Para obter acesso aos recursos de HPC
Águia / Lince
Para ter acesso aos clusters Águia ou Lince, um professor da USP deve enviar uma mensagem para hpc@usp.br com resumo do projeto, nome, e-mail e número USP dos membros do grupo que vai utilizar os recursos. Também há a possibilidade do usuário preencher o formulário http://www.usp.br/hpc/acesso.php
Blue Gene
O pesquisador que necessita de processamento massivamente paralelo deve enviar as seguintes informações, em inglês, para hpc@usp.br:
Your name, position (i.e. grad student, post-doc, professor), department, the name of the PI (make sure to cc the PI when making the request, since they will need to confirm the request), software you want to use on the BG, estimated number of cores per calculation, and a 1-2 paragraph description of the types of calculations you want to perform.
Mais informações veja no site http://usp.rice.edu o item How to gain access to the BG?