Cluster


 

Lista de publicações relacionadas


 

 

Análise Estática de Estruturas de Armazenamento de Grãos Através do Método dos Elementos Discretos

Rodrigo Januário de Melo

 

Resumo: Silos verticais são estruturas de armazenamento com alto índice colapsos, dado que geralmente não apresentam condições ideais de operação, devido a complexidade de determinação das pressões internas exercidas pelo produto armazenado, principalmente na condição de descarga. Além disso, esses problemas são potencializados quando se trata de silos esbeltos, os quais apresentam a relação entre a altura e o diâmetro superior a 1,5. Atualmente, não existe norma brasileira para a determinação das pressões exercidas pelos grãos armazenados sobre as paredes do silo, sendo utilizadas teorias empíricas e normas internacionais como referência para o desenvolvimento do projeto dessas estruturas. Entretanto, essas normas/teorias apresentam divergências no que diz respeito à determinação das pressões. Este trabalho tem por objetivo o estudo do comportamento de silos submetidos a pressões internas devido ao armazenamento de grãos estático através do Método dos Elementos Discretos. Este método permite simular com eficiência problemas de natureza discreta como o armazenamento de grãos. Assim, as solicitações encontradas serão comparadas com valores obtidos por meio das teorias e normas, tornando-se possível identificar as ações que são negligenciadas e possibilitando maior segurança no projeto, na execução e na operação de silos, reduzindo o número de acidentes e colapsos.

 

Graduação em Engenharia Civil (Campus do Sertão/UFAL)

 

2) Ambiente Reproducible Research no Desenvolvimento e Acompanhamento da Pesquisa Quantitativa

Ana Maria Aquino dos Santos

 

Resumo: Esse trabalho mostra uma ferramenta open-source que auxilia na produção da pesquisa em atenção ao paradigma Reproducible Research (RR). As vantagens da ferramenta são: tornar o trabalho mais transparente para outros pesquisadores; melhorar o trabalho em equipe; aumentar o impacto do artigo; favorecer a continuidade do trabalho.

 

Mestrado em Modelagem Computacional de Conhecimento (IC/UFAL)

 

Um Ambiente Computacional de Alto Desempenho para Cálculo de Deslocamentos Usando Correlação de Imagens Digitais

Christiano Augusto Ferrario Várady Filho

 

Resumo: O presente trabalho apresenta um ambiente computacional de alto desempenho que utiliza técnicas de correlação de imagens digitais para determinação de grandezas físicas associadas a problemas de engenharia. Sua arquitetura computacional integra diversas tecnologias avançadas para o cálculo dos campos de deslocamentos de elementos estruturais a partir de ensaios. A metodologia utilizada prevê o estudo de conceitos, formulações e técnicas de arquitetura de software, processamento de imagens, correlação de imagens digitais e computação de alto desempenho, além de incorporar procedimentos específicos em um ambiente único para a determinação de grandezas físicas. Dentre os principais procedimentos utilizados na arquitetura apresentada, pode-se citar as abordagens locais e globais de correlação de imagens digitais, métodos de otimização não-linear e interpolações bidimensionais. Também são incorporadas ao ambiente computacional estratégias de computação de alto desempenho para alcançar ganhos de performance na determinação dos campos de deslocamentos e deformações usando a correlação de imagens digitais. Uma comparação com o método Scale Invariant Feature Transform e com o método Q4-DIC de análise de imagens também são realizadas. Um protótipo computacional é desenvolvido com o objetivo de validar o ambiente de alto desempenho apresentado, permitindo o monitoramento de elementos estruturais através da correlação de imagens digitais. Também são realizados estudos de casos que permitem a verificação de tecnologias incorporadas ao protótipo apresentado, incluindo análises quantitativas de resultados e medição de tempo computacional.

 

Mestrado em Engenharia Civil (CTEC/UFAL)

 

 

 

Metodologia de paralelização híbrida do DEM com controle de balanço de carga baseado em curva de Hilbert

Diogo Tenório Cintra

 

Resumo: Esta tese apresenta uma metodologia de paralelização híbrida aplicada ao Método dos Elementos Discretos (DEM – Discrete Element Method) que combina MPI e OpenMP com o intuito de melhoria de desempenho computacional. A metodologia utiliza estratégias de decomposição de domínio visando a distribuição do cálculo de modelos de larga escala em um cluster. A técnica proposta também particiona a carga de trabalho de cada subdomínio entre threads. Este procedimento adicional visa obter maiores desempenhos computacionais através do ajuste de utilização de mecanismos de troca de mensagens entre processos e paralelização por threads. O objetivo principal da técnica é reduzir os elevados tempos de comunicação entre processos em ambientes computacionais de memória compartilhada tais como os processadores modernos. A divisão de trabalho por threads emprega a curva de preenchimento de espaço de Hilbert (HSFC) visando a melhoria de localidade dos dados e evitando custos computacionais (overheads) resultantes de ordenações constantes para o vetor de partículas. As simulações numéricas apresentadas permitem avaliar os métodos de decomposição de domínio, técnicas de particionamento, mecanismos de controle de acesso à memória, dentre outros. Algoritmos distintos de particionamento e diferentes estratégias de solução paralela são abordados para ambientes computacionais de memória distribuída, compartilhada ou para um modelo híbrido que envolve os dois ambientes. A metodologia desenvolvida e a ferramenta computacional utilizada nas implementações realizadas, o software DEMOOP, fornecem recursos que podem ser aplicados em diversos problemas de engenharia envolvendo modelos de partículas em larga escala. Nesta tese alguns destes problemas são abordados, em especial aqueles relacionados com fluxo de partículas em rampas, em funis de descarga e em cenários reais de deslizamento de terra. Os resultados mostram que as estratégias de execução híbridas atingem, em geral, melhores desempenhos computacionais que aqueles que se baseiam unicamente em troca de mensagens. A técnica de paralelização híbrida desenvolvida também obtém um bom controle de balanço de carga entre threads. Os estudos de caso apresentados apresentam boa escalabilidade e eficiências paralelas. O método proposto permite uma execução configurável de modelos numéricos do DEM e introduz uma estratégia combinada que melhora localidade dos dados e um balanceamento de carga iterativo.

 

Doutorado Engenharia Civil (CTG/UFPE)

 

Desenvolvimento de um Elemento Finito de Cabo para a Análise Dinâmica de Linhas de Ancoragem

Pedro Henrique Rios Silveira

 

Resumo: A exploração de petróleo em sistemas offshore carrega consigo alguns importantes desafios tecnológicos. Entre os diversos parâmetros que devem ser controlados, destaca-se a necessidade de restringir os movimentos do sistema flutuante a níveis aceitáveis. A aplicação dessas restrições de movimento na unidade de exploração, em grande parte dos casos, é feita através de sistemas de tracionadores, linhas de ancoragem e ancoradores. As linhas de ancoragem servem de conexão entre os ancoradores, fixados ao solo marinho, e o sistema flutuante, cuja dinâmica se deseja conter. É portanto bastante importante, do ponto de vista da análise dos sistemas de ancoragem como um todo, entender o comportamento mecânico de suas estruturas de linhas. Contudo, analisar esse comportamento é um problema bastante complexo. Visando fornecer um arcabouço computacional para a simulação apropriada dos vários fenômenos não-lineares que influenciam na resposta dos sistemas de ancoragem, este trabalho tem como objetivo estudar a eficiência do uso de elementos finitos de cabo para a análise dinâmica de estruturas de linhas, passando pela implementação e refino de diferentes metodologias de tratamento das respostas ambientais e visco-elásticas à dinâmica das mesmas. Diversos exemplos serão tratados para estudar a resposta dos elementos desenvolvidos a diversas condições ambientes e geometrias, fazendo uso de recursos de computação de alto-desempenho e computação paralela, para os quais recorre-se ao Cluster do Laboratório de Computação Científica e Visualização – LCCV/UFAL.

 

Graduação em Engenharia Civil (CTEC/UFAL)

 

Ambiente Computacional para suporte a Reproducible Research

Rodrigo de Lima Pinheiro

 

Resumo: Reproducible Research (RR) define boas práticas em metodologia da pesquisa científica para serem aplicadas, em especial à pesquisa computacional quantitativa. Diversos periódicos de prestígio internacional adotam ou exigem o cumprimento dessas práticas. Entretanto, o pleno atendimento às premissas de RR implica em uma carga extra de trabalho. Fato este que compromete seriamente a sua adoção, sendo desejável a utilização de ferramentas computacionais que minimizem esse esforço. Como forma de garantir que as práticas de RR sejam aplicadas de forma transparente a artigos de pesquisa computacional quantitativa, apresenta-se neste trabalho: modelagem, proposta e construção de um ambiente computacional desenvolvido a partir da integração de ferramentas computacionais Free/Libre and Open-Source Software (FLOSS). Tal ambiente computacional foi implementado com base na interseção do resultado de três frentes de trabalho: o estudo das principais práticas de Reproducible Research; a análise de soluções computacionais de suporte a RR voltadas especificamente para ciências computacionais; e o levantamento e integração de softwares FLOSS para suporte sustentável a esta iniciativa.

 

Mestrado em Modelagem Computacional de Conhecimento (IC/UFAL)

 

Análise do fechamento de poços em rochas salinas submetidas a diferentes temperaturas e pressões

Gabriel Bonifácio de Almeida

 

Resumo: Este trabalho apresenta um estudo relacionado à influência da variação dos gradientes geostático e geotérmico no fechamento de poços verticais escavados em camadas salinas, estando tais parâmetros associados às rochas sobrejacentes a essas camadas. Para alcançar os reservatórios do pré-sal, é necessário atravessar espessas formações salinas, que estão sujeitas ao fenômeno de fluência. A deformação ocorre na direção do fechamento do poço, e, dependendo de sua velocidade, pode provocar restrições à passagem da coluna de perfuração e de equipamentos, elevando os custos operacionais. A taxa de fechamento do poço depende de vários fatores associados ao cenário em que ele se encontra, tais como a temperatura e a pressão a que as rochas salinas estão submetidas, além dos dados do projeto. Nesta direção, as possíveis imprecisões e erros na estimativa dos valores desses gradientes usados em projetos de poços é um dos motivos que justifica a elaboração de um procedimento para relacionar o fechamento do poço a essas variáveis. A metodologia adotada neste trabalho é baseada na realização de simulações numéricas através do método dos elementos finitos de um conjunto de modelos com diferentes valores de gradiente geostático e geotérmico, onde essas análises possibilitam estabelecer, através de equações, relações entre essas variáveis e o fechamento do poço. Gráficos com os resultados obtidos são apresentados e discutidos neste trabalho. Como produto final, espera-se que essa metodologia permita a correção rápida de estimativas de fechamento a partir de dados mais realistas obtidos durante a perfuração do poço, quando os dados precisam ser obtidos em tempo real.

 

Graduação em Engenharia de Petróleo (CTEC/UFAL)

 

Otimização de Sistema de Ancoragem Equivalente em Profundidade Truncada

Fábio Martins Gonçalves Ferreira

 

Resumo: Ao esgotar as reservas de hidrocarbonetos em terra e águas rasas, a indústria vem explorando e produzindo petróleo em águas profundas e ultraprofundas. No entanto, a verificação hidrodinâmica de novos sistemas flutuantes de produção continua usando as metodologias consagradas, especialmente os ensaios em tanques oceânicos de laboratório. A utilização de modelos em escala reduzida vem sendo adotada desde os primeiros projetos em águas rasas e continua até hoje nos projetos em águas ultraprofundas. No entanto, os ensaios em profundidades superiores a 1.500 m necessitam de um fator de escala muito elevado, com diversos problemas associados, dentre eles as dificuldades de acomodar as linhas de ancoragem e as incertezas relacionadas a modelos muito pequenos. Dentre as soluções possíveis, os ensaios híbridos (numérico-experimental) se apresentam como a solução mais viável para verificação experimental em águas ultraprofundas, em especial o ensaio híbrido passivo. Esse tipo de ensaio é organizado em etapas, sendo a primeira delas responsável pela definição do sistema truncado. Se essa etapa não for executada de forma satisfatória, o sucesso do ensaio pode ser comprometido. Assim, a fim de minimizar essa questão, propõe-se nesta tese de doutorado uma forma sistemática para encontrar sistemas truncado equivalentes, considerando os efeitos estáticos e dinâmicos, através da utilização de ferramentas de otimização. Nesse sentido, a abordagem adotada utiliza um simulador para análise estática e dinâmica de estruturas offshore denominado Dynasim e um algoritmo de otimização baseado em gradiente através do sistema Dakota. Também é utilizada a metodologia de planejamento de experimentos para identificar os fatores que influenciam as respostas estática e dinâmica do problema, evitando o uso de variáveis de projeto irrelevantes no estudo da otimização. Ressalta-se que essa metodologia não foi aplicada em outros trabalhos no contexto de sistemas de ancoragem truncado, segundo nosso conhecimento. Além disso, analisa-se o projeto ótimo do sistema truncado em várias condições ambientais, cujo interesse é verificar a concordância dele com o sistema de ancoragem na profundidade completa. Devido ao elevado custo computacional envolvido nessa verificação, utiliza-se a computação de alto desempenho, com processamento paralelo, para viabilizar a realização dessas análises. Como é demonstrado neste trabalho, a metodologia proposta facilita a busca de sistemas de ancoragem truncado equivalente preservando as características estáticas e dinâmicas do sistema de ancoragem completo. São apresentados e discutidos quatro casos, os dois primeiros se referem a casos simplificados, o terceiro é baseado na literatura e o quarto é baseado em um cenário real. Os resultados obtidos nos casos estudados mostram que os sistemas truncados equivalentes encontrados conseguem reproduzir o comportamento dos sistemas completos para as condições verificadas.

 

Programa de Pós-Graduação em Engenharia Civil (PPGEC/UFPE)

 

Devo migrar minhas aplicações paralelas para ambientes virtualizados?

Tarciso Ferreira, Vilker Tenorio, Isadora Cardoso, Matheus Tavares

 

Resumo: Neste trabalho utilizamos conceitos de computação em nuvem para prover com rapidez uma infraestrutura virtualizada baseada na plataforma OpenStack. Configuramos dois ambientes: um cluster bare metal, ou seja, de máquinas físicas, e outro cluster virtualizado, ambos com o mesmo sistema operacional e pacotes de software. Uma simulação numérica referente a uma corrida de detritos foi utilizada como benchmark para avaliar o desempenho dos clusters. Mostramos que o ambiente virtualizado tem desempenho muito inferior ao ambiente baremetal a medida que a comunicação entre processos cresce.

 

Graduação em Engenharia de Computação (IC/UFAL)

 

Sistema Especialista para a Estabilidade de Poços através de Camadas de Sal (EPSal)

Adeildo Soares Ramos Júnior, Eduardo Nobre Lages, Eduardo Setton Sampaio da Silveira, William Wagner Matos Lira, Catarina Nogueira de Araújo Fernandes, Giancarlo deGusmão Gonçalves, Joseanderson Augusto de Caldas Costa, Ricardo Albuquerque Fernandes

 

Resumo: O sistema especialista para Estabilidade de Poços através de camadas de sal (EPsal) foi desenvolvido devido à complexidade do problema e ao longo tempo para a geração e simulação de modelos de elementos finitos. O seu desenvolvimento foi idealizado e customizado através de templates, gerados no programa SIGMA 2D (PETROBRAS e TECGRAF/PUC-Rio), que contém metodologia, parâmetros e propriedades das rochas evaporíticas, as quais foram desenvolvidas e validadas através de ensaios de laboratório, de campo e de simulações numėricas ao longo de anos pela PETROBRAS na área de geomecânica de rochas evaporíticas. Cerca de 100 mil modelos com diferentes características compõem o banco de simulações. Esses modelos foram idealizados com base na transferência de tecnologia realizada pela PETROBRAS a UFAL, por meio da Rede Galileu de Computação Científica. As análises numéricas foram realizadas através do simulador ANVEC 2D e dos clusters do LCCV/UFAL e da PETROBRAS. Com isso, o EPsal é capaz de estimar de imediato os valores para as taxas de fechamento de poços, submetidos ao efeito de fluência da camada de sal, durante a fase de perfuração, sob diferentes pesos de fluido, através da interpolação dos resultados das simulações do banco de dados em superfícies de resposta.

Graduação em Engenharia Civil (CTEC/UFAL)

 

GERAÇÃO DE PARTÍCULAS EM MEIOS GRANULARES USANDO GPU

Lucas Pereira de Gouveia

 

Resumo: Este trabalho apresenta uma estratégia para a geração de meios particulados formados por discos ou esferas usando GPU. A estratégia desenvolvida pode ser utilizada em análises de problemas de engenharia envolvendo meios granulares através do Método dos Elementos Discretos (MED), onde se deseja alcançar porosidade e granulometria previamente prescritas. Simulações numéricas de fenômenos de fragmentação, fraturamento, impacto e colisão, além daqueles que envolvam solos e rochas como meios integrantes de problemas geomecânicos são exemplos de aplicações do MED. O procedimento de geração de partículas para as simulações numéricas com o MED apresentado utiliza o método de minimização de funções de Levenberg-Marquardt para minimizar as distâncias entre uma partícula e suas incidências. Parte-se de um arranjo inicial aleatório de partículas e visa-se obter um arranjo final que satisfaça, de forma aproximada, os parâmetros de porosidade e granulometria inicialmente estabelecidos. Devido às características paralelizáveis do método de minimização de funções, as GPUs (Graphics Processing Units) são utilizadas visando obter uma melhoria de desempenho na obtenção da resposta. Um estudo é realizado para identificar os trechos que podem ser programados em paralelo do método de minimização de funções utilizado e a arquitetura de desenvolvimento CUDA é usada na programação desses trechos para GPU. Estudos de caso são apresentados para demonstrar a qualidade dos resultados alcançados e para medir o desempenho computacional da estratégia desenvolvida.

 

Graduação em Engenharia Civil (CTEC/UFAL)

 

 

Contribuição ao Estudo de Fluxo de Materiais Granulares em Misturadores Através do Método dos Elementos Discretos

Jessika da Rocha Silva

 

Resumo: Este trabalho tem por objetivo a modelagem, usando o Método dos Elementos Discretos (MED), de mecanismos de misturas de materiais granulares, contribuindo com o desenvolvimento de uma técnica para medição do grau de dispersão de materiais. Mecanismos de fluxo de partículas, como funis, misturadores, silos e moinhos, apresentam uma gama de fenômenos de grande importância para a engenharia química e de processos. Misturadores de partículas, em especial, constituem uma operação vital em diversas indústrias, tais como a de cerâmica, metalurgia, de alimentos, cosméticos, de plásticos, químico e farmacêutico. O Método dos Elementos Discretos apresenta-se como uma ferramenta adequada para simular problemas envolvendo sistemas discretos e meios particulados, devido a sua natureza inerentemente descontínua. Este trabalho apresenta uma técnica de medida do grau de dispersão de materiais para avaliar os mecanismos de mistura modelados através do MED.

 

Graduação em Engenharia Química (CTEC/UFAL)

 

Estudo Numérico e Experimental para Calibração de Modelos de Atrito em Simulações de Corridas de Detritos

Jessika da Rocha Silva

 

Resumo: Neste trabalho apresenta-se um modelo numérico que usa a abordagem do Método dos Elementos Discretos (MED) para simular uma corrida de detritos combinado com um modelo experimental para calibração dos parâmetros de atrito do fenômeno. Corridas de detritos são movimentos de massa caracterizados pelo deslizamento de grandes porções de solo na presença de água em encostas. Devido sua alta velocidade de fluxo e elevada força de destruição, esse fenômeno pode causar danos a estradas, pontes, propriedades e vidas. Fluxo de detritos podem ocorrer em uma ampla variedades de ambientes, no Brasil, em partícular, as regiões Sul e Sudeste apresentam o maior número de ocorrências desses fenômenos. Para a indústria petrolífera, essa duas regiões concentram boa parte dos dutos de petróleo, que podem sofrer danos caso ocorra um deslizamento de massa. Dessa forma o estudo do comportamento de um fluxo de detritos e o desemvolvimento de modelos representativos desse fenômeno constitui uma etapa importante na prevenção de perdas. O MED é uma ferramenta computacional capaz de modelar matematicamente sistemas de partículas usando as equações newtonianas através de pequenos incrementos de tempo. Durante simulações usando o MED estuda-se o comportamento do depósito de partículas após um fluxo de detritos para diferentes parâmetros de atrito, análises experimentais são realizadas para garantir a repetitividade do modelo físico e verificar a influência da rugosidade no depósito de partículas. A comparação entre modelos númericos e experimentais fornece boa compatibilidade, mostrando que a simulação usando o MED é capaz de reproduzir o comportamento físico sem problemas.

 

Graduação em Engenharia Química (CTEC/UFAL)

 

INTERFACE GRÁFICA PARA TRATAMENTO ESTATÍSTICO COMO SUPORTE À ANÁLISE DE CONFIABILIDADE ESTRUTURAL

Igor de Melo Nery Oliveira

 

Resumo: A crescente evolução dos materiais estruturais, e o consequente aumento da complexidade das estruturas, demandam um maior conhecimento dos níveis de segurança para os quais são projetadas. A análise de confiabilidade aplicada ao projeto estrutural pode ser construída com base na avaliação das incertezas das variáveis de projeto, de forma que a probabilidade de falha da estrutura pode ser prevista, com valor adequado, ainda na fase de projeto. Nesse contexto, as variáveis de projeto são descritas de forma estatística a partir da escolha de um modelo de distribuição estatística que represente os dados amostrados. Apresenta-se uma ferramenta computacional para tratamento estatístico de dados, dando suporte à análise de confiabilidade estrutural. Visando adotar uma distribuição estatística que caracterize apropriadamente uma variável aleatória, guardado um nível de significância definido, testes de aderência Chi-quadrado e Kolmogorov-Smirnov são aplicados às séries de dados. Esta ferramenta estatística é usada em conjunto com um código implementado para análise confiabilística, onde é possível incorporar a variabilidade das variáveis de projeto como variáveis aleatórias. Um exemplo numérico é apresentado para ilustrar a aplicabilidade e eficácia das ferramentas desenvolvidas.

 

Graduação em Engenharia Civil (CTEC/UFAL)

 

A Benchmark for Despeckling Filters

Luis Gomez, Luis Álvarez, Rodrigo Pinheiro, Alejandro C. Frery

 

Resumo: The validation of filters for SAR image denoising is mostly performed through personal choices of experimentation on a set of author-selected synthetic and true SAR images, which makes the objective elucidation of their benefits over well-established filtering methods hard. Following the example of other scientific fields, this situation can be alleviated by providing a set of reference images to test new methods on thorough quantitative measures of quality. We propose an extensible benchmark for speckle denoising techniques. We also stress the need to establish a repository with a pool of error-free and correctly codified denoising filters and quality estimators.

 

Mestrado em Modelagem Computacional de Conhecimento (IC/UFAL)

 

Stochastic noise amplification in noninstantaneous Kerr media

Tiago Peixoto da Silva Lobo

 

Resumo: Considering noninstantaneous Kerr nonlinearity, the propagation of a partially coherent optical beam is theoretically investigated by using extensions of the nonlinear Schrödinger equation (NLSE). In order to account for the partial coherence of the beam, a phase-diffusion model is used for the laser beam. To introduce the finite response time of the medium, a time-dependent nonlinear response is incorporated in the system of the NLSE using the Debye relaxation model. We analytically deduce the dispersion relation and numerically compute the gain spectra along with relevant second-order statistical quantities. A detailed study of how these statistical properties are influenced by the group velocity dispersion regime as well as by the delayed nonlinear response of the material is presented. The distinct features for slow and fast delayed nonlinear response are also emphasized.

 

Doutorado em Materiais (CTEC/UFAL)

 

Suppression of Anderson localization of light in one-dimensional correlated photonic superlattices

Tiago Peixoto da Silva Lobo

 

Resumo: The localization properties of electromagnetic modes in one-dimensional disordered photonic superlattices are theoretically studied. The multilayered system is considered to be composed of alternating stacks of two different random-thickness correlated slabs, characterized by nondispersive and/or frequency-dependent electric permittivities and magnetic permeabilities. Results for the localization length are evaluated by using an analytical model for weakly disordered uncorrelated systems as well as its general definition through the transmissivity properties of the heterostructure.

 

Doutorado em Materiais (CTEC/UFAL)

 

An study of photonic nonlinear-Kerr/metamaterial heterostructures

Tiago Peixoto da Silva Lobo

 

Resumo: The optical transmission properties of light in one-dimensional nonlinear layered systems with metamaterial inclusions will be theoretically studied. A thorough investigation of the influence of disorder in the vicinities of a Bragg gap, a zero-n gap, and a bulk-like longitudinal plasmon–polariton gap will be performed. The layer widths of both nonlinear and metamaterial slabs may be considered as random correlated variables. The localization properties of electromagnetic waves in one-dimensional disordered correlated nonlinear-Kerr/metamaterial heterostructures are also going to be investigated.

 

Doutorado em Materiais (CTEC/UFAL)

 

Simulação de Corrida de Detritos no Sistema PETRODEM

Iuri Ferrão de Albuquerque

Resumo: Grande parte das instalações da Petrobras encontra-se na região centro-sul do país, região essa densamente povoada, margeada pela Serra do Mar e com relevo bastante acidentado. Devido aos condicionantes geológicos e hidrológicos dessa região, as instabilidades de taludes são preocupações frequentes das autoridades públicas e privadas. Esses desastres são motivos de grandes perdas materiais e humanas, a exemplo dos eventos ocorridos em janeiro de 2011 na Região Serrana do Rio de Janeiro. Tipicamente, na Serra do Mar ocorrem movimentos lentos (rastejos) ou rápidos (corridas). As corridas de detritos/lama observadas são predominantemente translacionais com pequenas profundidades (talude infinito) e ocorrem em perfis de solo residuais e/ou em colúvios sobre maciço rochoso. Anualmente, vários eventos desse tipo afetam a infraestrutura da Petrobras. São observados casos com graves consequências com uma frequência relativamente alta, tal como o ocorrido na Refinaria Presidente Bernardes em Cubatão (Bacia do Rio das Pedras, 1994). Ao se tratar dos estudos que envolvem essa problemática, na maioria dos casos, costuma-se lançar mão de métodos para cálculo de estabilidade de taludes baseados nas formulações de equilíbrio limite ou utilizando-se análises numéricas baseadas no Método dos Elementos Finitos. Nos últimos anos, O Laboratório de Computação Científica e Visualização da Universidade Federal de Alagoas (LCCV/UFAL) vem trabalhando, juntamente com a Petrobras e outras instituições de ensino/pesquisa do país, no desenvolvimento do sistema PetroDEM (http://petrodem.lccv.ufal.br/). O PetroDEM é uma ferramenta computacional integrada para modelagem e simulação dinâmica e quase estática de sistemas particulados bi e tridimensionais utilizando o Método dos Elementos Discretos (MED). Trata-se de uma iniciativa da PETROBRAS em reunir os conhecimentos relacionados ao método dos elementos discretos espalhados em diversas universidades brasileiras, dentre as quais a UFAL através do LCCV. Esse produto integra todas as etapas necessárias para a simulação numérica de problemas em meios discretos através de um conjunto de sistemas computacionais específicos para geração de meios particulados, processamento de dados e visualização de resultados. O MED é aplicado através de uma simulação numérica do problema dinâmico, viabilizando assim a abordagem dos problemas de forma genérica. Tal simulação é composta de quatro etapas distintas e complementares: a) modelagem geométrica, onde se define a geometria do problema; b) geração de partículas, onde se constrói a base discreta do sistema; c) análise numérica, onde são aplicados os aspectos físicos e matemáticos presentes na formulação numérica; d) visualização, na qual é realizada a análise dos resultados obtidos a partir das etapas anteriores. Essa estratégia computacional foi proposta no trabalho de Cundall e Strack, onde é definida como um modelo numérico capaz de descrever o comportamento mecânico de um conjunto de discos ou esferas. Essa ferramenta tem se mostrado bastante promissora na simulação de fluxo de grãos, impacto, cravação e fraturamento. Com base nesses desenvolvimentos recentes e a partir de discussões técnicas com engenheiros da PETROBRAS, este projeto propõe a aplicação o sistema computacional PetroDEM para simulação da corrida de detritos, utilizando-se o Método dos Elementos Discretos. Pretende-se, assim, agregar informações nas futuras tomadas de decisões nas regiões de risco atualmente monitoradas pela Petrobras

 

Graduação em Engenharia de Petróleo

 

Processamento Paralelo com OPENMP em um Simulador Dinâmico de Linhas de Ancoragem e Risers, Parte II

Heleno Pontes Bezerra Neto; Joseanderson Augusto de Caldas Costa; Fábio Martins Gonçalves Ferreira

 

Resumo: O uso da Computação de Alto Desempenho vem sendo empregado fortemente ao longo dos últimos anos para auxiliar e possibilitar a solução de problemas complexos em diversas áreas do conhecimento. Entre as técnicas de alto desempenho mais utilizadas, destaca-se o processamento paralelo, que consiste na divisão de tarefas entre centrais de processamento. Dentro desse contexto, este trabalho apresenta um estudo sobre uma das técnicas de processamento paralelo em ambientes de memória compartilhada. Para isso, será utilizado o padrão OpenMP, que é uma ferramenta de programação paralela baseada em diretivas de compilação. O trabalho apresenta diferentes estratégias de paralelização aplicadas ao código e suas respectivas implicações nos resultados. Além das curvas de speedup, é feita uma comparação entre os resultados da versão serial e paralela. O uso do padrão OpenMP permitiu reduzir o tempo das simulações garantindo uma pequena margem de erro. Além disso, o uso desse padrão de paralelização permitiu a criação de uma versão paralela portável que exigiu pequenas mudanças na versão serial e foi capaz de acelerar consideravelmente simulações com elevado tempo de processamento em desktops comuns

 

Graduação em Engenharia Civil (CTEC/UFAL)

 

Estudo e implementação de técnicas de computação de alto desempenho em uma biblioteca de análise dinâmica de linhas de ancoragem e risers

Heleno Pontes Bezerra Neto; Joseanderson Augusto de Caldas Costa; Fábio Martins Gonçalves Ferreira

Resumo: Neste trabalho é abordada a estratégia de paralelização em ambientes de memória compartilhada, sendo utilizado o padrão OpenMP. Essa técnica foi aplicada em desktops com arquiteturas multicore, comprovando os reais ganhos que podem ser obtidos com essa estratégia. Com a aplicação das diretivas de OpenMP, obteve-se uma versão para ser utilizada em ambientes de memória compartilhada, com um ganho de performace de 69% em relação à versão anterior (sem a aplicação das diretivas), com um erro percentual pequeno, entre as versões com as diretivas de OpenMP e sem as diretivas.

 

Graduação em Engenharia Civil (CTEC/UFAL)

Implementação de processamento paralelo híbrido em um simulador para análise de linhas de ancoragem e risers

Heleno Pontes Bezerra Neto; Joseanderson Augusto de Caldas Costa; Fábio Martins Gonçalves Ferreira

Resumo: O uso da computação de alto desempenho (CAD) tem sido muito utilizado nos últimos anos para solucionar grandes problemas computacionais. Entre as técnicas de CAD existentes destacam-se as estratégias de otimização e o processamento paralelo. As técnicas de processamento paralelo podem ser utilizadas em ambientes de memória compartilhada, ambientes de memória distribuída e ambientes híbridos (que utilizam os dois ambientes). Dentro desse contexto, este trabalho visa à utilização das técnicas de CAD no framework DOOLINES. Esse framework permite a análise dinâmica de linhas de ancoragem e risers baseando-se no método dos elementos finitos. O DOOLINES já possui versões voltadas para ambientes de memória compartilhada e distribuída e, portanto, esse trabalho tem o objetivo de criar uma versão híbrida. Após a criação da versão híbrida, serão realizados testes comparativos das versões, mostrando os principais ganhos obtidos por cada versão já existente, assim como da versão híbrida desenvolvida.

Graduação em Engenharia Civil (CTEC/UFAL)

 

Simulação e caracterização de corridas de detritos através do Método dos Elementos Discretos

José Wellington Pedro da Silva Filho

Resumo: Os movimentos de massa são processos geomorfológicos, bastante comuns na natureza. Esses podem ser definidos como fluxos de misturas entre fluido e material granular, com superfícies superiores livres (expostas ao ar), que são regidos pela ação da gravidade. As corridas de detritos podem ser consideradas os movimentos de massa de maior interesse de estudo dos pesquisadores devido à elevada frequência de ocorrência do movimento, ao poder destrutivo inerente e às características bem peculiares, que os diferem dos demais fenômenos. As corridas de detritos são fenômenos imprevisíveis em sua ocorrência, rápidos e que acarretam grandes perdas humanas e financeiras. A simulação e a caracterização desse fenômeno têm sido objeto de estudo de pesquisadores de diversos países devido à complexidade e ao entendimento escasso dos mecanismos adjacentes ao processo. Dentro desse contexto, este trabalho propõe a simulação de corridas de detritos utilizando o Método dos Elementos Discretos (MED). O principal intuito dessas simulações é investigar e caracterizar o comportamento das corridas de detritos, através de parâmetros de caracterização, de acordo com a variação de alguns parâmetros do modelo da corrida. Para este fim, estuda-se a calibração de alguns parâmetros do MED para que seja possível simular de maneira eficaz as corridas de detritos, superando as dificuldades relatadas na literatura. Dentre estas dificuldades, destaca-se a quantificação dos efeitos das interações entre as partículas e o fluido intersticial. Sendo assim, desenvolvem-se as metodologias para a simulação dos contatos coesivos entre grãos, para a simulação do fluido intersticial e para o cálculo dos parâmetros de caracterização. Com isso, estuda-se a variação do comportamento dos parâmetros de caracterização das corridas de detritos através da variação da quantidade percentual do fluido intersticial.

 

Mestrado em Engenharia Civil (CTEC/UFAL)

 

Uso do padrão OpenMP para processamento paralelo em arquiteturas multicore e análise do erro numérico envolvido

Heleno Pontes Bezerra Neto; Joseanderson Augusto de Caldas Costa; Fábio Martins Gonçalves Ferreira

Resumo: O uso da Computação de Alto Desempenho (High Performance Computing – HPC) vem sendo empregado fortemente ao longo dos últimos anos para auxiliar e em muitos casos possibilitar a solução de grandes problemas em diversas áreas do conhecimento. Entre as técnicas de alto desempenho mais utilizadas destaca-se o processamento paralelo, que consiste na divisão de tarefas entre centrais de processamento. Essa divisão de tarefa faz com que as operações sejam efetuadas em diferentes instantes, ou seja, de forma diferente de uma execução serial. Dentro desse contexto, este trabalho apresenta um estudo sobre as técnicas de processamento paralelo aplicada em ambientes de memória compartilhada e um estudo sobre a integridade dos resultados quando são utilizadas técnicas de processamento paralelo. Para auxiliar o desenvolvimento computacional deste trabalho será utilizado o padrão OpenMP, que é uma ferramenta de programação paralela baseada em diretivas de compilação. Com isso, espera-se obter resultados que permitam a utilização das técnicas de processamento paralelo sem a alteração significativa dos resultados. Além disso, o trabalho também demonstra a possibilidade de alteração nas respostas quando alteramos a ordem de execução das operações

Graduação em Engenharia Civil (CTEC/UFAL)

 

Avaliação de performance de um simulador dinâmico de linhas de ancoragem e risers com o uso de Computação de Alto Desempenho

Heleno Pontes Bezerra Neto

Resumo: A busca por resultados confiáveis em problemas de engenharia gera modelos computacionais complexos que demandam grande tempo de processamento. Algumas técnicas de Computação de Alto Desempenho vem sendo utilizadas, possibilitando a resolução desses problemas. Dentre essas técnicas, destaca-se o processamento paralelo, que consiste na divisão de tarefas entre centrais de processamento. Dentro desse contexto, este trabalho apresenta uma análise do comportamento de um simulador dinâmico de linhas de ancoragem e risers considerando um modelo com uma linha, sendo comparados os tempos das versões serial e paralela para ambientes de memória compartilhada. Também é mostrada uma análise de um modelo mais complexo, com várias linhas e um navio plataforma, sendo realizados novos testes de ganho de performance da versão paralela em relação à versão serial. Para as versões paralelas são utilizados os padrões OpenMP e MPI para memória compartilhada.

Graduação em Engenharia Civil (CTEC/UFAL)

 

Comparação do desempenho computacional na multiplicação de matrizes utilizando ferramentas de computação de alto desempenho

Heleno Pontes Bezerra Neto; Ketson Roberto Maximiano dos Santos; Lucas Pereira de Gouveia; Joseanderson Augusto de Caldas Costa

Resumo: A programação em paralelo possibilita o acesso a um maior poder de processamento e a uma maior quantidade de memória, recursos estes que não são facilmente encontrados na computação serial. É possível utilizar programação em paralelo em ambientes de memória compartilhada com o uso da arquitetura Multi-core, através do uso do OpenMP, ou com CUDA C utilizando GPUs (Graphic Processing Units) em placas gráficas da Nvidia. Este trabalho procura realizar um comparativo, através da métrica Speed-Up, entre algumas metodologias de computação de alto desempenho na operação de multiplicação de matrizes quadradas de diversas ordens em ambiente de memória compartilhada. Com o uso das técnicas de computação para processamento paralelo em ambientes de memória compartilhada foi possível obter ganho de desempenho em uma operação existente em grande parte dos problemas de engenharia, a multiplicação de matrizes. Com o uso das duas estratégias foi possível obter versões de multiplicação mais rápida que a versão serial do código. Ao comparar as versões implementadas, o desempenho da versão com CUBLAS foi superior ao da versão com OpenMP

Graduação em Engenharia Civil (CTEC/UFAL)

 

Um teste não paramétrico para geradores de números pseudo aleatórios baseado em ferramentas da teoria da informação.

Marcelo Queiroz de Assis Oliveira

Resumo: Com a evolução e crescimento do número de dispositivos conectados à rede, acompanhamos um aumento vertiginoso na quantidade de dados armazenados. Por outro lado, esta evolução não é acompanhada pela capacidade de análise destes dados através das técnicas convencionais, o que impulsiona novas áreas como Big Data. Junto com estas novas áreas surgem novos desafios como o de executar experimentos e análises estatísticas em bases de dados cada vez maiores, o que traz à tona problemas correlatos como o de gerar números aleatórios e, consequentemente, avaliar tais geradores nesses cenários desafiadores. Dentre uma vasta coleção de testes para geradores de números aleatórios, este trabalho propõe uma nova abordagem de teste não-paramétrico que utiliza técnicas de teoria da informação.

 

Mestrado em Modelagem Computacional de Conhecimento (IC/UFAL)

 

Estudo da convergência do método dos autômatos celulares em problemas da mecânica das estruturas utilizando o método dos elementos finitos

Rodrigo Cavalcanti; Tiago Peixoto da Silva Lobo

Resumo: Problemas da mecânica estrutural e dos sólidos podem apre¬sentar comportamentos globais complexos e muitas vezes sem solução analítica. Métodos numéricos, a exemplo do Método dos Elementos Finitos (MEF), mostram-se como ferramentas tradicionais para estudo desses sistemas. O Autômato Celular (AC) é um modelo que se baseia na ideia de que o comportamento macroscópico de um sistema pode ser reproduzido por conjuntos menores com simples regras locais. Uma vez que essa abordagem parte de uma microescala para uma macroescala, esta técnica permite o estudo de efeitos microscópicos em objetos macroscópicos de maneira natural. Este trabalho estuda a convergência e o desempenho de uma técnica híbrida de AC com MEF a partir do desenvolvimento de um módulo computacional capaz de simular problemas de mecânica estrutural. Quatro estratégias de atualizações são estudadas, avaliadas quanto à convergência e comparadas para dois modelos de referência, com diferentes ordenações e graus de discretização.

 

Mestrado em Engenharia Civil (CTEC/UFAL)

 

 

Modelos Eficientes de Monte Carlo aplicados à Confiabilidade Estrutural

Gabriel Torres da Silveira

 

Resumo: No campo da engenharia de estruturas, diversas têm sido as iniciativas para melhorar a representação teórica e numérica do comportamento de sistemas estruturais. O desenvolvimento de modelos computacionais robustos permite uma avaliação mais precisa do desempenho mecânico de estruturas, tanto na fase de projeto quanto ao longo de sua vida em serviço. Neste cenário, a análise de confiabilidade aplicada ao projeto estrutural permite que a probabilidade de falha da estrutura seja prevista, ainda na fase de dimensionamento. A análise pode ser construída com base na avaliação das incertezas das variáveis de projeto, as quais são descritas de forma aleatória. O Método de Monte Carlo figura como o mais consagrado na quantificação da probabilidade de falha de estruturas e sistemas estruturais, devido à sua simplicidade e precisão. Porém, em problemas que apresentem probabilidades de falha muito baixas, faz-se necessária a simulação de um grande número de cenários para a obtenção de respostas adequadas, implicando em alto custo computacional. Desta forma, técnicas de redução de variância e amostragem inteligente são aplicadas na obtenção de versões eficientes do método. Propõe-se a implementação de modelos eficientes de Monte Carlo, a fim de comparar suas performances entre si e com o modelo tradicional. Pretende-se utilizar técnicas de processamento em ambiente de memória distribuída, a partir do módulo multiprocessing da linguagem Python.

 

Graduação em Engenharia Civil (CTEC/UFAL)