Mpi Programs
Mostrando 1-12 de 13 artigos, teses e dissertações.
-
1. Avaliação da efetividade dos critérios de teste estruturais no contexto de programas concorrentes / Investigating of the structural testing effectiveness in context of concurrent programs
A Engenharia de Software tem desenvolvido t[écnicas e métodos para apoiar o desenvolvimento de software confiável, flexível, com baixo custo de desenvolvimento e fácil manutenção. Técnicas e critérios de teste contribuem nessa direção, fornecendo mecanismos para produzir software com alta qualidade. Este trabalho apresenta um estudo experimental p
IBICT - Instituto Brasileiro de Informação em Ciência e Tecnologia. Publicado em: 24/11/2011
-
2. Estudo e definição de mecanismos para redução do custo de aplicação do teste de programas concorrentes / Study and design of mechanisms to reduce the cost of appying the test of concurrent programs
Programas concorrentes possuem características que os diferenciam de programas sequenciais, tornando a atividade de teste mais complexa. Questões como definição e uso de variáveis por diferentes processos, comunicação, sincronização e comportamento não-determinístico precisam ser consideradas. Apesar dos avanços obtidos nesse contexto, um problem
IBICT - Instituto Brasileiro de Informação em Ciência e Tecnologia. Publicado em: 13/04/2011
-
3. Escalonamento on-line eficiente de programas fork-join recursivos do tipo divisão e conquista em MPI / Efficent on-line scheduling of recursive fork-join programs on MPI
Esta Dissertação de Mestrado propõe dois novos algoritmos para tornar mais eficiente o escalonamento on-line de tarefas com dependências estritas em agregados de computadores que usam como middleware para troca de mensagens alguma implementação da MPI (até a versão 2.1). Esses algoritmos foram projetados tendo-se em vista programas construídos no mo
Publicado em: 2010
-
4. Controle de granularidade com threads em programas MPI dinâmicos / Controlling granularity of dynamic mpi programs with threads
Nos últimos anos, a crescente demanda por alto desempenho tem favorecido o surgimento de arquiteturas e algoritmos cada vez mais eficientes. A popularidade das plataformas distribuídas levanta novas questões no desenvolvimento de algoritmos paralelos tais como comunicação, heterogeneidade e dinamismo de recursos. Estas questões podem resultar em aplica
Publicado em: 2009
-
5. Escalonamento Work-Stealing de programas Divisão-e-Conquista com MPI-2 / Scheduling Divide-and-Conquer programs by Work-Stealing with MPI-2
Com o objetivo de ser portável e eficiente em arquiteturas HPC atuais, a execução de um programa paralelo deve ser adaptável. Este trabalho mostra como isso pode ser atingido utilizando MPI, através de criação dinâmica de processos, integrada com programação Divisão-e-Conquista e uma estratégia Work-Stealing para balancear os processos MPI, em am
Publicado em: 2007
-
6. Escalonamento de aplicações paralelas: de clusters para grids
Different algorithms provide efficient scheduling of parallel applications on distributed and heterogeneous computational platforms, such as computational grids. Most scheduling algorithms for such environments require an application model represented by a directed acyclic graph (DAG), selecting tasks for execution according to their processing and communica
Publicado em: 2007
-
7. Avaliação de desempenho de método para a resolução da evolução temporal de sistemas auto-gravitantes em dois paradigmas de programação paralela:troca de mensagens e memória compartilhada
In this work it is presented the performance evaluation of a parallel implementation for the sympletic integrator to simulate the temporal evolution of a self-gravitating system. The algorithm of the sympletic integrator was parallelized and the source code was written in the C programming language. Two parallel programming paradigms were employed: message p
Publicado em: 2006
-
8. Modelagem e predição de desempenho de primitivas de comunicação MPI. / Performance modeling and prediction of MPI communication primitives.
The development of parallel and distributed programs finds at message-passing programming a powerful approach to explore properly the distributed memory machines issues. Using clusters and message-passing libraries, as MPI standard (Message Passing Interface), efficient and cost effective applications can be constructed. In these systems, the time spent with
Publicado em: 2003
-
9. Desenvolvimento de modelos para predição de desempenho de programas paralelos MPI. / Development of Performance Prediction Models for MPI Parallel Programs
Existem muitos fatores capazes de influenciar o desempenho de um programa paralelo MPI (Message Passing Interface). Dentre esses fatores, podemos citar a quantidade de dados processados, o número de nós envolvidos na solução do problema, as características da rede de interconexão, o tipo de switch utilizado, entre outros. Por isso, realizar predições
Publicado em: 2003
-
10. Paralelização de um classificador contextual de imagens / Parallelimplementationofcontextualclassiferforremotesensingimages
This work presents basic concepts about digital image processing, with emphasis on classification of images from multi-spectral sensors. We have chosen two classification algorithms (MAXVER and ICM), to exemplify the application of the proposed methodologies. Before showing these methodologies, we evaluated the situation of present algorithms, in the SPRING
IBICT - Instituto Brasileiro de Informação em Ciência e Tecnologia. Publicado em: 20/06/2000
-
11. Paralelização de um classificador contextual de imagens / Parallelimplementationofcontextualclassiferforremotesensingimages
This work presents basic concepts about digital image processing, with emphasis on classification of images from multi-spectral sensors. We have chosen two classification algorithms (MAXVER and ICM), to exemplify the application of the proposed methodologies. Before showing these methodologies, we evaluated the situation of present algorithms, in the SPRING
Publicado em: 2000
-
12. A parallel programming supporting tool extension for parallel virtual environments. / Extensão da Ferramenta de Apoio à Programação Paralela (F.A.P.P.) para ambientes paralelos virtuais.
Distributed computing systems applied to parallel computing allow the realisation of a better cost/benefit relation for parallel programming. These systems offer an adequate computing power to those applications which do not require a massively parallel architecture but need such a computer power not available from sequential computers. P.V.M. (Parallel Virt
Publicado em: 1999