| Com vimos até agora, o objetivo da computação paralela é a utilização simultaneamente de um conjunto de processadores interligados (conectados), de tal modo que resolva um problema de maneira conjunta e mais rapidamente do que seria em um processamento sequencial quando utilizado apenas um processador. Ao pararmos para pensar, poderemos ver que um computador paralelo é simplesmente um grupo (coleção) de processadores, geralmente do mesmo tipo, interligados de tal modo que permita a coordenação de como é feita a troca de dados e também das suas atividades. Essas atividades podem ser: quando o volume de dados e cálculos é muito grande e necessita-se de rapidez na resolução. Na busca constante por um modelo adequado há a necessidade de compreender e incorporar, em tal modelo, características peculiares da computação paralela. No decorrer do nosso estudo vimos o modelo de computação sequencial de von Neumann, que assume a existência de apenas uma UCP e uma memória de acesso aleatório (RAM), é possível estabelecer uma relação entre os desempenhos das implementações e dos seus respectivos algoritmos por meio de medidas de complexidade de tempo. No modelo
de von Neumann, estas medidas (complexidade de tempo) tornam possível
medir de maneira mais eficiente a performance dos algoritmos sequenciais,
servindo como referência para as implementações. Entretanto,
na computação paralela, a mesma relação entre
algoritmos e implementações não há ainda um
modelo padrão. Em virtude da presença de vários elementos
de processamento torna a definição de um modelo de computação
paralela mais complicado. |
Copyright © 2014 AIEC. |