Com vimos até agora, o objetivo da computação paralela é a utilização simultaneamente de um conjunto de processadores interligados (conectados), de tal modo que resolva um problema de maneira conjunta e mais rapidamente do que seria em um processamento sequencial quando utilizado apenas um processador.

Ao pararmos para pensar, poderemos ver que um computador paralelo é simplesmente um grupo (coleção) de processadores, geralmente do mesmo tipo, interligados de tal modo que permita a coordenação de como é feita a troca de dados e também das suas atividades. Essas atividades podem ser: quando o volume de dados e cálculos é muito grande e necessita-se de rapidez na resolução.

Na busca constante por um modelo adequado há a necessidade de compreender e incorporar, em tal modelo, características peculiares da computação paralela.

No decorrer do nosso estudo vimos o modelo de computação sequencial de von Neumann, que assume a existência de apenas uma UCP e uma memória de acesso aleatório (RAM), é possível estabelecer uma relação entre os desempenhos das implementações e dos seus respectivos algoritmos por meio de medidas de complexidade de tempo.

No modelo de von Neumann, estas medidas (complexidade de tempo) tornam possível medir de maneira mais eficiente a performance dos algoritmos sequenciais, servindo como referência para as implementações. Entretanto, na computação paralela, a mesma relação entre algoritmos e implementações não há ainda um modelo padrão. Em virtude da presença de vários elementos de processamento torna a definição de um modelo de computação paralela mais complicado.



Copyright © 2014 AIEC.