Seguidores

sexta-feira, 17 de fevereiro de 2012

Modelos matemáticos e simulações computacionais de sistemas complexos

  O aumento da capacidade de processamento dos computadores modernos vem permitindo a sua utilização no estudo de assuntos extremamente complexos, como o clima, organismos vivos, fenômenos populacionais ou mesmo a mente humana. Com programas computacionais adequados podem ser feitas "simulações" do comportamento dos sistemas reais e, assim, fazer previsões com diversos graus de aproximação. As previsões climáticas que vemos na televisão, por exemplo, são obtidas por esse método.
Mecânica Newtoniana
Na sua obra principal, Princípios Matemáticos da Filosofia Natural (1683), o cientista inglês Isaac Newton expôs sua grande síntese do conhecimento da Mecânica e da Gravitação da época, organizando-os num sistema matemático simples e coerente. Foi um feito portentoso e inigualável. Toda a Física, desde então e até o início do século XX, foi baseada nesse sistema. Procurou-se explicar os fenômenos não-mecânicos, como a luz, o calor e o magnetismo, segundo os paradigmas definidos pelo sistema newtoniano. O sistema só veio a ser suplantado com o advento da Mecânica Quântica e da Relatividade, no século XX (ver edição de Física Moderna)
  A capacidade de previsão da ciência vem aumentando desde que o advento da mecânica newtoniana, em fins do século XVII, trouxe um aumento sem precedentes das suas possibilidades previsivas. Uma das características mais marcantes dessa revolução protagonizada pelo cientista inglês Isaac Newton foi a "matematização da física": toda afirmação física deveria ser exprimível por meio de equações matemáticas e as conclusões seriam obtidas através da resolução dessas equações e da manipulação de expressões também matemáticas.
Isso deu à mecânica um caráter determinístico radical. Se soubermos a posição e a velocidade de todas as partículas de um sistema, em um dado instante, poderemos, em teoria, conhecer o seu estado físico em qualquer instante posterior (ou anterior), bastando para isso resolver as equações. Mesmo que essas equações sejam por demais complexas, tornando a sua solução humanamente impossível, a previsão é possível em princípio.
  O matemático francês Pierre Simon de Laplace expressou essa idéia com a seguinte alegoria: se uma enteléquia superior pudesse conhecer a posição e a velocidade de todas as partículas do Universo e se ela tivesse uma capacidade de processamento infinita, poderia prever o estado de todas as coisas do Universo em qualquer instante futuro.

   Os computadores mais modernos, evidentemente, não chegam aos pés do personagem de Laplace. Para poder submeter um mero vírus a esse método, seria necessário conhecer a posição e a velocidade de todos os seus átomos e das partículas que os compõem e, mesmo que pudéssemos fazê-lo, as equações seriam complexas demais para serem resolvidas. Porém, com um pouco de criatividade, é possível obter soluções aproximadas das equações, boas o suficiente para fazer previsões confiáveis. Sistemas muito maiores do que um vírus, como a população de peixes de um lago, ou mesmo a atmosfera, podem ser tratados com uma versão aproximada desse método, com bons resultados.
Como se faz isso?
  O conceito de aproximação é fundamental. O principal nesse caso é a escolha de algumas variáveis que têm maior influência no comportamento de um sistema. Essas variáveis serão consideradas nas equações e as outras serão relevadas. Para que essa escolha possa ser feita de forma judiciosa, há que se ter um conhecimento qualitativo prévio sobre o sistema. Por exemplo, para o estudo do clima, são fundamentais variáveis como a velocidade e a direção dos ventos, a pressão atmosférica e a temperatura em diversos pontos da atmosfera. Mas variáveis como a quantidade de aviões voando em cada instante podem ser desprezadas com razoável grau de precisão.
  Com essas aproximações, obtém-se um conjunto de equações que representam o sistema em estudo com alguma precisão. Se as variáveis forem bem escolhidas, a precisão será boa. Além disso, muitas aproximações simplificam as equações, mas reduzem o grau de confiabilidade dos resultados. Poucas aproximações permitem maior precisão, mas tornam as equações mais complexas. Um sistema pode ser (e em geral é) tão complexo que, para se conseguir uma aproximação que produza equações tratáveis, a confiabilidade ficaria tão pequena que o resultado seria inútil. À medida que os computadores vão ficando mais e mais sofisticados, entretanto, vão sendo necessárias cada vez menos aproximações e, assim, pode-se obter resultados cada vez mais precisos. Fenômenos antes intratáveis passam a ser abordáveis com grau razoável de confiabilidade.
  Outro dado fundamental são os parâmetros observacionais. As equações obtidas com o auxílio das aproximações contêm variáveis cujo valor deve ser obtido mediante medidas ou observações da Natureza. Tais medidas devem ser as mais precisas possíveis, para que as soluções das equações também o sejam.
Um passo além das aproximações descritas acima deve ser dado, entretanto, para tornar as equações tratáveis. Um exemplo ajudará a clarificar esse ponto. Foi dito acima que a previsão através de modelos físico-matemáticos está baseada no fato de que, se conhecermos o estado de um sistema em um certo momento, então através das equações adequadas podemos conhecer o seu estado em qualquer outro instante posterior ou anterior. Ora, no caso de uma previsão climática, para conhecer o estado da atmosfera em certo instante, deveríamos saber a velocidade do vento, a pressão atmosférica e inúmeros outros parâmetros em cada ponto da atmosfera. Isso tornaria o número de parâmetros observacionais praticamente infinito. Por isso, escolhe-se alguns pontos. O conjunto desses pontos constitui a grade numérica. Por exemplo, o CPTEC (Centro de Previsão do Tempo e Estudos Climáticos), do Instituto Nacional de Pesquisas Espaciais (Inpe), disponibiliza resultados com cálculos com grades cujos pontos estão separados por até 40 km (uma grade de 40 km x 40 km).
  Um terceiro ponto importante é o modo pelo qual são resolvidas as equações. As equações praticamente nunca têm solução conhecida ou alcançável mediante as técnicas matemáticas conhecidas. Devem, portanto, ser resolvidas computacionalmente por métodos indiretos chamados métodos numéricos. Por esses métodos, as equações não são resolvidas no sentido próprio do termo: obtém-se, por meios indiretos, soluções aproximadas, e o processo é repetido muitas vezes, de forma que as diversas "soluções" encontradas em cada passo vão convergindo para algum valor. Muitas vezes são necessários milhões de passos para se obter uma solução confiável.
  Após as equações serem resolvidas dessa maneira, o último passo é interpretar os resultados. E aqui é fundamental o conceito de margem de erro. Essa margem será definida pelo grau de aproximação dos diversos passos acima: a escolha inicial das variáveis relevantes, a precisão da medida dos parâmetros observacionais, a precisão do método numérico utilizado, o tamanho da grade numérica, a adequação dessa grade (pode ser necessário que ela seja mais "fina" em certas regiões). É necessário, ao escolher as variáveis no início do processo, que se quantifique a provável influência no resultado final das variáveis desprezadas.
Com processadores cada vez mais velozes e com o domínio sobre as variáveis que influenciam diferentes fenômenos, o potencial dos modelos matemáticos tende a crescer, embora margens de erro, ainda que pequenas, continuem existindo e o modelo comporte sempre alguma dose de imprevisibilidade.

Pesquisa realizada no site:
 http://www.comciencia.br

Nenhum comentário:

Postar um comentário