"Hoje cedo, aparentemente, uma mulher ligou para a BBC e disse que ouviu que havia um furacão a caminho. Bem, se você está assistindo, não se preocupe, não há!".

Essas foram as palavras icônicas do meteorologista Michael Fish em 15 de outubro de 1987. Naquela noite, a pior tempestade a atingir o sudeste da Inglaterra em três séculos atingiu o condado e 19 pessoas morreram.

Se Fish se expressou mal (ele afirmou mais tarde que estava se referindo a um furacão na Flórida na época) ou estava fazendo uma piada mal cronometrada, o incidente levou à cunhagem do "momento Michael Fish" - uma previsão sobre qualquer tópico que acaba sendo completamente, e terrivelmente, errado.

Embora Fish presumivelmente desejasse poder sugar essas palavras de volta e cair no esquecimento, para nunca ter saído de seus lábios, a realidade é que, a menos que tivesse superpoderes, a responsabilidade da previsão do tempo não recaía apenas sobre seus ombros. Na verdade, os deuses do tempo de hoje são supercomputadores, máquinas zumbindo que lidam com quatrilhões de cálculos por segundo. Esses números devem crescer ainda mais à medida que mais poder de computação é adicionado, dando aos meteorologistas uma imagem mais detalhada do que nunca.

O ser humano encontra a máquina

Antes de nossa dependência de supercomputadores, a responsabilidade pela observação e previsão do tempo era dos "computadores" humanos. Conforme descrito por Andrew Blum em seu livro de 2018 The Weather Machine, os relatórios meteorológicos nos EUA em meados de 1800 dependiam das mais de 2.100 milhas de linhas telegráficas recém-instaladas.

Os operadores de telégrafo em várias cidades comunicavam uns com os outros como estava o tempo em seus respectivos locais. Como as linhas funcionavam mal na chuva, se a comunicação não estivesse disponível, havia uma expectativa razoável de que em algum lugar ao longo dessa linha estivesse chovendo.

Embora seja uma abordagem rudimentar para a previsão do tempo, esses dados limitados podem fornecer uma base para suposições sobre tempestades que podem ou não estar se aproximando.

No final dos anos 1800, o físico norueguês Vilhelm Bjerknes começou a perceber que também havia uma base matemática para a maneira como o clima se comportava. Sua primeira hipótese argumentava que, em circunstâncias em que a pressão e as densidades são desiguais, elas lutarão uma contra a outra até se tornarem mais equilibradas. Apelidada de "Teorema da Circulação", a hipótese poderia, em teoria, prever a direção e a intensidade dessa circulação.

Uma vez testada em dados meteorológicos, a ideia de Bjerknes provou ter fundamento, e ele a refinou ainda mais. Bjerknes foi creditado com a fundação e formulação de muitas das equações que ainda são usadas hoje na previsão numérica do tempo e na modelagem climática.

Esses cálculos ainda eram feitos por computadores humanos há muito tempo, e a grande complexidade dos parâmetros significava que a previsão verdadeiramente significativa era limitada - as previsões muitas vezes demoravam mais para serem formuladas do que o clima para surgir.

Em 1922, o matemático e físico inglês Lewis Fry Richardson estimou que uma força de trabalho global de 64.000 computadores humanos seria necessária para uma previsão global. Como ele escreveu na época: "O esquema é complicado porque a atmosfera é complicada".

Somente em 1950 os computadores como os pensamos hoje encontraram seu papel. O Electronic Numerical Integrator and Computer (ENIAC), o primeiro computador programável, foi utilizado para as primeiras previsões. O ENIAC era composto por 18.000 tubos de vácuo e 1.500 relés, além de centenas de milhares de resistores, capacidade e indutores. No total, o ENIAC foi capaz de cerca de 5.000 cálculos por segundo. Os primeiros cálculos para uma previsão de 24 horas no ENIAC levaram quase 24 horas para serem produzidos - não exatamente práticos.

Mas, à medida que os computadores se tornaram mais poderosos, a previsão se tornou mais precisa e oportuna.

O escopo global do problema

É fácil pensar no clima como apenas o que está fora da sua janela a qualquer momento, mas a realidade, diz David Michaud, é muito mais complicada.

"Você quase pode pensar na atmosfera como um fluido - ela precisa ser contínua", explica Michaud, diretor do Escritório de Processamento Central do Serviço Nacional de Meteorologia da Administração Nacional Oceânica e Atmosférica (NOAA).

"Você tem que ver a previsão em um contexto global. Precisamos de observações de todo o mundo para criar essa previsão global, e isso pode criar condições de contorno para modelos menores, de maior fidelidade e de maior resolução."

Como diz Michaud, se o clima vier da Costa Leste e se mover para o Oeste, "não há apenas um vazio por trás disso". Mesmo se você estiver apenas procurando uma previsão do tempo regional, ainda precisará ser capaz de preenchê-la a partir de um modelo em escala global.

GettyImages-988302516.width-358
– Getty Images

Para trabalhar efetivamente nessas condições, os serviços meteorológicos em todo o mundo colaboram e compartilham observações.

"Temos acordos e padrões sobre a maneira como compartilhamos dados e formatamos dados. Portanto, cada agência ou entidade governamental em todo o mundo tem suas próprias plataformas e, em seguida, todos esses dados são compartilhados", diz Michaud. "Todas essas observações estão fluindo constantemente e temos acordos de compartilhamento para que tenhamos esse conjunto contínuo de informações chegando".

Isso foi reiterado por Alan Hally, líder científico da equipe de transformação de IA da Met Éireann, a instituição meteorológica da Irlanda. Ele observa que os serviços meteorológicos nacionais compartilham dados por meio de um sistema de transmissão global, onde as observações são coletadas em diferentes centros globais e depois distribuídas a todos os escritórios regionais.

"Recentemente, tivemos o fim do furacão Kirk que atravessou o Atlântico e impactou partes da Europa", diz Hally. "Quando essas coisas ocorrem, conversamos diretamente com o Serviço Nacional de Meteorologia, especificamente com o Centro Nacional de Furacões nos EUA, porque eles são responsáveis por esses tipos de eventos climáticos.

"Então, como isso afetaria a França e possivelmente o Reino Unido, teria sido uma ligação coletiva entre todos esses países para discutir para onde o furacão provavelmente se moverá".

No caso de um furacão que se aproxima, as conversas envolveriam as simulações criadas usando Modelos Numéricos de Clima - os modelos que sustentam nossa compreensão da atmosfera. No entanto, para que essas simulações sejam criadas e interpretadas, os dados devem primeiro ser coletados.

Observando a atmosfera

As observações meteorológicas são feitas a partir de uma variedade de plataformas e instrumentos, diz Michaud à DCD, e esses métodos cobrem todas as camadas da atmosfera - do solo ao ar, ao ar e ao ar no espaço.

Os satélites - GEO e LEO - contribuem significativamente para a coleta de dados meteorológicos. "Existem vários instrumentos em cada plataforma de satélite que podem olhar para coisas diferentes - diferentes comprimentos de onda e com diferentes parâmetros", diz ele. "Não é apenas uma câmera que olha para as nuvens. Você pode realmente traçar o perfil através de uma vertical na atmosfera e obter informações em diferentes camadas com um satélite".

Além dos satélites, as observações também são coletadas de balões meteorológicos, que foram usados nos últimos 150 anos e ainda são lançados duas vezes por dia, todos os dias, de cerca de 900 locais em todo o mundo. Os balões atingem alturas de cerca de 20 milhas - o dobro dos aviões - e os sensores desses balões medem elementos como temperatura, umidade, vento e pressão atmosférica.

"Temos até sensores de aviões, então, quando um avião decola, eles fazem observações meteorológicas através da atmosfera", acrescenta Michaud. As observações também são feitas em navios. Depois, há radares "olhando para cima da superfície", diz Michaud, acrescentando: "Tudo isso é trazido e então você tem que controlar a qualidade, porque agora você tem que tornar essa condição inicial um estado contínuo”.

"Se você tem um sensor ruim por aí, que está relatando uma temperatura de 500 graus ou algo assim, você precisa de uma maneira de descobrir como descartar essa observação para que ela não crie esses pontos de acesso e esse ambiente descontínuo".

A escala do desafio enfrentado por Michaud e seus colegas em todo o mundo é difícil de aceitar. Em seu nível mais fundamental, calcular o clima é um problema de dinâmica de fluidos computacional (CFD), mas que cobre todo o globo.

A atmosfera tem que ser dividida em segmentos tridimensionais, com cada segmento impactado por aqueles que a cercam. Nada pode ser visto isoladamente.

NOAA_-_Dogwood._Credit_to_GDIT.width-358
– GDIT

Os modelos climáticos numéricos normalmente são executados em espaçamento espectral ou espaçamento de grade, explica Michaud. No caso do espaçamento da grade - que talvez seja mais simples de entender - os valores devem ser associados a cada ponto da grade, mas isso nem sempre é possível. Aviões e navios se movem, e nem toda superfície tem uma observação naquele ponto.

"Você tem que encontrar maneiras de extrapolar tudo isso. Também pode haver áreas esparsas onde você não tem muitas observações e precisa ser capaz de preencher isso. Então, para criar essa condição inicial, você pega todas essas observações e, em seguida, pode olhar para uma previsão anterior e, em seguida, ajustar as observações a essa previsão", diz Michaud.

"Você controla a qualidade em relação a outras observações e previsões anteriores para obter uma atmosfera contínua como sua condição inicial".

A partir da condição inicial, os meteorologistas avançam incrementalmente no tempo através das equações baseadas na física que preveem o tempo.

"Uma coisa que fazemos com nossos modelos é pegar uma condição inicial e perturbá-la de muitas maneiras diferentes e, em seguida, executar a mesma previsão a partir de diferentes condições iniciais", diz Michaud. "Chamamos isso de conjunto de modelos. Se você olhar para todos os modelos e eles estiverem fortemente acoplados, você tem uma confiança muito alta, mas quanto mais eles divergem, menor a confiança ", explica ele.

Mas Michaud reconhece que "a modelagem de conjunto é outra maneira de mastigar os ciclos de computação".

A correlação direta entre mais computação e melhores previsões

Os serviços meteorológicos nacionais estão continuamente expandindo sua capacidade de computação para melhor atender à previsão do tempo.

A NOAA concluiu uma atualização de seu Sistema de Supercomputação Operacional de Tempo e Clima (WCOSS) no verão de 2023, dando-lhe supercomputadores gêmeos, cada um com 14,5 petaflops de capacidade de computação, um aumento de 20% em comparação com a solução anterior.

A Met Éireann também lançou recentemente um novo supercomputador em colaboração com a Dinamarca, Islândia e Holanda, apelidado de "UWC-West". O supercomputador está alojado no data center do Icelandic Met Office e, de acordo com Hally, a abordagem colaborativa oferece "mais retorno para nossos investimentos".

"Ao reunir os recursos de cada país, conseguimos comprar um supercomputador que era mais poderoso do que qualquer país poderia sozinho", diz ele. "É também um agrupamento de conhecimentos. Portanto, cada uma das quatro instituições tem experiência em diferentes áreas de modelagem numérica do clima, para que possamos reunir toda essa experiência".

Hally acrescenta que abrigar o computador na Islândia, com suas temperaturas frias e energia limpa abundante, significa que ele é neutro em carbono e funciona com energia 100% renovável.

As previsões "melhores" são fornecidas de várias maneiras. O novo supercomputador UWC-West empalidece em comparação com as máquinas da NOAA - o UWC-West pode gerenciar 4 quatrilhões de cálculos por segundo em comparação com os 27 quatrilhões de sua contraparte americana - mas a atualização ainda fez uma diferença significativa na previsão do Met Éireann.

"O modelo numérico do clima que teríamos executado anteriormente em nossos supercomputadores teria sido atualizado oito vezes por dia - ou seja, a cada três horas. O novo supercomputador nos permite atualizar o modelo a cada hora", diz Hally.

Hally também chama a atenção para a questão dos modelos de conjunto - a importância deles e como eles exigem mais computação.

"Quando você faz modelagem numérica do clima, você não faz apenas uma simulação do clima, você faz muitas delas", explica ele. "Isso é para explicar a incerteza natural - coisas como o caos e o efeito borboleta entram nisso. Existe uma incerteza natural inerente à previsão do tempo, você precisa fazer muitas simulações para capturar tudo isso”.

Anteriormente, fazíamos 15 simulações diferentes a cada três horas. Mas agora estamos fazendo 30 simulações diferentes".

Mais poder computacional também pode melhorar os modelos em um nível de resolução. Reduzir o espaçamento da grade fornece um maior nível de precisão nos resultados da previsão, mas também complica o processo.

Como diz Michaud: "Digamos que você dobre a resolução - de um modelo de 30 km para 15 km por espaço de grade. Isso não é apenas o dobro da computação - você está dobrando em várias direções diferentes. Então, em vez de dobrar, você pode precisar de mais de 16× a capacidade de computação".

52572366112_6c473fc92d_k.width-358
– ECMWF

Detalhes adicionais podem ser adicionados a um modelo introduzindo elementos como componentes oceânicos ou nova física de nuvens - ambos os quais adicionam complexidade física a um modelo já fisicamente complexo.

Tudo isso - as observações iniciais e, em seguida, as simulações derivadas dos modelos - cria quantidades astronômicas de dados, todos os quais precisam ser armazenados.

Abrigando a atmosfera

O Centro Europeu de Previsões Meteorológicas de Médio Prazo (ECMWF) tem um dos maiores estoques de dados atmosféricos do mundo.

Aproximando-se de seu 50º aniversário, o ECMWF executa modelos operacionais desde o final da década de 1970 e, de acordo com Umberto Modigliani, seu diretor de previsão e desenvolvimento de serviços, arquiva todas as previsões que produz tanto operacionalmente quanto para fins de pesquisa.

"O tamanho desse arquivo é de cerca de um exabyte", diz ele. "É um dos maiores arquivos de dados meteorológicos do mundo".

Não apenas as previsões estão olhando para o futuro, mas grandes quantidades de esforço são colocadas na reanálise - ou na reprodução da situação do tempo no passado. De acordo com Modigliani, eles têm feito esse tipo de previsão por volta de 1940.

"Os dados produzidos há muito tempo ainda são relativamente pequenos porque, naquela época, os recursos computacionais não eram tão poderosos", diz. "Eles estavam usando um dos primeiros sistemas Cray que, em comparação com o que usamos hoje, tinha muito menos potência. O primeiro, ECMWF, tinha cerca de 16 CPUs”.

Modigliani diz que a maior parte do arquivo "foi produzida mais recentemente". Ele explica: "Normalmente, o que executamos agora operacionalmente é um modelo global com uma resolução de cerca de 10 km. Todos os dias, produzimos mais de 100 terabytes de dados e arquivamos algo como meio petabyte por dia. O tamanho do arquivo está crescendo muito rapidamente, por causa do que estamos fazendo agora, não por causa do que tínhamos no passado".

A grande maioria desses dados é armazenada no local usando um meio de armazenamento distintamente antigo.

"Nosso arquivo ainda é baseado principalmente em fitas", diz Modigliani. "Temos um sistema de arquivos paralelo. Se você estiver acessando dados recentes, normalmente será dos discos do supercomputador. Se você estivesse observando as tendências de temperatura em algum lugar nos últimos 20 anos e precisasse ver nossas previsões operacionais para esse período, isso estaria em fitas que são transferidas para discos”.

Modigliani acrescenta: "Há também um catálogo acessível online. Lidamos com algo entre meio milhão e um milhão de solicitações por dia de pessoas”.

O uso de armazenamento em fita também é o método preferido no oceano Atlântico, na NOAA.

A NOAA possui um componente dedicado ao arquivamento de dados - os Centros Nacionais de Informações Ambientais (NCEI). "É importante porque, à medida que você obtém melhor tecnologia computacional e melhor física de modelo, pode voltar e executar novamente modelos com dados anteriores e, em seguida, usá-los para garantir que está capturando extremos em diferentes situações", disse Michaud à DCD.

Embora também use fita para grande parte de seu armazenamento, a solução vem com seus próprios desafios. "Se você estiver armazenando em fita, que é uma solução acessível, as densidades de fita, as tecnologias de fita e as unidades de fita mudam com o tempo, e então você precisa migrar tudo isso para a nova tecnologia. Portanto, à medida que os dados estão crescendo, a capacidade da tecnologia de armazená-los em uma densidade de dados mais alta também está crescendo", explica ele, acrescentando que a migração de fita é um processo contínuo na NOAA, que está em andamento há décadas.

A NOAA, no entanto, não fez uma mudança para o armazenamento em nuvem, embora Michaud observe que outros no setor estão olhando para isso.

Computação em nuvem na nuvem

O Met Office do Reino Unido assinou uma parceria com a Microsoft em abril de 2021 que veria os dois colaborando em um novo supercomputador.

Seria incorreto descrever o supercomputador como "baseado na nuvem pública", no entanto. Conforme relatado anteriormente pela DCD, o supercomputador está realmente alojado em uma instalação de supercomputação dedicada em um data center em nuvem da Microsoft no Reino Unido.

"A Microsoft está hospedando os vários supercomputadores subjacentes a este serviço em salas dedicadas nos data centers da Microsoft que foram projetados e otimizados para esses supercomputadores, em vez de hospedagem genérica em nuvem", disse a Microsoft em um comunicado de 2022.

"Isso inclui configurações de energia, resfriamento e rede ajustadas às necessidades do programa, incluindo eficiência energética e resiliência operacional. Assim, os supercomputadores são hospedados em uma instalação de supercomputação 'dedicada' da Microsoft para este projeto".

A solução possui seus próprios recursos de armazenamento, mas também pode aproveitar as ofertas disponíveis na nuvem da Microsoft.

O gerente geral de computação avançada da Amazon Web Services (AWS), Ian Colle, argumenta firmemente a favor de fazer modelagem de previsão do tempo na nuvem.

Durante a conferência AWS Re:Invent 2024, Colle contou à DCD sobre um cliente específico - MAXAR - que usa a AWS exatamente para essa finalidade e, afirmou Colle, com grande efeito.

"Eles (MAXAR) pegam o conjunto de dados do Serviço Nacional de Meteorologia e podem realmente obter seu modelo antes do Serviço Nacional de Meteorologia, porque podem se espalhar pelos recursos flexíveis da AWS, em oposição ao que a NOAA tem a ver com seu cluster local fixo", diz Colle.

Colle observa que é confiável o suficiente para que isso seja uma grande parte de seu valor comercial, com os clientes da MAXAR podendo usar o boletim meteorológico para analisar commodities e investimentos.

De acordo com Colle, a MAXAR está fazendo esse trabalho no mesmo nível ou maior fidelidade da NOAA, em menos tempo.

A convergência da computação em nuvem e dos dados meteorológicos também pode, até certo ponto, ser vista no trabalho do ECMWF. Sob o guarda-chuva do ECMWF encontra-se a Nuvem Meteorológica Europeia (EWC).

O EWC tornou-se totalmente operacional em setembro de 2023 e se descreve como um "centro para a comunidade meteorológica nos estados membros e cooperantes do ECMWF e EUMETSAT, para que usuários de diferentes países e organizações possam se reunir para colaborar e compartilhar recursos".

O EWC, explica Modigliani, está hospedado no data center do ECMWF - o mesmo que seu supercomputador - mas é um "sistema fisicamente separado". Ele está conectado ao arquivo e ao supercomputador por meio de uma rede interna.

"Os dados que produzimos diariamente também foram uma das principais razões para ter esse serviço em nuvem, para que pudéssemos oferecer mais flexibilidade no tipo de aplicativo que você poderia executar", diz ele. "Queríamos ter esse sistema no local, por causa da quantidade de dados, em princípio, que os usuários poderiam acessar. Discutimos o uso de um fornecedor de nuvem pública, mas se você quiser usar os 100 terabytes produzidos diariamente, isso precisaria ser transferido, o que não é realmente viável".

A oferta de nuvem também oferece aos usuários mais flexibilidade.

Não é apenas o ECMWF que usa seu supercomputador para previsão - os usuários dos estados membros também podem acessá-lo. No entanto, o sistema HPC é gerenciado pelo ECMWF e "os usuários não têm muita flexibilidade sobre o tipo de aplicativos que podem implementar no sistema".

"A ideia é que eles tenham sua própria infraestrutura [no EWC]. Criamos locações onde eles têm suas próprias máquinas virtuais (VMs). No momento, o serviço básico são as VMs, mas também existem alguns executando clusters Kubernetes e, se o usuário quiser, podemos gerenciar as coisas em um nível de infraestrutura como serviço".

"Algumas das cargas de trabalho simplesmente não podem ser feitas em um HPC. Por exemplo, criar um serviço baseado na Web que pode fornecer acesso a outra pessoa, que não pode ser executado em um HPC. Então, para nós, o EWC é mais como um elogio ao HPC principal para facilitar aplicativos que não existiam antes", diz Modigliani.

Outra grande diferença é a composição do hardware. O sistema HPC do ECMWF é principalmente baseado em CPU, com apenas um segmento relativamente pequeno utilizando GPUs. O EWC opera em CPUs e GPUs, o que Modigliani diz que se deve à demanda por GPUs "particularmente nos últimos dois anos", com o crescimento dos sistemas de IA tornando os aceleradores mais difíceis de encontrar.

GPUs e modelos de IA

O supercomputador UWC-West da Met Éireann é exclusivamente baseado em CPU. Hally, da Met Éireann, diz que a aquisição desse sistema começou em 2019 ou 2020 e, naquela época, a IA e a previsão do tempo "não eram realmente o grande tópico que são agora".

Esse foco em CPUs para o clima se deve ao fato de que os modelos numéricos usados para previsão do tempo não são projetados com GPUs em mente.

H100_Hopper_GPU.width-358
– Nvidia

"O código tradicional de modelagem do clima - o código de computador real - foi escrito originalmente para funcionar em CPUs em termos da maneira como foi paralelizado e enviado para processadores individuais, mas há esforços contínuos para alterar o código para que possa ser usado em GPUs, porque é assim que a indústria está indo e para onde a tecnologia está indo”, diz Hally.

O ECMWF também está trabalhando para fazer seu código funcionar para GPUs.

"O problema é que o modelo que estamos usando - o sistema integrado de previsão (IFS) - é um modelo baseado em física", diz Modigliani. "Em primeiro lugar, é escrito principalmente em [linguagem de programação] Fortran no momento. Ele foi desenvolvido nos últimos 20 anos ou mais, e certamente tem mais de um milhão de linhas de código”.

"É um grande pedaço de código com muitos componentes diferentes e, na prática, você precisa reescrever tudo isso. Não é um esforço que você consegue em um curto espaço de tempo".

O ECMWF tem feito alguns testes em GPUs - com Modigliani citando o projeto Destination Earth como exemplo, que tem acesso aos recursos da EuroHPC, incluindo os supercomputadores Lumi, Leonardo e MareNostrum 5 na Europa - mas o desempenho até agora não melhorou radicalmente: "não há realmente uma vantagem para nós".

"Existem algumas áreas que podem se beneficiar do uso de GPUs, mas ainda precisamos melhorar a versão da GPU do modelo em pelo menos um fator de cinco".

Os ventos certamente estão soprando na direção das GPUs. Em setembro, a NOAA anunciou uma doação de 100 milhões de dólares (581 milhões de reais) da Lei de Infraestrutura Bipartidária e da Lei de Redução da Inflação, que será usada para a aquisição de um novo supercomputador apelidado de Rhea. O Rhea será equipado com uma quantidade não especificada de GPUs e, de acordo com a NOAA, será usado para "fortalecer a exploração e aplicação de inteligência artificial e recursos de aprendizado de máquina da NOAA".

Conforme colocado por Hally, do Met Éireann, a perspectiva está "mudando rapidamente". Ele diz: "A cada dois meses, leio um novo artigo científico sobre um avanço na IA e na previsão do tempo".

Notavelmente, em dezembro deste ano, o Google anunciou que seu laboratório de pesquisa DeepMind havia desenvolvido um modelo de previsão do tempo de IA 'GenCast' que, segundo ele, supera os métodos tradicionais em previsões de até 15 dias. Isso "marca uma espécie de ponto de inflexão no avanço da IA para previsão do tempo", disse Ilan Price, cientista pesquisador do Google DeepMind, em um comunicado.

Hally acrescenta que, uma vez que um modelo é treinado, o número de GPUs necessárias para executá-lo é muito menor. "Ele também pode ser implantado em hardware e arquitetura muito simples, o que significa que você pode disponibilizar modelos para aqueles em países em desenvolvimento que não têm tanto acesso à computação de alto desempenho e eles podem fazer suas próprias simulações para sua própria área-alvo".

O que permanece uma certeza é que a busca por mais computação não chegará a um ponto final tão cedo.

"Não vejo um fim para isso", diz Michaud. "Com toda a seriedade, fazemos isso há muito tempo, e acho que o que vai acabar acontecendo é que cientistas e pesquisadores terão que priorizar o equilíbrio entre aumento de resolução, complexidade e certeza”.

"Você pode optar por lidar com uma melhor simulação de dados e não fazer tanto com o modelo, ou pode fazer menos simulação e aumentar a complexidade do modelo".

Esse sentimento foi reiterado por Modigliani. "É muito difícil para nós e outras organizações dizermos 'vamos fazer uma pausa e esperar alguns anos'. O objetivo é sempre fornecer a previsão mais útil."

Os apresentadores de TV que procuram evitar seu próprio "momento Michael Fish" certamente ficarão gratos pela ajuda extra.

Essa matéria está na edição 55 da DCD Magazine. Leia gratuitamente hoje.