0

Cérebro crítico: novas evidências para uma teoria sobre transições de fase entre estados cerebrais.

Várias vezes usamos expressões como “minha cabeça está fervendo” ou “meu cérebro derreteu” numa analogia despretensiosa entre as super conhecidas transições de fase do estado líquido para o gasoso ou do sólido para o  líquido. Mas existe, de fato, uma hipótese relacionando os estados do nosso cérebro e as transições de fase em sistemas físicos. E a pergunta da moda é “Que transição seria essa?”

 

 

Quando você abre uma caneca de café quentinho (daquelas que têm uma tampinha para o café não esfriar), inevitavelmente algumas moléculas do vapor de café se difundem no ar e atingem seu nariz. Isso garante que você poderá sentir o aroma desta iguaria (que facilita o avanço da ciência há muitos séculos).  E isso só acontece porque alguns neurônios receptores no seu nariz são capazes de identificar estas moléculas e transmitir essa informação através de sinais elétricos para diferentes regiões do seu cérebro. Ou seja, um processo que começa em uma escala molecular vai ser transmitido para regiões cada vez maiores do seu sistema nervoso de maneira a gerar uma reação cognitiva na escala comportamental. Por exemplo, desencadeando um sorriso ou uma careta se o cheiro for agradável ou não.

Uma questão ainda em aberto no meio científico é como relacionar a atividade cerebral que ocorre em diferentes escalas de tempo e espaço e o nosso comportamento. Em outras palavras como a atividade aparentemente desordenada de tantos neurônios respondendo a estímulos externos pode se tornar organizada para dar origem a padrões tão complexos de comportamento. E é aqui que as ideias de transições de fase [1] e criticalidade podem nos ajudar.

No caso particular do nosso exemplo com o café, poderíamos pensar numa transição de fase entre dois estados específicos: um com muita atividade desencadeada pelos neurônios receptores e outro sem atividade. Imagine que os neurônios do nariz estivessem fracamente conectados entre si, ou que a capacidade de resposta deles a um estímulo fosse muito pequena. Neste caso, você só sentiria o cheiro de café se praticamente encostasse o líquido no nariz. Dizemos que nesta fase seria necessário um estímulo muito grande para que a atividade dos neurônios fosse mantida por tempo suficiente para que percebêssemos o aroma. Caracterizamos este estado como absorvedor, uma vez que para estímulos pequenos os neurônios rapidamente iriam parar de disparar ou ficariam em silêncio e a informação não se propragaria.

Por outro lado, se os neurônios do nariz estivessem fortemente conectados ou em um regime super sensível, bastaria alguém esquecer um copinho de café em cima da mesa (ver Figura 1) a muitos metros de distância que seus sensores já seriam capazes de perceber o cheiro. Além disso, se a atividade elétrica não diminuísse facilmente, você poderia passar o dia todo com a sensação de que ainda estava sentindo o tal cheirinho de café. Dizemos que esse estado é ativo, pois qualquer estímulo, por menor que seja gera uma resposta alta e duradoura.

Texto12Game-of-Thrones-copo-do-Starbucks

Figura 1: Imagem do copinho de café mais famoso do ano. (Se você não acompanhou as fofocas de Game of Thrones pode ler mais sobre esse cafezinho aqui.)

Pensando sobre esses dois extremos, parece razoável imaginar que o ideal é que nossos neurônios operem em um estado intermediário entre o silencioso e o ativo. Portanto, é fácil imaginar que exista um ponto ótimo no meio do caminho entre ser absorvente e ser super reativo e que talvez o nosso cérebro poderia estar próximo a este ponto. Essa analogia foi bastante utilizada nos últimos anos para exemplificar uma possível transição de fase no cérebro e uma preferência por estados próximos ao ponto crítico onde essa transição ocorreria.

Mas de onde veio essa ideia?

Nos anos 80 o físico Per Bak propôs que, através de interações locais, diversos sistemas complexos poderiam se auto organizar em torno de um ponto crítico. Esta criticalidade estaria, em geral, relacionada a uma transição de fase entre um estado bagunçado e outro mais organizado. Esse fenômeno ficou conhecido como criticalidade auto organizada e tem como uma das principais características a presença de distribuições do tipo lei de potência [2] em que eventos pequenos (ou de curta duração) têm uma probabilidade maior de ocorrer do que eventos grandes (ou de longa duração). Per Bak também propôs que o cérebro funcionaria de acordo com esses mesmos princípios. Segundo esta teoria, que ficou conhecida como criticalidade cerebral ou hipótese do cérebro crítico, a atividade neuronal obedeceria às mesmas leis matemáticas que o deslizamento dos grãos de areia empilhados na base de uma ampulheta. Ou seja, que a ocorrência de certos eventos, chamados avalanches, com diferentes tamanhos permitiriam manter a estabilidade global do sistema. No caso da areia as avalanches são deslizamentos de uma certa quantidade de grãos. Enquanto que no caso do cérebro essas avalanches seriam disparos elétricos de alguns neurônios.

Em 2003 Beggs e Plenz [3] publicaram a primeira evidência experimental para sustentar a hipótese do cérebro crítico. Eles mostraram que a atividade elétrica espontânea dos neurônios em fatias de cérebro de ratos, de fato, exibe uma lei de potência. Isto é, a probabilidade P(s) de observar uma avalanche com s disparos neuronais é proporcional a s elevado a um certo expoente (nesse caso: P(s)~s^(-1,5)).

Desde então muitos outros estudos mostraram evidências a favor desta hipótese, mas também contra ela. Um dos pontos fracos da teoria foi levantado em um estudo recente, que mostrou que a assinatura de lei de potência também pode ser encontrada em sistemas que estão longe de um ponto crítico [4]. Outro ponto contra é que a ideia da transição de fase no nosso exemplo do café entre um estado silencioso e outro ativo não leva em conta que o estado silencioso não é encontrado em um cérebro vivo. Ela também deixa de fora um estado cortical bastante conhecido dos experimentos em neurociência que diz respeito às oscilações cerebrais (alguns deles já descritos anteriormente aqui, aqui e aqui).

Certo, mas e daí?

E daí que, em maio deste ano, um grupo de físicos brasileiros (trabalhando em universidades públicas) publicou em uma das revistas internacionais mais importantes da física o que pode ser considerada a evidência mais forte em favor da hipótese do cérebro crítico [5]. Fortalecendo, portanto, a ideia de que o cérebro, de fato, opera em um ponto intermediário entre dois estados cerebrais diferentes. Além disso, os resultados deste trabalho sugerem que a transição de fase não ocorre entre um estado absorvente e outro ativo como no exemplo inicial do cafezinho, mas sim entre duas fases ativas: sincronizada e dessincronizada.

O grupo estudou a atividade elétrica do córtex visual primário em ratos anestesiados e utilizou uma medida da variabilidade desta atividade ao longo do tempo [6] para quantificar os diferentes estados corticais (ver exemplo de três estados diferentes na Figura 2(a)). Os estados encontrados para o tipo específico de anestesia utilizada variam desde uma atividade muito sincronizada (parecida com a que ocorre em alguns estágios do sono) até uma atividade aparentemente aleatória (parecida com estados acordados). O grupo mostrou que os tamanhos e durações das avalanches neuronais obedecem às distribuições de leis de potência verificadas in vitro no estudo de 2003 (ver Figura 2(b)). E que alguns dos resultados também são encontrados em dados de domínio público de experimentos realizados com outros animais (macaco, tartaruga e rato).

Texto12GraficoFinal

Figura 2. Modificada da Referência [5]: Visão geral dos resultados experimentais fortalecendo a hipótese do cérebro crítico. (a) Atividade do córtex visual do rato anestesiado em três diferentes estados corticais com coeficiente de variação e nível de sincronização crescendo da esquerda para direita. (b) Distribuição do tamanho das avalanches P(S) obedecendo uma lei de potência para o estado de sincronização intermediária (vermelho). (c) Relação de escala mais rígida para os coeficientes críticos que só é obtida quando a curva azul e preta se interceptam. Indicando que a transição de fase ocorre em estados de sincronização nem muito alta nem muito baixa.

 Os pesquisadores mostraram ainda que os dados obedecem a uma condição matemática mais rigorosa do que somente a existência de uma lei de potência, e que reforça a hipótese de criticalidade. Em particular, essa condição mais especial de criticalidade não é satisfeita para qualquer valor de atividade, mas somente em estados corticais que estão entre regimes de alta e baixa sincronização (caracterizado por valores intermediários do coeficiente de variação, como mostrado na Figura 2(c)). Isto significa que a transição de fase pode ocorrer entre um estado com atividade muito aleatória e outro com atividade muito sincronizada.

Finalmente, o grupo analisou um modelo teórico de neurônios excitatórios e inibitórios chamado CROS (sigla do inglês para oscilações críticas, critical oscillations) que pode representar uma transição para um estado com oscilações corticais. Eles mostraram que as relações entre os expoentes críticos obtidos a partir deste modelo são mais parecidas com as obtidas utilizando os dados experimentais analisados do que o modelo bem conhecido de transição entre estados ativos e inativos (como no exemplo do café).

Todas estas novas evidências fortalecem a hipótese de que o cérebro pode estar operando próximo a uma transição de fase entre dois estados bem definidos; e abre novas perspectivas na busca de um modelo teórico, baseado em mecânica estatística, que explique a diversidade dos expoentes críticos obtidos com diferentes dados experimentais. Esperamos que a determinação de tal modelo contribua para um melhor entendimento do cérebro como um todo; e da relação entre as escalas neuronais microscópicas e as escalas macroscópicas do comportamento.

E, claro, esperamos que pesquisas como essa sirvam de exemplo para a sociedade sobre a qualidade e a importância do trabalho que é realizado nas Universidades Federais do nosso país.

Referências e comentários:

[1] As transições de fase mais conhecidas estão relacionadas com os estados sólido, líquido e gasoso da matéria. Em particular estamos bastante acostumados com transições chamadas de primeira ordem onde coexistem gelo e água líquida, ou água líquida e vapor que podem ser induzidas por fornecimento de calor e ocorrem a uma temperatura constante e que depende da pressão. Existem porém transições ditas de segunda ordem que possuem características diferentes das de primeira ordem. Por exemplo, no ponto crítico do diagrama pressão versus temperatura da água temos uma transição de segunda ordem em que o fluido está tão quente e comprimido que não é possível diferenciar as fases líquida e gasosa.

[2] Matematicamente a probabilidade P de ocorrer um evento de tamanho s é dada por: P(s)~(s)^k  e este gráfico pode ser representado por uma reta em escala log-log. Diferentemente da distribuição normal (Gaussiana) este tipo de distribuição não apresenta um tamanho característico.

[3] Beggs, John M., e Dietmar Plenz. “Neuronal avalanches in neocortical circuits.” Journal of neuroscience 23.35 (2003): 11167-11177.

[4] Touboul, Jonathan, and Alain Destexhe. “Power-law statistics and universal scaling in the absence of criticality.” Physical Review E 95.1 (2017): 012413.

[5] Fontenele, Antonio J., et al. “Criticality between cortical states.” Physical review letters 122.20 (2019): 208101.

[6] O coeficiente de variação CV de uma série temporal é definido como a razão entre o desvio padrão da atividade e sua média.

Outros textos sobre criticalidade cerebral:

https://www.quantamagazine.org/toward-a-theory-of-self-organized-criticality-in-the-brain-20140403/

https://www.quantamagazine.org/do-brains-operate-at-a-tipping-point-new-clues-and-complications-20190610/

0

Linha do Tempo Invertida e Informação Quântica

Demonio_Maxwell_1

Créditos: Wang Guoyan e Chen Lei

Em meio a todo o pesadelo da física do ensino médio (incluindo os mnemônicos constrangedores para memorização de fórmulas) a termodinâmica sempre me pareceu a frente mais amistosa. Sem muito sofrimento, absorvi logo a ideia de que as coisas são feitas de partículas, que formam, átomos que formam moléculas… E que tudo isso se mexe, o tempo todo, numa escala de espaço muito pequena para ser observado diretamente pelos nossos olhos. Me pareceu também um conceito razoável dizer que um corpo está “quente” quando suas moléculas estão muito agitadas e, conforme elas “esbarram” em outras menos agitadas, vão perdendo energia até que todo mundo esteja mais ou menos na mesma vibe, com o perdão do trocadilho.

 Descobri depois que uma importantíssima lei da física enuncia que não é possível acontecer o inverso: não dá pras partículas mais quietas, por uma ação delas mesmas, apaziguarem as mais agitadas. Em outras palavras, se existe um esquema fechadinho na natureza e as coisas dentro dele estão em um certo “nível de bagunça”, esse nível de bagunça sempre permanece o mesmo ou piora. Chamamos o “nível de bagunça” de entropia e essa é a Segunda Lei da termodinâmica. [Três físicos teóricos acabam de morrer após essa simplificação]*. Usamos essa lógica por muito tempo, sempre que precisamos transferir calor de um lugar para outro: o calor flui do quente para o frio, sempre nessa direção e, se quisermos fazer o contrário, precisamos de uma forcinha externa. 

AÍ ~OS FÍSICO~ RESOLVEM FRITÁ.

Um belo dia, vem o sr. James Maxwell (cuja aparente função na história da ciência era “causar”) numa tarde de chuva (só pode!) propondo o seguinte exercício de imaginação: “e se a gente pudesse, dentro do sistema fechadinho, separar as moléculas agitadas das calmas? Se um pequeno “demônio” ficasse lá dentro e direcionasse as agitadas pra um lado e as calmas para o outro?”

UUUhhhh.. a galera pirou. Fritou. Gaguejou. O experimento mental ficou conhecido como “O demônio de Maxwell”. Todo mundo tentando explicar que OBVIAMENTE não dava pra fazer isso e, mesmo que houvesse um “demônio” (ou qualquer dispositivo que cumprisse o mesmo papel), isso violaria a Segunda Lei. Mas o óbvio, meus amigos, não é nada fácil de se explicar. E na física não dá só pra dizer que “não dá”. Não dá pra torcer o narizinho e dar as costas quando não gostamos de uma pergunta. Na física, tem que explicar PORQUÊ não dá. 

E DAÍ QUE DÁ SIM.

Conforme os nossos conhecimentos sobre o mundo “microscópico” foram avançando, conseguimos criar, teoricamente, ferramentas que bloqueassem as partículas menos agitadas no sistema, sem um gasto relevante de energia e dentro da mais pura, bela e rebuscada lógica da ciência – sem escândalo. Lindo, lindo mesmo. Umas contas, uns modelos… vocês precisam ver. Mas o povo quer o que? O povo quer internet instantânea. O povo quer os jogos rodando na mais perfeita brisa do cooler. O povo quer cerveja gelada espontaneamente em 30 segundos. E isso exige menos perda de calor já! Mas aí é que tá a boniteza da física teórica, vanguardista – uma vez aberto o portal:

SEGURA ESSE DEMOGORGON, JAIME MACSSUEL, PORQUE O MUNDO INVERTIDO CHEGOU.

Metendo o pé com ciência brazuca, a publicação da Nature Communications relata o experimento que foi capaz de observar o fluxo espontâneo e invertido do calor. O bonde formado por pesquisadores da Universidade Federal do ABC (Associados da Balbúrdia Comunitária**) em conjunto com o Centro Brasileiro de Pesquisas Físicas (CBPF) (“B” de Brasil, né meu povo), o Instituto de Física da Universidade de São Paulo (IF – USP) e colaboradores internacionais observou qubits (qubit is the new bit) levados a diferentes temperaturas utilizando ressonância magnética nuclear e, posteriormente, o fluxo de calor do qubit mais frio para o mais quente. A sacada foi o estado inicial do sistema: as partículas observadas (qubits) possuíam uma conexão entre si, chamada “correlação quântica”, que mantém as informações dessas partículas “conectadas” ainda que elas estejam muito distantes uma da outra. Nada místico no laboratório: muita conta, suor, medida e investigação. Toneladas de ciência. Conforme essa conexão “enfraquece”, a soma das entropias (aquela desordem) individuais diminui e o calor flui no sentido chocante. AUGE. A tal correlação entra como um ente no sistema isolado, mantendo a Segunda Lei a salvo. [Físicos respiram].

Você tá achando tudo isso Black Mirror demais? Porque eu não acabei… O que o experimento pôs em xeque foi a irreversibilidade de certos processos físicos. Isso porque ressignificar a variação de entropia relativiza também a famosa “linha do tempo” (Arthur Eddington) e sua direção única possível, uma ideia baseada justamente na concepção de processos irreversíveis. É a física quântica estapeando o senso comum. Além disso a causa da troca estranha de calor parece relacionada à troca de informação, e é incrível que esses conceitos estejam de fato ligados entre si. 

O resultado deste importante experimento se reflete, por exemplo, na nossa atual concepção do Cosmos: as coisas aconteceram mesmo na ordem que pensávamos ser “obrigatória”? A computação quântica e o domínio sobre esse tipo de informação, por sua vez, nos permitem vislumbrar computadores muito mais rápidos e criptografias invioláveis [certos juízes respiram…], resolvendo o “gargalo” mundial de transferência de dados e nos levando a uma dimensão de informação ainda não imaginável – não como carros voadores e roupas prateadas. Computadores quânticos são uma realidade (ainda não acessível financeiramente) e os experimentos de transferência instantânea de informação estão entre nós. Apesar da magnitude espacial do experimento da troca de calor “invertida”, os autores afirmam não haver razão para que isso não funcione em larga escala. Por hora, você pode conseguir ajuda com a coisa da cerveja com essas rainhas da engenharia aqui. Eu sei que quântica parece ficção, mas a ciência nos trouxe pelos séculos através de sua estrutura sólida, sempre ampliando os horizontes visualizados “sobre os ombros de gigantes”. Não vamos fechar os nossos olhos a ela. Leiam textinhos, discutam ciência no bar, combatam a desinformação, se hidratem, troquem calor. Reinventem. 

Já falou com seus demônios hoje?

*Houve protesto quanto a essa afirmação (por parte da física teórica).

**Na sigla da Universidade Federal do ABC, “ABC” se refere às cidades do ABC Paulista  e a menção é apenas mais uma brincadeira do texto.

Referências

  1.  NATURE COMMUNICATIONS | (2019) 10:2456 | https://doi.org/10.1038/s41467-019-10333-7 | http://www.nature.com/naturecommunications
  2. http://agencia.fapesp.br/experimento-inverte-o-sentido-do-fluxo-de-calor/30700/
0

Nos oceanos, tamanho é documento!

Por que alguns mares são mais salgados que outros? Por que a temperatura no Hemisfério Norte varia mais que no Hemisfério Sul? Qual é o oceano mais quente? Tudo isso tem a ver com o formato dos nossos oceanos. Hoje  conversaremos sobre como as dimensões do oceano influenciam em alguns dos processos físicos mais comuns!

featured-image-index.jpg

Ocean Waves. UN DESA.

 

A maior parte da superfície terrestre é coberta por mar, cerca de 71% oceano e 29% continentes. Esses 71% correspondem a um volume de água de aproximadamente 1.360.000 km3 de água. A profundidade média dos oceanos é de 4km e, em relação ao nível do mar, os oceanos possuem maiores diferenças altimétricas do que os continentes. Enquanto somente 11% da superfície terrestre está acima de 2000m, 84% do assoalho oceânico tem profundidade superior a 2000m. As máximas de ambos, no entanto, são similares com a Fossa das Marianas >11.000m e o monte Everest com quase 9000m. Apesar da profundidade média dos oceanos ficar em torno de 4000 m, essa distância vertical é relativamente pequena quando comparada à escala horizontal dos oceanos, que está entre 5000km e 15.000km. O oceano é uma camada bem fina em relação a superfície terrestre e, para sua adequada representação, precisa de exagero da escala vertical. 

A+curva+hipsográfica+Monte+Everest+(8850+metros)+Montanhas.+Altitude+média+dos+continentes+(840+metros)

Relação entre a altitude dos continentes e a profundidade do oceano. Fonte: Reproduzido de Emanuelly Verde.

 

O oceano é “mais alto”, contém um impressionante volume de água e diversas subdivisões e feições topográficas. Como isso influencia nas características físicas dos oceanos?

MARES E DIMENSÕES 

Os oceanos são bacias na superfície sólida da Terra contendo água salgada. As maiores áreas oceânicas são o Oceano Pacífico, o Oceano Índico, o Oceano Atlântico, o Oceano Ártico e o Oceano Austral. Os primeiros 4 são claramente divididos por massas continentais, mas os limites que o Oceano Austral faz ao norte com os outros oceanos são dinâmicos. Ou seja, são determinados somente pelas características das águas e pela circulação. A Corrente Circumpolar Antártica é a corrente principal da Antártica e suas frentes são consideradas como os limites dinâmicos do oceano Austral.  

89965-073-C2BC6F0E

Mapa-mundi com divisões do planeta em hemisférios, oceanos e massas continentais. Encyclopædia Britannica, Inc.

img0

Observe a demarcação do Oceano Austral. Ao contrário dos demais oceanos, demarcação é dinâmica. Nesse caso, ele é demarcado ao norte pela Zona de Convergência Antártica e ao Sul pelo continente Antártico.

 

Além das bacias oceânicas, existem os Mares Marginais. Eles são bacias de água salgada razoavelmente grandes que são conectadas ao oceano aberto por um ou alguns canais estreitos. Os que são conectados por poucos canais são chamados de mares mediterrâneos, em referência ao Mar Mediterrâneo do continente europeu.

→ Mar Mediterrâneo

O Mar Mediterrâneo apresenta um balanço negativo de P-E (precipitação e evaporação), ou seja, menos entrada de água doce (deságue de rios e precipitação) e mais evaporação.

→ Mar Negro

Exemplo de balanço positivo, ele se conecta ao Mar Mediterrâneo.

mediterranean-physical-map

Note como o Mar Negro (Black Sea) se conecta ao Mar Mediterrâneo por um pequena passagem em seu limite sul. Fonte: Free World Maps.

 

O termo mar também é utilizado para porções do oceano que não são divididas por terra, mas tem características oceanográficas locais que as distinguem do seu entorno.

→ Mar da Noruega

O Mar da Noruega se caracteriza pela presença de uma batimetria profunda que “aprisiona” as águas naquela região. Essas bacias profundas podem servir de proxy em estudos, pois a renovação das águas é bastante lenta.

→ Mar do Sargasso

É uma região cercada por correntes oceânicas e que está inserida em um giro anticiclônico. É conhecido pela grande concentração de algas que acaba sendo deslocada para seu interior.

À esquerda, esquema ilustrativo da circulação dominante no Mar do Sargasso (Fonte: Domínio Público). À direita, foto da localidade mostrando a acumulação de algas (Fonte: European Space Agency). 

A forma, a profundidade e a localização geográfica dos oceanos afetam as características gerais de circulação de cada oceano. 

→  Proporção de água para terra em cada hemisfério – HN 1.5:1 / HS 4:1. 

O potencial calorífico da água é muito maior do que o dos continentes, tornando os oceanos um excelente regulador térmico. Ou seja, essa proporção influencia diretamente na amplitude térmica, que por sua vez influencia o gradiente de pressão, que influencia a intensidade dos ventos e que transfere momentum às correntes superficiais. A maior amplitude térmica se dá no HN, por ter menos água.

→ Largura das Bacias

O Atlântico forma um “S” bem marcado no seu centro e o Pacífico possui uma distribuição mais oval o que impacta em como a circulação se ajusta à mudança de fatores que a influenciam. A diferença de largura implica por exemplo, nas características termohalinas (salinidade e temperatura) de cada oceano. O Pacífico, para uma mesma latitude, apresenta regiões (mais extensas) com temperatura superficiais mais altas do que as do Atlântico. Isso acontece porque o Oceano Pacífico é significativamente mais amplo perto do equador do que o Atlântico.

Compare a largura das bacias.  Fonte: CIA – The World Factbook.

 

Mas como exatamente se dá esse processo de aquecimento desigual? A maior parte do aquecimento dos oceanos e exportação de calor tem lugar nas regiões equatoriais, e é importante notar que as águas não são estacionárias. De forma geral, a circulação nos oceanos abertos pode ser descrito como giros anticiclônicos – giros conduzidos pelo vento, no sentido horário no hemisfério Norte e sentido anti-horário no hemisfério sul. Assim, em ambos os oceanos Atlântico e Pacífico, as águas do oceano viajam para o oeste ao longo do equador a cerca de 10-15 cm/s.

O Atlântico tem cerca de 6.500 km de largura na linha do equador, enquanto o Pacífico tem quase 18.000 km de largura. Isto significa que no Atlântico, as águas passam por sua região de maior aquecimento durante cerca de 45 dias, enquanto no Pacífico passam por este aquecimento por cerca de 125 dias antes de serem desviados norte e sul para os giros subtropicais.

Assim, as águas superficiais do Pacífico se submetem a esse aquecimento por quase 3 vezes mais tempo que as águas do Atlântico, resultando em temperaturas de superfície mais elevadas e maior exportação de calor para latitudes mais altas.

→  Volume

O Oceano Pacífico abriga cerca de 49% do volume total dos oceanos, representando mais do que o volume do Atlântico e do Índico somados.

→  Limites latitudinais

Observando o oceano Índico, percebemos que ele não faz parte de nenhuma região polar. A inexistência de regiões frias, impede que se forme água de fundo ou profunda no Índico.

XO-map

Observe o Oceano Índico, área hachurada, não se estende ao sul de 60°S. Fonte: CIA – The World FactbookCIA – The World Factbook

___________________________________________________________________________________________

 

Referências

  1. Lynne D Talley. Descriptive physical oceanography: an introduction. Academic press, 2011.
0

O eclipse de 1919: pela paz e pelo método científico

A comprovação da Teoria da Relatividade está comemorando um século de idade. Neste 29 de maio, a comunidade científica rememorou as expedições de observação de um eclipse total do Sol em Sobral, no Ceará, e na Ilha do Príncipe, na costa oeste da África.

A data é relevante porque traz à memória uma contribuição extremamente importante daquele que provavelmente é o cientista mais conhecido de todos os tempos: Albert Einstein. Ele, que formulou a Teoria da Relatividade em 1915, não tinha como comprová-la apenas por cálculos. Era preciso fazer observações e comparações. Pesar evidências.

Einstein não acompanhou as expedições, que, lideradas por Arthur Eddington na Ilha do Príncipe e por Andrew Crommelin em Sobral, contaram com a participação de equipes da Royal Astronomical Society. Britânicos e brasileiros estavam atrás de evidências de que corpos massivos – como o Sol, por exemplo – “deformam” o espaço-tempo em seu redor. É mais ou menos como colocar uma bola de futebol sobre um tecido estendido ou em cima de uma cama fofa. Se essa bola fosse o Sol, a curvatura que causa no tecido, ou no Universo, é o que explicaria o movimento dos planetas ao seu redor. Não era mais a gravidade newtoniana.

Se fosse possível observar a luz de uma estrela próxima do Sol enquanto ele estivesse no céu – e se a posição dela fosse diferente quando o Sol não estivesse lá -, isso seria um forte indício de que a teoria de Einstein estava certa. Como o Sol ofusca as outras estrelas durante o dia, essa observação não era viável. No entanto, um eclipse solar era a oportunidade perfeita para fazer esse teste. E foi o que aconteceu em Sobral e Príncipe: os pesquisadores conseguiram observar a constelação de Touro e viram que sim, a posição dessas estrelas durante o dia não era exatamente a mesma durante a noite. Einstein tinha razão!

A descoberta catapultou o cientista alemão para o estrelato mundial, beneficiou a ciência brasileira e causou uma revolução no mundo da Física: as leis que valem para nós aqui na Terra não se aplicam a galáxias, estrelas e buracos negros.

1919_eclipse_positive

Esta foto, tirada na Ilha do Príncipe (oeste da África), consta no relatório de Arthur Eddington sobre as observações que fez com sua equipe. Fonte: Wikipedia, CC0

O feito também nos lembra sobre como o método científico funciona e como ele é importante para se chegar a fatos e conclusões. Hipóteses sem testes e análises continuam sendo hipóteses. Só se tem um fato comprovado quando grupos diferentes de pessoas se debruçam sobre aquela hipótese e procuram entender, com metodologias sólidas e de forma honesta, se ela se confirma na realidade.

O eclipse centenário tem outro legado que também fala muito sobre como a ciência funciona. Ela é, essencialmente, um empreendimento colaborativo e internacional, capaz de unir pessoas de crenças e valores diferentes na busca de um único objetivo. Não é exagero dizer que a ciência, por sua própria natureza, tem o potencial de promover a paz.

Não podemos nos esquecer de que as observações em Sobral e Príncipe aconteceram em um período imediatamente posterior à I Guerra Mundial. A busca de Einstein e Eddington resultou em uma colaboração científica entre Alemanha e Reino Unido. Em um período pós-guerra, isso definitivamente não foi pouca coisa.

Em um artigo de 2003, Matthew Stanley, pesquisador do departamento de história da ciência na Universidade Harvard, conta que as dores da guerra em curso deixou um gosto amargo que começou a atrapalhar a cooperação entre britânicos e alemães. Pesquisadores do Reino Unido não tinham o mesmo ânimo para continuar cooperando com seus colegas da Alemanha – e em 1916 houve quem dissesse que a Alemanha deveria ser banida da ciência internacional.

Arthur Eddington, em uma carta à publicação Observatory na mesma época, desejava que a guerra não envenenasse a cooperação científica entre países. A astronomia, em especial, era, e é, uma ciência altamente internacional. Para Eddington, levar as fronteiras da guerra para o empreendimento científico, relata Stanley, era “um completo desentendimento das necessidades básicas e dos objetivos mais nobres da ciência”.

Um alerta que continua válido mais de um século depois de publicado.

3

O laboratório e o dia-a-dia: O que é o método científico e por que ele é o maior inimigo das fake news?

Na ciência, busca-se o tempo todo correlacionar fenômenos com suas causas e consequências, a fim de se compreender como o mundo funciona. Contudo, os tipos de correlação e as dificuldades experimentais que cientistas precisam enfrentar variam de área para área, e evoluem conforme o campo de estudo amadurece.

Por exemplo, se queremos estudar um fenômeno físico, como a relação matemática entre a temperatura e a dilatação de uma barra de metal (o quanto ela varia em comprimento quando aquecido ou resfriado), precisamos realizar uma série de medições de temperatura e do comprimento do objeto, além de levar em conta diferentes tipos de materiais (cada material possui um coeficiente de dilatação diferente, ou seja, diferentes materiais vão dilatar mais ou menos quando sujeitos à mesma variação de temperatura).

Neste caso, chamamos a dilatação do objeto de variável dependente (aquela que depende de outras variáveis que estamos estudando), e a variação de temperatura, o comprimento inicial e o coeficiente de dilatação de variáveis independentes (que são aquelas que estamos controlando a fim de estudar a dilatação). Neste caso termodinâmico, é relativamente simples inferir quais as variáveis dependente e independentes, mas às vezes estas relações não são óbvias a uma primeira vista.

Além disso, estas medições sozinhas não nos fornecem as causas materiais da dilatação, ou seja, as estruturas por trás da mudança de tamanho provocada por alteração da temperatura, mas podem nos fornecer padrões o suficiente para estabelecermos relações matemáticas e podermos prever com boa confiabilidade o quanto determinado material vai dilatar em determinadas circunstâncias (o que culmina em diversas aplicações práticas em várias áreas do conhecimento, por exemplo na engenharia civil).

Quais variáveis têm influência sobre meu objeto de estudo? Créditos: Rebeca Bayeh.

No entanto, ao longo da história da ciência, vários modelos de termodinâmica e de estrutura dos materiais já foram desenvolvidos de forma que seja possível, no caso deste fenômeno, não só prever com boa confiabilidade o comportamento dos materiais estudados em diferentes temperaturas, mas fornecer explicações para as causas do fenômeno da dilatação. Quanto mais suporte teórico e experimental uma teoria científica tem, maior sua credibilidade.

Essa credibilidade passa também pelo quanto determinada afirmação pode ser falseável. O conceito de falseabilidade foi introduzido pelo filósofo Karl Popper, e diz respeito ao quanto uma afirmação ou teoria permitem que sejam realizadas investigações que as refutem.

Por exemplo, no caso dos objetos que dilatam com o calor, alguém poderia observar em laboratório que toda barra de ferro dilata X quando é aquecida em dez graus Celcius. Poderíamos “falsear” essa afirmação fazendo experimentos que medissem a dilatação de diferentes barras de ferro com diferentes tamanhos iniciais e diferentes temperaturas iniciais, sempre variando dez graus.

Caso as barras, dentro de condições controladas de laboratório e utilizando-se estatística apropriada, se comportem de forma semelhante à da afirmação que estamos tentando falsear (o que não aconteceria aqui, pois já sabemos que a dilatação dependeria sim do comprimento inicial da barra), estaríamos fornecendo com isso mais embasamento para uma teoria. Caso contrário, e caso se verifique que não houve falhas sistemáticas na realização do experimento, estamos falseando a afirmação inicial. Quando isso acontece na ciência, surge debate e reflexão sobre quais as variáveis que podem não estar sendo levadas em conta, quais as possíveis falhas experimentais do experimento original (e dos experimentos dele derivados) e quais as causas do fenômeno estudado.

Quando o monge e botânico Gregor Mendel desenvolveu, no século XIX, seus princípios de hereditariedade, que seriam base para os estudos em Genética, ele desconhecia a existência de genes ou mesmo a existência do DNA, e portanto não pôde explicar as causas através das quais as cores das ervilhas que ele estudou dependiam das cores das plantas que foram cruzadas. Contudo, os padrões de hereditariedade verificados experimentalmente por ele em plantas são verificáveis e falseáveis, e seu trabalho serviu como base para o que viria a ser posteriormente a Genética moderna.

Muitas vezes, quando cientistas se depararam com padrões de fenômenos que podiam observar, mas cujas causas eram desconhecidas, foram atribuídos significados místicos e religiosos para estes fenômenos. Quando isso acontece, estamos saindo do campo da ciência. Por exemplo, se eu observo que qualquer barra de ferro dilata sempre proporcionalmente ao seu comprimento inicial e à sua variação de temperatura, eu posso fazer uma afirmação falseável acerca deste fenômeno (se alguém quiser testar minha afirmação, basta aquecer uma barra de ferro em um laboratório com condições controladas e verificar se a minha afirmação se sustenta). Contudo, se eu afirmar que a dilatação se dá por intervenção de um deus do calor que interveio em meu laboratório, esta afirmação não é falseável (não posso provar a existência do deus do calor nem sua presença no meu laboratório, e portanto não posso provar que esta foi a causa da dilatação da barra de ferro).

Além disso, o fato de eu não provar a não-existência do deus do calor não implica na existência do deus do calor. Cabe a quem fez a afirmação de que tal deus existia a comprovação do que está dizendo.

Analogamente, quando são compartilhadas notícias falsas (“fake news”) com afirmações mirabolantes nas redes sociais, cabe a quem fez as afirmações comprovar que o que está dizendo é verdade. O grande problema destes compartilhamentos é que as notícias costumam envolver um grande peso emocional e, muitas vezes, fazem com que os leitores sintam-se ameaçados por um oponente político que está supostamente prejudicando sua vida, sua família e seu senso de sagrado. É natural que fiquemos impressionados com ideias fortes e emotivas, mas cabe a nós verificar se as pessoas que as estão afirmando (e as que estão compartilhando, já que compartilhar é uma forma de re-afirmar) verificaram ou comprovaram tudo que estão alegando, ou se trata-se apenas de ideias fantasiosas que parecem ser verdadeiras apenas por possuir um vínculo com uma parte da realidade que já conhecemos ou porque elas intuitivamente fariam sentidos.

Muitas ideias científicas se iniciam de forma intuitiva, com um vínculo com a realidade já conhecida, como foi o caso das Leis de Mendel e de muitas outras, como a Teoria da Relatividade do Einstein. Mas as intuições isoladamente não constituem por si só o pensamento científico, e não cabe à ciência fornecer explicações para as causas de todos os fenômenos se estas causas não puderem ser estudadas de maneira criteriosa.

Trata-se de um trabalho colaborativo de longo prazo, que tem compromisso com a consistência, e não com a explicação de todas as verdades, e cujos paradigmas evoluem conforme a tecnologia se desenvolve e conforme são encontradas novas relações entre diferentes áreas dentro da ciência.

0

A trajetória e pesquisa de Katie Bouman

ou Quantas pessoas constroem um cientista?

Existe uma mulher muito sábia na minha vida.

Não, espera.

Vou começar outra vez.

Só existem mulheres muito sábias na minha vida, . Porque as mulheres são, em sua totalidade e não apenas por maioria, sábias. Mas uma mulher muito sábia me falou recentemente, depois que eu me queixei de erros que cometi no passado:

– Mas não tinha como você saber. O conhecimento é um fruto que se colhe maduro.

E essa foi uma lição (muito mas muito) imensa pra mim. Sobre autoperdão, construção de saberes, sobre cada trecho que nós – enquanto cientistas e professores – contribuímos para a pavimentação desse caminho: a educação. E, vocês já vão me desculpando pela emotividade aqui, quero falar sobre a trajetória de uma outra mulher, também sábia, que brilhou recentemente.

(Você achou que eu usei muito a palavra sábia, não foi? Está certo. Usei mesmo. Foi para naturalizá-la no seu coração.)

Se você estava no planeta Terra ou em suas imediações no último mês, provavelmente ouviu falar sobre a primeira imagem de um buraco negro, que foi obtida através de uma grande colaboração de pesquisadores de muitos países. A responsável por liderar a equipe que desenvolveu o algoritmo responsável pelo cruzamento e correção de dados obtidos usando o Event Horizon Telescope foi Katherine Louise Bouman ou Katie Bouman – como já estamos nos sentindo íntimas o suficiente para chamá-la. E, se você ainda está em dúvida de qual imagem estou falando, é essa aqui

im1

coisa_mais_linda.jpg Créditos: Event Horizon Telescope

 

 

Katie nasceu em 1989 e é professora assistente de ciência da computação no Instituto de Tecnologia da Califórnia. Sua pesquisa é relacionada a métodos computacionais para geração de imagens (guarde bem essa informação).

im2

querida.jpg Créditos: Facebook/Katie Bouman

Uma das coisas interessantes sobre uma cientista como Katie é entender como a sua pesquisa evoluiu até o estágio atual. Quando procuramos o perfil com todas as publicações de Katie na ferramenta do Google Scholar, encontramos 40 artigos com sua autoria e/ou cooperação, a maioria de livre acesso. Além disso, existem diversos textos de Katie publicados em revistas de divulgação científica e curiosidades. Entre os artigos acadêmicos, vemos o primeiro deles ser publicado em 2006 com o título: “Digital Image Forensics Through the Use of Noise Reference Patterns” , Análise forense de imagens digitais através do uso de padrões de referência de ruído, em livre tradução.

Fonte: engineering.purdue.edu

“Rostinho” do primeiro artigo de Katie. Créditos: engineering.purdue.edu

O artigo fala sobre a possibilidade de, através de métodos de reconstrução, verificar se imagens muito modificadas ainda poderiam ser identificadas usando os “defeitos” de uma câmera na forma de um padrão de ruído de referência. Ou seja: se uma foto estiver muito estragada, ainda seria possível descobrir qual câmera tirou aquela foto tendo como base uma bom banco de dados de como as câmeras tiram fotos?

Deu pra sentir o arrepio? Pois prepare-se para ficar ainda mais surpreso.

Eu não vou conseguir abordar aqui todos os artigos científicos da Katie mas gostaria de traçar uma linha do tempo em sua pesquisa. Quem quiser pode ter acesso a todos os outros textos clicando aqui. Em 2010 ela publicou “A low complexity method for detection of text area in natural images” ou Um método de baixa complexidade para detecção de área de texto em imagens naturais. Pode parecer pouco linkado com o trabalho sobre o buraco negro mas neste artigo temos uma pesquisa sobre um método de baixa complexidade para segmentação de regiões de texto em imagens.
E aí? Estão sentindo o impacto?

Créditos: Twitter

sera_que_um_dia_eu_vou_conseguir_abandonar_o_meme_da_Mulher_Pepita_arrepiada?.jpg Créditos: Twitter

Só mais um trabalho antes de falar do nosso queridinho, ok? O trabalho intitulado “IMAGING AN EVENT HORIZON: MITIGATION OF SCATTERING TOWARD SAGITTARIUS A*”.

EM LETRA MAIÚSCULA SIM, POIS JÁ ESTAMOS EMOCIONADOS COM ESSE TRABALHO.

EM PORTUGUÊS: PROCESSANDO IMAGENS DE UM HORIZONTE DE EVENTO: MITIGAÇÃO DA DISPERSÃO PARA O SAGITÁRIO A.

Esse foi nada mais, nada menos, que o primeiro trabalho de parte da equipe que viria a conseguir a foto do buraco negro este ano, focando já em Sagitario A (o objeto astronômico do qual o buraco negro faz parte). Foi publicado em 2014 e o seu resumo começa assim:

“Espera-se que a imagem da emissão que circunda o buraco negro no centro da Via Láctea exiba a impressão de efeitos relativísticos gerais (GR), incluindo a existência de uma feição de sombra e um anel de fótons de diâmetro ~ 50 μas.”

E traz, como um de seus resultados, essa imagem da simulação:

im5

nem_tenho_mais_legenda.jpg Créditos:The Astrophysical Journal

Em abril deste ano, quando tivemos acesso a real imagem do buraco negro, vimos que ele se parecia muito com a imagem acima. E mais: que se parecia muito com o que Einstein esperava de um buraco negro em 1915. A pesquisa da foto do buraco negro gerou não um, não dois mas seis (!!!!) artigos com os resultados obtidos. Estão envolvidos no projeto 144 departamentos de  diferentes universidades ao redor do globo.

E, sinceramente, eu não sei quantos pessoas estão envolvidas no projeto.

Quantas professoras e professores, técnicas e técnicos, alunas e alunos de graduação e pós graduação. Quantas pessoas chegaram mais cedo para limpar os laboratórios, para preparar refeições nas universidades, quantas mães e pais, esposas e maridos, namorados e namoradas deram suporte a quem aparece na autoria dos seis artigos. Eu sei que cada um deles foi parte desse passo pois o conhecimento amadurecido ao longo de anos de pesquisa, desde Einstein e antes dele, passando por Katie e seus professores, não começa, nem termina nesta imagem. Este é, sem dúvidas, o (doce) fruto colhido da colaboração de tanta gente para fazer ciência.

Referências

Bouman, K. L., N. Khanna, and E. J. Delp. “Digital Image Forensics Through the Use of Noise Reference Patterns.” (2016).

Bouman, K.L., Abdollahian, G., Boutin, M. and Delp, E.J., 2011. A low complexity sign detection and text localization method for mobile applications. IEEE Transactions on multimedia, 13(5), pp.922-934.

Fish, V.L., Johnson, M.D., Lu, R.S., Doeleman, S.S., Bouman, K.L., Zoran, D., Freeman, W.T., Psaltis, D., Narayan, R., Pankratius, V. and Broderick, A.E., 2014. Imaging an event horizon: Mitigation of scattering toward Sagittarius A. The Astrophysical Journal, 795(2), p.134.

Akiyama, K., Alberdi, A., Alef, W., Asada, K., Azulay, R., Baczko, A.K., Ball, D., Baloković, M., Barrett, J., Bintley, D. and Blackburn, L., 2019. First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole. The Astrophysical Journal Letters, 875(1), p.L1.

0

Usando o cérebro para entender o próprio cérebro: um novo tipo de modelo teórico para descrever nossa atividade cerebral

Em 1952 os pesquisadores Alan Lloyd Hodgkin e Andrew Huxley (foto na Fig. 1) desenvolveram um modelo matemático baseado em circuitos elétricos com capacitores e resistores para  descrever os sinais elétricos medidos em um experimento eletrofisiológico no neurônio da lula. O objetivo do estudo era encontrar uma equação matemática que descrevesse da melhor maneira possível o comportamento do potencial elétrico dentro da célula nervosa ao longo do tempo. Na Fig. 1 podemos comparar um gráfico com a curva do potencial em função do tempo medida experimentalmente em um neurônio real e a curva obtida através das equações propostas por Hodgkin e Huxley. A semelhança entre as curvas teóricas e experimental permitem que usemos o modelo de Hodgkin e Huxley como um bom modelo para descrever o neurônio e garantiu que em 1963 eles recebessem o prêmio Nobel em Fisiologia ou Medicina por este trabalho.

Texto11HHcompleto

Figura 1: Esquerda: Os pesquisadores Hodgkin e Huxley medindo a atividade elétrica de neurônios no laboratório (imagem modificada deste site). Direita no topo: potencial de membrana da célula nervosa em função do tempo obtido através do experimento e abaixo curva similar obtida com o modelo teórico proposto por eles.

Diversos modelos em física biológica foram desenvolvidos seguindo uma receita parecida. Temos algumas medidas experimentais, gráficos que representam como certas grandezas variam no tempo, e procuramos uma equação matemática que descreva bem aquela curva. Em especial tentamos comparar cada parâmetro da equação com algum componente do mundo real. E com isso, é possível fazer predições teóricas que possam ser testadas experimentalmente. Por exemplo, na equação que descreve o modelo de Hodgkin e Huxley o potencial de membrana do neurônio depende de um somatório de correntes iônicas de sódio e potássio que atravessam a membrana celular. Então, podemos usar o modelo para fazer uma predição. Por exemplo, o que acontece se bloquearmos a entrada de sódio na célula? Se anularmos o termo da corrente de sódio na equação do modelo obteremos uma nova curva do potencial em função do tempo. Se agora refizermos o experimento, bloqueando a corrente sódio através do neurônio, podemos comparar se a curva experimental ainda se parece com a curva teórica. Em caso afirmativo, nosso modelo continua sendo considerado um bom modelo mesmo nessa nova condição (sem sódio) e podemos seguir fazendo novas previsões.
Desde os anos 50, diversos modelos biológicos foram desenvolvidos para descrever a atividade elétrica de neurônios de diversos tipos, sinapses, grupos de  neurônios, regiões corticais, tálamo, hipocampo, etc. Em particular, um tipo de modelo chamado neural mass (massa neural em tradução livre) usa poucas equações diferenciais para descrever a atividade oscilatória de regiões corticais formada por milhares de neurônios. Conectando várias dessas regiões é possível representar a atividade elétrica do cérebro como um todo. Na Fig. 2 podemos ver um exemplo de cérebro em que cada região está sendo representada por um nó da rede e está conectada a várias outras regiões.

Texto11cerebro2

Figura 2: Representação do cérebro como uma rede complexa. Cada bolinha representa umaregiao e os links as conexões sinápticas entre estas regiões. Modificada das referências [1] e [2].

Recentemente, um estudo liderado pela pesquisadora alemã Petra Ritter* [1] deu um passo importante no desenvolvimento de um modelo matemático que busca descrever a atividade  cerebral como um todo. A grande novidade deste trabalho foi a inclusão de medidas experimentais como parte do modelo teórico (ver Fig. 3A). Pessoas saudáveis que se voluntariaram para participar nas pesquisas tiveram a atividade do seu cérebro gravada simultaneamente através de dois métodos bastante utilizado em neurociência: eletroencefalograma (EEG) e ressonância magnética funcional (fMRI). As curvas azuis e pretas na Fig. 3B mostram o sinal obtido com EEG (filtrado para uma certa componente de frequência) e com fMRI. Assim como no exemplo do neurônio, em que queríamos um modelo que reproduzisse a curva do potencial elétrico no tempo (ver Fig. 1), aqui queremos um modelo que reproduza a curva experimental preta. E de fato, o grupo mostrou que incluindo o dados de EEG como um dos termos do modelo chamado neural mass eles conseguem obter a curva vermelha: bastante similar a curva preta! Na Fig. 3C podemos ver que outros modelos (que não levam em conta o EEG) não reproduzem tão bem a curva experimental.

Esta nova abordagem abre inúmeras possibilidades para combinar dados experimentais com modelos teóricos na busca de entender melhor a atividade cerebral. No futuro, este tipo de modelo híbrido poderá ser útil, por exemplo, para predizer certas atividades que só poderiam ser medidas de maneira invasiva (através de cirurgias e implante de eletrodos intracranianos) utilizando apenas o EEG dos pacientes. Além disso, será possível fazer novas predições e testes sobre os mecanismos responsáveis por determinados tipos de atividades cerebrais. Com este método, também poderá ser possível caracterizar particularidades de cada indivíduo, o que pode vir a ser útil no tratamento de doenças em pacientes que são mais vulneráveis que a média.

Texto11curvas

Figura 3: A) Sinal de EEG(esquerda) utilizado no modelo híbrido (centro) para predizer o sinal obtido com a ressonância magnética (direita). B) Série temporal com um exemplo do sinal de EEG (azul), sinal obtido com o fMRI (preto)  medido simultaneamente ao EEG e resultado obtido utilizando o modelos híbrido (vermelho) de neural mass e EEG. C) Comparando o fMRI experimental com o modelo híbrido e outros modelos.  Modificada da referência [1].

Referências

[1] Schirner, M., McIntosh, A. R., Jirsa, V., Deco, G., & Ritter, P. (2018). Inferring multi-scale neural mechanisms with brain network modelling. Elife, 7, e28927.

Nota da autora: essa revista (Elife) torna público o comentário dos revisores que recomendaram a publicação do artigo e a resposta dos autores. Vale a pena dar uma lida nos pontos levantados pelos especialistas da área e nas respostas dos autores!

[2] Deco, G., Kringelbach, M. L., Jirsa, V. K., & Ritter, P. (2017). The dynamics of resting fluctuations in the brain: metastability and its dynamical cortical core. Scientific reports, 7(1), 3095.

*Petra Ritter é médica, terminou o doutorado em 2004, é a pesquisadora chefe do grupo Berlin Neuroimaging Center e em 2007 recebeu o prêmio Unesco-L’Óreal para jovens cientistas e mães. Saiba mais sobre ela aqui ou aqui.

Para ler mais sobre o modelo de Hodgkin e Huxley, sobre EEG e fMRI é só clicar.

0

Introdução a Computação Quântica

Uma máquina quântica é um tipo de computador que usa a mecânica quântica para o processamento de informações, o que faz com mais eficiência do que uma máquina normal.

O segredo do poder de um computador quântico reside na sua capacidade de gerar e manipular bits quânticos ou qubits.

A Computação Quântica foi iniciada no início dos anos 80, quando Richard Feynman e Yuri Manin expressaram a ideia de que um computador quântico tinha o potencial de simular coisas que um computador clássico não podia. Em 1994, Peter Shor apresentou um algoritmo quântico (um algoritmo para rodar em máquinas quânticas) que tinha o potencial de descriptografar todas as comunicações seguras, o chamado Algoritmo de Shor.

Créditos: Mehau Kulyk Getty Images

Um computador clássico tem uma memória composta de bits, onde cada bit é representado por um ou zero.

Os computadores quânticos, por outro lado, usam qubits, que são tipicamente partículas subatômicas, como elétrons ou fótons. Enquanto o bit só pode ter o valor 1 ou o valor 0, o qubit pode conter os dois valores 1, 0 ou 1 e 0. Para colocar os qubits em superposição, os pesquisadores os manipulam usando lasers de precisão ou feixes de microondas.

Uma máquina quântica com vários qubits em superposição pode processar um vasto número de resultados potenciais simultaneamente. O resultado final de um cálculo surge apenas quando os qubits são medidos, o que imediatamente faz com que seu estado quântico “colapse” para 1 ou 0.

Os pesquisadores podem gerar pares de qubits que estão “emaranhados”, o que significa que os dois membros de um par existem em um único estado quântico. Alterar o estado de um dos qubits mudará instantaneamente o estado do outro de uma maneira previsível. Isso acontece mesmo se eles estiverem separados por grandes distâncias.

Em um computador convencional, dobrar o número de bits dobra sua capacidade de processamento. Mas, devido ao emaranhamento, a adição de qubits extras a uma máquina quântica produz um aumento exponencial em sua capacidade de processamento de números.

Gerar e gerenciar qubits é um dos desafios dentro desse campo. Algumas empresas usam circuitos supercondutores outras prendem átomos individuais em campos eletromagnéticos em um chip de silício em câmaras de vácuo. Em ambos os casos, o objetivo é isolar os qubits em um estado quântico controlado.

Aplicações como, por exemplo, na criptografia demonstra seu potencial de utilização. Normalmente, para um computador comum quebrar uma criptografia irá necessitar de alguns milhares de anos. Porem, para computadores quânticos, este problema seria resolvido em questões de segundos (mais sobre criptografia pode ser encontrado nesse texto).

Diversas universidades e empresas espalhadas pelo mundo concentram esforços para a criação de uma máquina quântica mas até o momento apenas alguns elementros, como portas lógicas, foram desenvolvidos.

No Brasil, há núcleos de pesquisa em universidades públicas do Rio de Janeiro e Paraíba. Há também um grupo de pesquisadores no LNCC(Laboratório Nacional de Computação Científica) dedicado exclusivamente para as pesquisas na área quântica da computação. Segundos estes pesquisadores, a área de hardware quântico no Brasil trabalha com protótipos, mas cooperam principalmente com os grandes grupos internacionais de pesquisas.

Pra saber mais e algumas referências: 

[1] https://www.technologyreview.com/s/612844/what-is-quantum-computing/

[2] https://canaltech.com.br/hardware/O-que-e-computacao-quantica/

[3] https://olhardigital.com.br/noticia/computacao-quantica-entenda-o-que-e-e-veja-os-processadores/51722

[4] The National Academies of Sciences, Engineering, and Medicine (2019). Grumbling, Emily; Horowitz, Mark, eds. Quantum Computing : Progress and Prospects (2018).

[5] Feynman, Richard (June 1982). “Simulating Physics with Computers” . International Journal of Theoretical Physics. [6] Mermin, David (March 28, 2006). “Breaking RSA Encryption with a Quantum Computer: shor’s FactoringAlgorithm” . Cornell University, Physics 481-681 Lecture Notes.

0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).

0

“O dia depois de amanhã” pode ser real?

Modelos climáticos finalmente sugerem que colapso da circulação do Oceano Atlântico não só é possível, como levaria o continente Europeu a uma nova “Era Glacial”.

Fonte: Setor norte da Circulação/Célula de Revolvimento Meridional. Jack Cook, Woods Hole Oceanographic Institute.

 

Filmes de ação e thrillers apocalípticos, como “O dia depois de amanhã” de Roland Emerich, vêm retratando consequências catastróficas de um eventual colapso da circulação do Oceano Atlântico há pelo menos 20 anos. Até recentemente, no entanto, nenhum modelo climático havia sido capaz de reproduzir tal colapso.

Esse padrão de circulação, conhecido como Circulação de Revolvimento Meridional  (Atlantic Meridional Overturning Circulation – AMOC), é de extrema importância para a manutenção do clima global, na medida em que atua no balanço de calor. A AMOC transporta pela superfície águas quentes do equador em direção aos pólos e, em profundidade, águas frias dos pólos em direção ao equador¹. A comunidade científica acreditava na estabilidade desse padrão até janeiro de 2017, quando um artigo² publicado na revista Science Advances apontou erros em diversos modelos climáticos que estariam superestimando essa estabilidade. Ao neutralizar esses erros e efetuar novas simulações, os autores reproduziram o colapso da circulação em algum momento no futuro, o que paralisaria o transporte dessas águas quentes em direção à Groenlândia e culminaria no resfriamento de todo o continente Europeu.

Como cenário para as simulações, os autores utilizaram variações nas concentrações de CO2, o principal vetor do aquecimento global antropogênico³. As simulações finais apontaram o colapso da AMOC como sendo 300 anos depois que as concentrações de CO2 na atmosfera dobram a concentração de 355ppm (nível registrado em 1990). O efeito desse colapso seria o resfriamento do Oceano Atlântico Norte (aprox. -2.4° C em média na superfície) e a consequente expansão do gelo marinho do Ártico. Como as trocas de calor entre o oceano e a atmosfera são responsáveis pela manutenção do clima, a temperatura do continente Europeu também cairia (em média 7° C), causando profundas mudanças no clima da região ou uma pequena “Era Glacial”.

Essa nova descoberta tem enormes implicações para o campo das Mudanças Climáticas, indo de encontro aos últimos dois relatórios do Painel Intergovernamental de Mudanças Climáticas (Intergovernmental Panel on Climate Change – IPCC). O IPCC até então considera a AMOC “estável e não colapsável”, enquanto admite que ela pode enfraquecer o transporte de calor com o tempo. Nesse sentido, esse estudo contribui, principalmente, na melhora das previsões de cenários climáticos, já que trabalham com os erros intrínsecos dos modelos climáticos mais utilizados. Entretanto, para que se compreendam na totalidade os desdobramentos do colapso da AMOC ainda serão necessários mais estudos que desenvolvam esses novos e interessantes resultados.

Dito isso, se faz necessário mencionar e se posicionar contra a tragédia anunciada que a agenda ambiental prometida pelo novo governo causará a curto e a longo prazo a diversos setores produtivos do Brasil. Durante a campanha, Jair Bolsonaro deixou claro que a agenda ambiental não só não será prioridade, como servidores e órgãos reguladores perderão autonomia de fiscalização e preservação dos recursos naturais brasileiros. Recentemente, foi decidido pelo Itamaraty e pelo futuro chanceler Ernesto Araújo, que a Conferência do clima das Nações Unidas (COP 25) que serviria como local de negociações para implementação do Acordo de Paris deixará de ser sediada no Brasil em 2019 por conta de “restrições fiscais e orçamentárias” e devido ao “período de transição da nova administração”.  O presidente eleito Jair Bolsonaro, que votou a favor da PEC do teto de gastos enquanto deputado federal, diz que teve participação nessa escolha, ou seja, que ela não foi exclusiva do seu chanceler. É no mínimo lamentável que uma decisão dessa magnitude seja tomada por (1) um futuro chanceler que vive na Guerra Fria e acredita que o tema “Mudanças Climáticas” é uma conspiração marxista e puro alarmismo e (2) um presidente eleito que foi multado dentro de uma reserva por pesca ilegal e nunca pagou sua multa. Infelizmente, esse posicionamento tacanha e de negação de evidências científicas tende a retirar o Brasil de sua posição de líder global nas questões ambientais, posição essa que ocupa desde a histórica cúpula climática Rio 92.

Além do perigo a curto prazo para patrimônio natural brasileiro, essa agenda negacionista é uma ameaça para a economia brasileira. Todos os países que implementaram medidas de mitigação para as mudanças climáticas aumentaram seu PIB e geraram empregos. Recentemente, um relatório produzido a pedido do Congresso dos Estados Unidos mostra que 10% do PIB do país será comprometido em função das mudanças climáticas até o fim deste século. O documento mostra que centenas de bilhões de dólares são gastos por conta das políticas ambientais de Donald Trump, cuja agenda econômica orbita em torno dos combustíveis fósseis e negligencia energias renováveis – políticas essas que servem de guia ao presidente eleito Jair Bolsonaro, admirador declarado do presidente americano.

A retirada da candidatura do Brasil para a COP 25 demonstra com clareza o que devemos esperar da agenda ambiental do novo governo: exposição irrestrita dos brasileiros aos riscos e implicações dos efeitos das Mudanças Climáticas. Em tempo, esse posicionamento ameaça a possibilidade de um Brasil forte e soberano no futuro, pois entrega nossos recursos naturais a própria sorte pela má gerência e impacta a economia brasileira. Veremos nossos setores produtivos em dificuldade, danos materiais por conta de desastres naturais aumentando e uma defasagem tecnológica que nos impedirá ou tornará extremamente cara nossa mitigação e adaptação aos efeitos das mudanças climáticas. O Brasil, ao que tudo indica, terá muita dificuldade em sair respirando ao fim desses quatro anos.

 

Referências

¹Talley, Lynne D. “Descriptive physical oceanography: an introduction.” Academic press, 2011.

²Liu, Wei, et al. “Overlooked possibility of a collapsed Atlantic Meridional Overturning Circulation in warming climate.” Science Advances 3.1 (2017): e1601666.

³Stocker, T. F., et al. “IPCC, 2013: climate change 2013: the physical science basis. Contribution of working group I to the fifth assessment report of the intergovernmental panel on climate change.” (2013).