0

Usando o cérebro para entender o próprio cérebro: um novo tipo de modelo teórico para descrever nossa atividade cerebral

Em 1952 os pesquisadores Alan Lloyd Hodgkin e Andrew Huxley (foto na Fig. 1) desenvolveram um modelo matemático baseado em circuitos elétricos com capacitores e resistores para  descrever os sinais elétricos medidos em um experimento eletrofisiológico no neurônio da lula. O objetivo do estudo era encontrar uma equação matemática que descrevesse da melhor maneira possível o comportamento do potencial elétrico dentro da célula nervosa ao longo do tempo. Na Fig. 1 podemos comparar um gráfico com a curva do potencial em função do tempo medida experimentalmente em um neurônio real e a curva obtida através das equações propostas por Hodgkin e Huxley. A semelhança entre as curvas teóricas e experimental permitem que usemos o modelo de Hodgkin e Huxley como um bom modelo para descrever o neurônio e garantiu que em 1963 eles recebessem o prêmio Nobel em Fisiologia ou Medicina por este trabalho.

Texto11HHcompleto

Figura 1: Esquerda: Os pesquisadores Hodgkin e Huxley medindo a atividade elétrica de neurônios no laboratório (imagem modificada deste site). Direita no topo: potencial de membrana da célula nervosa em função do tempo obtido através do experimento e abaixo curva similar obtida com o modelo teórico proposto por eles.

Diversos modelos em física biológica foram desenvolvidos seguindo uma receita parecida. Temos algumas medidas experimentais, gráficos que representam como certas grandezas variam no tempo, e procuramos uma equação matemática que descreva bem aquela curva. Em especial tentamos comparar cada parâmetro da equação com algum componente do mundo real. E com isso, é possível fazer predições teóricas que possam ser testadas experimentalmente. Por exemplo, na equação que descreve o modelo de Hodgkin e Huxley o potencial de membrana do neurônio depende de um somatório de correntes iônicas de sódio e potássio que atravessam a membrana celular. Então, podemos usar o modelo para fazer uma predição. Por exemplo, o que acontece se bloquearmos a entrada de sódio na célula? Se anularmos o termo da corrente de sódio na equação do modelo obteremos uma nova curva do potencial em função do tempo. Se agora refizermos o experimento, bloqueando a corrente sódio através do neurônio, podemos comparar se a curva experimental ainda se parece com a curva teórica. Em caso afirmativo, nosso modelo continua sendo considerado um bom modelo mesmo nessa nova condição (sem sódio) e podemos seguir fazendo novas previsões.
Desde os anos 50, diversos modelos biológicos foram desenvolvidos para descrever a atividade elétrica de neurônios de diversos tipos, sinapses, grupos de  neurônios, regiões corticais, tálamo, hipocampo, etc. Em particular, um tipo de modelo chamado neural mass (massa neural em tradução livre) usa poucas equações diferenciais para descrever a atividade oscilatória de regiões corticais formada por milhares de neurônios. Conectando várias dessas regiões é possível representar a atividade elétrica do cérebro como um todo. Na Fig. 2 podemos ver um exemplo de cérebro em que cada região está sendo representada por um nó da rede e está conectada a várias outras regiões.

Texto11cerebro2

Figura 2: Representação do cérebro como uma rede complexa. Cada bolinha representa umaregiao e os links as conexões sinápticas entre estas regiões. Modificada das referências [1] e [2].

Recentemente, um estudo liderado pela pesquisadora alemã Petra Ritter* [1] deu um passo importante no desenvolvimento de um modelo matemático que busca descrever a atividade  cerebral como um todo. A grande novidade deste trabalho foi a inclusão de medidas experimentais como parte do modelo teórico (ver Fig. 3A). Pessoas saudáveis que se voluntariaram para participar nas pesquisas tiveram a atividade do seu cérebro gravada simultaneamente através de dois métodos bastante utilizado em neurociência: eletroencefalograma (EEG) e ressonância magnética funcional (fMRI). As curvas azuis e pretas na Fig. 3B mostram o sinal obtido com EEG (filtrado para uma certa componente de frequência) e com fMRI. Assim como no exemplo do neurônio, em que queríamos um modelo que reproduzisse a curva do potencial elétrico no tempo (ver Fig. 1), aqui queremos um modelo que reproduza a curva experimental preta. E de fato, o grupo mostrou que incluindo o dados de EEG como um dos termos do modelo chamado neural mass eles conseguem obter a curva vermelha: bastante similar a curva preta! Na Fig. 3C podemos ver que outros modelos (que não levam em conta o EEG) não reproduzem tão bem a curva experimental.

Esta nova abordagem abre inúmeras possibilidades para combinar dados experimentais com modelos teóricos na busca de entender melhor a atividade cerebral. No futuro, este tipo de modelo híbrido poderá ser útil, por exemplo, para predizer certas atividades que só poderiam ser medidas de maneira invasiva (através de cirurgias e implante de eletrodos intracranianos) utilizando apenas o EEG dos pacientes. Além disso, será possível fazer novas predições e testes sobre os mecanismos responsáveis por determinados tipos de atividades cerebrais. Com este método, também poderá ser possível caracterizar particularidades de cada indivíduo, o que pode vir a ser útil no tratamento de doenças em pacientes que são mais vulneráveis que a média.

Texto11curvas

Figura 3: A) Sinal de EEG(esquerda) utilizado no modelo híbrido (centro) para predizer o sinal obtido com a ressonância magnética (direita). B) Série temporal com um exemplo do sinal de EEG (azul), sinal obtido com o fMRI (preto)  medido simultaneamente ao EEG e resultado obtido utilizando o modelos híbrido (vermelho) de neural mass e EEG. C) Comparando o fMRI experimental com o modelo híbrido e outros modelos.  Modificada da referência [1].

Referências

[1] Schirner, M., McIntosh, A. R., Jirsa, V., Deco, G., & Ritter, P. (2018). Inferring multi-scale neural mechanisms with brain network modelling. Elife, 7, e28927.

Nota da autora: essa revista (Elife) torna público o comentário dos revisores que recomendaram a publicação do artigo e a resposta dos autores. Vale a pena dar uma lida nos pontos levantados pelos especialistas da área e nas respostas dos autores!

[2] Deco, G., Kringelbach, M. L., Jirsa, V. K., & Ritter, P. (2017). The dynamics of resting fluctuations in the brain: metastability and its dynamical cortical core. Scientific reports, 7(1), 3095.

*Petra Ritter é médica, terminou o doutorado em 2004, é a pesquisadora chefe do grupo Berlin Neuroimaging Center e em 2007 recebeu o prêmio Unesco-L’Óreal para jovens cientistas e mães. Saiba mais sobre ela aqui ou aqui.

Para ler mais sobre o modelo de Hodgkin e Huxley, sobre EEG e fMRI é só clicar.

Anúncios
0

Introdução a Computação Quântica

Uma máquina quântica é um tipo de computador que usa a mecânica quântica para o processamento de informações, o que faz com mais eficiência do que uma máquina normal.

O segredo do poder de um computador quântico reside na sua capacidade de gerar e manipular bits quânticos ou qubits.

A Computação Quântica foi iniciada no início dos anos 80, quando Richard Feynman e Yuri Manin expressaram a ideia de que um computador quântico tinha o potencial de simular coisas que um computador clássico não podia. Em 1994, Peter Shor apresentou um algoritmo quântico (um algoritmo para rodar em máquinas quânticas) que tinha o potencial de descriptografar todas as comunicações seguras, o chamado Algoritmo de Shor.

Créditos: Mehau Kulyk Getty Images

Um computador clássico tem uma memória composta de bits, onde cada bit é representado por um ou zero.

Os computadores quânticos, por outro lado, usam qubits, que são tipicamente partículas subatômicas, como elétrons ou fótons. Enquanto o bit só pode ter o valor 1 ou o valor 0, o qubit pode conter os dois valores 1, 0 ou 1 e 0. Para colocar os qubits em superposição, os pesquisadores os manipulam usando lasers de precisão ou feixes de microondas.

Uma máquina quântica com vários qubits em superposição pode processar um vasto número de resultados potenciais simultaneamente. O resultado final de um cálculo surge apenas quando os qubits são medidos, o que imediatamente faz com que seu estado quântico “colapse” para 1 ou 0.

Os pesquisadores podem gerar pares de qubits que estão “emaranhados”, o que significa que os dois membros de um par existem em um único estado quântico. Alterar o estado de um dos qubits mudará instantaneamente o estado do outro de uma maneira previsível. Isso acontece mesmo se eles estiverem separados por grandes distâncias.

Em um computador convencional, dobrar o número de bits dobra sua capacidade de processamento. Mas, devido ao emaranhamento, a adição de qubits extras a uma máquina quântica produz um aumento exponencial em sua capacidade de processamento de números.

Gerar e gerenciar qubits é um dos desafios dentro desse campo. Algumas empresas usam circuitos supercondutores outras prendem átomos individuais em campos eletromagnéticos em um chip de silício em câmaras de vácuo. Em ambos os casos, o objetivo é isolar os qubits em um estado quântico controlado.

Aplicações como, por exemplo, na criptografia demonstra seu potencial de utilização. Normalmente, para um computador comum quebrar uma criptografia irá necessitar de alguns milhares de anos. Porem, para computadores quânticos, este problema seria resolvido em questões de segundos (mais sobre criptografia pode ser encontrado nesse texto).

Diversas universidades e empresas espalhadas pelo mundo concentram esforços para a criação de uma máquina quântica mas até o momento apenas alguns elementros, como portas lógicas, foram desenvolvidos.

No Brasil, há núcleos de pesquisa em universidades públicas do Rio de Janeiro e Paraíba. Há também um grupo de pesquisadores no LNCC(Laboratório Nacional de Computação Científica) dedicado exclusivamente para as pesquisas na área quântica da computação. Segundos estes pesquisadores, a área de hardware quântico no Brasil trabalha com protótipos, mas cooperam principalmente com os grandes grupos internacionais de pesquisas.

Pra saber mais e algumas referências: 

[1] https://www.technologyreview.com/s/612844/what-is-quantum-computing/

[2] https://canaltech.com.br/hardware/O-que-e-computacao-quantica/

[3] https://olhardigital.com.br/noticia/computacao-quantica-entenda-o-que-e-e-veja-os-processadores/51722

[4] The National Academies of Sciences, Engineering, and Medicine (2019). Grumbling, Emily; Horowitz, Mark, eds. Quantum Computing : Progress and Prospects (2018).

[5] Feynman, Richard (June 1982). “Simulating Physics with Computers” . International Journal of Theoretical Physics. [6] Mermin, David (March 28, 2006). “Breaking RSA Encryption with a Quantum Computer: shor’s FactoringAlgorithm” . Cornell University, Physics 481-681 Lecture Notes.

0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).

0

“O dia depois de amanhã” pode ser real?

Modelos climáticos finalmente sugerem que colapso da circulação do Oceano Atlântico não só é possível, como levaria o continente Europeu a uma nova “Era Glacial”.

Fonte: Setor norte da Circulação/Célula de Revolvimento Meridional. Jack Cook, Woods Hole Oceanographic Institute.

 

Filmes de ação e thrillers apocalípticos, como “O dia depois de amanhã” de Roland Emerich, vêm retratando consequências catastróficas de um eventual colapso da circulação do Oceano Atlântico há pelo menos 20 anos. Até recentemente, no entanto, nenhum modelo climático havia sido capaz de reproduzir tal colapso.

Esse padrão de circulação, conhecido como Circulação de Revolvimento Meridional  (Atlantic Meridional Overturning Circulation – AMOC), é de extrema importância para a manutenção do clima global, na medida em que atua no balanço de calor. A AMOC transporta pela superfície águas quentes do equador em direção aos pólos e, em profundidade, águas frias dos pólos em direção ao equador¹. A comunidade científica acreditava na estabilidade desse padrão até janeiro de 2017, quando um artigo² publicado na revista Science Advances apontou erros em diversos modelos climáticos que estariam superestimando essa estabilidade. Ao neutralizar esses erros e efetuar novas simulações, os autores reproduziram o colapso da circulação em algum momento no futuro, o que paralisaria o transporte dessas águas quentes em direção à Groenlândia e culminaria no resfriamento de todo o continente Europeu.

Como cenário para as simulações, os autores utilizaram variações nas concentrações de CO2, o principal vetor do aquecimento global antropogênico³. As simulações finais apontaram o colapso da AMOC como sendo 300 anos depois que as concentrações de CO2 na atmosfera dobram a concentração de 355ppm (nível registrado em 1990). O efeito desse colapso seria o resfriamento do Oceano Atlântico Norte (aprox. -2.4° C em média na superfície) e a consequente expansão do gelo marinho do Ártico. Como as trocas de calor entre o oceano e a atmosfera são responsáveis pela manutenção do clima, a temperatura do continente Europeu também cairia (em média 7° C), causando profundas mudanças no clima da região ou uma pequena “Era Glacial”.

Essa nova descoberta tem enormes implicações para o campo das Mudanças Climáticas, indo de encontro aos últimos dois relatórios do Painel Intergovernamental de Mudanças Climáticas (Intergovernmental Panel on Climate Change – IPCC). O IPCC até então considera a AMOC “estável e não colapsável”, enquanto admite que ela pode enfraquecer o transporte de calor com o tempo. Nesse sentido, esse estudo contribui, principalmente, na melhora das previsões de cenários climáticos, já que trabalham com os erros intrínsecos dos modelos climáticos mais utilizados. Entretanto, para que se compreendam na totalidade os desdobramentos do colapso da AMOC ainda serão necessários mais estudos que desenvolvam esses novos e interessantes resultados.

Dito isso, se faz necessário mencionar e se posicionar contra a tragédia anunciada que a agenda ambiental prometida pelo novo governo causará a curto e a longo prazo a diversos setores produtivos do Brasil. Durante a campanha, Jair Bolsonaro deixou claro que a agenda ambiental não só não será prioridade, como servidores e órgãos reguladores perderão autonomia de fiscalização e preservação dos recursos naturais brasileiros. Recentemente, foi decidido pelo Itamaraty e pelo futuro chanceler Ernesto Araújo, que a Conferência do clima das Nações Unidas (COP 25) que serviria como local de negociações para implementação do Acordo de Paris deixará de ser sediada no Brasil em 2019 por conta de “restrições fiscais e orçamentárias” e devido ao “período de transição da nova administração”.  O presidente eleito Jair Bolsonaro, que votou a favor da PEC do teto de gastos enquanto deputado federal, diz que teve participação nessa escolha, ou seja, que ela não foi exclusiva do seu chanceler. É no mínimo lamentável que uma decisão dessa magnitude seja tomada por (1) um futuro chanceler que vive na Guerra Fria e acredita que o tema “Mudanças Climáticas” é uma conspiração marxista e puro alarmismo e (2) um presidente eleito que foi multado dentro de uma reserva por pesca ilegal e nunca pagou sua multa. Infelizmente, esse posicionamento tacanha e de negação de evidências científicas tende a retirar o Brasil de sua posição de líder global nas questões ambientais, posição essa que ocupa desde a histórica cúpula climática Rio 92.

Além do perigo a curto prazo para patrimônio natural brasileiro, essa agenda negacionista é uma ameaça para a economia brasileira. Todos os países que implementaram medidas de mitigação para as mudanças climáticas aumentaram seu PIB e geraram empregos. Recentemente, um relatório produzido a pedido do Congresso dos Estados Unidos mostra que 10% do PIB do país será comprometido em função das mudanças climáticas até o fim deste século. O documento mostra que centenas de bilhões de dólares são gastos por conta das políticas ambientais de Donald Trump, cuja agenda econômica orbita em torno dos combustíveis fósseis e negligencia energias renováveis – políticas essas que servem de guia ao presidente eleito Jair Bolsonaro, admirador declarado do presidente americano.

A retirada da candidatura do Brasil para a COP 25 demonstra com clareza o que devemos esperar da agenda ambiental do novo governo: exposição irrestrita dos brasileiros aos riscos e implicações dos efeitos das Mudanças Climáticas. Em tempo, esse posicionamento ameaça a possibilidade de um Brasil forte e soberano no futuro, pois entrega nossos recursos naturais a própria sorte pela má gerência e impacta a economia brasileira. Veremos nossos setores produtivos em dificuldade, danos materiais por conta de desastres naturais aumentando e uma defasagem tecnológica que nos impedirá ou tornará extremamente cara nossa mitigação e adaptação aos efeitos das mudanças climáticas. O Brasil, ao que tudo indica, terá muita dificuldade em sair respirando ao fim desses quatro anos.

 

Referências

¹Talley, Lynne D. “Descriptive physical oceanography: an introduction.” Academic press, 2011.

²Liu, Wei, et al. “Overlooked possibility of a collapsed Atlantic Meridional Overturning Circulation in warming climate.” Science Advances 3.1 (2017): e1601666.

³Stocker, T. F., et al. “IPCC, 2013: climate change 2013: the physical science basis. Contribution of working group I to the fifth assessment report of the intergovernmental panel on climate change.” (2013).

 

1

“A notável física brasileira de 25 anos”

O estímulo e o exemplo podem ser armas poderosas para o futuro de uma menina. Uma menina pode se tornar uma física excepcional aos 25 anos quando apoiada pela família e nós podemos nos inspirar com o seu grande exemplo.

Sonja Ashauer nasceu em São Paulo em 1923, filha de pais alemães e de mente bem aberta para época, ajudaram a fortalecer o espírito científico dessa jovem. Na adolescência, Sonja contava com um mini-laboratório montado pelo seu pai, onde ela detinha toda a liberdade de realizar experiências. Todo esse apoio a levou a entrar no curso de física da USP e graduar-se bacharel em 1942, tendo sido juntamente com Elisa Frota-Pessoa, que se graduou em física no mesmo ano na Universidade do Brasil, no Rio de Janeiro, a segunda mulher a se graduar em Física no Brasil.

Sonja_Ashauer

Sonja Ashauer. Fonte: wikipedia

 

Logo em seguida iniciou o curso de licenciatura que finalizou em 1944 e sendo imediatamente contratada como a primeira assistente da Cadeira de Física Teórica e Física Matemática de Gleb Wataghin. Neste emprego pôde participar de pesquisas sobre mecânica quântica, em especial, em estatística de núcleos e partículas elementares em temperaturas extremamente altas. Segundo o professor Silvio Salinas, em um trabalho publicado nos Anais da Academia Brasileira de Ciências, Sonja calculou o coeficiente de absorção de radiação para o efeito fotoelétrico.

Com uma bolsa do British Council, Sonja Ashauer iniciou seu doutorado em Cambridge em 1945 sob orientação do Prêmio Nobel de Física de 1933, Paul Dirac.

Dirac_3

Paul Dirac. Fonte: Wikipedia

Mulheres não eram aceitas em Cambridge até meados do século XIX e na época de Sonja só era permitido cursar o bacharelado, portanto o seu doutoramento foi um dos primeiros concedidos pela universidade para uma mulher.

Dirac não era uma pessoa muito fácil de lidar, vários orientados o abandonaram e até Sonja teve problemas, principalmente pela ausência de supervisão de Dirac, que viajava constantemente. Em troca de cartas com Wataghin ela relata problemas com o tema de sua pesquisa, e ele a tranquiliza e diz que seu cargo continua disponível e que o mais importante era a pesquisa e não o título. Apesar dos problemas ela conseguiu concluir seus estudos em fevereiro de 1948 com a tese “Problems on electrons and electromagnetic radiation”. Infelizmente este trabalho não é de fácil acesso, tendo sua única cópia em Cambridge.

Além do PhD, Sonja se tornou membro da Cambridge Philosophical Society, processo no qual dependia de indicação feita por membro eleito há mais de três anos e a eleição dentro do conselho.

Além de ser uma física extraordinária, ela foi relatada por Sérgio Leite Lopes (um dos maiores físicos brasileiros de todos os tempos) como uma pessoa muito querida que o ajudou muito.

Infelizmente sua trajetória foi interrompida logo no início. No mesmo ano de conclusão do doutorado e volta ao Brasil, Sonja veio a falecer. Em agosto de 1948 Sonja apanhou chuva num dia frio, resfriou-se e não deu muita atenção. Esse resfriado a levou a uma “broncopneumonia, miocardite e colapso cardíaco” que a levou a óbito. No mesmo ano o caderno “Ciência para Todos” fez um artigo sobre a trajetória da “notável física brasileira de 25 anos”, contendo relatos de vários cientistas famosos da época.

As cientistas feministas já fizeram uma linda homenagem pra essa mulher inspiradora, segue essa ilustra maravilhosa que merece ser vista periodicamente.

11903898_1603224503263928_4986020345974288170_n

Ilustração feita pelas Cientistas Feministas em homenagem a Sonja Ashauer.

 

Boa parte do conteúdo deste artigo foi retirado do livro Mulheres na física: Casos históricos, panorama e perspectiva, montado por pesquisadores do Brasil e que apresenta este e outros casos de maneira mais detalhada. Outros documentos fundamentais para a composição da biografia de Sonja foram suas cartas com Wataghin, que podem ser encontrados no acervo da USP (http://acervo.if.usp.br/index.php/declaracao-de-marcello-damy-de-souza-santos-sobre-sonja-ashauer).

Referências

[1]http://memoria.cnpq.br/pioneiras-view/-/journal_content/56_INSTANCE_a6MO/10157/902653;jsessionid=C9A8A8C4B643C3848E9A546B6DF95D2B?p_p_state=pop_up&_56_INSTANCE_a6MO_viewMode=print

[2] Mulheres na Física: Casos históricos, panorama e perspectiva. Elisa M.B. Saitovitch, Renata Z. Funchal, Marcia C. B. Barbosa, Suani T.R. de Pinho e Ademir E. de Santana. Livraria da Física, 2015.

0

Sistema visual e a capacidade de procurar uma agulha num palheiro

 

Desde 1959 quando Wiesel e Hubel publicaram um artigo sobre a atividade elétrica de neurônios no córtex visual de gatos sabe-se que células nessa região respondem a estímulos visuais com orientações específicas. Por esta descoberta e pelos experimentos sobre córtex visual que se seguiram, eles ganharam o prêmio Nobel em 1981. Graças a eles sabe-se, por exemplo, que quando visualizamos uma barra movendo-se da direita para a esquerda, o grupo de neurônios corticais que dispara é diferente do grupo de neurônios ativos quando vemos a barra mover-se de cima para baixo. Dá uma olhada neste vídeo aqui em que aparece o estímulo visual visto por um gato ao longo do experimento. O barulho que ouvimos corresponde aos disparos dos neurônios ativados no córtex do gato. Note que o barulho aumenta quando a luz passa em regiões específicas ou quando a barra se move em direções específicas. Dizemos portanto que o córtex visual forma mapas de orientação e mapas espaciais. E esses mapas são o conjunto de neurônios que dispara junto quando o estímulo visual obedece algum padrão.

No começo dos anos 2000,  Li Zhaoping, física e professora de neurociência computacional no Departamento de Computação da University College of London, desenvolveu uma teoria, que vem sendo extensivamente testada desde então, sobre o córtex visual primário (V1). Ela propôs que esta região do córtex facilita a atração automática da nossa atenção quando percebemos uma saliência em um certo padrão. Em outras palavras, ela propôs que a nossa capacidade de detectar rapidamente uma imagem que foge ao padrão, como por exemplo uma barra inclinada para esquerda em meio a várias outras barras inclinadas para a direita (veja Figura 1) está relacionada a mapas de saliência que se formam em V1. Segundo a teoria de Li,  a região cortical V1 é que nos ajuda a encontrar uma agulha num palheiro, especialmente se a agulha apresentar alguma característica que se destaque em meio às palhas.

9_barras

Figura modificada da Ref. [1]. Imagens utilizadas em experimentos comportamentais e de imageamento cerebral em que devemos identificar a única barra inclinada com orientação diferente das demais.

Ou seja, isso quer dizer que esta região do córtex não apenas possui grupos de neurônios que disparam preferencialmente sob um estímulo inclinado em uma certa uma direção (formando os mapas de orientação), mas também possui grupos de neurônios que formam mapas para detectar um comportamento diferente em meio a um certo padrão, chamados mapas de saliência.
Li utilizou dois argumentos bem simplificados mas bastante interessantes para explicar como chegou a essa ideia:
1) A região do córtex visual primário V1 parecia proporcionalmente grande quando comparada a outras regiões corticais (e portanto consumidora de mais energia) para servir apenas para os mapas de orientação e espaço.
2) A grande maioria da informação que estamos detectando com nossa retina não chega a regiões mais profundas do cérebro nem no nível do consciente. Ou seja, descartamos boa parte da informação que chega aos nossos olhos. Portanto, em algum lugar do nosso cérebro, de maneira inconsciente, escolhemos quais são as informações mais importantes que devem ser guardadas (e utilizadas) e quais podem ser descartadas.

Sendo assim, parece razoável supor a existência um mecanismo que nos ajuda a detectar coisas fora do padrão. Essas tais coisas fora do padrão podem ser mais importantes do que coisas repetitivas. Por exemplo, precisamos encontrar uma fruta no meio das folhagens para nos alimentarmos mas não precisamos enxergar cada uma das centenas de folhas da árvore. Então se temos 21 ou 22 barras inclinadas para direita não precisamos guardar toda essa informação. Basta guardar a informação “muitas barras inclinadas”. Mas se em meio a essas barras temos uma inclinada pro lado contrário pode ser importante que nossa atenção se dirija a esta barra.
Esse ano Li e seus colaboradores publicaram mais um experimento baseado nessa teoria, comparando resultados comportamentais e a atividade elétrica em V1. Macacos foram treinados para olhar para imagens como as da Figura 1 e moverem seus olhos para identificar a única barra com orientação diferente, enquanto a atividade elétrica de grupos de neurônios em V1 era registrada. Os resultados comportamentais de respostas corretas e tempos de reação em função da inclinação da barra diferente ao longo dos dias de treino estão mostrados na Figura 2. Quanto maior a diferença na inclinação entre todas as barras e a única diferente, maior a taxa de acerto e menor o tempo de reação do animal (ou seja, mais fácil a tarefa)

 

9_comportamento

Figura 2: modificada da Ref.[1]. Resultado comportamental do experimento realizado com os macacos MA e MD enquanto eles observavam imagens como as da figura 1. No topo, proporção de respostas  corretas em função da diferença de inclinação entre a única barra diferente e as demais. Na base, o tempo de reação até a identificação da barra diferente como função da diferença na inclinação., Note que quanto maior a diferença na inclinação maior a taxa de acerto e menor o tempo de reação, indicando que a identificação da barra inclinada é mais fácil quando o ângulo entre ela e as outras é maior.

No que diz respeito à atividade eletrofisiológica, o grupo verificou dois picos na atividade de elética de V1 (veja Figura 3A e 3B). O primeiro pico está associado à atividade que vem da retina devido ao estímulo visual externo (bottom-up). Enquanto que o segundo pico está associado a uma resposta mais complexas devido às conexões neuronais em V1 e à retroalimentação vinda de regiões mais profundas do córtex (top-down de V2, V4…)

Eles também mostraram que uma maior atividade elétrica na região de V1 durante a observação da imagem está associada a um menor tempo de resposta do animal.
Além disso eles compararam a diferença entre a atividade do melhor trial e do pior trial (acertos e erros) nos primeiros dias (chamada melhor-pior / better-worse na Figura 3C e 3D) com a diferença melhor-pior depois de muitos dias de treino. O resultado é que a diferença melhor-pior aumentou com o treino para o primeiro pico em V1 mas diminuiu para o segundo pico. Os autores sugerem que essa diferença pode ser explicada se o treino aumenta a relevância do mapa de saliência (que depende do estímulo externo bottom-up) e se garante que a tarefa fica menos dependente dos efeitos de retroalimentação (feedback) de regiões mais profundas do córtex (V2,V4 reenviando informação para V1).

9_resultados

Figura 3: Modificada da Ref. [1]. Resultados do imageamento cerebral. A e B: atividade cerebral como função do tempo desde o momento em que a imagem aparece  na tela. C e D: diferença na atividade entre os trials em que ocorreram os melhores e os piores desempenhos.

Estes resultados corroboram a teoria de Li dos mapas de saliência em V1. Ou seja, mais uma evidência de que V1 é a região cortical que nos ajuda a detectar elementos que fogem de algum padrão. E nós ficamos aqui, agradecendo a V1 todas as vezes em que foi importante para nossa evolução e/ou sobrevivência perceber uma diferença/saliência um algum padrão. Por exemplo, para não pisar num buraco em meio a folhagem, para não comer uma minhoca nas folhas de alface, ou para identificar uma barata no canto da sala…

 

Referência:
[1]Yan, Yin, Li Zhaoping, and Wu Li. “Bottom-up saliency and top-down learning in the primary visual cortex of monkeys.” Proceedings of the National Academy of Sciences 115.41 (2018): 10499-10504.

0

Quando o segundo sol chegar…

…ou um outro planeta presente no sistema solar

Se você estava vivo no Brasil nos últimos 15 anos, tenho certeza que você já ouviu a música Segundo Sol, composta por Nando Reis e imortalizada na voz da querida Cássia Eller (sempre viva em nossos corações). Esses dias eu estava ouvindo a explicação do próprio Nando sobre a letra dessa música e ele conta que uma amiga espiritualista acreditava na possibilidade de existir um segundo sol (que não seria necessariamente um sol, mas um astro) que teria uma influência na vida das pessoas quando estivesse próximo a orbita da Terra.

Para os mais céticos parece uma loucura. Mas essa teoria está totalmente incorreta? Nesse texto trato dos relatos históricos e aspectos científicos da descoberta de um outro planeta presente no sistema solar.

Nibiru

Nancy Lieder é uma moradora do estado de Wisconsin nos EUA que afirma que na sua infância foi contatada por entidades extraterrestres cinzentas chamadas Zetas, que implantaram um dispositivo de comunicação em seu cérebro e a informaram que um planeta chamado Nibiru, ou o “Planeta X”.

Nancy_Lieder_2

Nancy e seus amigos Zetas lá no painel do fundo

Segundo a descrição de Lieder, feita em 1995, o Planeta X teria cerca de quatro vezes o tamanho da Terra e estaria muito próximo da Terra no dia 27 de maio de 2003. Esse rolê todo faria com que a rotação terrestre ficasse completamente parada por cerca de 6 dias. Além disso, a aproximação de Nibiru iria desestabilizar os do pólos da Terra e gerar uma mudança de pólos, causada pela atração magnética entre o núcleo da Terra e do magnetismo que passa pelo planeta.

Eu, particularmente, acho essa história digna do Cabo Daciolo, não é mesmo? Com certeza a mudança dos polos da Terra é o que iria mudar eixo de tudo, virar o planeta de cabeça pra baixo (como se no universo tivesse parte de cima e parte de baixo) pra finalmente rolar a instalação da Ursal.

12218620

Olha aí o mapa de ponta cabeça claramente depois da inversão de polos de Nibiru

Mas Nancy não foi a única a acreditar na chegada de um planeta externo não, ouviu?

Em 2012, Rodney Gomes, um cientista do Observatório Nacional do Brasil, modelou as órbitas de 92 objetos do cinturão de Kuiper e descobriu que seis delas eram mais alongadas do que o esperado. Rodney concluiu que a explicação mais simples era a atração gravitacional de um planeta distante. Dois anos depois, os astrônomos Konstantin Batygin e Mike Brown também se depararam com a possibilidade de existência de outro planeta que faria parte do sistema solar (não é Plutão, ok?). Em 2016 eles publicaram o artigo “Evidence for a distant giant planet in the solar system” mostrando os cálculos que evidenciavam a existência do planeta, que seria realmente gigantesco.

Os cálculos orbitais sugeriram que, se existir, este planeta tem a massa cerca de nove vezes maior que a massa da Terra e sua órbita seria um caminho elíptico ao redor do Sol que dura cerca de 20 mil anos. A sua menor distância da Terra seria o equivalente a 200 vezes a distância Terra-Sol, ou 200 unidades astronômicas. Essa distância o colocaria muito além de Plutão, no reino dos corpos gelados conhecidos como o cinturão de Kuiper.

orbita

Em laranja, a órbita do Planeta 9

 Apesar das evidências a respeito da sua massa e da sua órbita, a localização do Planeta 9 ainda é desconhecida pois ele poderia estar em qualquer lugar de sua imensa orbita. No final do artigo os cientistas deixam claro que o propósito não era, de forma alguma, “perturbar” a ciência e sim mostrar as evidências encontradas em seus cálculos. Brown declarou: “Adoraria encontrá-lo, mas também ficaria feliz se outra pessoa o encontrasse. É por isso que estamos publicando este estudo. Esperamos que pessoas se inspirem e comecem a buscá-lo”.

                Na minha humilde opinião, se esse planeta vier, que venha logo.

o-padre-fabio-de-melo-esta-mais-cansado-que-a-luc-2-11515-1478717040-1_dblbig

Referências

  1. BATYGIN, Konstantin; BROWN, Michael E. Early dynamical evolution of the Solar System: Pinning down the initial conditions of the Nice model. The Astrophysical Journal, v. 716, n. 2, p. 1323, 2010.
  2. BATYGIN, Konstantin; BROWN, Michael E. Evidence for a distant giant planet in the solar system. The Astronomical Journal, v. 151, n. 2, p. 22, 2016.
  3. BRASSER, R. et al. An Oort cloud origin for the high-inclination, high-perihelion Centaurs. Monthly Notices of the Royal Astronomical Society, v. 420, n. 4, p. 3396-3402, 2012.