3

O laboratório e o dia-a-dia: O que é o método científico e por que ele é o maior inimigo das fake news?

Na ciência, busca-se o tempo todo correlacionar fenômenos com suas causas e consequências, a fim de se compreender como o mundo funciona. Contudo, os tipos de correlação e as dificuldades experimentais que cientistas precisam enfrentar variam de área para área, e evoluem conforme o campo de estudo amadurece.

Por exemplo, se queremos estudar um fenômeno físico, como a relação matemática entre a temperatura e a dilatação de uma barra de metal (o quanto ela varia em comprimento quando aquecido ou resfriado), precisamos realizar uma série de medições de temperatura e do comprimento do objeto, além de levar em conta diferentes tipos de materiais (cada material possui um coeficiente de dilatação diferente, ou seja, diferentes materiais vão dilatar mais ou menos quando sujeitos à mesma variação de temperatura).

Neste caso, chamamos a dilatação do objeto de variável dependente (aquela que depende de outras variáveis que estamos estudando), e a variação de temperatura, o comprimento inicial e o coeficiente de dilatação de variáveis independentes (que são aquelas que estamos controlando a fim de estudar a dilatação). Neste caso termodinâmico, é relativamente simples inferir quais as variáveis dependente e independentes, mas às vezes estas relações não são óbvias a uma primeira vista.

Além disso, estas medições sozinhas não nos fornecem as causas materiais da dilatação, ou seja, as estruturas por trás da mudança de tamanho provocada por alteração da temperatura, mas podem nos fornecer padrões o suficiente para estabelecermos relações matemáticas e podermos prever com boa confiabilidade o quanto determinado material vai dilatar em determinadas circunstâncias (o que culmina em diversas aplicações práticas em várias áreas do conhecimento, por exemplo na engenharia civil).

Quais variáveis têm influência sobre meu objeto de estudo? Créditos: Rebeca Bayeh.

No entanto, ao longo da história da ciência, vários modelos de termodinâmica e de estrutura dos materiais já foram desenvolvidos de forma que seja possível, no caso deste fenômeno, não só prever com boa confiabilidade o comportamento dos materiais estudados em diferentes temperaturas, mas fornecer explicações para as causas do fenômeno da dilatação. Quanto mais suporte teórico e experimental uma teoria científica tem, maior sua credibilidade.

Essa credibilidade passa também pelo quanto determinada afirmação pode ser falseável. O conceito de falseabilidade foi introduzido pelo filósofo Karl Popper, e diz respeito ao quanto uma afirmação ou teoria permitem que sejam realizadas investigações que as refutem.

Por exemplo, no caso dos objetos que dilatam com o calor, alguém poderia observar em laboratório que toda barra de ferro dilata X quando é aquecida em dez graus Celcius. Poderíamos “falsear” essa afirmação fazendo experimentos que medissem a dilatação de diferentes barras de ferro com diferentes tamanhos iniciais e diferentes temperaturas iniciais, sempre variando dez graus.

Caso as barras, dentro de condições controladas de laboratório e utilizando-se estatística apropriada, se comportem de forma semelhante à da afirmação que estamos tentando falsear (o que não aconteceria aqui, pois já sabemos que a dilatação dependeria sim do comprimento inicial da barra), estaríamos fornecendo com isso mais embasamento para uma teoria. Caso contrário, e caso se verifique que não houve falhas sistemáticas na realização do experimento, estamos falseando a afirmação inicial. Quando isso acontece na ciência, surge debate e reflexão sobre quais as variáveis que podem não estar sendo levadas em conta, quais as possíveis falhas experimentais do experimento original (e dos experimentos dele derivados) e quais as causas do fenômeno estudado.

Quando o monge e botânico Gregor Mendel desenvolveu, no século XIX, seus princípios de hereditariedade, que seriam base para os estudos em Genética, ele desconhecia a existência de genes ou mesmo a existência do DNA, e portanto não pôde explicar as causas através das quais as cores das ervilhas que ele estudou dependiam das cores das plantas que foram cruzadas. Contudo, os padrões de hereditariedade verificados experimentalmente por ele em plantas são verificáveis e falseáveis, e seu trabalho serviu como base para o que viria a ser posteriormente a Genética moderna.

Muitas vezes, quando cientistas se depararam com padrões de fenômenos que podiam observar, mas cujas causas eram desconhecidas, foram atribuídos significados místicos e religiosos para estes fenômenos. Quando isso acontece, estamos saindo do campo da ciência. Por exemplo, se eu observo que qualquer barra de ferro dilata sempre proporcionalmente ao seu comprimento inicial e à sua variação de temperatura, eu posso fazer uma afirmação falseável acerca deste fenômeno (se alguém quiser testar minha afirmação, basta aquecer uma barra de ferro em um laboratório com condições controladas e verificar se a minha afirmação se sustenta). Contudo, se eu afirmar que a dilatação se dá por intervenção de um deus do calor que interveio em meu laboratório, esta afirmação não é falseável (não posso provar a existência do deus do calor nem sua presença no meu laboratório, e portanto não posso provar que esta foi a causa da dilatação da barra de ferro).

Além disso, o fato de eu não provar a não-existência do deus do calor não implica na existência do deus do calor. Cabe a quem fez a afirmação de que tal deus existia a comprovação do que está dizendo.

Analogamente, quando são compartilhadas notícias falsas (“fake news”) com afirmações mirabolantes nas redes sociais, cabe a quem fez as afirmações comprovar que o que está dizendo é verdade. O grande problema destes compartilhamentos é que as notícias costumam envolver um grande peso emocional e, muitas vezes, fazem com que os leitores sintam-se ameaçados por um oponente político que está supostamente prejudicando sua vida, sua família e seu senso de sagrado. É natural que fiquemos impressionados com ideias fortes e emotivas, mas cabe a nós verificar se as pessoas que as estão afirmando (e as que estão compartilhando, já que compartilhar é uma forma de re-afirmar) verificaram ou comprovaram tudo que estão alegando, ou se trata-se apenas de ideias fantasiosas que parecem ser verdadeiras apenas por possuir um vínculo com uma parte da realidade que já conhecemos ou porque elas intuitivamente fariam sentidos.

Muitas ideias científicas se iniciam de forma intuitiva, com um vínculo com a realidade já conhecida, como foi o caso das Leis de Mendel e de muitas outras, como a Teoria da Relatividade do Einstein. Mas as intuições isoladamente não constituem por si só o pensamento científico, e não cabe à ciência fornecer explicações para as causas de todos os fenômenos se estas causas não puderem ser estudadas de maneira criteriosa.

Trata-se de um trabalho colaborativo de longo prazo, que tem compromisso com a consistência, e não com a explicação de todas as verdades, e cujos paradigmas evoluem conforme a tecnologia se desenvolve e conforme são encontradas novas relações entre diferentes áreas dentro da ciência.

0

A trajetória e pesquisa de Katie Bouman

ou Quantas pessoas constroem um cientista?

Existe uma mulher muito sábia na minha vida.

Não, espera.

Vou começar outra vez.

Só existem mulheres muito sábias na minha vida, . Porque as mulheres são, em sua totalidade e não apenas por maioria, sábias. Mas uma mulher muito sábia me falou recentemente, depois que eu me queixei de erros que cometi no passado:

– Mas não tinha como você saber. O conhecimento é um fruto que se colhe maduro.

E essa foi uma lição (muito mas muito) imensa pra mim. Sobre autoperdão, construção de saberes, sobre cada trecho que nós – enquanto cientistas e professores – contribuímos para a pavimentação desse caminho: a educação. E, vocês já vão me desculpando pela emotividade aqui, quero falar sobre a trajetória de uma outra mulher, também sábia, que brilhou recentemente.

(Você achou que eu usei muito a palavra sábia, não foi? Está certo. Usei mesmo. Foi para naturalizá-la no seu coração.)

Se você estava no planeta Terra ou em suas imediações no último mês, provavelmente ouviu falar sobre a primeira imagem de um buraco negro, que foi obtida através de uma grande colaboração de pesquisadores de muitos países. A responsável por liderar a equipe que desenvolveu o algoritmo responsável pelo cruzamento e correção de dados obtidos usando o Event Horizon Telescope foi Katherine Louise Bouman ou Katie Bouman – como já estamos nos sentindo íntimas o suficiente para chamá-la. E, se você ainda está em dúvida de qual imagem estou falando, é essa aqui

im1

coisa_mais_linda.jpg Créditos: Event Horizon Telescope

 

 

Katie nasceu em 1989 e é professora assistente de ciência da computação no Instituto de Tecnologia da Califórnia. Sua pesquisa é relacionada a métodos computacionais para geração de imagens (guarde bem essa informação).

im2

querida.jpg Créditos: Facebook/Katie Bouman

Uma das coisas interessantes sobre uma cientista como Katie é entender como a sua pesquisa evoluiu até o estágio atual. Quando procuramos o perfil com todas as publicações de Katie na ferramenta do Google Scholar, encontramos 40 artigos com sua autoria e/ou cooperação, a maioria de livre acesso. Além disso, existem diversos textos de Katie publicados em revistas de divulgação científica e curiosidades. Entre os artigos acadêmicos, vemos o primeiro deles ser publicado em 2006 com o título: “Digital Image Forensics Through the Use of Noise Reference Patterns” , Análise forense de imagens digitais através do uso de padrões de referência de ruído, em livre tradução.

Fonte: engineering.purdue.edu

“Rostinho” do primeiro artigo de Katie. Créditos: engineering.purdue.edu

O artigo fala sobre a possibilidade de, através de métodos de reconstrução, verificar se imagens muito modificadas ainda poderiam ser identificadas usando os “defeitos” de uma câmera na forma de um padrão de ruído de referência. Ou seja: se uma foto estiver muito estragada, ainda seria possível descobrir qual câmera tirou aquela foto tendo como base uma bom banco de dados de como as câmeras tiram fotos?

Deu pra sentir o arrepio? Pois prepare-se para ficar ainda mais surpreso.

Eu não vou conseguir abordar aqui todos os artigos científicos da Katie mas gostaria de traçar uma linha do tempo em sua pesquisa. Quem quiser pode ter acesso a todos os outros textos clicando aqui. Em 2010 ela publicou “A low complexity method for detection of text area in natural images” ou Um método de baixa complexidade para detecção de área de texto em imagens naturais. Pode parecer pouco linkado com o trabalho sobre o buraco negro mas neste artigo temos uma pesquisa sobre um método de baixa complexidade para segmentação de regiões de texto em imagens.
E aí? Estão sentindo o impacto?

Créditos: Twitter

sera_que_um_dia_eu_vou_conseguir_abandonar_o_meme_da_Mulher_Pepita_arrepiada?.jpg Créditos: Twitter

Só mais um trabalho antes de falar do nosso queridinho, ok? O trabalho intitulado “IMAGING AN EVENT HORIZON: MITIGATION OF SCATTERING TOWARD SAGITTARIUS A*”.

EM LETRA MAIÚSCULA SIM, POIS JÁ ESTAMOS EMOCIONADOS COM ESSE TRABALHO.

EM PORTUGUÊS: PROCESSANDO IMAGENS DE UM HORIZONTE DE EVENTO: MITIGAÇÃO DA DISPERSÃO PARA O SAGITÁRIO A.

Esse foi nada mais, nada menos, que o primeiro trabalho de parte da equipe que viria a conseguir a foto do buraco negro este ano, focando já em Sagitario A (o objeto astronômico do qual o buraco negro faz parte). Foi publicado em 2014 e o seu resumo começa assim:

“Espera-se que a imagem da emissão que circunda o buraco negro no centro da Via Láctea exiba a impressão de efeitos relativísticos gerais (GR), incluindo a existência de uma feição de sombra e um anel de fótons de diâmetro ~ 50 μas.”

E traz, como um de seus resultados, essa imagem da simulação:

im5

nem_tenho_mais_legenda.jpg Créditos:The Astrophysical Journal

Em abril deste ano, quando tivemos acesso a real imagem do buraco negro, vimos que ele se parecia muito com a imagem acima. E mais: que se parecia muito com o que Einstein esperava de um buraco negro em 1915. A pesquisa da foto do buraco negro gerou não um, não dois mas seis (!!!!) artigos com os resultados obtidos. Estão envolvidos no projeto 144 departamentos de  diferentes universidades ao redor do globo.

E, sinceramente, eu não sei quantos pessoas estão envolvidas no projeto.

Quantas professoras e professores, técnicas e técnicos, alunas e alunos de graduação e pós graduação. Quantas pessoas chegaram mais cedo para limpar os laboratórios, para preparar refeições nas universidades, quantas mães e pais, esposas e maridos, namorados e namoradas deram suporte a quem aparece na autoria dos seis artigos. Eu sei que cada um deles foi parte desse passo pois o conhecimento amadurecido ao longo de anos de pesquisa, desde Einstein e antes dele, passando por Katie e seus professores, não começa, nem termina nesta imagem. Este é, sem dúvidas, o (doce) fruto colhido da colaboração de tanta gente para fazer ciência.

Referências

Bouman, K. L., N. Khanna, and E. J. Delp. “Digital Image Forensics Through the Use of Noise Reference Patterns.” (2016).

Bouman, K.L., Abdollahian, G., Boutin, M. and Delp, E.J., 2011. A low complexity sign detection and text localization method for mobile applications. IEEE Transactions on multimedia, 13(5), pp.922-934.

Fish, V.L., Johnson, M.D., Lu, R.S., Doeleman, S.S., Bouman, K.L., Zoran, D., Freeman, W.T., Psaltis, D., Narayan, R., Pankratius, V. and Broderick, A.E., 2014. Imaging an event horizon: Mitigation of scattering toward Sagittarius A. The Astrophysical Journal, 795(2), p.134.

Akiyama, K., Alberdi, A., Alef, W., Asada, K., Azulay, R., Baczko, A.K., Ball, D., Baloković, M., Barrett, J., Bintley, D. and Blackburn, L., 2019. First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole. The Astrophysical Journal Letters, 875(1), p.L1.

0

Usando o cérebro para entender o próprio cérebro: um novo tipo de modelo teórico para descrever nossa atividade cerebral

Em 1952 os pesquisadores Alan Lloyd Hodgkin e Andrew Huxley (foto na Fig. 1) desenvolveram um modelo matemático baseado em circuitos elétricos com capacitores e resistores para  descrever os sinais elétricos medidos em um experimento eletrofisiológico no neurônio da lula. O objetivo do estudo era encontrar uma equação matemática que descrevesse da melhor maneira possível o comportamento do potencial elétrico dentro da célula nervosa ao longo do tempo. Na Fig. 1 podemos comparar um gráfico com a curva do potencial em função do tempo medida experimentalmente em um neurônio real e a curva obtida através das equações propostas por Hodgkin e Huxley. A semelhança entre as curvas teóricas e experimental permitem que usemos o modelo de Hodgkin e Huxley como um bom modelo para descrever o neurônio e garantiu que em 1963 eles recebessem o prêmio Nobel em Fisiologia ou Medicina por este trabalho.

Texto11HHcompleto

Figura 1: Esquerda: Os pesquisadores Hodgkin e Huxley medindo a atividade elétrica de neurônios no laboratório (imagem modificada deste site). Direita no topo: potencial de membrana da célula nervosa em função do tempo obtido através do experimento e abaixo curva similar obtida com o modelo teórico proposto por eles.

Diversos modelos em física biológica foram desenvolvidos seguindo uma receita parecida. Temos algumas medidas experimentais, gráficos que representam como certas grandezas variam no tempo, e procuramos uma equação matemática que descreva bem aquela curva. Em especial tentamos comparar cada parâmetro da equação com algum componente do mundo real. E com isso, é possível fazer predições teóricas que possam ser testadas experimentalmente. Por exemplo, na equação que descreve o modelo de Hodgkin e Huxley o potencial de membrana do neurônio depende de um somatório de correntes iônicas de sódio e potássio que atravessam a membrana celular. Então, podemos usar o modelo para fazer uma predição. Por exemplo, o que acontece se bloquearmos a entrada de sódio na célula? Se anularmos o termo da corrente de sódio na equação do modelo obteremos uma nova curva do potencial em função do tempo. Se agora refizermos o experimento, bloqueando a corrente sódio através do neurônio, podemos comparar se a curva experimental ainda se parece com a curva teórica. Em caso afirmativo, nosso modelo continua sendo considerado um bom modelo mesmo nessa nova condição (sem sódio) e podemos seguir fazendo novas previsões.
Desde os anos 50, diversos modelos biológicos foram desenvolvidos para descrever a atividade elétrica de neurônios de diversos tipos, sinapses, grupos de  neurônios, regiões corticais, tálamo, hipocampo, etc. Em particular, um tipo de modelo chamado neural mass (massa neural em tradução livre) usa poucas equações diferenciais para descrever a atividade oscilatória de regiões corticais formada por milhares de neurônios. Conectando várias dessas regiões é possível representar a atividade elétrica do cérebro como um todo. Na Fig. 2 podemos ver um exemplo de cérebro em que cada região está sendo representada por um nó da rede e está conectada a várias outras regiões.

Texto11cerebro2

Figura 2: Representação do cérebro como uma rede complexa. Cada bolinha representa umaregiao e os links as conexões sinápticas entre estas regiões. Modificada das referências [1] e [2].

Recentemente, um estudo liderado pela pesquisadora alemã Petra Ritter* [1] deu um passo importante no desenvolvimento de um modelo matemático que busca descrever a atividade  cerebral como um todo. A grande novidade deste trabalho foi a inclusão de medidas experimentais como parte do modelo teórico (ver Fig. 3A). Pessoas saudáveis que se voluntariaram para participar nas pesquisas tiveram a atividade do seu cérebro gravada simultaneamente através de dois métodos bastante utilizado em neurociência: eletroencefalograma (EEG) e ressonância magnética funcional (fMRI). As curvas azuis e pretas na Fig. 3B mostram o sinal obtido com EEG (filtrado para uma certa componente de frequência) e com fMRI. Assim como no exemplo do neurônio, em que queríamos um modelo que reproduzisse a curva do potencial elétrico no tempo (ver Fig. 1), aqui queremos um modelo que reproduza a curva experimental preta. E de fato, o grupo mostrou que incluindo o dados de EEG como um dos termos do modelo chamado neural mass eles conseguem obter a curva vermelha: bastante similar a curva preta! Na Fig. 3C podemos ver que outros modelos (que não levam em conta o EEG) não reproduzem tão bem a curva experimental.

Esta nova abordagem abre inúmeras possibilidades para combinar dados experimentais com modelos teóricos na busca de entender melhor a atividade cerebral. No futuro, este tipo de modelo híbrido poderá ser útil, por exemplo, para predizer certas atividades que só poderiam ser medidas de maneira invasiva (através de cirurgias e implante de eletrodos intracranianos) utilizando apenas o EEG dos pacientes. Além disso, será possível fazer novas predições e testes sobre os mecanismos responsáveis por determinados tipos de atividades cerebrais. Com este método, também poderá ser possível caracterizar particularidades de cada indivíduo, o que pode vir a ser útil no tratamento de doenças em pacientes que são mais vulneráveis que a média.

Texto11curvas

Figura 3: A) Sinal de EEG(esquerda) utilizado no modelo híbrido (centro) para predizer o sinal obtido com a ressonância magnética (direita). B) Série temporal com um exemplo do sinal de EEG (azul), sinal obtido com o fMRI (preto)  medido simultaneamente ao EEG e resultado obtido utilizando o modelos híbrido (vermelho) de neural mass e EEG. C) Comparando o fMRI experimental com o modelo híbrido e outros modelos.  Modificada da referência [1].

Referências

[1] Schirner, M., McIntosh, A. R., Jirsa, V., Deco, G., & Ritter, P. (2018). Inferring multi-scale neural mechanisms with brain network modelling. Elife, 7, e28927.

Nota da autora: essa revista (Elife) torna público o comentário dos revisores que recomendaram a publicação do artigo e a resposta dos autores. Vale a pena dar uma lida nos pontos levantados pelos especialistas da área e nas respostas dos autores!

[2] Deco, G., Kringelbach, M. L., Jirsa, V. K., & Ritter, P. (2017). The dynamics of resting fluctuations in the brain: metastability and its dynamical cortical core. Scientific reports, 7(1), 3095.

*Petra Ritter é médica, terminou o doutorado em 2004, é a pesquisadora chefe do grupo Berlin Neuroimaging Center e em 2007 recebeu o prêmio Unesco-L’Óreal para jovens cientistas e mães. Saiba mais sobre ela aqui ou aqui.

Para ler mais sobre o modelo de Hodgkin e Huxley, sobre EEG e fMRI é só clicar.

0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).

1

“A notável física brasileira de 25 anos”

O estímulo e o exemplo podem ser armas poderosas para o futuro de uma menina. Uma menina pode se tornar uma física excepcional aos 25 anos quando apoiada pela família e nós podemos nos inspirar com o seu grande exemplo.

Sonja Ashauer nasceu em São Paulo em 1923, filha de pais alemães e de mente bem aberta para época, ajudaram a fortalecer o espírito científico dessa jovem. Na adolescência, Sonja contava com um mini-laboratório montado pelo seu pai, onde ela detinha toda a liberdade de realizar experiências. Todo esse apoio a levou a entrar no curso de física da USP e graduar-se bacharel em 1942, tendo sido juntamente com Elisa Frota-Pessoa, que se graduou em física no mesmo ano na Universidade do Brasil, no Rio de Janeiro, a segunda mulher a se graduar em Física no Brasil.

Sonja_Ashauer

Sonja Ashauer. Fonte: wikipedia

 

Logo em seguida iniciou o curso de licenciatura que finalizou em 1944 e sendo imediatamente contratada como a primeira assistente da Cadeira de Física Teórica e Física Matemática de Gleb Wataghin. Neste emprego pôde participar de pesquisas sobre mecânica quântica, em especial, em estatística de núcleos e partículas elementares em temperaturas extremamente altas. Segundo o professor Silvio Salinas, em um trabalho publicado nos Anais da Academia Brasileira de Ciências, Sonja calculou o coeficiente de absorção de radiação para o efeito fotoelétrico.

Com uma bolsa do British Council, Sonja Ashauer iniciou seu doutorado em Cambridge em 1945 sob orientação do Prêmio Nobel de Física de 1933, Paul Dirac.

Dirac_3

Paul Dirac. Fonte: Wikipedia

Mulheres não eram aceitas em Cambridge até meados do século XIX e na época de Sonja só era permitido cursar o bacharelado, portanto o seu doutoramento foi um dos primeiros concedidos pela universidade para uma mulher.

Dirac não era uma pessoa muito fácil de lidar, vários orientados o abandonaram e até Sonja teve problemas, principalmente pela ausência de supervisão de Dirac, que viajava constantemente. Em troca de cartas com Wataghin ela relata problemas com o tema de sua pesquisa, e ele a tranquiliza e diz que seu cargo continua disponível e que o mais importante era a pesquisa e não o título. Apesar dos problemas ela conseguiu concluir seus estudos em fevereiro de 1948 com a tese “Problems on electrons and electromagnetic radiation”. Infelizmente este trabalho não é de fácil acesso, tendo sua única cópia em Cambridge.

Além do PhD, Sonja se tornou membro da Cambridge Philosophical Society, processo no qual dependia de indicação feita por membro eleito há mais de três anos e a eleição dentro do conselho.

Além de ser uma física extraordinária, ela foi relatada por Sérgio Leite Lopes (um dos maiores físicos brasileiros de todos os tempos) como uma pessoa muito querida que o ajudou muito.

Infelizmente sua trajetória foi interrompida logo no início. No mesmo ano de conclusão do doutorado e volta ao Brasil, Sonja veio a falecer. Em agosto de 1948 Sonja apanhou chuva num dia frio, resfriou-se e não deu muita atenção. Esse resfriado a levou a uma “broncopneumonia, miocardite e colapso cardíaco” que a levou a óbito. No mesmo ano o caderno “Ciência para Todos” fez um artigo sobre a trajetória da “notável física brasileira de 25 anos”, contendo relatos de vários cientistas famosos da época.

As cientistas feministas já fizeram uma linda homenagem pra essa mulher inspiradora, segue essa ilustra maravilhosa que merece ser vista periodicamente.

11903898_1603224503263928_4986020345974288170_n

Ilustração feita pelas Cientistas Feministas em homenagem a Sonja Ashauer.

 

Boa parte do conteúdo deste artigo foi retirado do livro Mulheres na física: Casos históricos, panorama e perspectiva, montado por pesquisadores do Brasil e que apresenta este e outros casos de maneira mais detalhada. Outros documentos fundamentais para a composição da biografia de Sonja foram suas cartas com Wataghin, que podem ser encontrados no acervo da USP (http://acervo.if.usp.br/index.php/declaracao-de-marcello-damy-de-souza-santos-sobre-sonja-ashauer).

Referências

[1]http://memoria.cnpq.br/pioneiras-view/-/journal_content/56_INSTANCE_a6MO/10157/902653;jsessionid=C9A8A8C4B643C3848E9A546B6DF95D2B?p_p_state=pop_up&_56_INSTANCE_a6MO_viewMode=print

[2] Mulheres na Física: Casos históricos, panorama e perspectiva. Elisa M.B. Saitovitch, Renata Z. Funchal, Marcia C. B. Barbosa, Suani T.R. de Pinho e Ademir E. de Santana. Livraria da Física, 2015.

0

Sistema visual e a capacidade de procurar uma agulha num palheiro

 

Desde 1959 quando Wiesel e Hubel publicaram um artigo sobre a atividade elétrica de neurônios no córtex visual de gatos sabe-se que células nessa região respondem a estímulos visuais com orientações específicas. Por esta descoberta e pelos experimentos sobre córtex visual que se seguiram, eles ganharam o prêmio Nobel em 1981. Graças a eles sabe-se, por exemplo, que quando visualizamos uma barra movendo-se da direita para a esquerda, o grupo de neurônios corticais que dispara é diferente do grupo de neurônios ativos quando vemos a barra mover-se de cima para baixo. Dá uma olhada neste vídeo aqui em que aparece o estímulo visual visto por um gato ao longo do experimento. O barulho que ouvimos corresponde aos disparos dos neurônios ativados no córtex do gato. Note que o barulho aumenta quando a luz passa em regiões específicas ou quando a barra se move em direções específicas. Dizemos portanto que o córtex visual forma mapas de orientação e mapas espaciais. E esses mapas são o conjunto de neurônios que dispara junto quando o estímulo visual obedece algum padrão.

No começo dos anos 2000,  Li Zhaoping, física e professora de neurociência computacional no Departamento de Computação da University College of London, desenvolveu uma teoria, que vem sendo extensivamente testada desde então, sobre o córtex visual primário (V1). Ela propôs que esta região do córtex facilita a atração automática da nossa atenção quando percebemos uma saliência em um certo padrão. Em outras palavras, ela propôs que a nossa capacidade de detectar rapidamente uma imagem que foge ao padrão, como por exemplo uma barra inclinada para esquerda em meio a várias outras barras inclinadas para a direita (veja Figura 1) está relacionada a mapas de saliência que se formam em V1. Segundo a teoria de Li,  a região cortical V1 é que nos ajuda a encontrar uma agulha num palheiro, especialmente se a agulha apresentar alguma característica que se destaque em meio às palhas.

9_barras

Figura modificada da Ref. [1]. Imagens utilizadas em experimentos comportamentais e de imageamento cerebral em que devemos identificar a única barra inclinada com orientação diferente das demais.

 

Ou seja, isso quer dizer que esta região do córtex não apenas possui grupos de neurônios que disparam preferencialmente sob um estímulo inclinado em uma certa uma direção (formando os mapas de orientação), mas também possui grupos de neurônios que formam mapas para detectar um comportamento diferente em meio a um certo padrão, chamados mapas de saliência.
Li utilizou dois argumentos bem simplificados mas bastante interessantes para explicar como chegou a essa ideia:
1) A região do córtex visual primário V1 parecia proporcionalmente grande quando comparada a outras regiões corticais (e portanto consumidora de mais energia) para servir apenas para os mapas de orientação e espaço.
2) A grande maioria da informação que estamos detectando com nossa retina não chega a regiões mais profundas do cérebro nem no nível do consciente. Ou seja, descartamos boa parte da informação que chega aos nossos olhos. Portanto, em algum lugar do nosso cérebro, de maneira inconsciente, escolhemos quais são as informações mais importantes que devem ser guardadas (e utilizadas) e quais podem ser descartadas.

Sendo assim, parece razoável supor a existência um mecanismo que nos ajuda a detectar coisas fora do padrão. Essas tais coisas fora do padrão podem ser mais importantes do que coisas repetitivas. Por exemplo, precisamos encontrar uma fruta no meio das folhagens para nos alimentarmos mas não precisamos enxergar cada uma das centenas de folhas da árvore. Então se temos 21 ou 22 barras inclinadas para direita não precisamos guardar toda essa informação. Basta guardar a informação “muitas barras inclinadas”. Mas se em meio a essas barras temos uma inclinada pro lado contrário pode ser importante que nossa atenção se dirija a esta barra.
Esse ano Li e seus colaboradores publicaram mais um experimento baseado nessa teoria, comparando resultados comportamentais e a atividade elétrica em V1. Macacos foram treinados para olhar para imagens como as da Figura 1 e moverem seus olhos para identificar a única barra com orientação diferente, enquanto a atividade elétrica de grupos de neurônios em V1 era registrada. Os resultados comportamentais de respostas corretas e tempos de reação em função da inclinação da barra diferente ao longo dos dias de treino estão mostrados na Figura 2. Quanto maior a diferença na inclinação entre todas as barras e a única diferente, maior a taxa de acerto e menor o tempo de reação do animal (ou seja, mais fácil a tarefa)

 

9_comportamento

Figura 2: modificada da Ref.[1]. Resultado comportamental do experimento realizado com os macacos MA e MD enquanto eles observavam imagens como as da figura 1. No topo, proporção de respostas  corretas em função da diferença de inclinação entre a única barra diferente e as demais. Na base, o tempo de reação até a identificação da barra diferente como função da diferença na inclinação., Note que quanto maior a diferença na inclinação maior a taxa de acerto e menor o tempo de reação, indicando que a identificação da barra inclinada é mais fácil quando o ângulo entre ela e as outras é maior.

 

No que diz respeito à atividade eletrofisiológica, o grupo verificou dois picos na atividade de elética de V1 (veja Figura 3A e 3B). O primeiro pico está associado à atividade que vem da retina devido ao estímulo visual externo (bottom-up). Enquanto que o segundo pico está associado a uma resposta mais complexas devido às conexões neuronais em V1 e à retroalimentação vinda de regiões mais profundas do córtex (top-down de V2, V4…)

Eles também mostraram que uma maior atividade elétrica na região de V1 durante a observação da imagem está associada a um menor tempo de resposta do animal.
Além disso eles compararam a diferença entre a atividade do melhor trial e do pior trial (acertos e erros) nos primeiros dias (chamada melhor-pior / better-worse na Figura 3C e 3D) com a diferença melhor-pior depois de muitos dias de treino. O resultado é que a diferença melhor-pior aumentou com o treino para o primeiro pico em V1 mas diminuiu para o segundo pico. Os autores sugerem que essa diferença pode ser explicada se o treino aumenta a relevância do mapa de saliência (que depende do estímulo externo bottom-up) e se garante que a tarefa fica menos dependente dos efeitos de retroalimentação (feedback) de regiões mais profundas do córtex (V2,V4 reenviando informação para V1).

9_resultados

Figura 3: Modificada da Ref. [1]. Resultados do imageamento cerebral. A e B: atividade cerebral como função do tempo desde o momento em que a imagem aparece  na tela. C e D: diferença na atividade entre os trials em que ocorreram os melhores e os piores desempenhos.

 

Estes resultados corroboram a teoria de Li dos mapas de saliência em V1. Ou seja, mais uma evidência de que V1 é a região cortical que nos ajuda a detectar elementos que fogem de algum padrão. E nós ficamos aqui, agradecendo a V1 todas as vezes em que foi importante para nossa evolução e/ou sobrevivência perceber uma diferença/saliência um algum padrão. Por exemplo, para não pisar num buraco em meio a folhagem, para não comer uma minhoca nas folhas de alface, ou para identificar uma barata no canto da sala…

 

Referência:
[1]Yan, Yin, Li Zhaoping, and Wu Li. “Bottom-up saliency and top-down learning in the primary visual cortex of monkeys.” Proceedings of the National Academy of Sciences 115.41 (2018): 10499-10504.

0

Em 1919 a teoria de Einstein foi confirmada no Ceará

Texto escrito em parceria com @ruajosephine.

Há 99 anos, em 29 de maio de 1919, uma equipe de cientistas estava em Sobral, cidade do Ceará, para comprovar a teoria da gravitação de Albert Einstein — a Teoria da Relatividade Geral — a partir de um eclipse solar.  Isso mesmo! Foi em terras brasileiras, marcadas pela seca e muitas histórias contadas em cordéis, que uma equipe bem diversa de físicos e astrônomos brasileiros, ingleses e americanos, enviada pelo astrônomo inglês Sir Eddington comprovou a arretada e soberana Teoria da Relatividade Geral! [1] Além dessa expedição no Ceará, Sir Eddington liderava pessoalmente outra equipe que estava na Ilha do Príncipe, na África, para corroborar com tal comprovação científica. Mas vamos trazer um ponto de vista brasileiro, especificamente cearense para essa história!

Foto 1: A tranquilidade no olhar de Albert Einstein ao comprovar sua teoria da Relatividade Geral.

Antes desse feito o mundo vivia uma ciência fixa, sem muitas contradições desde 1666, com a teoria da Gravitação Universal muito bem estruturada por Isaac Newton, que dizia que a velocidade da luz poderia ser somada à rapidez daquilo que a emitia, num universo onde o tempo era constante e o espaço absoluto. Tudo começou a mudar na virada do século XIX para o XX, quando as equações do escocês James Maxwell passaram a demonstrar que a velocidade da luz é que é constante e não poderia ser somada à nada.

Nesse contexto Einstein criou a teoria da Relatividade Restrita, que descreve a física do movimento na ausência de campos gravitacionais. Essa teoria era incompatível com a teoria da gravitação de Newton. Uma nova teoria da gravitação seria necessária para explicar fenômenos gravitacionais em alta velocidade (comparáveis à velocidade da luz) ou com altas energias. Vale lembrar que a teoria de Newton e a teoria de Einstein coincidem em baixas energias/velocidades. Foi chutando o balde, abandonando a solidez da teoria de Newton e considerando as equações de Maxwell, Einstein chegou a Teoria da Relatividade Geral, base da ciência moderna, que prever que a matéria (planetas, estrelas, etc) é responsável por mudar a geometria espaço-tempo do universo, que passa a ser relativa. Mas como comprovar essa teoria?

Para verificar a Relatividade Geral era preciso fotografar o céu durante um eclipse solar: se a teoria de Newton estivesse correta, não veríamos a imagem de uma estrela atrás do Sol porque a luz da estrela seria interrompida pelo próprio Sol. Já se a teoria de Einstein estivesse correta, seríamos capazes de ver a imagem da estrela porque a luz emitida seria distorcida de tal forma que a estrela aparentaria estar ao lado do Sol ao invés de atrás. Para concluir qual teoria estava correta, os cientistas precisaram comparar essa fotografia com outra, daquele mesmo grupo de estrelas, numa noite normal, quando o Sol já houvesse mudado para outra posição.

Para entender melhor, imagina que você está vendo TV e alguém coloca um balde de pipoca exatamente entre você e a tela, atrapalhando a sua visão. A luz da tela não consegue chegar até você porque ela não atravessa o balde de pipoca, certo? Agora troca a imagem da TV pela imagem da estrela e o balde de pipoca que estava te atrapalhando pelo Sol. A teoria de Newton diz que você não virá a luz da estrela pelo mesmo motivo que você não vê a tela da TV quando tem um balde de pipoca na sua frente. Já a teoria de Einstein diz que se massa intrometida (do Sol durante o eclipse ou do balde de pipoca) é o grande o suficientemente, ela distorce o espaço ao seu redor. Einstein previu que o Sol causaria esse efeito no espaço e curvaria a luz que passasse por ele, como acontece no caso da luz de estrelas posicionadas atrás do Sol durante o eclipse solar. Foi para fotografar essa curva que a luz faz ao passar pelo Sol que os astrônomos foram à Ilha do Príncipe e à Sobral, no Ceará. [2]

1919_eclipse_positive

Foto 2: Eclipse solar de Sobral, em 1919.

A comprovação da Teoria da Relatividade Geral de Einstein, a partir do que se viu na escuridão do eclipse solar em Sobral, foi apresentada em novembro de 1919, durante a reunião da Sociedade Real Astronômica  (Royal Astronomical Society), em Londres, modificando a forma como a humanidade entende a física.

Hoje a cidade de Sobral muito se orgulha de ter sido palco do triunfo desse cientista universal. Criou o Museu do Eclipse em 1999, que guarda a luneta utilizada pela expedição de Einstein e muitas fotografias originais das pesquisas realizadas na cidade. O Museu encontra-se fechado para manutenção e reabrirá para o centenário em 2019.

museu-do-eclipse

Foto 3: Museu do Eclipse, Sobral, Ceará.

A prefeitura de Sobral organiza uma comemoração para o centenário do fenômeno junto à Sociedade Brasileira para o Progresso da Ciência (SBPC), quando irão realizar palestras, exposições, congressos, simpósios, além da construção de um monumento em alusão à comprovação da teoria. Sobral mostrou ao mundo a comprovação da Teoria da Relatividade, a física moderna é também cearense, minha gente! [1]

Referências:

[1] http://plus.diariodonordeste.com.br/sobral-sediou-prova-da-teoria-da-relatividade/#intro – 2018.

[2] https://super.abril.com.br/ciencia/einstein-no-ceara-as-aventuras-e-desventuras-de-uma-teoria-arretada-nos-confins-do-sertao/ – 2012.

1

A Terra já foi plana?

Quando falamos do movimento dos terraplanistas não estamos falando de pessoas que trabalham na construção civil deixando áreas de terra muito íngremes mais planas para que a construção seja possível naquele local. Infelizmente. Quem dera. Ô vontade.

O movimento da Terra plana acredita que o nosso planeta, na verdade, não possuiu uma forma parecida com uma esfera e sim com um plano, como um grande disco de vinil ou um imenso biscoito Chocolícia e que, na verdade, a Lei da Gravidade e outras leis das física seriam inválidas.

Bom, parece apenas bem doido, não é? Para os fãs de Harry Potter, parece apenas uma teoria absurda que o Xenofílio Lovegood, pai da querida Luna Lovegood, publicou no Pasquim.

Aí você me diz “ué, qual o problema? Deixa as pessoas acreditarem no que elas querem”.

O problema é que esse movimento vem ganhando adeptos no mundo todo e realizando, inclusive, congressos sobre a “ciência” (??????) da Terra Plana. E no meio desse movimento, que além de tudo tem um profundo e perigoso viés religioso, existem pais de alunos que esperam que a Terra Plana faça parte do currículo escolar de seus filhos e não os estudos geográficos e físicos modernos. E esse tipo de movimento pode ficar tão grande quanto a movimentação de pais americanos que conseguiram o direito dos seus filhos aprenderem criacionismo na escola.

1

Para os terraplanistas, o planeta seria um disco e o céu, uma cúpula em formato circular | Ilustração: Raphael Salimena . Crédito: BBC

Um estudo feito em 2017, pela doutora em educação Hanny Angeles Gomide, com alunos de 6° ano do ensino fundamental da cidade de Uberlândia em Minas Gerais, mostrou que 38,8% dos estudantes acreditavam em uma ideia de Terra plana. Quando questionados sobre as razões por trás dessa crença, simplesmente responderam “porque eu acho que é assim”.

Vocês entenderam o perigo?

Mas, pra tirar o gosto de barata da boca, Hanny observou no artigo que:

Naquilo que se relaciona aos demais astros, os participantes possuem um consenso de que o Sol é redondo. Muitos atribuem tal forma ao astro, por ser esta a configuração com que ele se mostra no céu, como é o caso de Márcio, que diz que o astro rei “é redondo por que já viu… em casa de olhar para o céu”. Já Emília observou que o Sol é redondo, “porque já viu nos livros de Ciências e porque também ele é a maior estrela do Universo”.

A simples condição de observação do Sol, seja ao vivo ou em livros de ciência, muda completamente a percepção dos estudantes sobre o fato. Inclusive, os próprios terraplanistas garantem que o Sol e a Lua são esféricos.

Nós podemos olhar para o Sol, Lua e estrelas mas, infelizmente,  como estamos sobre a superfície terrestre, não podemos olhar pra Terra e ter 100% de certeza que ela é plana através de uma observação puramente ocular. Apesar de existirem MILHÕES de fotografias, vídeos, imagens de satélite, leis da física, músicas de sertanejo universitário etc. que mostram que a Terra é plana, o desconfiar é da natureza humana.

E como este é um ambiente de ciência e ambiente de ciência é ambiente de referência científica, venho trazer um dos últimos gritos da ciência em matéria de Terra Esférica.

O texto da tese da doutora em física Anna Miotello, fala sobre os discos protoplanetários, que são estruturas achatadas que giram ao redor de estrelas jovens e são feitas de gás e poeira. Estes são os locais onde os planetas, como a nossa própria Terra, são formados.

Ou seja: nossa Terra já foi plana. Já foi. Passado do verbo ser. Significa que não é mais. Já tem uns 5 bilhões de anos que não é mais. Mais tempo do que você ligou da última vez pra sua avó.

Neste estudo, Miotello explica que a formação de estrelas e planetas começa com a formação de estruturas filamentares dentro de nuvens moleculares gigantes. Dentro desses longos filamentos, tipicamente são criadas dezenas de fibras menores que eventualmente se fragmentam em núcleos densos. Estes núcleos vão se colapsar para formar uma ou mais estrelas. À medida que o colapso prossegue, forma-se uma estrutura em forma de disco rotativo, através da qual a matéria se acumula na protoestrela ou protoplaneta, como podemos ver na figura abaixo.

2

Esboço do processo de formação de estrelas e planetas de forma isolada. As classes evolutivas diferentes são esboçados de forma esquemática. [MIOTELLO, 2017]

A partir daí, uma série de eventos se desenrola e estes núcleos densos começam a atrair outras partículas e assim nascem os planetas e estrelas.

Então, meus queridos, apesar desse planeta já ter sido um grande biscoito (ou bolacha, como você preferir) hoje sabemos que não somos mais assim. E se alguém vier com essas ideias de Terra plana, você pega os seus dedinhos e faz assim pra pseudociência.

3

Referências

  1. GOMIDE, Hanny Angeles; LONGHINI, Marcos Daniel. MODELOS MENTAIS DE ESTUDANTES DOS ANOS INICIAIS DO ENSINO FUNDAMENTAL SOBRE O DIA E A NOITE: UM ESTUDO SOB DIFERENTES REFERENCIAIS. Revista Latino-Americana de Educação em Astronomia, n. 24, p. 45-68, 2017.
  1. MIOTELLO, Anna et al. The puzzle of protoplanetary disk masses. 2018. Tese de Doutorado.

 

0

Alquimia do universo: como produzir elementos químicos – Parte II

alquimia_do_universo_parte_ii_imagem_destacada

Figura 1:  Estrela Sh2-106. Imagem do Telescópio Espacial Hubble da NASA/ESA mostrando a estrela recém-formada Sh 2-106. Crédito: NASA/ESA

Continuamos a nossa série “Alquimia do universo” que começou aqui falando sobre os elementos criados durante o Big Bang. O evento que deu origem ao universo produziu a maior parte do hidrogênio e do hélio que existe! Isso não é pouca coisa quando consideramos que aproximadamente 98% de toda a matéria comum (bariônica) que forma você, as árvores, a Terra, o Sol é composta por hidrogênio e hélio.

Tudo muito bom e muito bonito mas hoje nós vamos falar das estrelas! ⭐ Antes de nós passarmos para nosso bate-bola estelar (e não, não vamos falar de falar de futebol 🤣), vamos falar sobre o que são estrelas.

Vídeo 1: SN 2006gy, uma estrela explodindo. Simulação de uma estrela extremamente massiva lançando algumas de suas camadas externas em uma grande erupção antes de colapsar violentamente. A explosão (do tipo supernova) por sua vez entra no gás expelido (em cor acobreada), que se encontra numa temperatura mais fria, criando um espetáculo de luz brilhante. Créditos: NASA/CXC/A.Jubett.]

Estrelas são bolas de gás e poeira com a particularidade que elas conseguiram juntar tanto gás e tanta poeira (graças à força gravitacional) que o núcleo dessas bolas esquentou, e esquentou, até atingir uma temperatura em torno de 4 milhões de Kelvins! Isso é tipo um cadinho menos que 4 milhões de graus Celsius! 🔥😵🔥 Essa temperatura é especial porque significa que agora a nossa “bolinha de poeira” tem energia suficiente para fusionar os núcleos de hidrogênio originando novos núcleos de hélio. E isso acontece bilhões de vezes por segundo, e cada fusão desse tipo gera mais energia, numa cadeia de inúmeras explosões atômicas. É essa energia liberada no processo de fusão que transforma a ex-bola de gás numa bola de gás incandescente: uma estrela.

Vídeo 2: Simulação sobre a formação estelar. O início da simulação parte de uma nuvem molecular distribuída esfericamente que, graças ao efeito da gravidade, começa a colapsar até eventualmente originar estrelas. Créditos: Youtube/Francis Villatoro.

Durante esse período no qual a estrela transforma o hidrogênio presente em seu núcleo em hélio, dizemos que a estrela está na sequência principal de sua evolução estelar. E essa também corresponde a maior fase da vida de uma estrela, como se fosse sua vida adulta.

Se você quer entender melhor como estrela evoluem, dá uma olhada nessa simulação maneiríssima onde você mesma, pessoa, escolhe o tamanho da sua estrela. Tá em português!

 

Só para dar uma ideia..
uma estrela como o nosso Sol demorou 50 milhões de anos para juntar energia suficiente antes de começar a fusionar hidrogênio. Ela está na sequência principal (fase adulta) há aproximadamente 5 bilhões de anos e assim vai permanecer por mais uns 5 bilhões de anos.🌞

 

Depois que a estrela queima o hidrogênio do seu núcleo, os eventos seguintes dependem da massa da estrela. Estrelas entre 0,08 até ~8 massas solares são consideradas estrelas de baixa massa. E estrelas superiores a 8 massas solares estão na categoria de estrelas massivas. A estrela mais massiva observada até hoje tem 265 vezes a massa do Sol, mas estima-se que no começo de sua fase na sequência principal sua massa foi de 320 vezes a massa do Sol! 🤯

Talvez você esteja pensando que estrelas de massivas “vivam” mais do que estrela com menos massa, mas é o contrário. A força gravitacional das estrelas massivas é maior do que as com menos massa. Por isso, a pressão do seu núcleo é muito maior, o que eleva ainda mais a temperatura, fazendo com que queimem o seu hidrogênio muito mais rápido do que estrelas menos massivas. Uma estrela com baixa massa fica na sequência principal por dezenas de bilhões de anos, enquanto estrelas massivas “apenas” por centenas de milhões de anos. Fala sério, vai me dizer que não bateu um alívio do Sol ser do time das baixinhas agora! 

 

Voltando ao assunto, depois que a estrela queima o hidrogênio do núcleo, ela passa a queimar outros elementos (ou o hidrogênio de camadas fora do núcleo), desde que ela atinja a energia de fusão desses outros elementos químicos. E, como você pode imaginar pelo papo que tivemos até aqui, quanto maior a massa da estrela, maior a temperatura que ela pode atingir. Então, quanto mais massiva, mais elementos químicos ela produz.

Sendo assim, estrelas de baixa massa têm energia suficiente para produzir carbono, nitrogênio e oxigênio. Estrelas massivas produzem esses elementos e continuam colapsando e subindo a temperatura de seus núcleos produzindo, subsequentemente, elementos químicos até chegar ao Ferro. Dá uma olha na tabela periódica a seguir para conferir os elementos.

Figura 2: Tabela periódica com elementos produzidos na natureza e legenda representando os eventos que os produzem. Em azul, nucleossíntese do Big Bang; em verde, a morte de estrelas de baixa massa; em rosa, fissão de raios cósmicos; em dourado, explosão de estrelas massivas; em roxo, colisão de estrelas de nêutrons; e em cinza, explosão de anãs brancas. Créditos: Wikipedia/Jennifer Johnson (OSU).

 

E agora vamos ao nosso bate-bola!

Evento: Nucleossíntese estelar

Quando acontece

Dentro das estrelas, durante a fase principal da vida das estrelas e depois em sucessivos processos anteriores a sua morte.

O que é 

As estrelas fundem elementos químicos através de fusão nuclear de forma a manterem sua estabilidade hidrostática: o equilíbrio entre a força gravitacional gerada pelo efeito sua própria massa (pressão “para dentro” da estrela) contra a radiação eletromagnética produzida durante a fusão dos elementos (pressão “para fora” da estrela).

O que é produzido

Desde do hélio-4, a partir do fusão dos núcleos de hidrogênio, até o oxigênio-16 em estrelas de baixa massa. Em estrelas massivas são produzidos elementos desde o hélio-4 até o ferro-56. Veja na tabela periódica a seguir os outros elementos químicos.

Escala de energia
  • o hélio-4 é produzido a temperaturas de 4 milhões de Kelvins;
  • o oxigênio-16 a 2 bilhões de Kelvins;
  • e o ferro-56 a 3 bilhões de Kelvins.
Em quanto tempo são produzidos
  • todo o hélio-4 é produzido em dezenas de milhões de anos;
  • a produção de oxigênio-16 em menos de 1 ano;
  • e, por fim, todo o ferro-56 em menos de 1 segundo!!!
Com que frequência ocorre 

Isso está acontecendo desde que o universo tinha aproximadamente 100 milhões de anos. Hoje, estima-se que o universo tem mais ou menos 14 bilhões de anos e em torno de 2 trilhões de galáxias. E cada galáxia tem em torno de 100 milhões de estrelas, das quais 90% estão na fase de transformar hidrogênio em hélio e as outras 10% estão produzindo outras coisas. Vou deixar para você contar quantas estrelas estão queimando hidrogênio nesse exato instante 😉

Os dados desse bate-bola foram retirados dessa aula super legal do Dr. Dmitry Semenov, Instituto de Astronomia Max Planck, na Alemanha.

 

Espero que você esteja pensando “tá legal, mas perá lá! E o que acontece depois disso? Como é que a estrela libera tudo isso no espaço? Cadê estrela de nêutrons, buracos negros e supernovas? Falta coisa aí!”. E você está certíssima, pessoa! E esse será o tema do nosso próximo papo: os elementos químicos produzidos na morte das estrelas. ⭐💥💀💫

Vídeo 3: Animação da formação de uma nebulosa planetária. Ao contrário do que o nome sugere nebulosas planetárias não dão origem a planetas. Elas são a sopa quente e poderosa de elementos químicos formadas após a explosão de anã branca. 🤩 Esse é tipo o de fim de vida que nosso Sol vai levar. 💥 Créditos: NASA/ESA/J.Gitlin(STScI).

0

O modelo de Ising e comportamento críticos: dos spins eletrônicos às escolhas nas eleições

OU da aplicação de memes do Choque de Cultura em um texto sobre ciência

Você sabe o que é spin eletrônico? Na mecânica quântica o termo spin eletrônico está ligado às orientações que o elétron podem apresentar. O spin está ligado ao vetor momento angular próprio de uma partícula.

Entendeu?

1

Não entendeu?

2

Então vem comigo e RODA O VETÊ, SIMONE.

Bom, imagina o elétron. Ele é uma partícula muito pequena, tão pequena que a gente fala que em comparação ao átomo (que já é muito pequeno) o tamanho dele é desprezível. Muito pequeno mesmo, tão pequeno que era menor que o short curtíssimo, extremamente provocante que o Renan usou porém não recebeu nenhum olhar. Mas a gente sabe que o elétron se movimenta em torno do átomo e precisa representar esse movimento de alguma forma, não precisa? A forma mais interessante de representar essa situação toda é através de um vetor (que é representado por uma seta) já que um vetor tem módulo, direção e sentido definidos. O bacana de usar um vetor nessa representação é que eles possuem sentido físico e matemático. Então é possível fazer contas para representar matematicamente o seu comportamento. Legal, não é?

Aí entra o Ising.

3

Ernest Ising e sua fantástica esposa Johanna Annette Ehmer Ising durante um acampamento de verão

Ernest Ising (1900-1998) foi um físico alemão que teve uma vida muito tranquila e escreveu o modelo conhecido como Modelo de Ising, recebeu muita pompa e muito confete a vida inteira e morreu com 98 anos, rodeados por seus 4 filhos, 14 netos e 2 cachorros: Ponzo e Lila. Bacana, não é?

4

A vida de Ising foi muito instável e um pouco triste também, gente.

Aviso: esse texto agora vai tomar um ar bastante sério.

Ele foi um rapaz muito inteligente e bastante precoce, nasceu em 10 de maio de 1900 na cidade de Colônia, na Alemanha. Sua mãe era Thekla Ising Lowe Nee e seu pai era Gustav Ising, a família trabalhava no comércio. Aos 2 anos Ising se mudou para a cidade de Bochum onde Ising passou a infância e iniciou os estudos. Em 1919, quando completou 19 anos, nosso protagonista iniciou os estudos na Universidade de Göttingen onde estudou física e matemática. Os anos de 1922 a 1930 foram dedicados aos estudos de pós-graduação de Ising e também à sua vida pessoal, já que em 1930 ele se casou com Johanna e se tornou “studienassessor” (o que seria equivalente ao título de professor de ensino superior nos anos iniciais da profissão, antes da aprovação em estágio probatório) em uma respeitada instituição Alemã.

Queria ressaltar uma coisa, Johanna também era acadêmica. Ela estudou economia na Universidade Frederick William em Berlim. Em 1926, Ising escreveu uma tese sobre “O problema do desemprego na Inglaterra depois de 1920 e recebeu seu diploma de doutorado”

Mas o ano de 1933 chega e traz a ascensão de Hitler ao poder na Alemanha. E um detalhe que não deveria fazer diferença alguma e que eu não contei ainda sobre Ising: ele era judeu.

Ising (assim como quase todo trabalhador judeu) foi demitido e ficou por um tempo em trabalhos informais até se fixar, posteriormente, em uma pequena sala de aula. No entanto, no fim de 1938 a escola onde Ising trabalhava foi totalmente devastada pois era parte do “programa de governo” que planejava expulsar e extinguir o povo judeu da Alemanha.

No dia 27 de janeiro de 1939, Ising foi interrogado por muitas horas depois que ele foi levado pela Gestapo (Existe divergência entre os biógrafos se Ising sofreu ou não tortura física neste interrogatório e  na “minha opinião pessoal” eu acredito que sofreu sim). Ising e sua esposa se veem, então, obrigados a deixar o país e se mudam para Luxemburgo, onde realizam trabalhos pesados para garantir sua subsistência. No ano de 1947, finalmente, Ising e Johanna se mudam para os EUA onde conseguem retomar suas carreiras acadêmicas como professores universitários.

Em meio a esses anos de estudo voltados à sua pós-graduação, Ising escreveu seu modelo que tratava dos comportamentos críticos dos spins eletrônicos, chamado contemporaneamente de modelo de Ising. Ising estava no doutorado e seu orientador, Wilhelm Lenz, estava estudando fenômenos ligados ao magnetismo em alguns materiais. Ising propôs um modelo onde os spins são definidos como variáveis discretas que podem assumir o valor de +1 ou -1. A interação entre os spins sempre acontece em pares e a energia possui um valor quando os dois spins são iguais e outro valor quando os spins da interação são diferentes. Algo que pode ser mostrado como:

5

Se nós considerarmos um conjunto grande de spins que estão interagindo sob a ação de acontecimentos comuns a toda a população de spins, existe uma alteração importante no efeito da coletividade quando o local onde os spins estão sofre um aumento de temperatura. O nome disso é perda do fenômeno de histerese, que é justamente essa capacidade de agir como um agrupamento coletivo que tem suas propriedades dependentes dos fenômenos aplicados anteriormente ao sistema.

Um estudo de 2017 de Juan Carrasquilla e Roger G. Melko mostrou que arquiteturas modernas de aprendizado de máquina, como redes neurais totalmente conectadas, podem identificar fases e transições de fase que seguem o modelo de Ising.

Mas quando lemos a frase “existe uma alteração importante no efeito da coletividade quando o local onde os spins estão sofre um aumento de temperatura” a gente logo pega a referência, não é? Dando um salto (enorme) do micro pro macro, vemos que as populações também se comportam dessa forma.

6

Inclusive, outro estudo importante, também de 2017, da equipe do pesquisador Pinkoviezky mostrou algo ainda mais surpreendente: que a tomada de decisão coletiva também pode ser explicada pelo modelo de Ising.

Bom, sabemos que a tomada de decisão coletiva crucial para grupos de diversos animais, inclusive dos humanos. Uma forma de pensar, simplificando esse fenômeno, é um cenário de dois subgrupos que possuem direções de movimento preferidas conflitantes. Direita e esquerda, por exemplo, rs. Quanto mais coeso o grupo, de forma mais unitária ele conduz o movimento para um compromisso ou para um dos alvos preferidos. O estudo mostrou também que o movimento do grupo muda de forma dependente do tamanho em altas temperaturas (que seriam situações de grande perturbação, comparados no trabalho com a desinfomação). Dessa forma os cientistas perceberam a existência de uma dinâmica geral muito semelhante com o papel da temperatura sendo medida e comparada pelo inverso do número de indivíduos desinformados.

A equipe de Pinkoviezky publicou um estudo em 2018 aplicando o modelo de Ising a tomada de decisão do indivíduo, baseada em seu comportamento cerebral. Citando os autores, em livre tradução:

“A velocidade instantânea do grupo desempenha o papel da taxa de disparo dos neurônios enquanto a posição do grupo é a taxa de disparo integrada.

Podemos, portanto, propor que os tamanhos dos grupos neuronais e seus níveis de ruído intrínseco possam ser otimizados em redes que controlam os processos de tomada de decisão. Essa analogia pode ser mais explorada no futuro.”

O grupo pretende expandir o modelo futuramente incluindo situações como transformar em variáveis a força das situações sociais dependente da história do indivíduo e, também, dar a cada indivíduo mais de duas opções.

Dessa forma observamos que modelos usados para descrever comportamentos de partículas também podem ser aplicados ao estudo de populações. Observamos também que é possível sim usar memes do Renan, nosso guerreiro, para tornar mais leve um texto sobre aplicações de estudos físico-químicos.

De forma geral:

7

Referências:

ISING, Ernst. Beitrag zur theorie des ferromagnetismus. Zeitschrift für Physik, v. 31, n. 1, p. 253-258, 1925.

SANTOS, Murilo Lacerda. Simulação de monte carlo no modelo de Ising na rede quadrada. 2014. Tese de Doutorado. Dissertação (mestrado em física)–Universidade Federal de Minas Gerais. UFMG.

PINKOVIEZKY, Itai; GOV, Nir; COUZIN, Iain. Ising model for collective decision making during group motion. In: APS March Meeting Abstracts 2017.

CARRASQUILLA, Juan; MELKO, Roger G. Machine learning phases of matter. Nature Physics, v. 13, n. 5, p. 431, 2017.

PINKOVIEZKY, Itai; COUZIN, Iain D.; GOV, Nir S. Collective conflict resolution in groups on the move. Physical Review E, v. 97, n. 3, p. 032304, 2018.