0

Cérebro crítico: novas evidências para uma teoria sobre transições de fase entre estados cerebrais.

Várias vezes usamos expressões como “minha cabeça está fervendo” ou “meu cérebro derreteu” numa analogia despretensiosa entre as super conhecidas transições de fase do estado líquido para o gasoso ou do sólido para o  líquido. Mas existe, de fato, uma hipótese relacionando os estados do nosso cérebro e as transições de fase em sistemas físicos. E a pergunta da moda é “Que transição seria essa?”

 

 

Quando você abre uma caneca de café quentinho (daquelas que têm uma tampinha para o café não esfriar), inevitavelmente algumas moléculas do vapor de café se difundem no ar e atingem seu nariz. Isso garante que você poderá sentir o aroma desta iguaria (que facilita o avanço da ciência há muitos séculos).  E isso só acontece porque alguns neurônios receptores no seu nariz são capazes de identificar estas moléculas e transmitir essa informação através de sinais elétricos para diferentes regiões do seu cérebro. Ou seja, um processo que começa em uma escala molecular vai ser transmitido para regiões cada vez maiores do seu sistema nervoso de maneira a gerar uma reação cognitiva na escala comportamental. Por exemplo, desencadeando um sorriso ou uma careta se o cheiro for agradável ou não.

Uma questão ainda em aberto no meio científico é como relacionar a atividade cerebral que ocorre em diferentes escalas de tempo e espaço e o nosso comportamento. Em outras palavras como a atividade aparentemente desordenada de tantos neurônios respondendo a estímulos externos pode se tornar organizada para dar origem a padrões tão complexos de comportamento. E é aqui que as ideias de transições de fase [1] e criticalidade podem nos ajudar.

No caso particular do nosso exemplo com o café, poderíamos pensar numa transição de fase entre dois estados específicos: um com muita atividade desencadeada pelos neurônios receptores e outro sem atividade. Imagine que os neurônios do nariz estivessem fracamente conectados entre si, ou que a capacidade de resposta deles a um estímulo fosse muito pequena. Neste caso, você só sentiria o cheiro de café se praticamente encostasse o líquido no nariz. Dizemos que nesta fase seria necessário um estímulo muito grande para que a atividade dos neurônios fosse mantida por tempo suficiente para que percebêssemos o aroma. Caracterizamos este estado como absorvedor, uma vez que para estímulos pequenos os neurônios rapidamente iriam parar de disparar ou ficariam em silêncio e a informação não se propragaria.

Por outro lado, se os neurônios do nariz estivessem fortemente conectados ou em um regime super sensível, bastaria alguém esquecer um copinho de café em cima da mesa (ver Figura 1) a muitos metros de distância que seus sensores já seriam capazes de perceber o cheiro. Além disso, se a atividade elétrica não diminuísse facilmente, você poderia passar o dia todo com a sensação de que ainda estava sentindo o tal cheirinho de café. Dizemos que esse estado é ativo, pois qualquer estímulo, por menor que seja gera uma resposta alta e duradoura.

Texto12Game-of-Thrones-copo-do-Starbucks

Figura 1: Imagem do copinho de café mais famoso do ano. (Se você não acompanhou as fofocas de Game of Thrones pode ler mais sobre esse cafezinho aqui.)

Pensando sobre esses dois extremos, parece razoável imaginar que o ideal é que nossos neurônios operem em um estado intermediário entre o silencioso e o ativo. Portanto, é fácil imaginar que exista um ponto ótimo no meio do caminho entre ser absorvente e ser super reativo e que talvez o nosso cérebro poderia estar próximo a este ponto. Essa analogia foi bastante utilizada nos últimos anos para exemplificar uma possível transição de fase no cérebro e uma preferência por estados próximos ao ponto crítico onde essa transição ocorreria.

Mas de onde veio essa ideia?

Nos anos 80 o físico Per Bak propôs que, através de interações locais, diversos sistemas complexos poderiam se auto organizar em torno de um ponto crítico. Esta criticalidade estaria, em geral, relacionada a uma transição de fase entre um estado bagunçado e outro mais organizado. Esse fenômeno ficou conhecido como criticalidade auto organizada e tem como uma das principais características a presença de distribuições do tipo lei de potência [2] em que eventos pequenos (ou de curta duração) têm uma probabilidade maior de ocorrer do que eventos grandes (ou de longa duração). Per Bak também propôs que o cérebro funcionaria de acordo com esses mesmos princípios. Segundo esta teoria, que ficou conhecida como criticalidade cerebral ou hipótese do cérebro crítico, a atividade neuronal obedeceria às mesmas leis matemáticas que o deslizamento dos grãos de areia empilhados na base de uma ampulheta. Ou seja, que a ocorrência de certos eventos, chamados avalanches, com diferentes tamanhos permitiriam manter a estabilidade global do sistema. No caso da areia as avalanches são deslizamentos de uma certa quantidade de grãos. Enquanto que no caso do cérebro essas avalanches seriam disparos elétricos de alguns neurônios.

Em 2003 Beggs e Plenz [3] publicaram a primeira evidência experimental para sustentar a hipótese do cérebro crítico. Eles mostraram que a atividade elétrica espontânea dos neurônios em fatias de cérebro de ratos, de fato, exibe uma lei de potência. Isto é, a probabilidade P(s) de observar uma avalanche com s disparos neuronais é proporcional a s elevado a um certo expoente (nesse caso: P(s)~s^(-1,5)).

Desde então muitos outros estudos mostraram evidências a favor desta hipótese, mas também contra ela. Um dos pontos fracos da teoria foi levantado em um estudo recente, que mostrou que a assinatura de lei de potência também pode ser encontrada em sistemas que estão longe de um ponto crítico [4]. Outro ponto contra é que a ideia da transição de fase no nosso exemplo do café entre um estado silencioso e outro ativo não leva em conta que o estado silencioso não é encontrado em um cérebro vivo. Ela também deixa de fora um estado cortical bastante conhecido dos experimentos em neurociência que diz respeito às oscilações cerebrais (alguns deles já descritos anteriormente aqui, aqui e aqui).

Certo, mas e daí?

E daí que, em maio deste ano, um grupo de físicos brasileiros (trabalhando em universidades públicas) publicou em uma das revistas internacionais mais importantes da física o que pode ser considerada a evidência mais forte em favor da hipótese do cérebro crítico [5]. Fortalecendo, portanto, a ideia de que o cérebro, de fato, opera em um ponto intermediário entre dois estados cerebrais diferentes. Além disso, os resultados deste trabalho sugerem que a transição de fase não ocorre entre um estado absorvente e outro ativo como no exemplo inicial do cafezinho, mas sim entre duas fases ativas: sincronizada e dessincronizada.

O grupo estudou a atividade elétrica do córtex visual primário em ratos anestesiados e utilizou uma medida da variabilidade desta atividade ao longo do tempo [6] para quantificar os diferentes estados corticais (ver exemplo de três estados diferentes na Figura 2(a)). Os estados encontrados para o tipo específico de anestesia utilizada variam desde uma atividade muito sincronizada (parecida com a que ocorre em alguns estágios do sono) até uma atividade aparentemente aleatória (parecida com estados acordados). O grupo mostrou que os tamanhos e durações das avalanches neuronais obedecem às distribuições de leis de potência verificadas in vitro no estudo de 2003 (ver Figura 2(b)). E que alguns dos resultados também são encontrados em dados de domínio público de experimentos realizados com outros animais (macaco, tartaruga e rato).

Texto12GraficoFinal

Figura 2. Modificada da Referência [5]: Visão geral dos resultados experimentais fortalecendo a hipótese do cérebro crítico. (a) Atividade do córtex visual do rato anestesiado em três diferentes estados corticais com coeficiente de variação e nível de sincronização crescendo da esquerda para direita. (b) Distribuição do tamanho das avalanches P(S) obedecendo uma lei de potência para o estado de sincronização intermediária (vermelho). (c) Relação de escala mais rígida para os coeficientes críticos que só é obtida quando a curva azul e preta se interceptam. Indicando que a transição de fase ocorre em estados de sincronização nem muito alta nem muito baixa.

 Os pesquisadores mostraram ainda que os dados obedecem a uma condição matemática mais rigorosa do que somente a existência de uma lei de potência, e que reforça a hipótese de criticalidade. Em particular, essa condição mais especial de criticalidade não é satisfeita para qualquer valor de atividade, mas somente em estados corticais que estão entre regimes de alta e baixa sincronização (caracterizado por valores intermediários do coeficiente de variação, como mostrado na Figura 2(c)). Isto significa que a transição de fase pode ocorrer entre um estado com atividade muito aleatória e outro com atividade muito sincronizada.

Finalmente, o grupo analisou um modelo teórico de neurônios excitatórios e inibitórios chamado CROS (sigla do inglês para oscilações críticas, critical oscillations) que pode representar uma transição para um estado com oscilações corticais. Eles mostraram que as relações entre os expoentes críticos obtidos a partir deste modelo são mais parecidas com as obtidas utilizando os dados experimentais analisados do que o modelo bem conhecido de transição entre estados ativos e inativos (como no exemplo do café).

Todas estas novas evidências fortalecem a hipótese de que o cérebro pode estar operando próximo a uma transição de fase entre dois estados bem definidos; e abre novas perspectivas na busca de um modelo teórico, baseado em mecânica estatística, que explique a diversidade dos expoentes críticos obtidos com diferentes dados experimentais. Esperamos que a determinação de tal modelo contribua para um melhor entendimento do cérebro como um todo; e da relação entre as escalas neuronais microscópicas e as escalas macroscópicas do comportamento.

E, claro, esperamos que pesquisas como essa sirvam de exemplo para a sociedade sobre a qualidade e a importância do trabalho que é realizado nas Universidades Federais do nosso país.

Referências e comentários:

[1] As transições de fase mais conhecidas estão relacionadas com os estados sólido, líquido e gasoso da matéria. Em particular estamos bastante acostumados com transições chamadas de primeira ordem onde coexistem gelo e água líquida, ou água líquida e vapor que podem ser induzidas por fornecimento de calor e ocorrem a uma temperatura constante e que depende da pressão. Existem porém transições ditas de segunda ordem que possuem características diferentes das de primeira ordem. Por exemplo, no ponto crítico do diagrama pressão versus temperatura da água temos uma transição de segunda ordem em que o fluido está tão quente e comprimido que não é possível diferenciar as fases líquida e gasosa.

[2] Matematicamente a probabilidade P de ocorrer um evento de tamanho s é dada por: P(s)~(s)^k  e este gráfico pode ser representado por uma reta em escala log-log. Diferentemente da distribuição normal (Gaussiana) este tipo de distribuição não apresenta um tamanho característico.

[3] Beggs, John M., e Dietmar Plenz. “Neuronal avalanches in neocortical circuits.” Journal of neuroscience 23.35 (2003): 11167-11177.

[4] Touboul, Jonathan, and Alain Destexhe. “Power-law statistics and universal scaling in the absence of criticality.” Physical Review E 95.1 (2017): 012413.

[5] Fontenele, Antonio J., et al. “Criticality between cortical states.” Physical review letters 122.20 (2019): 208101.

[6] O coeficiente de variação CV de uma série temporal é definido como a razão entre o desvio padrão da atividade e sua média.

Outros textos sobre criticalidade cerebral:

https://www.quantamagazine.org/toward-a-theory-of-self-organized-criticality-in-the-brain-20140403/

https://www.quantamagazine.org/do-brains-operate-at-a-tipping-point-new-clues-and-complications-20190610/

Anúncios
0

O laboratório e o dia-a-dia – Parte II: O que um cientista faz com aquilo que ainda não conseguiu explicar?

Na parte 1 do artigo, conversamos um pouco sobre variáveis dependentes e independentes, falseabilidade e sobre alguns dos objetos de estudo da ciência, e sobre como evitar uso de explicações não consistentes ou não verificáveis dentro do aparato teórico que já temos, evitando extrapolações de afirmações sobre as causas dos fenômenos que estamos estudando. 

Em resumo, queremos evitar misturar afirmações que são verificáveis na prática com conceitos abertos e subjetivos que não temos como verificar, já que esta mistura pode tanto atribuir uma falsa credibilidade científica a pensamentos que estão fora do escopo da ciência (como a existência do sobrenatural) quanto limitar a investigação de um fenômeno complexo através do uso de hipóteses que buscam unicamente cobrir buracos que a teoria ainda não explicou, o que chamamos de hipóteses ad hoc.

Não é só fora do léxico científico que acontecem falhas lógicas para explicar fenômenos. É muito comum, especialmente em manchetes de revistas não especializadas que falam sobre a área de saúde, que se divulguem pesquisas que relacionam, por exemplo, determinados hábitos a doenças. Muitas destas relações possuem de fato fundamentação e uma teoria coerente que as suporta, mas muitas vezes o fenômeno ainda não foi completamente desvendado, ou mesmo está sendo estudado através da observação de padrões que não necessariamente possuem relevância estatística ou relação de causa-consequência, como já foi ilustrado neste artigo.

Muitas vezes também, a chamada da revista que menciona a pesquisa faz um recorte muito reduzido do que a pesquisa realizou de fato, ou menciona números de casos de determinada doença sem mencionar a proporção na população. Daí a importância de não se ater aos títulos e de procurar outras fontes antes de, por exemplo, começar aquela nova dieta que vai te ajudar a evitar rugas, emagrecer e prevenir o câncer.

Alguns fenômenos são bastante complexos e envolvem situações impossíveis de serem reproduzidas em laboratório, até porque nem todas as variáveis são conhecidas. Alguns envolvem uma complexidade que é controlável mas cujas relações estabelecidas não são necessariamente diretas.

Suponha que eu queira, por exemplo, estudar a relação entre o tamanho de uma sala onde uma festa está acontecendo e a probabilidade de alguém quebrar um copo de cerveja. Talvez a chance de algum premiado espatifar um copo esteja relacionada com outros fatores, como a faixa etária dos convidados, a proporção entre homens e mulheres e até mesmo os tipos de cerveja que estão sendo servidas. Mas se queremos descobrir se pode existir um modelo que relacione apenas a probabilidade com a área livre da sala, ignorando todas as demais variáveis (conhecidas e desconhecidas), estamos analisando a probabilidade como variável dependente e a área livre da sala como única variável independente.

Qual a relação entre o tamanho da sala e a chance de alguém quebrar um dos copos? Crédito: Daniel Valverde/pixabay.

Pode ser que, após estudar muitas festas e muitas salas, eu chegue a um padrão que pareça relacionar de forma consistente as duas variáveis. Tudo deve passar por testes estatísticos criteriosos e, mesmo que a relação passe por todos estes testes, dificilmente teremos uma explicação de fato para as causas da relação entre quebra de copos e o tamanho da sala. Além disso, pode haver ligação entre vários fatores que foram ignorados (por exemplo, o tamanho da sala pode interferir a quantidade de pessoas que serão convidadas para a festa, que vai interferir no número de copos que serão quebrados, ou ainda pode ser que os dados que foram disponibilizados não tenham levado em conta a faixa etária e o poder aquisitivo dos anfitriões, ou mesmo se foram utilizados copos de plástico no lugar de copos de vidro). 

Para que se desenvolva de fato um estudo, tese ou teoria sobre como o tamanho da sala influencia na quantidade de copos quebrados, não basta achar correlações entre números.  O papel do cientista aqui é apresentar um olhar crítico sobre a relação encontrada e, se for o caso, propor abordagens do problema que tenham embasamento teórico a partir do trabalho já realizado por outros cientistas, levando em consideração todas as variáveis conhecidas e propondo, quando for o caso, a influência de variáveis que não foram levadas em conta, que poderão ser então verificados por outros cientistas.

Enquanto não houver nenhum resultado baseado em evidências e verificável por outros cientistas, ainda não se está fazendo ciência. Ou seja, se eu encontrar uma relação mágica entre os tamanhos das salas e o número de copos quebrados na festa, esta relação só passa a ser cientifica se ela puder ser posta à prova por outras pessoas em condições rigorosas e reprodutíveis. Isto não quer dizer que teorias científicas constituem a verdade absoluta, ou que elas proporcionem respostas sobre todas as causas dos fenômenos estudados, mas sim que aquele é o ponto máximo a que se pôde chegar, neste momento, a conclusões com o máximo de rigor possível utilizando-se o pensamento racional.

Trata-se de um trabalho cumulativo, lento, colaborativo e que exige tempo e muita verificação e senso crítico para se consolidar e gerar aplicações para a sociedade e para outras áreas da ciência.

 

 

0

O laboratório e o dia-a-dia: O que é o método científico e por que ele é o maior inimigo das fake news?

Na ciência, busca-se o tempo todo correlacionar fenômenos com suas causas e consequências, a fim de se compreender como o mundo funciona. Contudo, os tipos de correlação e as dificuldades experimentais que cientistas precisam enfrentar variam de área para área, e evoluem conforme o campo de estudo amadurece.

Por exemplo, se queremos estudar um fenômeno físico, como a relação matemática entre a temperatura e a dilatação de uma barra de metal (o quanto ela varia em comprimento quando aquecido ou resfriado), precisamos realizar uma série de medições de temperatura e do comprimento do objeto, além de levar em conta diferentes tipos de materiais (cada material possui um coeficiente de dilatação diferente, ou seja, diferentes materiais vão dilatar mais ou menos quando sujeitos à mesma variação de temperatura).

Neste caso, chamamos a dilatação do objeto de variável dependente (aquela que depende de outras variáveis que estamos estudando), e a variação de temperatura, o comprimento inicial e o coeficiente de dilatação de variáveis independentes (que são aquelas que estamos controlando a fim de estudar a dilatação). Neste caso termodinâmico, é relativamente simples inferir quais as variáveis dependente e independentes, mas às vezes estas relações não são óbvias a uma primeira vista.

Além disso, estas medições sozinhas não nos fornecem as causas materiais da dilatação, ou seja, as estruturas por trás da mudança de tamanho provocada por alteração da temperatura, mas podem nos fornecer padrões o suficiente para estabelecermos relações matemáticas e podermos prever com boa confiabilidade o quanto determinado material vai dilatar em determinadas circunstâncias (o que culmina em diversas aplicações práticas em várias áreas do conhecimento, por exemplo na engenharia civil).

Quais variáveis têm influência sobre meu objeto de estudo? Créditos: Rebeca Bayeh.

No entanto, ao longo da história da ciência, vários modelos de termodinâmica e de estrutura dos materiais já foram desenvolvidos de forma que seja possível, no caso deste fenômeno, não só prever com boa confiabilidade o comportamento dos materiais estudados em diferentes temperaturas, mas fornecer explicações para as causas do fenômeno da dilatação. Quanto mais suporte teórico e experimental uma teoria científica tem, maior sua credibilidade.

Essa credibilidade passa também pelo quanto determinada afirmação pode ser falseável. O conceito de falseabilidade foi introduzido pelo filósofo Karl Popper, e diz respeito ao quanto uma afirmação ou teoria permitem que sejam realizadas investigações que as refutem.

Por exemplo, no caso dos objetos que dilatam com o calor, alguém poderia observar em laboratório que toda barra de ferro dilata X quando é aquecida em dez graus Celcius. Poderíamos “falsear” essa afirmação fazendo experimentos que medissem a dilatação de diferentes barras de ferro com diferentes tamanhos iniciais e diferentes temperaturas iniciais, sempre variando dez graus.

Caso as barras, dentro de condições controladas de laboratório e utilizando-se estatística apropriada, se comportem de forma semelhante à da afirmação que estamos tentando falsear (o que não aconteceria aqui, pois já sabemos que a dilatação dependeria sim do comprimento inicial da barra), estaríamos fornecendo com isso mais embasamento para uma teoria. Caso contrário, e caso se verifique que não houve falhas sistemáticas na realização do experimento, estamos falseando a afirmação inicial. Quando isso acontece na ciência, surge debate e reflexão sobre quais as variáveis que podem não estar sendo levadas em conta, quais as possíveis falhas experimentais do experimento original (e dos experimentos dele derivados) e quais as causas do fenômeno estudado.

Quando o monge e botânico Gregor Mendel desenvolveu, no século XIX, seus princípios de hereditariedade, que seriam base para os estudos em Genética, ele desconhecia a existência de genes ou mesmo a existência do DNA, e portanto não pôde explicar as causas através das quais as cores das ervilhas que ele estudou dependiam das cores das plantas que foram cruzadas. Contudo, os padrões de hereditariedade verificados experimentalmente por ele em plantas são verificáveis e falseáveis, e seu trabalho serviu como base para o que viria a ser posteriormente a Genética moderna.

Muitas vezes, quando cientistas se depararam com padrões de fenômenos que podiam observar, mas cujas causas eram desconhecidas, foram atribuídos significados místicos e religiosos para estes fenômenos. Quando isso acontece, estamos saindo do campo da ciência. Por exemplo, se eu observo que qualquer barra de ferro dilata sempre proporcionalmente ao seu comprimento inicial e à sua variação de temperatura, eu posso fazer uma afirmação falseável acerca deste fenômeno (se alguém quiser testar minha afirmação, basta aquecer uma barra de ferro em um laboratório com condições controladas e verificar se a minha afirmação se sustenta). Contudo, se eu afirmar que a dilatação se dá por intervenção de um deus do calor que interveio em meu laboratório, esta afirmação não é falseável (não posso provar a existência do deus do calor nem sua presença no meu laboratório, e portanto não posso provar que esta foi a causa da dilatação da barra de ferro).

Além disso, o fato de eu não provar a não-existência do deus do calor não implica na existência do deus do calor. Cabe a quem fez a afirmação de que tal deus existia a comprovação do que está dizendo.

Analogamente, quando são compartilhadas notícias falsas (“fake news”) com afirmações mirabolantes nas redes sociais, cabe a quem fez as afirmações comprovar que o que está dizendo é verdade. O grande problema destes compartilhamentos é que as notícias costumam envolver um grande peso emocional e, muitas vezes, fazem com que os leitores sintam-se ameaçados por um oponente político que está supostamente prejudicando sua vida, sua família e seu senso de sagrado. É natural que fiquemos impressionados com ideias fortes e emotivas, mas cabe a nós verificar se as pessoas que as estão afirmando (e as que estão compartilhando, já que compartilhar é uma forma de re-afirmar) verificaram ou comprovaram tudo que estão alegando, ou se trata-se apenas de ideias fantasiosas que parecem ser verdadeiras apenas por possuir um vínculo com uma parte da realidade que já conhecemos ou porque elas intuitivamente fariam sentidos.

Muitas ideias científicas se iniciam de forma intuitiva, com um vínculo com a realidade já conhecida, como foi o caso das Leis de Mendel e de muitas outras, como a Teoria da Relatividade do Einstein. Mas as intuições isoladamente não constituem por si só o pensamento científico, e não cabe à ciência fornecer explicações para as causas de todos os fenômenos se estas causas não puderem ser estudadas de maneira criteriosa.

Trata-se de um trabalho colaborativo de longo prazo, que tem compromisso com a consistência, e não com a explicação de todas as verdades, e cujos paradigmas evoluem conforme a tecnologia se desenvolve e conforme são encontradas novas relações entre diferentes áreas dentro da ciência.

0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).