0

Cérebro crítico: novas evidências para uma teoria sobre transições de fase entre estados cerebrais.

Várias vezes usamos expressões como “minha cabeça está fervendo” ou “meu cérebro derreteu” numa analogia despretensiosa entre as super conhecidas transições de fase do estado líquido para o gasoso ou do sólido para o  líquido. Mas existe, de fato, uma hipótese relacionando os estados do nosso cérebro e as transições de fase em sistemas físicos. E a pergunta da moda é “Que transição seria essa?”

 

 

Quando você abre uma caneca de café quentinho (daquelas que têm uma tampinha para o café não esfriar), inevitavelmente algumas moléculas do vapor de café se difundem no ar e atingem seu nariz. Isso garante que você poderá sentir o aroma desta iguaria (que facilita o avanço da ciência há muitos séculos).  E isso só acontece porque alguns neurônios receptores no seu nariz são capazes de identificar estas moléculas e transmitir essa informação através de sinais elétricos para diferentes regiões do seu cérebro. Ou seja, um processo que começa em uma escala molecular vai ser transmitido para regiões cada vez maiores do seu sistema nervoso de maneira a gerar uma reação cognitiva na escala comportamental. Por exemplo, desencadeando um sorriso ou uma careta se o cheiro for agradável ou não.

Uma questão ainda em aberto no meio científico é como relacionar a atividade cerebral que ocorre em diferentes escalas de tempo e espaço e o nosso comportamento. Em outras palavras como a atividade aparentemente desordenada de tantos neurônios respondendo a estímulos externos pode se tornar organizada para dar origem a padrões tão complexos de comportamento. E é aqui que as ideias de transições de fase [1] e criticalidade podem nos ajudar.

No caso particular do nosso exemplo com o café, poderíamos pensar numa transição de fase entre dois estados específicos: um com muita atividade desencadeada pelos neurônios receptores e outro sem atividade. Imagine que os neurônios do nariz estivessem fracamente conectados entre si, ou que a capacidade de resposta deles a um estímulo fosse muito pequena. Neste caso, você só sentiria o cheiro de café se praticamente encostasse o líquido no nariz. Dizemos que nesta fase seria necessário um estímulo muito grande para que a atividade dos neurônios fosse mantida por tempo suficiente para que percebêssemos o aroma. Caracterizamos este estado como absorvedor, uma vez que para estímulos pequenos os neurônios rapidamente iriam parar de disparar ou ficariam em silêncio e a informação não se propragaria.

Por outro lado, se os neurônios do nariz estivessem fortemente conectados ou em um regime super sensível, bastaria alguém esquecer um copinho de café em cima da mesa (ver Figura 1) a muitos metros de distância que seus sensores já seriam capazes de perceber o cheiro. Além disso, se a atividade elétrica não diminuísse facilmente, você poderia passar o dia todo com a sensação de que ainda estava sentindo o tal cheirinho de café. Dizemos que esse estado é ativo, pois qualquer estímulo, por menor que seja gera uma resposta alta e duradoura.

Texto12Game-of-Thrones-copo-do-Starbucks

Figura 1: Imagem do copinho de café mais famoso do ano. (Se você não acompanhou as fofocas de Game of Thrones pode ler mais sobre esse cafezinho aqui.)

Pensando sobre esses dois extremos, parece razoável imaginar que o ideal é que nossos neurônios operem em um estado intermediário entre o silencioso e o ativo. Portanto, é fácil imaginar que exista um ponto ótimo no meio do caminho entre ser absorvente e ser super reativo e que talvez o nosso cérebro poderia estar próximo a este ponto. Essa analogia foi bastante utilizada nos últimos anos para exemplificar uma possível transição de fase no cérebro e uma preferência por estados próximos ao ponto crítico onde essa transição ocorreria.

Mas de onde veio essa ideia?

Nos anos 80 o físico Per Bak propôs que, através de interações locais, diversos sistemas complexos poderiam se auto organizar em torno de um ponto crítico. Esta criticalidade estaria, em geral, relacionada a uma transição de fase entre um estado bagunçado e outro mais organizado. Esse fenômeno ficou conhecido como criticalidade auto organizada e tem como uma das principais características a presença de distribuições do tipo lei de potência [2] em que eventos pequenos (ou de curta duração) têm uma probabilidade maior de ocorrer do que eventos grandes (ou de longa duração). Per Bak também propôs que o cérebro funcionaria de acordo com esses mesmos princípios. Segundo esta teoria, que ficou conhecida como criticalidade cerebral ou hipótese do cérebro crítico, a atividade neuronal obedeceria às mesmas leis matemáticas que o deslizamento dos grãos de areia empilhados na base de uma ampulheta. Ou seja, que a ocorrência de certos eventos, chamados avalanches, com diferentes tamanhos permitiriam manter a estabilidade global do sistema. No caso da areia as avalanches são deslizamentos de uma certa quantidade de grãos. Enquanto que no caso do cérebro essas avalanches seriam disparos elétricos de alguns neurônios.

Em 2003 Beggs e Plenz [3] publicaram a primeira evidência experimental para sustentar a hipótese do cérebro crítico. Eles mostraram que a atividade elétrica espontânea dos neurônios em fatias de cérebro de ratos, de fato, exibe uma lei de potência. Isto é, a probabilidade P(s) de observar uma avalanche com s disparos neuronais é proporcional a s elevado a um certo expoente (nesse caso: P(s)~s^(-1,5)).

Desde então muitos outros estudos mostraram evidências a favor desta hipótese, mas também contra ela. Um dos pontos fracos da teoria foi levantado em um estudo recente, que mostrou que a assinatura de lei de potência também pode ser encontrada em sistemas que estão longe de um ponto crítico [4]. Outro ponto contra é que a ideia da transição de fase no nosso exemplo do café entre um estado silencioso e outro ativo não leva em conta que o estado silencioso não é encontrado em um cérebro vivo. Ela também deixa de fora um estado cortical bastante conhecido dos experimentos em neurociência que diz respeito às oscilações cerebrais (alguns deles já descritos anteriormente aqui, aqui e aqui).

Certo, mas e daí?

E daí que, em maio deste ano, um grupo de físicos brasileiros (trabalhando em universidades públicas) publicou em uma das revistas internacionais mais importantes da física o que pode ser considerada a evidência mais forte em favor da hipótese do cérebro crítico [5]. Fortalecendo, portanto, a ideia de que o cérebro, de fato, opera em um ponto intermediário entre dois estados cerebrais diferentes. Além disso, os resultados deste trabalho sugerem que a transição de fase não ocorre entre um estado absorvente e outro ativo como no exemplo inicial do cafezinho, mas sim entre duas fases ativas: sincronizada e dessincronizada.

O grupo estudou a atividade elétrica do córtex visual primário em ratos anestesiados e utilizou uma medida da variabilidade desta atividade ao longo do tempo [6] para quantificar os diferentes estados corticais (ver exemplo de três estados diferentes na Figura 2(a)). Os estados encontrados para o tipo específico de anestesia utilizada variam desde uma atividade muito sincronizada (parecida com a que ocorre em alguns estágios do sono) até uma atividade aparentemente aleatória (parecida com estados acordados). O grupo mostrou que os tamanhos e durações das avalanches neuronais obedecem às distribuições de leis de potência verificadas in vitro no estudo de 2003 (ver Figura 2(b)). E que alguns dos resultados também são encontrados em dados de domínio público de experimentos realizados com outros animais (macaco, tartaruga e rato).

Texto12GraficoFinal

Figura 2. Modificada da Referência [5]: Visão geral dos resultados experimentais fortalecendo a hipótese do cérebro crítico. (a) Atividade do córtex visual do rato anestesiado em três diferentes estados corticais com coeficiente de variação e nível de sincronização crescendo da esquerda para direita. (b) Distribuição do tamanho das avalanches P(S) obedecendo uma lei de potência para o estado de sincronização intermediária (vermelho). (c) Relação de escala mais rígida para os coeficientes críticos que só é obtida quando a curva azul e preta se interceptam. Indicando que a transição de fase ocorre em estados de sincronização nem muito alta nem muito baixa.

 Os pesquisadores mostraram ainda que os dados obedecem a uma condição matemática mais rigorosa do que somente a existência de uma lei de potência, e que reforça a hipótese de criticalidade. Em particular, essa condição mais especial de criticalidade não é satisfeita para qualquer valor de atividade, mas somente em estados corticais que estão entre regimes de alta e baixa sincronização (caracterizado por valores intermediários do coeficiente de variação, como mostrado na Figura 2(c)). Isto significa que a transição de fase pode ocorrer entre um estado com atividade muito aleatória e outro com atividade muito sincronizada.

Finalmente, o grupo analisou um modelo teórico de neurônios excitatórios e inibitórios chamado CROS (sigla do inglês para oscilações críticas, critical oscillations) que pode representar uma transição para um estado com oscilações corticais. Eles mostraram que as relações entre os expoentes críticos obtidos a partir deste modelo são mais parecidas com as obtidas utilizando os dados experimentais analisados do que o modelo bem conhecido de transição entre estados ativos e inativos (como no exemplo do café).

Todas estas novas evidências fortalecem a hipótese de que o cérebro pode estar operando próximo a uma transição de fase entre dois estados bem definidos; e abre novas perspectivas na busca de um modelo teórico, baseado em mecânica estatística, que explique a diversidade dos expoentes críticos obtidos com diferentes dados experimentais. Esperamos que a determinação de tal modelo contribua para um melhor entendimento do cérebro como um todo; e da relação entre as escalas neuronais microscópicas e as escalas macroscópicas do comportamento.

E, claro, esperamos que pesquisas como essa sirvam de exemplo para a sociedade sobre a qualidade e a importância do trabalho que é realizado nas Universidades Federais do nosso país.

Referências e comentários:

[1] As transições de fase mais conhecidas estão relacionadas com os estados sólido, líquido e gasoso da matéria. Em particular estamos bastante acostumados com transições chamadas de primeira ordem onde coexistem gelo e água líquida, ou água líquida e vapor que podem ser induzidas por fornecimento de calor e ocorrem a uma temperatura constante e que depende da pressão. Existem porém transições ditas de segunda ordem que possuem características diferentes das de primeira ordem. Por exemplo, no ponto crítico do diagrama pressão versus temperatura da água temos uma transição de segunda ordem em que o fluido está tão quente e comprimido que não é possível diferenciar as fases líquida e gasosa.

[2] Matematicamente a probabilidade P de ocorrer um evento de tamanho s é dada por: P(s)~(s)^k  e este gráfico pode ser representado por uma reta em escala log-log. Diferentemente da distribuição normal (Gaussiana) este tipo de distribuição não apresenta um tamanho característico.

[3] Beggs, John M., e Dietmar Plenz. “Neuronal avalanches in neocortical circuits.” Journal of neuroscience 23.35 (2003): 11167-11177.

[4] Touboul, Jonathan, and Alain Destexhe. “Power-law statistics and universal scaling in the absence of criticality.” Physical Review E 95.1 (2017): 012413.

[5] Fontenele, Antonio J., et al. “Criticality between cortical states.” Physical review letters 122.20 (2019): 208101.

[6] O coeficiente de variação CV de uma série temporal é definido como a razão entre o desvio padrão da atividade e sua média.

Outros textos sobre criticalidade cerebral:

https://www.quantamagazine.org/toward-a-theory-of-self-organized-criticality-in-the-brain-20140403/

https://www.quantamagazine.org/do-brains-operate-at-a-tipping-point-new-clues-and-complications-20190610/

Anúncios
0

Usando o cérebro para entender o próprio cérebro: um novo tipo de modelo teórico para descrever nossa atividade cerebral

Em 1952 os pesquisadores Alan Lloyd Hodgkin e Andrew Huxley (foto na Fig. 1) desenvolveram um modelo matemático baseado em circuitos elétricos com capacitores e resistores para  descrever os sinais elétricos medidos em um experimento eletrofisiológico no neurônio da lula. O objetivo do estudo era encontrar uma equação matemática que descrevesse da melhor maneira possível o comportamento do potencial elétrico dentro da célula nervosa ao longo do tempo. Na Fig. 1 podemos comparar um gráfico com a curva do potencial em função do tempo medida experimentalmente em um neurônio real e a curva obtida através das equações propostas por Hodgkin e Huxley. A semelhança entre as curvas teóricas e experimental permitem que usemos o modelo de Hodgkin e Huxley como um bom modelo para descrever o neurônio e garantiu que em 1963 eles recebessem o prêmio Nobel em Fisiologia ou Medicina por este trabalho.

Texto11HHcompleto

Figura 1: Esquerda: Os pesquisadores Hodgkin e Huxley medindo a atividade elétrica de neurônios no laboratório (imagem modificada deste site). Direita no topo: potencial de membrana da célula nervosa em função do tempo obtido através do experimento e abaixo curva similar obtida com o modelo teórico proposto por eles.

Diversos modelos em física biológica foram desenvolvidos seguindo uma receita parecida. Temos algumas medidas experimentais, gráficos que representam como certas grandezas variam no tempo, e procuramos uma equação matemática que descreva bem aquela curva. Em especial tentamos comparar cada parâmetro da equação com algum componente do mundo real. E com isso, é possível fazer predições teóricas que possam ser testadas experimentalmente. Por exemplo, na equação que descreve o modelo de Hodgkin e Huxley o potencial de membrana do neurônio depende de um somatório de correntes iônicas de sódio e potássio que atravessam a membrana celular. Então, podemos usar o modelo para fazer uma predição. Por exemplo, o que acontece se bloquearmos a entrada de sódio na célula? Se anularmos o termo da corrente de sódio na equação do modelo obteremos uma nova curva do potencial em função do tempo. Se agora refizermos o experimento, bloqueando a corrente sódio através do neurônio, podemos comparar se a curva experimental ainda se parece com a curva teórica. Em caso afirmativo, nosso modelo continua sendo considerado um bom modelo mesmo nessa nova condição (sem sódio) e podemos seguir fazendo novas previsões.
Desde os anos 50, diversos modelos biológicos foram desenvolvidos para descrever a atividade elétrica de neurônios de diversos tipos, sinapses, grupos de  neurônios, regiões corticais, tálamo, hipocampo, etc. Em particular, um tipo de modelo chamado neural mass (massa neural em tradução livre) usa poucas equações diferenciais para descrever a atividade oscilatória de regiões corticais formada por milhares de neurônios. Conectando várias dessas regiões é possível representar a atividade elétrica do cérebro como um todo. Na Fig. 2 podemos ver um exemplo de cérebro em que cada região está sendo representada por um nó da rede e está conectada a várias outras regiões.

Texto11cerebro2

Figura 2: Representação do cérebro como uma rede complexa. Cada bolinha representa umaregiao e os links as conexões sinápticas entre estas regiões. Modificada das referências [1] e [2].

Recentemente, um estudo liderado pela pesquisadora alemã Petra Ritter* [1] deu um passo importante no desenvolvimento de um modelo matemático que busca descrever a atividade  cerebral como um todo. A grande novidade deste trabalho foi a inclusão de medidas experimentais como parte do modelo teórico (ver Fig. 3A). Pessoas saudáveis que se voluntariaram para participar nas pesquisas tiveram a atividade do seu cérebro gravada simultaneamente através de dois métodos bastante utilizado em neurociência: eletroencefalograma (EEG) e ressonância magnética funcional (fMRI). As curvas azuis e pretas na Fig. 3B mostram o sinal obtido com EEG (filtrado para uma certa componente de frequência) e com fMRI. Assim como no exemplo do neurônio, em que queríamos um modelo que reproduzisse a curva do potencial elétrico no tempo (ver Fig. 1), aqui queremos um modelo que reproduza a curva experimental preta. E de fato, o grupo mostrou que incluindo o dados de EEG como um dos termos do modelo chamado neural mass eles conseguem obter a curva vermelha: bastante similar a curva preta! Na Fig. 3C podemos ver que outros modelos (que não levam em conta o EEG) não reproduzem tão bem a curva experimental.

Esta nova abordagem abre inúmeras possibilidades para combinar dados experimentais com modelos teóricos na busca de entender melhor a atividade cerebral. No futuro, este tipo de modelo híbrido poderá ser útil, por exemplo, para predizer certas atividades que só poderiam ser medidas de maneira invasiva (através de cirurgias e implante de eletrodos intracranianos) utilizando apenas o EEG dos pacientes. Além disso, será possível fazer novas predições e testes sobre os mecanismos responsáveis por determinados tipos de atividades cerebrais. Com este método, também poderá ser possível caracterizar particularidades de cada indivíduo, o que pode vir a ser útil no tratamento de doenças em pacientes que são mais vulneráveis que a média.

Texto11curvas

Figura 3: A) Sinal de EEG(esquerda) utilizado no modelo híbrido (centro) para predizer o sinal obtido com a ressonância magnética (direita). B) Série temporal com um exemplo do sinal de EEG (azul), sinal obtido com o fMRI (preto)  medido simultaneamente ao EEG e resultado obtido utilizando o modelos híbrido (vermelho) de neural mass e EEG. C) Comparando o fMRI experimental com o modelo híbrido e outros modelos.  Modificada da referência [1].

Referências

[1] Schirner, M., McIntosh, A. R., Jirsa, V., Deco, G., & Ritter, P. (2018). Inferring multi-scale neural mechanisms with brain network modelling. Elife, 7, e28927.

Nota da autora: essa revista (Elife) torna público o comentário dos revisores que recomendaram a publicação do artigo e a resposta dos autores. Vale a pena dar uma lida nos pontos levantados pelos especialistas da área e nas respostas dos autores!

[2] Deco, G., Kringelbach, M. L., Jirsa, V. K., & Ritter, P. (2017). The dynamics of resting fluctuations in the brain: metastability and its dynamical cortical core. Scientific reports, 7(1), 3095.

*Petra Ritter é médica, terminou o doutorado em 2004, é a pesquisadora chefe do grupo Berlin Neuroimaging Center e em 2007 recebeu o prêmio Unesco-L’Óreal para jovens cientistas e mães. Saiba mais sobre ela aqui ou aqui.

Para ler mais sobre o modelo de Hodgkin e Huxley, sobre EEG e fMRI é só clicar.

0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).

0

Sistema visual e a capacidade de procurar uma agulha num palheiro

 

Desde 1959 quando Wiesel e Hubel publicaram um artigo sobre a atividade elétrica de neurônios no córtex visual de gatos sabe-se que células nessa região respondem a estímulos visuais com orientações específicas. Por esta descoberta e pelos experimentos sobre córtex visual que se seguiram, eles ganharam o prêmio Nobel em 1981. Graças a eles sabe-se, por exemplo, que quando visualizamos uma barra movendo-se da direita para a esquerda, o grupo de neurônios corticais que dispara é diferente do grupo de neurônios ativos quando vemos a barra mover-se de cima para baixo. Dá uma olhada neste vídeo aqui em que aparece o estímulo visual visto por um gato ao longo do experimento. O barulho que ouvimos corresponde aos disparos dos neurônios ativados no córtex do gato. Note que o barulho aumenta quando a luz passa em regiões específicas ou quando a barra se move em direções específicas. Dizemos portanto que o córtex visual forma mapas de orientação e mapas espaciais. E esses mapas são o conjunto de neurônios que dispara junto quando o estímulo visual obedece algum padrão.

No começo dos anos 2000,  Li Zhaoping, física e professora de neurociência computacional no Departamento de Computação da University College of London, desenvolveu uma teoria, que vem sendo extensivamente testada desde então, sobre o córtex visual primário (V1). Ela propôs que esta região do córtex facilita a atração automática da nossa atenção quando percebemos uma saliência em um certo padrão. Em outras palavras, ela propôs que a nossa capacidade de detectar rapidamente uma imagem que foge ao padrão, como por exemplo uma barra inclinada para esquerda em meio a várias outras barras inclinadas para a direita (veja Figura 1) está relacionada a mapas de saliência que se formam em V1. Segundo a teoria de Li,  a região cortical V1 é que nos ajuda a encontrar uma agulha num palheiro, especialmente se a agulha apresentar alguma característica que se destaque em meio às palhas.

9_barras

Figura modificada da Ref. [1]. Imagens utilizadas em experimentos comportamentais e de imageamento cerebral em que devemos identificar a única barra inclinada com orientação diferente das demais.

Ou seja, isso quer dizer que esta região do córtex não apenas possui grupos de neurônios que disparam preferencialmente sob um estímulo inclinado em uma certa uma direção (formando os mapas de orientação), mas também possui grupos de neurônios que formam mapas para detectar um comportamento diferente em meio a um certo padrão, chamados mapas de saliência.
Li utilizou dois argumentos bem simplificados mas bastante interessantes para explicar como chegou a essa ideia:
1) A região do córtex visual primário V1 parecia proporcionalmente grande quando comparada a outras regiões corticais (e portanto consumidora de mais energia) para servir apenas para os mapas de orientação e espaço.
2) A grande maioria da informação que estamos detectando com nossa retina não chega a regiões mais profundas do cérebro nem no nível do consciente. Ou seja, descartamos boa parte da informação que chega aos nossos olhos. Portanto, em algum lugar do nosso cérebro, de maneira inconsciente, escolhemos quais são as informações mais importantes que devem ser guardadas (e utilizadas) e quais podem ser descartadas.

Sendo assim, parece razoável supor a existência um mecanismo que nos ajuda a detectar coisas fora do padrão. Essas tais coisas fora do padrão podem ser mais importantes do que coisas repetitivas. Por exemplo, precisamos encontrar uma fruta no meio das folhagens para nos alimentarmos mas não precisamos enxergar cada uma das centenas de folhas da árvore. Então se temos 21 ou 22 barras inclinadas para direita não precisamos guardar toda essa informação. Basta guardar a informação “muitas barras inclinadas”. Mas se em meio a essas barras temos uma inclinada pro lado contrário pode ser importante que nossa atenção se dirija a esta barra.
Esse ano Li e seus colaboradores publicaram mais um experimento baseado nessa teoria, comparando resultados comportamentais e a atividade elétrica em V1. Macacos foram treinados para olhar para imagens como as da Figura 1 e moverem seus olhos para identificar a única barra com orientação diferente, enquanto a atividade elétrica de grupos de neurônios em V1 era registrada. Os resultados comportamentais de respostas corretas e tempos de reação em função da inclinação da barra diferente ao longo dos dias de treino estão mostrados na Figura 2. Quanto maior a diferença na inclinação entre todas as barras e a única diferente, maior a taxa de acerto e menor o tempo de reação do animal (ou seja, mais fácil a tarefa)

 

9_comportamento

Figura 2: modificada da Ref.[1]. Resultado comportamental do experimento realizado com os macacos MA e MD enquanto eles observavam imagens como as da figura 1. No topo, proporção de respostas  corretas em função da diferença de inclinação entre a única barra diferente e as demais. Na base, o tempo de reação até a identificação da barra diferente como função da diferença na inclinação., Note que quanto maior a diferença na inclinação maior a taxa de acerto e menor o tempo de reação, indicando que a identificação da barra inclinada é mais fácil quando o ângulo entre ela e as outras é maior.

No que diz respeito à atividade eletrofisiológica, o grupo verificou dois picos na atividade de elética de V1 (veja Figura 3A e 3B). O primeiro pico está associado à atividade que vem da retina devido ao estímulo visual externo (bottom-up). Enquanto que o segundo pico está associado a uma resposta mais complexas devido às conexões neuronais em V1 e à retroalimentação vinda de regiões mais profundas do córtex (top-down de V2, V4…)

Eles também mostraram que uma maior atividade elétrica na região de V1 durante a observação da imagem está associada a um menor tempo de resposta do animal.
Além disso eles compararam a diferença entre a atividade do melhor trial e do pior trial (acertos e erros) nos primeiros dias (chamada melhor-pior / better-worse na Figura 3C e 3D) com a diferença melhor-pior depois de muitos dias de treino. O resultado é que a diferença melhor-pior aumentou com o treino para o primeiro pico em V1 mas diminuiu para o segundo pico. Os autores sugerem que essa diferença pode ser explicada se o treino aumenta a relevância do mapa de saliência (que depende do estímulo externo bottom-up) e se garante que a tarefa fica menos dependente dos efeitos de retroalimentação (feedback) de regiões mais profundas do córtex (V2,V4 reenviando informação para V1).

9_resultados

Figura 3: Modificada da Ref. [1]. Resultados do imageamento cerebral. A e B: atividade cerebral como função do tempo desde o momento em que a imagem aparece  na tela. C e D: diferença na atividade entre os trials em que ocorreram os melhores e os piores desempenhos.

Estes resultados corroboram a teoria de Li dos mapas de saliência em V1. Ou seja, mais uma evidência de que V1 é a região cortical que nos ajuda a detectar elementos que fogem de algum padrão. E nós ficamos aqui, agradecendo a V1 todas as vezes em que foi importante para nossa evolução e/ou sobrevivência perceber uma diferença/saliência um algum padrão. Por exemplo, para não pisar num buraco em meio a folhagem, para não comer uma minhoca nas folhas de alface, ou para identificar uma barata no canto da sala…

 

Referência:
[1]Yan, Yin, Li Zhaoping, and Wu Li. “Bottom-up saliency and top-down learning in the primary visual cortex of monkeys.” Proceedings of the National Academy of Sciences 115.41 (2018): 10499-10504.

0

Um ponto ótimo para as oscilações neuronais

Considerando o senso comum, parece que quanto mais bagunça adicionamos a um sistema, mais difícil a transmissão de informação através dele. Por exemplo, em uma sala silenciosa você poderia facilmente conversar com uma amiga a dois metros de distância de você. Mas se aos poucos vão chegando outras pessoas na sala, e estas pessoas estão conversando entre si, é fácil imaginar que vai ficando cada vez mais difícil entender o que sua amiga fala. Ou seja, quanto maior o barulho (ou ruído) na sala, mais difícil mantermos a comunicação. No entanto, essa diminuição da transmissão de informação com o aumento do ruído (que parece bastante intuitiva para nós), nem sempre é verificada.

Alguns sistemas físicos e biológicos apresentam um fenômeno chamado coerência estocástica (ou ressonância estocástica) que, em palavras simples, consiste em um aumento da transmissão da informação induzido pelo aumento do ruído. Esses sistemas apresentam um valor de ruído ótimo, para o qual a transmissão de informação é máxima.

Voltando ao nosso exemplo da conversa em uma sala. Imagine hipoteticamente que esta sala apresentasse este efeito de ressonância estocástica. Isto significaria que a qualidade da comunicação entre você e sua amiga aumentaria com a entrada das primeiras pessoas na sala até um valor máximo. Existiria um número n de pessoas (uma certa quantidade de barulho) que ajudaria na transmissão da informação. O barulho só passaria a atrapalhar a conversa de vocês depois que a pessoa de número n+1 entrasse na sala. Parece pouco intuitivo não é?

Mas um exemplo verdadeiro desse fenômeno pode ser verificado na seguinte imagem [1]:

8_image

Figura modificada da Ref. [1]. À imagem original do Big Ben foi adicionada uma certa quantidade de ruído, que aumenta da figura da esquerda para a da direita. Note que para uma quantidade intermediária de ruído podemos reconhecer melhor a imagem.

Cada um dos 256×256 pixels da foto original digitalizada é representado por um número de 1 a 256 representando a escala de tons de cinza. Nas três imagens acima, a cada um desses pixels foi adicionado ao valor inicial um número aleatório (de maneira que a quantidade de ruído total adicionado a cada imagem aumenta da esquerda para direita [1]) Podemos notar que a imagem mais nítida é a do meio, indicando que existe um valor ótimo de ruído para o qual nosso cérebro interpreta melhor essa imagem como “Big Ben”. Em outras palavras, a natureza passou a utilizar a existência do ruído aleatório a seu favor.

Recentemente, a pesquisadora Belén Sancristobal e seus colaboradores, verificaram que este fenômeno da coerência estocástica ocorre em um modelo computacional de redes de neurônios conectados e também em uma rede de neurônios reais pertencentes a um pedacinho do córtex de um furão. Ao contrário de estudos anteriores em sistemas com apenas um neurônio, eles mostraram que a coerência estocástica pode ocorrer como um fenômeno coletivo e emergente. O ruído nesses experimentos contribui para deixar o sistema mais previsível. (Mais detalhes abaixo).

Em alguns estados especiais, por exemplo durante o sono de ondas lentas ou quando estamos anestesiados, a atividade elétrica de regiões corticais do nosso cérebro oscila em frequências da ordem de 1Hz entre dois estados bem definidos chamados UP e DOWN. Os estados UP são caracterizados pelos disparos de vários neurônios (atividade sustentada), estes disparos são parecidos com os que ocorrem durante momentos em que estamos acordados e saudáveis. Por outro lado, durante os estados DOWN a maioria dos neurônios se mantêm em silêncio. Esse estado oscilante entre UP e DOWN também já foi verificado em experimentos in vitro na ausência de estímulo externo. Isto indica que essas oscilações  podem ser uma atividade auto-sustentada que ocorre em redes relativamente pequenas devido, possivelmente, às conexões recorrentes entre os neurônios locais. A medida em que vamos despertando de um estado profundo de anestesia, a regularidade das oscilações de UP e DOWN diminuem até que desaparecem por completo quando estamos acordados (nos mantemos apenas em UP). Nesses estágios intermediários é mais difícil prever quando ocorrerá um estado UP. A natureza desses estados mais regulares durante a anestesia profunda ainda não é bem entendida na comunidade científica. Em particular, não se sabe se ela é determinística ou devido a ruído externo.

O estudo citado acima [2] abordou justamente esta questão. Eles mostraram que a regularidade da oscilações UP e DOWN, pelo menos em alguns casos específicos in vitro, está associada ao fenômeno da coerência estocástica.  Variando a excitabilidade neuronal através da concentração extracelular de  potássio, eles mostraram que o coeficiente de variação da duração dos estados UP e DOWN tem um mínimo para uma certa concentração específica de potássio. Sendo assim, eles provaram através de modelos computacionais e experimentos in vitro que existe um valor intermediário de ruído para o qual a regularidade das oscilações neuronais UP e DOWN é máxima. Além disso, como o trabalho utilizou redes de vários neurônios, estes resultados mostram que a coerência estocástica pode ocorrer como um fenômeno coletivo e emergente no nosso cérebro. Ou seja, apesar de cada neurônio individualmente do sistema não estar em um regime de coerência estocástica, esse regime surge (emerge) quando conectamos os neurônios uns aos outros de uma maneira específica.

Parece que, mais uma vez, a evolução garantiu a perpetuação de quem usou as adversidades do meio a seu favor e nos colocou em algum ponto ótimo.


8_image2

Figura modificada da Ref. [2].  Primeira evidência experimental da coerência estocástica em tecidos corticais. Esses dados foram obtidos no laboratório da  pesquisadora Mavi Sanchez Vives em Barcelona. No topo, séries temporais da atividade elétrica do tecido mostrando os estados UP e DOWN para três concentrações diferentes de potássio. Na base, medida da variabilidade dos estados como função da concentração de potássio em várias repetições do experimento (colorido) e o valor médio em preto. Note que no ponto ótimo [K+]=0 há um mínimo na variabilidade, indicando um máximo na previsibilidade dos estados UP e DOWN.

Referências:

[1] Simonotto, Enrico; Riani, Massimo; Seife, Charles; Roberts, Mark; Twitty, Jennifer; Moss, Frank (1997). “Visual Perception of Stochastic Resonance”. Physical Review Letters. 78 (6): 1186.

[2] Sancristóbal B, Rebollo B, Boada P, Sanchez-Vives MV, Garcia-Ojalvo J. Collective stochastic coherence in recurrent neuronal networks. Nature Physics. 2016 Sep;12(9):881.

 

1

Sobre bebês, raciocínio lógico e a nossa incrível capacidade de fazer ciência

Com que idade nós, humanos, aprendemos a pensar de maneira lógica?  Em que momento das nossas vidas começamos a fazer ciência, construir modelos baseados em evidências e testar hipóteses? Será que bebês já são capazes de processar regras simples de lógica como “A e B”, “A ou B”, “não-A e não-B”? Será que algum desses processos podem ocorrer antes mesmo dos bebês serem capazes de expressar suas ideias em palavras?

O debate filosófico sobre essas questões é antigo. Cinco décadas atrás Piaget defendia que a lógica é um processo mental que demora anos sendo desenvolvido e se estende até a adolescência [1]. Dez anos depois, Fodor sugeriu que deveríamos possuir algo como uma linguagem específica para os pensamentos ligados ao aprendizado e teste de hipóteses. Nos anos 80, Susan Carey propôs que o raciocínio lógico deveria estar presente desde o início do nosso desenvolvimento cognitivo [2]; e que, portanto, crianças deveriam ser capazes de usar teorias intuitivas, modelos e inferências como cientistas profissionais. De fato, diversos experimentos cognitivos têm mostrado que crianças e bebês são capazes de formular certas hipóteses sobre eventos complexos e de modificá-las racionalmente quando necessário (por exemplo frente a evidências inconsistentes).

No mês passado um artigo na renomada revista Science [1] mostrou mais uma forte evidência em favor das ideias de Fodor and Carey.  Cesana-Arlotti e colaboradores realizaram experimentos com bebês de 12 e 19 meses que ainda não falam, e verificaram que esses bebês são capazes de raciocinar espontaneamente sobre os acontecimentos, através de um processo de eliminação. O grupo usou um paradigma da forma: se A ou B, e não-A, então B. Em outras palavras se eu te informo que a cor da camisa que estou vestindo é Azul ou Branca e depois alguém te informa que a camisa que estou vestindo não é Azul, então você é capaz de concluir que a cor da minha camisa é Branca.

Os cientistas utilizaram o fato de que bebês observam por mais tempo qualquer coisa que eles julguem interessante. Eles mediram a posição do olhar dos bebês enquanto assistiam a um vídeo sem som (veja Vídeos 1 e 2 e Figura 1).

Vídeo 1: Exemplo de um filme com bebês de 19 meses. Condição de inferência, conteúdo da caneca revelado, resultado consistente. Créditos: “Movie S1” em Cesana-Arlotti et al/Science.

Vídeo 2: Exemplo de um filme com bebês de 19 meses. Condição de inferência, conteúdo da caneca revelado, resultado inconsistente. Créditos: “Movie S2” em Cesana-Arlotti et al/Science.

Inicialmente no vídeo dois objetos, que chamaremos de A e B, são mostrados e em seguida escondidos atrás de uma parede. Na sequência, uma caneca retira um dos objetos que estava atrás da parede de maneira que só a parte superior do objeto (exatamente igual para A e B) pode ser vista. Ou seja, ainda não é possível afirmar qual dos dois objetos foi retirado de trás da parede (condição ambígua A ou B). Neste momento os bebês poderiam formular o seguinte pensamento “o objeto na caneca pode ser A ou B”. Em seguida a ambiguidade é esclarecida quando a parede se move e é possível ver qual objeto permaneceu atrás dela. Este é o momento da eliminação da ambiguidade e uma oportunidade para inferir que “como o objeto A não estava na caneca, então o objeto B está na caneca”. Este momento de inferência também é chamado de dedução.

Finalmente o conteúdo da caneca é revelado: ou o objeto esperado B  aparece dentro da caneca (Vídeo 1) ou de maneira surpreendente o objeto A aparece dentro da caneca (Vídeo 2).

7_image

Figura 1. Esquema da sequência de imagens nos vídeos 1 e 2. B) Comparação entre os intervalos de tempo que os bebês gastaram olhando para o objeto revelado em cada caso. Os bebês olham por mais tempo para a situação inconsistente, indicando que seus modelos de mundo (ou hipóteses) foram violados.
Créditos:  Cesana-Arlotti et al/Science.

O primeiro resultado super legal do experimento foi: os bebês olham por mais tempo para os casos surpreendentes. Ou seja, de alguma maneira suas expectativas foram violadas (veja Fig. 1B). Além disso, no momento da dedução, quando as inferências podem ser feitas, a pupila dos bebês se dilata e seu olhar se move em direção ao objeto ambíguo (dentro da caneca).  Isto não ocorre quando a parede é transparente e portanto não há ambiguidade sobre qual objeto está na caneca (veja Vídeo 3). E mais, este comportamento ocular (olhar para o objeto escondido enquanto infere sua identidade) também ocorre quando o experimento é realizado com adultos. Os autores sugerem, portanto, que os mecanismo neurais envolvidos em tarefas de lógica são estáveis.

Vídeo 3: Exemplo de um filme com bebês de 12 meses. Sem condição de inferência, conteúdo da caneca não revelado, resultado consistente. Créditos: “Movie S5” em Cesana-Arlotti et al/Science.

O passo seguinte é caracterizar que regiões do cérebro estão envolvidas nesses processos lógicos. Uma das autoras correspondentes do artigo Ana Martín realizará nos próximos três meses experimentos similares aos descritos, em que será capaz de medir a atividade cerebral dos participantes enquanto assistem aos vídeos. Depois disso, ela será capaz de mapear as principais regiões envolvidas nessa tarefa, e tentar entender como a informação visual e nossos modelos prévios sobre o mundo se unem para gerar conhecimento, expectativas e inferências.

Assim como já existem estudos sobre as rede cerebrais envolvidas em linguagem, leitura, matemática, música, agora pode-se estudar que regiões do cérebro estão relacionadas aos pensamentos lógicos (que não necessariamente requerem o uso de palavras). E com isso, poderemos um dia entender em que momento do nosso desenvolvimento essas redes se consolidam, se já nascemos com elas, que animais possuem redes similares, que tipos de déficits cognitivos podemos ter quando algumas dessas regiões não funciona como esperado e assim por diante… Por enquanto seguimos fazendo isso que sabemos fazer desde pequenininhas: propondo modelos e testando hipóteses sobre o mundo…

Referências:

[1] Cesana-Arlotti, N., Martín, A., Téglás, E., Vorobyova, L., Cetnarski, R., & Bonatti, L. L. (2018). Precursors of logical reasoning in preverbal human infants. Science, 359(6381), 1263-1266.

[2] Halberda, J. (2018). Logic in babies. Science, 359(6381), 1214-1215.

 

1

Mais um problema de (falta de) representatividade na academia

Um dos bens mais preciosos entre cientistas é o chamado processo de revisão por pares*.

No mundo ideal este processo deveria levar em consideração apenas o conhecimento científico dos acadêmicos e acadêmicas envolvidos. Mas, infelizmente, nem sempre isso ocorre. Portanto é preciso reconhecer que cientistas são tendenciosos e tentar evitar certos padrões de comportamento opressores.

Quando a probabilidade de duas mulheres negras se encontrarem numa conferência científica for a mesma que a de dois homens brancos se encontrarem a gente pode começar a discutir outros detalhes mais sutis sobre representatividade. Por enquanto, vamos aos números (que infelizmente são apenas de gênero porque a discussão sobre representatividade de raça segue ainda mais atrasada no meio cientifico).

Um artigo recente (Helmer et al. 2017, referência [1]) publicado numa revista científica de alta qualidade analisou dados públicos sobre o gênero de 9 mil editores, 43 mil revisores e 126 mil autores de artigos publicados em jornais do grupo “Frontiers”. Esse estudou pioneiro avaliou os dados de 41 mil artigos publicados de 2007 a 2015 em 142 jornais das diversas áreas: exatas, saúde, engenharia, humanidades, ciências sociais, etc… Trabalhos anteriores eram restritos a disciplinas específicas devido à dificuldade em ter acesso a dados confidenciais sobre editores e revisores.

Off_1_Fig1

Figura 1: Modificada da ref. [1]. Porcentagem de mulheres escrevendo, revisando e editando artigos em diferentes revistas do grupo “Frontiers” no ano de 2015.

Os autores mostraram que as mulheres estão sub-representadas no processo de revisão por pares em todas as áreas. Esta sub-representatividade é ainda maior para editoras e revisoras do que a sub-representatitividade de cientistas mulheres atuando em cada área. Ou seja, a porcentagem de mulheres como editoras e revisoras de artigos acadêmicos é ainda menor do que a (já sub-repesentada) porcentagem de mulheres autoras de artigos. Na figura 1 podemos ver a parcela de autoras, revisoras e editoras em cada revista. Nos mais de 45 jornais mostrados na figura apenas 3 apresentam a porcentagem de revisoras maior ou igual que a de autoras (e ainda assim seguimos sub representadas como editoras). E em apenas um jornal a porcentagem de editoras é igual a de autoras (mas a porcentagem de revisoras é menor). Note que essa falta de representatividade no processo de avaliação por pares não diminui em áreas em que a quantidade de autoras mulher se aproxima de 50%.

Quando todos os jornais são considerados juntos, a fração de mulheres autoras, revisoras e editoras é significativamente menor que a de homens durante todo o período avaliado (ver Figura 2). De todos os trabalhos submetidos para essas revistas no ano de 2015 as mulheres representaram apenas 37% do total de autores, 28% do total de revisores e 26% do total de editores.

Os autores também utilizaram simulação computacional de uma rede de conectividade direcionada de editores para revisores e de revisores para autores para comparar os efeitos de gênero (ver Figura 2a). Eles simularam uma rede com as mesmas propriedades da obtida com os dados reais, mas desconsideraram os efeitos de conhecimento de gênero (mudando aleatoriamente o gênero de cada nó na rede mas preservando a porcentagem de homens e mulheres.) Com isso os autores puderam mostrar que a representatividade de revisoras e autoras é significativamente menor que o que poderia ser ao acaso.

Off_1_Fig2

Figura 2: Modificada da ref [1]. a1) Rede direcional de conexões entre editores e revisores. Cada nó, que representa um pesquisador, possui uma certa quantidade de setinhas chegando (que indica quantas vezes este foi indicado como revisor) e outro número de setinhas saindo (que indica quantas vezes foi editor). a2) Uma rede análoga, com mesmas propriedades mas em que o gênero dos pesquisadores foi modificado aleatoriamente serve como base de comparação entre escolhas tendenciosas e escolhas ao acaso. b) A fração de contribuição a cada ano de editores, revisores e autores separadas por gênero. Quando os dados (bolas e quadrados) são comparados com os dados obtidos com a rede em que o gênero foi aleatorizado, fica claro que mesmo levando em conta a sub-representatividade de mulheres em cada área, as escolhas de revisores e autores também sofreu algum efeito de escolhas tendenciosas.

Finalmente, os autores mostraram que na média a probabilidade de um editor indicar outro homem como revisor é maior que o acaso (veja Figura 3). O que significa, claramente, que a chance dele indicar uma mulher é menor. Através da definição de uma medida de “homofilia” (quanto um editor prefere indicar um revisor do mesmo gênero – já levando em conta que existem mais homens do que mulheres como opção), os autores perceberam que a homofilia está espalhada entre todos os editores homens avaliados. Isto significa que não existe um número mínimo de homens homofílicos que caso não fossem considerados na análise deixariam a rede mais equilibrada (i.e. sem preferência por homens). Em outras palavras, homens indicam outros homens de maneira sistêmica. Consciente ou inconscientemente a esmagadora maioria dos homens avaliados fez isso.

O estudo enfatiza (exageradamente, do meu ponto de vista) que este comportamento homofílico também foi verificado entre mulheres (veja Figura 3). No entanto, é preciso salientar (repetidamente) que os autores verificaram que o mecanismo de homofilia é bastante diferente entre homens e mulheres. A homofilia entre mulheres se resume a um pequeno grupo de editoras que majoritariamente indicam outras mulheres como revisoras. Ou seja, removendo apenas essas editoras da análise a chance de uma editora mulher indicar uma revisora mulher é a mesma dela indicar um revisor homem. Isso nos leva a refletir se o motivo da excessiva homofilia de algumas poucas editoras não é apenas uma resposta a um ambiente extremamente desigual. Ou seja, após perceber que no ambiente acadêmico muitos homens privilegiam outros homens (consciente ou inconscientemente) algumas mulheres passaram a usar como estratégia consciente promover mais mulheres cientistas que homens. Esta atitude, ao contrário de prejudicial como a homofilia entre homens, é totalmente aceitável enquanto houver falta de representatividade.

Portanto, independente das causas que levam homens e mulheres a serem homofílicos, o maior problema do sexismo no processo de avaliação por pares está na falta de representatividade. E claro, sabendo que existem dois problemas distintos – falta de representatividade e homofilia – podemos estar atentos para evitá-los.

Um dos meus conselhos preferidos para acadêmicos que querem combater essas tomadas de decisões tendenciosas é: quando você tiver que indicar um pesquisador como revisor, editor, ou para um comitê, uma banca, uma palestra ou qualquer outra coisa, gaste um minuto a mais tentando lembrar se existe uma mulher daquela área, tão boa quanto o pesquisador que vier primeiro em sua mente. É muito provável que exista, mas que ela não tenha dividido uma cerveja com você ou que vocês não tenham jogado futebol juntos, simplesmente porque vivemos numa sociedade que ainda é segregada (leia mais aqui: a academia e o tapinha nas costas). A mesma sugestão de “gaste um minuto a mais” vale para lembrar de pesquisadores de outras etnias, outros países ou qualquer minoria. Não é que não custa nada… Mas “um minuto” custa bem pouco em nome do poder de mudança dessa atitude.

E aí, você já indicou uma cientista hoje?

 

 

Off_1_Fig3

Figura 3: Modificada da ref [1]. Comparando a probabilidade de uma mulher ser indicada como revisora por outra mulher ou por um homem. Se a escolha fosse independente de gênero todos os valores seriam aproximadamente iguais ao valor obtido “ao acaso” pela rede de conexões mostrada na Figura 2a. Em neurociência nota-se claramente que a homofilia (preferencia pelo mesmo gênero) só foi verificada entre os homens. Nas outras áreas mostradas ocorrem entre homens e mulheres. No entanto, os autores do artigo reportaram que a estratégia homofílica de homens e mulheres é diferente. A homofilia entre homens é sistêmica. (Veja o texto para mais detalhes)

* Explicação do termo específico: processo de revisão por pares (se esse termo te pareceu estranho , e/ou você não é da academia, pode começar por aqui)

Quando um grupo de cientistas realiza uma nova descoberta e escreve um artigo expondo seus resultados, este artigo é submetido a uma revista científica para ser avaliado e, se considerado correto, publicado. Cada um deste grupo que envia o trabalho é um(a) autor(a). O processo de avaliação envolve inicialmente um(a) editor(a), que é um(a) cientista experiente da grande área de conhecimento relativa aquele trabalho, que deve escolher (tipicamente) dois(duas) outros(as) cientistas na área específica do trabalho que poderiam avaliar aqueles resultados. Esses(as) cientistas são chamados(as) revisores(as). Eles(as) devem avaliar se os métodos utilizados para obter o resultado cientifico estão corretos, se o trabalho é reprodutível e como se insere naquela área (se já foi reportado anteriormente, se é uma grande inovação, ou um passo a mais em uma teoria estabelecida). Caso o trabalho seja considerado correto e inédito, do ponto de vista científico, será aceito para publicação.

Referência:

[1] Helmer et al. eLife 2017.