0

O laboratório e o dia-a-dia: O que é o método científico e por que ele é o maior inimigo das fake news?

Na ciência, busca-se o tempo todo correlacionar fenômenos com suas causas e consequências, a fim de se compreender como o mundo funciona. Contudo, os tipos de correlação e as dificuldades experimentais que cientistas precisam enfrentar variam de área para área, e evoluem conforme o campo de estudo amadurece.

Por exemplo, se queremos estudar um fenômeno físico, como a relação matemática entre a temperatura e a dilatação de uma barra de metal (o quanto ela varia em comprimento quando aquecido ou resfriado), precisamos realizar uma série de medições de temperatura e do comprimento do objeto, além de levar em conta diferentes tipos de materiais (cada material possui um coeficiente de dilatação diferente, ou seja, diferentes materiais vão dilatar mais ou menos quando sujeitos à mesma variação de temperatura).

Neste caso, chamamos a dilatação do objeto de variável dependente (aquela que depende de outras variáveis que estamos estudando), e a variação de temperatura, o comprimento inicial e o coeficiente de dilatação de variáveis independentes (que são aquelas que estamos controlando a fim de estudar a dilatação). Neste caso termodinâmico, é relativamente simples inferir quais as variáveis dependente e independentes, mas às vezes estas relações não são óbvias a uma primeira vista.

Além disso, estas medições sozinhas não nos fornecem as causas materiais da dilatação, ou seja, as estruturas por trás da mudança de tamanho provocada por alteração da temperatura, mas podem nos fornecer padrões o suficiente para estabelecermos relações matemáticas e podermos prever com boa confiabilidade o quanto determinado material vai dilatar em determinadas circunstâncias (o que culmina em diversas aplicações práticas em várias áreas do conhecimento, por exemplo na engenharia civil).

Quais variáveis têm influência sobre meu objeto de estudo? Créditos: Rebeca Bayeh.

No entanto, ao longo da história da ciência, vários modelos de termodinâmica e de estrutura dos materiais já foram desenvolvidos de forma que seja possível, no caso deste fenômeno, não só prever com boa confiabilidade o comportamento dos materiais estudados em diferentes temperaturas, mas fornecer explicações para as causas do fenômeno da dilatação. Quanto mais suporte teórico e experimental uma teoria científica tem, maior sua credibilidade.

Essa credibilidade passa também pelo quanto determinada afirmação pode ser falseável. O conceito de falseabilidade foi introduzido pelo filósofo Karl Popper, e diz respeito ao quanto uma afirmação ou teoria permitem que sejam realizadas investigações que as refutem.

Por exemplo, no caso dos objetos que dilatam com o calor, alguém poderia observar em laboratório que toda barra de ferro dilata X quando é aquecida em dez graus Celcius. Poderíamos “falsear” essa afirmação fazendo experimentos que medissem a dilatação de diferentes barras de ferro com diferentes tamanhos iniciais e diferentes temperaturas iniciais, sempre variando dez graus.

Caso as barras, dentro de condições controladas de laboratório e utilizando-se estatística apropriada, se comportem de forma semelhante à da afirmação que estamos tentando falsear (o que não aconteceria aqui, pois já sabemos que a dilatação dependeria sim do comprimento inicial da barra), estaríamos fornecendo com isso mais embasamento para uma teoria. Caso contrário, e caso se verifique que não houve falhas sistemáticas na realização do experimento, estamos falseando a afirmação inicial. Quando isso acontece na ciência, surge debate e reflexão sobre quais as variáveis que podem não estar sendo levadas em conta, quais as possíveis falhas experimentais do experimento original (e dos experimentos dele derivados) e quais as causas do fenômeno estudado.

Quando o monge e botânico Gregor Mendel desenvolveu, no século XIX, seus princípios de hereditariedade, que seriam base para os estudos em Genética, ele desconhecia a existência de genes ou mesmo a existência do DNA, e portanto não pôde explicar as causas através das quais as cores das ervilhas que ele estudou dependiam das cores das plantas que foram cruzadas. Contudo, os padrões de hereditariedade verificados experimentalmente por ele em plantas são verificáveis e falseáveis, e seu trabalho serviu como base para o que viria a ser posteriormente a Genética moderna.

Muitas vezes, quando cientistas se depararam com padrões de fenômenos que podiam observar, mas cujas causas eram desconhecidas, foram atribuídos significados místicos e religiosos para estes fenômenos. Quando isso acontece, estamos saindo do campo da ciência. Por exemplo, se eu observo que qualquer barra de ferro dilata sempre proporcionalmente ao seu comprimento inicial e à sua variação de temperatura, eu posso fazer uma afirmação falseável acerca deste fenômeno (se alguém quiser testar minha afirmação, basta aquecer uma barra de ferro em um laboratório com condições controladas e verificar se a minha afirmação se sustenta). Contudo, se eu afirmar que a dilatação se dá por intervenção de um deus do calor que interveio em meu laboratório, esta afirmação não é falseável (não posso provar a existência do deus do calor nem sua presença no meu laboratório, e portanto não posso provar que esta foi a causa da dilatação da barra de ferro).

Além disso, o fato de eu não provar a não-existência do deus do calor não implica na existência do deus do calor. Cabe a quem fez a afirmação de que tal deus existia a comprovação do que está dizendo.

Analogamente, quando são compartilhadas notícias falsas (“fake news”) com afirmações mirabolantes nas redes sociais, cabe a quem fez as afirmações comprovar que o que está dizendo é verdade. O grande problema destes compartilhamentos é que as notícias costumam envolver um grande peso emocional e, muitas vezes, fazem com que os leitores sintam-se ameaçados por um oponente político que está supostamente prejudicando sua vida, sua família e seu senso de sagrado. É natural que fiquemos impressionados com ideias fortes e emotivas, mas cabe a nós verificar se as pessoas que as estão afirmando (e as que estão compartilhando, já que compartilhar é uma forma de re-afirmar) verificaram ou comprovaram tudo que estão alegando, ou se trata-se apenas de ideias fantasiosas que parecem ser verdadeiras apenas por possuir um vínculo com uma parte da realidade que já conhecemos ou porque elas intuitivamente fariam sentidos.

Muitas ideias científicas se iniciam de forma intuitiva, com um vínculo com a realidade já conhecida, como foi o caso das Leis de Mendel e de muitas outras, como a Teoria da Relatividade do Einstein. Mas as intuições isoladamente não constituem por si só o pensamento científico, e não cabe à ciência fornecer explicações para as causas de todos os fenômenos se estas causas não puderem ser estudadas de maneira criteriosa.

Trata-se de um trabalho colaborativo de longo prazo, que tem compromisso com a consistência, e não com a explicação de todas as verdades, e cujos paradigmas evoluem conforme a tecnologia se desenvolve e conforme são encontradas novas relações entre diferentes áreas dentro da ciência.

Anúncios
0

Usando o cérebro para entender o próprio cérebro: um novo tipo de modelo teórico para descrever nossa atividade cerebral

Em 1952 os pesquisadores Alan Lloyd Hodgkin e Andrew Huxley (foto na Fig. 1) desenvolveram um modelo matemático baseado em circuitos elétricos com capacitores e resistores para  descrever os sinais elétricos medidos em um experimento eletrofisiológico no neurônio da lula. O objetivo do estudo era encontrar uma equação matemática que descrevesse da melhor maneira possível o comportamento do potencial elétrico dentro da célula nervosa ao longo do tempo. Na Fig. 1 podemos comparar um gráfico com a curva do potencial em função do tempo medida experimentalmente em um neurônio real e a curva obtida através das equações propostas por Hodgkin e Huxley. A semelhança entre as curvas teóricas e experimental permitem que usemos o modelo de Hodgkin e Huxley como um bom modelo para descrever o neurônio e garantiu que em 1963 eles recebessem o prêmio Nobel em Fisiologia ou Medicina por este trabalho.

Texto11HHcompleto

Figura 1: Esquerda: Os pesquisadores Hodgkin e Huxley medindo a atividade elétrica de neurônios no laboratório (imagem modificada deste site). Direita no topo: potencial de membrana da célula nervosa em função do tempo obtido através do experimento e abaixo curva similar obtida com o modelo teórico proposto por eles.

Diversos modelos em física biológica foram desenvolvidos seguindo uma receita parecida. Temos algumas medidas experimentais, gráficos que representam como certas grandezas variam no tempo, e procuramos uma equação matemática que descreva bem aquela curva. Em especial tentamos comparar cada parâmetro da equação com algum componente do mundo real. E com isso, é possível fazer predições teóricas que possam ser testadas experimentalmente. Por exemplo, na equação que descreve o modelo de Hodgkin e Huxley o potencial de membrana do neurônio depende de um somatório de correntes iônicas de sódio e potássio que atravessam a membrana celular. Então, podemos usar o modelo para fazer uma predição. Por exemplo, o que acontece se bloquearmos a entrada de sódio na célula? Se anularmos o termo da corrente de sódio na equação do modelo obteremos uma nova curva do potencial em função do tempo. Se agora refizermos o experimento, bloqueando a corrente sódio através do neurônio, podemos comparar se a curva experimental ainda se parece com a curva teórica. Em caso afirmativo, nosso modelo continua sendo considerado um bom modelo mesmo nessa nova condição (sem sódio) e podemos seguir fazendo novas previsões.
Desde os anos 50, diversos modelos biológicos foram desenvolvidos para descrever a atividade elétrica de neurônios de diversos tipos, sinapses, grupos de  neurônios, regiões corticais, tálamo, hipocampo, etc. Em particular, um tipo de modelo chamado neural mass (massa neural em tradução livre) usa poucas equações diferenciais para descrever a atividade oscilatória de regiões corticais formada por milhares de neurônios. Conectando várias dessas regiões é possível representar a atividade elétrica do cérebro como um todo. Na Fig. 2 podemos ver um exemplo de cérebro em que cada região está sendo representada por um nó da rede e está conectada a várias outras regiões.

Texto11cerebro2

Figura 2: Representação do cérebro como uma rede complexa. Cada bolinha representa umaregiao e os links as conexões sinápticas entre estas regiões. Modificada das referências [1] e [2].

Recentemente, um estudo liderado pela pesquisadora alemã Petra Ritter* [1] deu um passo importante no desenvolvimento de um modelo matemático que busca descrever a atividade  cerebral como um todo. A grande novidade deste trabalho foi a inclusão de medidas experimentais como parte do modelo teórico (ver Fig. 3A). Pessoas saudáveis que se voluntariaram para participar nas pesquisas tiveram a atividade do seu cérebro gravada simultaneamente através de dois métodos bastante utilizado em neurociência: eletroencefalograma (EEG) e ressonância magnética funcional (fMRI). As curvas azuis e pretas na Fig. 3B mostram o sinal obtido com EEG (filtrado para uma certa componente de frequência) e com fMRI. Assim como no exemplo do neurônio, em que queríamos um modelo que reproduzisse a curva do potencial elétrico no tempo (ver Fig. 1), aqui queremos um modelo que reproduza a curva experimental preta. E de fato, o grupo mostrou que incluindo o dados de EEG como um dos termos do modelo chamado neural mass eles conseguem obter a curva vermelha: bastante similar a curva preta! Na Fig. 3C podemos ver que outros modelos (que não levam em conta o EEG) não reproduzem tão bem a curva experimental.

Esta nova abordagem abre inúmeras possibilidades para combinar dados experimentais com modelos teóricos na busca de entender melhor a atividade cerebral. No futuro, este tipo de modelo híbrido poderá ser útil, por exemplo, para predizer certas atividades que só poderiam ser medidas de maneira invasiva (através de cirurgias e implante de eletrodos intracranianos) utilizando apenas o EEG dos pacientes. Além disso, será possível fazer novas predições e testes sobre os mecanismos responsáveis por determinados tipos de atividades cerebrais. Com este método, também poderá ser possível caracterizar particularidades de cada indivíduo, o que pode vir a ser útil no tratamento de doenças em pacientes que são mais vulneráveis que a média.

Texto11curvas

Figura 3: A) Sinal de EEG(esquerda) utilizado no modelo híbrido (centro) para predizer o sinal obtido com a ressonância magnética (direita). B) Série temporal com um exemplo do sinal de EEG (azul), sinal obtido com o fMRI (preto)  medido simultaneamente ao EEG e resultado obtido utilizando o modelos híbrido (vermelho) de neural mass e EEG. C) Comparando o fMRI experimental com o modelo híbrido e outros modelos.  Modificada da referência [1].

Referências

[1] Schirner, M., McIntosh, A. R., Jirsa, V., Deco, G., & Ritter, P. (2018). Inferring multi-scale neural mechanisms with brain network modelling. Elife, 7, e28927.

Nota da autora: essa revista (Elife) torna público o comentário dos revisores que recomendaram a publicação do artigo e a resposta dos autores. Vale a pena dar uma lida nos pontos levantados pelos especialistas da área e nas respostas dos autores!

[2] Deco, G., Kringelbach, M. L., Jirsa, V. K., & Ritter, P. (2017). The dynamics of resting fluctuations in the brain: metastability and its dynamical cortical core. Scientific reports, 7(1), 3095.

*Petra Ritter é médica, terminou o doutorado em 2004, é a pesquisadora chefe do grupo Berlin Neuroimaging Center e em 2007 recebeu o prêmio Unesco-L’Óreal para jovens cientistas e mães. Saiba mais sobre ela aqui ou aqui.

Para ler mais sobre o modelo de Hodgkin e Huxley, sobre EEG e fMRI é só clicar.

0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).

0

Aqui só entram matemáticas

Como a Escola de Matemática de Berlim incentiva as alunas a buscar carreira e fazer pesquisa na área, visando um ambiente mais acolhedor.

—————————————————————————————————————————————

Horário do almoço do dia 10 de novembro. No terceiro andar do prédio 17, na rua An der Urania, em Berlim, a sala Curie acolhe um encontro entre oito matemáticas, com mestrandas, doutorandas, pós-doutorandas e professoras. Uma pesquisadora era interrogada e participava de um bate-papo informal. Ali, uma vez a cada semestre letivo, apenas mulheres entram. A reunião, organizada pela Escola Matemática de Berlim (BMS), tem como nome Kovalevskaya Lunch (Almoço Kovalevskaya, em português), em homenagem à matemática russa Sofia Kovalevskaya (1850-1891). Primeira mulher a assumir o cargo de professora numa universidade europeia em pleno século XIX, ela é reconhecida por diversos trabalhos e iniciativas. Os estudos com equações diferenciais parciais e a luta para estudar matemática numa época em que quase todas as universidades da Europa só aceitavam homens são só alguns exemplos.

sofia

Sofia Kovalevskaya, a matemática russa que foi a inspiração para o nome do almoço. (Imagem retirada da Wikipedia)

A convidada do dia 10 é Ilaria Perugia, pesquisadora da Universidade de Viena, e a pauta principal do almoço gira em torno das oportunidades, vitórias e desafios vivenciados pela cientista em sua trajetória acadêmica. Ela estuda, entre outros campos, métodos de Galerkin descontínuos, eletromagnetismo computacional e problemas de propagação de onda. Alguns dias depois do encontro, uma matemática que participou disse em entrevista: “A palestra dela foi muito boa; sou de um campo da matemática que está distante do dela. Geralmente, quando os campos são distantes na área, é difícil entender um ao outro. Ela transferiu uma mensagem que compreendi”.

Se os próprios matemáticos podem não entender as especificidades um do outro, fiquei tranquila. Os assuntos do almoço, no entanto, são comuns a muitas mulheres pelo mundo e, portanto, fáceis de acompanhar. Como deixar o ambiente acadêmico mais acolhedor numa área que é conhecida por ser bastante masculina? O objetivo do encontro é este: criar um local em que as pesquisadoras possam se conectar e se ouvir, compartilhar suas experiências e construir uma rede de apoio, tanto pessoal como profissional.

Segundo Ilaria, é comum observar poucas mulheres em algumas comunidades matemáticas de certos países. Além disso, há quase sempre poucas mulheres no nível de professor universitário. Na Alemanha, esse cargo de professor é considerado o mais difícil de se alcançar: oferece menos vagas, mas garante mais estabilidade do que cargos temporários, como as bolsas de mestrado, doutorado e pós-doutorado. A pesquisadora frisa que o fato de haver poucas mulheres pode dar a impressão de que a matemática é um trabalho para homens, o que pode desencorajar jovens pesquisadoras a ir atrás de uma carreira acadêmica na área.

“Esta iniciativa da BMS ajuda a dar uma imagem mais ampla e a conscientizar as pessoas de que não é esse o caso. Compartilhar experiências durante a discussão informal pode ressaltar que algumas dificuldades podem ser superadas ou que um ponto de vista diferente pode ser adotado. O “modelo masculino” que geralmente temos em mente para o nosso trabalho não é o único possível. O networking é outro aspecto extremamente importante e acredito que a oportunidade de se conhecer colegas também por um ponto de vista pessoal ajuda na promoção de conexões”, afirma.

“Mas o encontro é só para as alunas?”

Gerente de diversidade e relações públicas da BMS, Tanja Fagel menciona que já foi parada por alunos homens que gostariam de participar do almoço. Nestes casos, ela sugere uma inversão de realidade: “Imagine se você fosse o único homem numa área em que só há mulheres. Por favor, fique contente por existir esta iniciativa para nossas alunas!”, diz. O almoço é restrito às cientistas, mas, para o colóquio que acontece depois, todos estão convidados. Este ocorre algumas vezes ao longo do semestre letivo e, em um deles, uma pesquisadora é convidada para o almoço.

A estudante Luzie, de 23 anos, que está fazendo mestrado na BMS, compareceu pela primeira vez. “O encontro é muito útil porque, na realidade, você tem alguém com quem se relacionar. Há outras pessoas ali que estão na mesma posição que você”, explica. “Eu vim para obter perspectivas diferentes e para aprender. Eu não sei o que quero fazer no meu doutorado. Eu quero muito continuar na pesquisa, mas sei que não é muito fácil dentro da Alemanha em relação a posições permanentes, como a de professor”.

Já a doutoranda Nevena Palic, também da BMS, conta que já foi em torno de seis vezes. “Cada semestre há uma mulher diferente, com uma história diferente e o jeito como ela alcançou aquilo também é diferente. É bom ouvir de alguém que está numa posição em que eu gostaria de estar daqui a cinco, dez ou 20 anos. É uma questão de ouvir os problemas que ela teve, como ela lidou com tudo e o que aconteceu na vida dela para que ela abrisse a porta de se tornar uma matemática de sucesso, mãe, esposa ou seja lá o que ela é na vida dela”, detalha.

 

BMS

O site da BMS disponibiliza, em inglês, uma lista com todas as matemáticas que já foram convidadas para o almoço. (Imagem: reprodução do site da BMS)

Ainda de acordo com Nevena, o networking é relevante, assim como a sensação de pertencimento. “Não é apenas um momento bom, faz parte de eu perceber que eu pertenço a essa comunidade. É sobre perceber que, as questões que eu tenho, alguém também tem. É necessário conhecer pessoas, fazer colaborações. O almoço nos ajuda a estabelecer conexões umas com as outras, mas não é o único jeito pelo qual fazemos isso”, explica.

Uma breve comparação com o Brasil

Em números, Alemanha e Brasil não estão muito distantes quando se trata de mulheres em cargos de liderança ou posições de prestígio na área de pesquisa. Primeiro, ao olharmos no nível de graduação, no semestre letivo de 2016 para 2017, 73,6 mil alunos aplicaram para matemática em cursos pela Alemanha. Destes, 33,9 mil eram mulheres, ou seja, próximo de 50%. No entanto, no total de acadêmicos na posição de professor, considerando todas as áreas do conhecimento, as mulheres estavam em apenas 23,4% em 2016. Os dados são do Escritório Federal de Estatística Alemão, o Destatis.

No Brasil, em 2015, segundo dados do CNPq, 306 mulheres obtiveram bolsas 1A de produtividade em pesquisa – uma das mais altas bolsas concedidas pelo CNPq, abaixo apenas da bolsa sênior -, contra 938 homens. Considerando a grande área Ciências Exatas e da Terra, na qual matemática se encaixa, 7.219 mulheres receberam bolsas de diferentes níveis nessa área, enquanto os homens estão em 13.784. Na distribuição de pesquisadores por sexo segundo a condição de liderança, o número é um pouco mais animador: em 2016, 17.326 pesquisadores foram registrados como líderes, fazendo frente às 15.092 pesquisadoras líderes.

A matemática Diana Sasaki, da Universidade do Estado do Rio de Janeiro (Uerj), uma das vencedoras do prêmio L’oréal-Unesco-ABC Para mulheres na ciência de 2017, acredita que a mulher ainda precisa conquistar mais espaço na área. A premiação, em suas palavras, é importante para o avanço da pesquisa brasileira e veio para fortalecer a carreira e contar positivamente em futuras candidaturas. “Eu tive muitos colegas homens no laboratório que estive durante a minha pós-graduação e graduação. Fui me acostumando com estes ambientes. Para mim, agora, é natural.”

1

Em que região do nosso cérebro são processados os cálculos matemáticos mais complicados?

Ou de maneira alternativa, para que parte do nosso córtex deveríamos acender uma vela e agradecer quando acertamos aquela integral tripla na prova de Cálculo? Ou ainda, qual parte do cérebro devíamos xingar quando não aprendemos a fórmula de Bhaskara pro vestibular? Essas perguntas pareciam estar em aberto até (quase) agora. E grandes cientistas pareciam divergir em suas apostas sobre essas respostas. Em particular, a grande questão era: será que o circuito cerebral que é ativado enquanto fazemos cálculos é o mesmo circuito ativo durante o uso da linguagem?

Provavelmente já ouvimos algumas vezes que a matemática é uma linguagem. Mas será que o nosso cérebro realmente coloca a matemática junto do português, inglês ou mandarim? O Noam Chomsky* escreveu que “a origem da capacidade matemática está na abstração das operações linguísticas” (em tradução livre). Já o Einstein** disse o seguinte: “palavras e linguagem, sejam escritas ou faladas, não parecem possuir nenhum papel importante nos meus mecanismos de pensamentos <!– [sobre física/matemática]”.

No ano passado um artigo da matemática Marie Amalric (e seu orientador de Doutorado) na revista americana PNAS (Proceedings of National Academy of Science) [1] deu uma resposta bastante elegante a essas perguntas. Utilizando técnicas de imageamento (fMRI) para escanear a atividade cerebral de matemáticos profissionais, os autores mostraram que os processamentos matemáticos de alto nível ocorrem em regiões cerebrais que não se superpõem àquelas responsáveis por processamentos de linguagem verbal (veja a Fig. 1).

Fig1Texto4

Figura 1: Nas regiões em vermelho a ativação é significativamente maior durante tarefas que incluem ouvir ou ler textos do que durante o repouso. Nas regiões amarelas a atividade é maior quando o matemático reflete sobre (A) o significado de uma frase matemática do que o de uma frase não-matemática; (B) o significado de uma frase matemática com sentido do que o de uma frase matemática sem sentido. Reproduzida da Ref. [1].

 

Ao longo do estudo, os voluntários escutaram diversas frases sobre matemática e sobre conhecimentos gerais e deviam decidir se cada uma era verdadeira, falsa, ou sem sentido (ver Fig. 2A).

Exemplos de frases sobre conhecimento geral (não-matemáticas):

  • Verdadeira: Exceto pelo Vaticano, Gibraltar é o menor país do mundo.
  • Falsa: O metrô de Paris foi construído antes do de Istanbul.
  • Sem sentido: Um poeta é predominantemente verde na taxa sobre o metrô.

Exemplo de frases matméticas:

  • Verdadeira: Uma função suave cujas derivadas são todas não-negativas é analítica.
  • Falsa: Uma desigualdade entre duas funçõs permanece válida para suas funções primitivas.
  • Sem sentido: Em médias finitas, a expansão em série das raízes de um mapa holomórfico é reflexiva.

A taxa de acerto entre os matemáticos foi de 63% e 65% para as frases matemáticas e não-matemáticas respectivamente, indicando que a dificuldade das duas tarefas eram similares (ver Fig.2B). Para os não-matemáticos, a taxa de acerto das frases não-matemáticas foi de 64% enquanto para as específicas de matemática, a taxa de acerto foi de 37%.  Note que a taxa de acerto ao acaso quando se tem três opções de resposta (verdadeira, falsa, ou sem sentido) é 33%.

Fig2Texto4

Figura 2: A tarefa consiste em ouvir uma frase, ter um período para refletir sobre o sentido da frase e em seguida apertar um de três botões escolhendo se ela é verdadeira, falsa, ou semsentido. (B) A taxa de acertos dos matemáticos (em preto) e dos não matemáticos (em cinza) quando as frases eram sobre matemática ou conhecimento geral (não-matemática). Reproduzida da Ref. [1].

Os resultados de imageamento cerebral sugerem fortemente que a interpretação de frases sobre matemática avançada (ainda que não falem explicitamente de números ou formas geométricas como nos exemplos acima) requerem o mínimo da utilização de regiões cerebrais responsáveis pela linguagem usual. Mais importante ainda, nos matemáticos, todos os domínios matemáticos testados (algebra, análise, topologia, e geometria) recrutam regiões dos dois hemisférios (regiões prefrontal, parietal e temporal inferior), que são ativadas quando matemáticos ou não-matemáticos manipulam números simples mentalmente, ou realizam tarefas espaciais.

Assim, parece que esses resultados podem nos levar a uma reformulação da frase do Chomsky: “a capacidade matemática está na abstração das operações de reconhecimento numérico ou espacial“.

Além disso, estes resultados podem ajudar a entender outros estudos sobre educação, explicando o motivo da correlação encontrada entre a habilidade de crianças em reconhecer números e tarefas de reconhecimento espacial antes de possuirem linguagem falada e seu posterior desempenho nas disciplinas de matemática na escola. E também podem vir a explicar o porquê de algumas pessoas que possuem afasia (perda da capacidade de compreensão de linguagem) não apresentarem acalculia (incapacidade de fazer contas matemáticas) ou vice-versa.

[1] AMALRIC, Marie; DEHAENE, Stanislas. Origins of the brain networks for advanced mathematics in expert mathematicians. Proceedings of the National Academy of Sciences, v. 113, n. 18, p. 4909-4917, 2016.

*Chomsky é um linguista, filósofo, cientista cognitivo, ativista político que, de tão importante, tem o dia do seu nascimento comemorado como Natal no filme Capitão Fantástico.

** Como física eu aceito fácil que você não conheça o Chomsky, mas o Einstein…. Hmmmmm … é aquele mesmo com a língua pra fora.

3

Desmistificando a criptografia

Desde as revelações do Snowden sobre o programa de espionagem do governo americano, a criptografia tem sido tema de debate em diversos espaços e não mais apenas dentro do círculo de especialistas em segurança da informação. Em muitos desses debates, a criptografia é tratada como a única solução possível tanto para a garantia da privacidade no uso da Internet quanto para se proteger da espionagem. Porém, ainda há muitas dúvidas sobre o que ela seria e o quais são as suas limitações.

A palavra criptografia vem de palavras gregas que significam “escrita secreta”. O primeiro esquema de criptografia data de antes de Cristo e é conhecida como a cifra de César. Nessa cifra, cada letra era substituída por outra que estivesse algumas posições a frente. Por exemplo, todas as letras “As” do texto eram substituídas por “Ds”, todos os “Bs” por “Es”, e assim por diante. É um algoritmo bastante simples e descobrindo-se a regra é facilmente desvendada a mensagem.

Pode-se dizer que a criptografia é o estudo dos princípios e técnicas pelas quais a informação pode ser transformada da sua forma original para outra ilegível, de forma que possa ser conhecida apenas por seu destinatário (detentor da “chave secreta”), o que a torna difícil de ser lida por agentes não autorizados. Assim sendo, só o receptor da mensagem pode ler a informação com facilidade.

De acordo com Tanembaum e Wetherall (2011), as mensagens a serem criptografadas, denominadas como texto simples, são transformadas por meio de uma função parametrizada por uma chave. Em seguida, a saída do processo de criptografia, conhecida como texto cifrado, é transmitida. Stallings (2015) diz que o processo de converter um texto claro em um texto cifrado é conhecido como cifração ou encriptação, enquanto a restauração do texto claro a partir do texto cifrado é chamada de decifração ou decriptação.

Atualmente, existem diversas técnicas e algoritmos para cifração. Uma das formas de classificar sistemas criptográficos se refere ao número de chaves utilizadas no processo. Se tanto o emissor quanto o receptor utilizarem a mesma chave, o sistema é classificado como encriptação simétrica; já se o emissor e o receptor usarem chaves diferentes, o sistema é classificado como encriptação assimétrica ou de chave pública (STALLINGS, 2015).

Stallings (2015) afirma que não existe algoritmo de encriptação que seja incondicionalmente seguro. O que se pode obter é um esquema de encriptação considerado computacionalmente seguro, em que o algoritmo atende a pelo menos um dos critérios: (1) o custo para quebrar uma cifra ultrapassa o valor da informação encriptada e (2) o tempo exigido para quebrar a cifra supera o tempo útil da informação. Ou seja, em princípio se você tiver tempo e poder computacional infinitos é possível quebrar qualquer algoritmo criptográfico e descobrir a informação.

Uma das formas mais conhecidas para se descobrir uma informação cifrada de forma não autorizada, como por exemplo senhas de usuários, é o ataque por força bruta. Esse ataque consiste em utilizar o processamento computacional para descobrir a informação por meio de tentativas e erros. O tempo necessário para a descoberta pode variar de acordo com a quantidade possível de tentativas por segundo (capacidade computacional) e a probabilidade de acerto (número de combinações diferentes possíveis) (CERT.BR, s.d.).

Apesar do que se possa pensar inicialmente, Tanembaum e Wetherall (2011) enfatizam a importância do caráter não sigiloso do algoritmo de encriptação a ser utilizado. A estratégia, conhecida como “segurança pela obscuridade”, em que se tenta manter o algoritmo secreto, não é aconselhada. Ao tornar o algoritmo público, inúmeros criptólogos podem tentar decodificar o sistema e caso muitos tenham tentado isso durante cinco anos após a sua publicação e nenhum tenha conseguido, há uma grande probabilidade de que o algoritmo seja sólido (TANEMBAUM E WETHERALL, 2011). Na verdade, o sigilo deve estar na chave, e seu tamanho é uma questão muito importante no projeto de um algoritmo de encriptação. De forma geral, quanto maior for o tamanho da chave, mais segura estará a informação cifrada.

Outra vantagem do algoritmo criptográfico ser aberto é a de que se pode verificar que não há a existência de backdoors. Uma backdoor é um método, muitas vezes secreto, de transpor a autenticação normal para um produto, sistema de computador, criptosistema ou algoritmo etc. Backdoors são freqüentemente usadas para assegurar acesso remoto não autorizado a um computador ou obter acesso a textos em sistemas criptográficos. Um cenário em que pode ser útil é na espionagem de pessoas e/ou instituições. Porém, a sua utilização fragiliza o mecanismo de segurança da informação e é desencorajada, pois pode ser explorada por atacantes para diversos fins, como roubo e alteração de dados, etc.

Com o advento de aplicativos de comunicação via celular, o uso de algoritmos criptográficos migrou para essa plataforma a fim de garantir uma comunicação sigilosa ponta a ponta. Nesse cenário, há um grande desafio que é a distribuição segura das chaves através da Internet. Segundo Stallings (2015), a força de qualquer sistema criptográfico está na técnica de distribuição de chave, um termo que se refere aos meios de entregar uma chave a duas partes que querem trocar dados, sem permitir que outros vejam a chave. Isso porque para que a encriptação simétrica funcione, as duas partes precisam compartilhar a mesma chave, que precisa ser protegida contra o acesso por outras partes sem permissão.

A distribuição de chave pode ser feita de várias maneiras, sendo que o uso de um centro de distribuição de chaves (CDC) tem sido bastante adotado (STALLINGS, 2015). Ele é responsável por distribuir chaves a pares de usuários conforme a necessidade. Cada usuário precisa compartilhar uma chave exclusiva com o CDC, para fins de distribuição delas. De acordo com Stallings (2015), a utilização de um CDC é baseada no uso de uma hierarquia de chaves com, no mínimo, dois níveis. A comunicação entre as pontas é encriptada usando uma chave temporária, normalmente referenciada como uma “chave de sessão”, que normalmente é usada pela duração de uma conexão lógica e depois descartada. Cada chave de sessão é obtida a partir do CDC e transmitida em formato encriptado, usando uma chave mestra exclusiva, que é compartilhada pelo centro e o usuário final (STALLINGS, 2015). Pode-se adicionar mais um nível na hierarquia de chaves, em que a encriptação de chave pública é usada apenas para atualizar a chave mestra entre um usuário e o CDC. O acréscimo dessa camada oferece um meio seguro e eficiente de distribuir chaves mestras. Esse esquema de CDC é usado, por exemplo, em aplicativos como o WhatsApp.

Apesar da criptografia ser uma área de estudo consolidada, ela é bastante dinâmica. A todo momento são lançados novos algoritmos criptográficos para serem testados por criptólogos a fim de descobrirem falhas, enquanto algoritmos já consolidados se tornam obsoletos devido ao aumento do poder de processamento dos computadores. Os estudos mais atuais dentro dessa área são os de criptografia pós-quântica que se refere a algoritmos criptográficos considerados seguros contra um ataque de um computador quântico.

Os algoritmos de chave pública mais populares atualmente podem ser quebrados de modo eficiente por um computador quântico grande o suficiente. A segurança dos algoritmos atuais se baseia em um dos três problemas matemáticos difíceis de serem solucionados pelos computadores eletrônicos: o problema de fatoração de inteiros, o problema de logaritmo discreto ou o problema de logaritmo discreto de curva elíptica. Porém, todos eles podem ser facilmente resolvidos em um computador quântico potente o suficiente executando o algoritmo de Shor, que é um algoritmo para fatoração de números inteiros (informalmente ele resolve o seguinte problema: dado um número inteiro N, encontre os fatores primos dele). Ainda que os computadores quânticos atuais conhecidos sejam muito pequenos para atacar qualquer algoritmo criptográfico real, muitos criptólogos estão projetando novos algoritmos para se preparar para quando a computação quântica se torne uma realidade e uma ameaça.

Bibliografia

CERT.BR. Cartilha de Segurança para a Internet. Disponível em: < http://cartilha.cert.br/ataques/ >. Acessado em 26 mar. 2017.

STALLINGS, W. Criptografia e Segurança de Redes: Princípios e Práticas – 6ª edição. São Paulo: Pearson. 2015. ISBN 978-8543005898.

TANENBAUM, A. S.; WETHERALL, D.  Redes de Computadores – 5ª Edição. São Paulo: Pearson. 2011. ISBN  857605924X.

WIKIPEDIA. Criptografia. Disponível em: < https://pt.wikipedia.org/wiki/Criptografia >. Acesso em: 26 mar. 2017.

WIKIPEDIA. Post-quantum cryptography. Disponível em: < https://en.wikipedia.org/wiki/Post-quantum_cryptography &gt;. Acesso em: 26 mar. 2017.