0

Em 1919 a teoria de Einstein foi confirmada no Ceará

Texto escrito em parceria com @ruajosephine.

Há 99 anos, em 29 de maio de 1919, uma equipe de cientistas estava em Sobral, cidade do Ceará, para comprovar a teoria da gravitação de Albert Einstein — a Teoria da Relatividade Geral — a partir de um eclipse solar.  Isso mesmo! Foi em terras brasileiras, marcadas pela seca e muitas histórias contadas em cordéis, que uma equipe bem diversa de físicos e astrônomos brasileiros, ingleses e americanos, enviada pelo astrônomo inglês Sir Eddington comprovou a arretada e soberana Teoria da Relatividade Geral! [1] Além dessa expedição no Ceará, Sir Eddington liderava pessoalmente outra equipe que estava na Ilha do Príncipe, na África, para corroborar com tal comprovação científica. Mas vamos trazer um ponto de vista brasileiro, especificamente cearense para essa história!

Foto 1: A tranquilidade no olhar de Albert Einstein ao comprovar sua teoria da Relatividade Geral.

Antes desse feito o mundo vivia uma ciência fixa, sem muitas contradições desde 1666, com a teoria da Gravitação Universal muito bem estruturada por Isaac Newton, que dizia que a velocidade da luz poderia ser somada à rapidez daquilo que a emitia, num universo onde o tempo era constante e o espaço absoluto. Tudo começou a mudar na virada do século XIX para o XX, quando as equações do escocês James Maxwell passaram a demonstrar que a velocidade da luz é que é constante e não poderia ser somada à nada.

Nesse contexto Einstein criou a teoria da Relatividade Restrita, que descreve a física do movimento na ausência de campos gravitacionais. Essa teoria era incompatível com a teoria da gravitação de Newton. Uma nova teoria da gravitação seria necessária para explicar fenômenos gravitacionais em alta velocidade (comparáveis à velocidade da luz) ou com altas energias. Vale lembrar que a teoria de Newton e a teoria de Einstein coincidem em baixas energias/velocidades. Foi chutando o balde, abandonando a solidez da teoria de Newton e considerando as equações de Maxwell, Einstein chegou a Teoria da Relatividade Geral, base da ciência moderna, que prever que a matéria (planetas, estrelas, etc) é responsável por mudar a geometria espaço-tempo do universo, que passa a ser relativa. Mas como comprovar essa teoria?

Para verificar a Relatividade Geral era preciso fotografar o céu durante um eclipse solar: se a teoria de Newton estivesse correta, não veríamos a imagem de uma estrela atrás do Sol porque a luz da estrela seria interrompida pelo próprio Sol. Já se a teoria de Einstein estivesse correta, seríamos capazes de ver a imagem da estrela porque a luz emitida seria distorcida de tal forma que a estrela aparentaria estar ao lado do Sol ao invés de atrás. Para concluir qual teoria estava correta, os cientistas precisaram comparar essa fotografia com outra, daquele mesmo grupo de estrelas, numa noite normal, quando o Sol já houvesse mudado para outra posição.

Para entender melhor, imagina que você está vendo TV e alguém coloca um balde de pipoca exatamente entre você e a tela, atrapalhando a sua visão. A luz da tela não consegue chegar até você porque ela não atravessa o balde de pipoca, certo? Agora troca a imagem da TV pela imagem da estrela e o balde de pipoca que estava te atrapalhando pelo Sol. A teoria de Newton diz que você não virá a luz da estrela pelo mesmo motivo que você não vê a tela da TV quando tem um balde de pipoca na sua frente. Já a teoria de Einstein diz que se massa intrometida (do Sol durante o eclipse ou do balde de pipoca) é o grande o suficientemente, ela distorce o espaço ao seu redor. Einstein previu que o Sol causaria esse efeito no espaço e curvaria a luz que passasse por ele, como acontece no caso da luz de estrelas posicionadas atrás do Sol durante o eclipse solar. Foi para fotografar essa curva que a luz faz ao passar pelo Sol que os astrônomos foram à Ilha do Príncipe e à Sobral, no Ceará. [2]

1919_eclipse_positive

Foto 2: Eclipse solar de Sobral, em 1919.

A comprovação da Teoria da Relatividade Geral de Einstein, a partir do que se viu na escuridão do eclipse solar em Sobral, foi apresentada em novembro de 1919, durante a reunião da Sociedade Real Astronômica  (Royal Astronomical Society), em Londres, modificando a forma como a humanidade entende a física.

Hoje a cidade de Sobral muito se orgulha de ter sido palco do triunfo desse cientista universal. Criou o Museu do Eclipse em 1999, que guarda a luneta utilizada pela expedição de Einstein e muitas fotografias originais das pesquisas realizadas na cidade. O Museu encontra-se fechado para manutenção e reabrirá para o centenário em 2019.

museu-do-eclipse

Foto 3: Museu do Eclipse, Sobral, Ceará.

A prefeitura de Sobral organiza uma comemoração para o centenário do fenômeno junto à Sociedade Brasileira para o Progresso da Ciência (SBPC), quando irão realizar palestras, exposições, congressos, simpósios, além da construção de um monumento em alusão à comprovação da teoria. Sobral mostrou ao mundo a comprovação da Teoria da Relatividade, a física moderna é também cearense, minha gente! [1]

Referências:

[1] http://plus.diariodonordeste.com.br/sobral-sediou-prova-da-teoria-da-relatividade/#intro – 2018.

[2] https://super.abril.com.br/ciencia/einstein-no-ceara-as-aventuras-e-desventuras-de-uma-teoria-arretada-nos-confins-do-sertao/ – 2012.

Anúncios
0

Asteroides : O início e o fim da humanidade?

Asteroides têm seu próprio charme. Mais do que uma simples pedrinha espacial, um asteroide pode ser a resposta pra vida da Terra e mesmo o responsável pelo fim da humanidade no futuro. Várias agências de pesquisas têm concentrado seus esforços para entender melhor esses objetos.

A hipótese que a vida pode ter sido trazida a Terra é chamada de Panspermia. Essa ideia foi abandonada por muitos anos pela falta de dados que pudessem corroborar essa ideia mas no fim dos anos 70 com a descoberta de meteoritos originados de Marte na Terra, mostrou-se que era possível a troca de matéria entre objetos no espaço e essa hipótese ganhou força novamente. [1] [2]

A chegada de um asteroide com material orgânico na Terra não é simples. Os microrganismos precisam de um ambiente em que possam sobreviver durante toda a viagem interplanetária. Entretanto, experimentos espaciais demonstraram que com proteção ultravioleta mínima, vários tipos de microrganismos podem sobreviver por anos ao ambiente hostil do espaço. Os resultados demonstraram que os microrganismos poderiam sobreviver a aceleração para a velocidades de escape de Marte e ao impacto subsequente em superfícies de diferentes composições. Assim, há fortes evidências de que microrganismos podem sobreviver às condições de transferência interplanetárias [1].

O sistema Terra-Marte não é o único lugar onde transferência natural pode ocorrer. A descoberta de potencialmente ambientes habitáveis, como alguns satélites de Júpiter e Saturno, expande a possibilidade de transferência de vida no Sistema Solar [1].

Para estudar melhor as possibilidades de microrganismos e composição de asteroides, várias missões têm sido lançadas com o objetivo de coleta de material para a análise na Terra.

A Hayabusa, da Agência Japonesa de Exploração Aeroespacial (JAXA), foi desenvolvida para coletar amostras do asteroide Itokawa e devolvê-las à Terra. Itokawa é um NEO (Near Earth Object), um objetos próximos da Terra que foi empurrado pela atração gravitacional de planetas próximos em órbitas que lhes permitem entrar na vizinhança da Terra, ou seja, tem maiores chances de colisão com a Terra [3][6].

A missão foi lançada em maio de 2003 e encontrou o asteróide Itokawa em novembro de 2005. Lá, fez várias tentativas de coletar. Durante uma dessas tentativas, a espaçonave inesperadamente perdeu a comunicação com a Terra e aterrissou na superfície do asteroide, danificando a espaçonave. Apesar desse revés, a JAXA conseguiu devolver a Hayabusa com segurança para a Terra em junho de 2010 [3].

Embora o mecanismo de coleta não tenha funcionado, milhares de partículas foram encontradas em um dos recipientes de amostra, aparentemente introduzidos durante o impacto da espaçonave na superfície do asteroide. Muitas dessas partículas seriam do asteroide por sua química e mineralogia, mas infelizmente foram contaminadas por partículas da espaçonave. Assim, em vez de devolver vários gramas de amostra, a Hayabusa retornou menos de um miligrama de amostra. No entanto, estas são as primeiras amostras diretas de um asteroide e, portanto, têm grande valor científico [3].

itokawa

Figura 1: Foto do Itokawa tirada pela Hayabusa em 2005. Créditos: JAXA

Seguindo a mesma linha, a JAXA enviou a Hayabusa2 que teria os pontos fracos da missão anterior resolvidos. Hayabusa2 foi lançado em dezembro de 2014 e encontrou-se com o asteroide 162173 Ryugu em 27 de junho de 2018. A missão deve inspecionar o asteróide por um ano e meio e retornar à Terra em dezembro de 2020 [4].

A Hayabusa2 também coletará material do asteroide e contem um dispositivo explosivo adicional que será usado para cavar o subsolo do asteroide [4].

 

ryugu

Figura 2: Foto do 162173 Ryugu tirada pela Hayabusa2 . Créditos: JAXA

A missão da NASA, OSIRIS-REx (Origins Spectral Interpretation Resource Identification Security Regolith Explorer) segue a mesma lógica das missões japonesas, é uma missão de retorno de amostras de asteroides. Lançada em setembro de 2016, sua missão é estudar o asteroide 101955 Bennu, também considerado um NEO, e retornar uma amostra para a Terra em setembro de 2023 [5].

Os NEOs podem ser uma grande ameaça para a humanidade. Mais de 1 milhão de asteroides têm o potencial de impactar a Terra, e através de todos os telescópios disponíveis em todo o mundo, descobrimos apenas cerca de um por cento. Por causa disso foi criado o Dia do Asteroide (Asteroid Day), cujo os detalhes você pode encontrar no texto do próprio blog.

Resumidamente, o Asteroid Day (30 de Junho) é uma maneiras para conscientizar a sociedade sobre asteroides e as possibilidades de queda na Terra. A iniciativa também é uma maneira para estimular o investimento em pesquisa desses objetos. Alguns projetos brasileiros compostos de astrônomos profissionais e amadores têm colaborado para o monitoramento desses objetos quando atingem a atmosfera da Terra, como é o caso do Bramon e do Exoss.

O Brasil, pelo segundo ano seguido, foi a país que mais desenvolveu atividades no Asteroid Day. As atividades foram constituídas de palestras, cartazes, observações do céu dentre outras atividades, tudo acessível para todos os públicos.

asteroid-day-brasil-quadro-final

Figura 3: Número de eventos do Asteroid day em diversos países. Créditos: EXOSS

O Asteroid Day é uma ótima forma de conectar a academia com a comunidade e o Brasil fez o seu dever de casa. De norte a sul iniciativas como esta tem se tornando cada vez mais comum entre os cientistas, o que colabora para o acesso da população aos trabalhos desenvolvidos dentro da universidades e centros de pesquisas.

Referências:

[1] P. H. Rampelotto; PANSPERMIA: A PROMISING FIELD OF RESEARCH; Astrobiology Science Conference 2010;

[2] http://www.sciencemag.org/news/2016/08/nasa-sample-asteroid-clues-life-earth

[3] https://curator.jsc.nasa.gov/hayabusa/

[4] http://global.jaxa.jp/press/2018/06/20180627_hayabusa2.html

[5] https://www.nasa.gov/mission_pages/osiris-rex/

[6] https://cneos.jpl.nasa.gov/about/basics.html

 

 

 

0

Um ponto ótimo para as oscilações neuronais

Considerando o senso comum, parece que quanto mais bagunça adicionamos a um sistema, mais difícil a transmissão de informação através dele. Por exemplo, em uma sala silenciosa você poderia facilmente conversar com uma amiga a dois metros de distância de você. Mas se aos poucos vão chegando outras pessoas na sala, e estas pessoas estão conversando entre si, é fácil imaginar que vai ficando cada vez mais difícil entender o que sua amiga fala. Ou seja, quanto maior o barulho (ou ruído) na sala, mais difícil mantermos a comunicação. No entanto, essa diminuição da transmissão de informação com o aumento do ruído (que parece bastante intuitiva para nós), nem sempre é verificada.

Alguns sistemas físicos e biológicos apresentam um fenômeno chamado coerência estocástica (ou ressonância estocástica) que, em palavras simples, consiste em um aumento da transmissão da informação induzido pelo aumento do ruído. Esses sistemas apresentam um valor de ruído ótimo, para o qual a transmissão de informação é máxima.

Voltando ao nosso exemplo da conversa em uma sala. Imagine hipoteticamente que esta sala apresentasse este efeito de ressonância estocástica. Isto significaria que a qualidade da comunicação entre você e sua amiga aumentaria com a entrada das primeiras pessoas na sala até um valor máximo. Existiria um número n de pessoas (uma certa quantidade de barulho) que ajudaria na transmissão da informação. O barulho só passaria a atrapalhar a conversa de vocês depois que a pessoa de número n+1 entrasse na sala. Parece pouco intuitivo não é?

Mas um exemplo verdadeiro desse fenômeno pode ser verificado na seguinte imagem [1]:

8_image

Figura modificada da Ref. [1]. À imagem original do Big Ben foi adicionada uma certa quantidade de ruído, que aumenta da figura da esquerda para a da direita. Note que para uma quantidade intermediária de ruído podemos reconhecer melhor a imagem.

Cada um dos 256×256 pixels da foto original digitalizada é representado por um número de 1 a 256 representando a escala de tons de cinza. Nas três imagens acima, a cada um desses pixels foi adicionado ao valor inicial um número aleatório (de maneira que a quantidade de ruído total adicionado a cada imagem aumenta da esquerda para direita [1]) Podemos notar que a imagem mais nítida é a do meio, indicando que existe um valor ótimo de ruído para o qual nosso cérebro interpreta melhor essa imagem como “Big Ben”. Em outras palavras, a natureza passou a utilizar a existência do ruído aleatório a seu favor.

Recentemente, a pesquisadora Belén Sancristobal e seus colaboradores, verificaram que este fenômeno da coerência estocástica ocorre em um modelo computacional de redes de neurônios conectados e também em uma rede de neurônios reais pertencentes a um pedacinho do córtex de um furão. Ao contrário de estudos anteriores em sistemas com apenas um neurônio, eles mostraram que a coerência estocástica pode ocorrer como um fenômeno coletivo e emergente. O ruído nesses experimentos contribui para deixar o sistema mais previsível. (Mais detalhes abaixo).

Em alguns estados especiais, por exemplo durante o sono de ondas lentas ou quando estamos anestesiados, a atividade elétrica de regiões corticais do nosso cérebro oscila em frequências da ordem de 1Hz entre dois estados bem definidos chamados UP e DOWN. Os estados UP são caracterizados pelos disparos de vários neurônios (atividade sustentada), estes disparos são parecidos com os que ocorrem durante momentos em que estamos acordados e saudáveis. Por outro lado, durante os estados DOWN a maioria dos neurônios se mantêm em silêncio. Esse estado oscilante entre UP e DOWN também já foi verificado em experimentos in vitro na ausência de estímulo externo. Isto indica que essas oscilações  podem ser uma atividade auto-sustentada que ocorre em redes relativamente pequenas devido, possivelmente, às conexões recorrentes entre os neurônios locais. A medida em que vamos despertando de um estado profundo de anestesia, a regularidade das oscilações de UP e DOWN diminuem até que desaparecem por completo quando estamos acordados (nos mantemos apenas em UP). Nesses estágios intermediários é mais difícil prever quando ocorrerá um estado UP. A natureza desses estados mais regulares durante a anestesia profunda ainda não é bem entendida na comunidade científica. Em particular, não se sabe se ela é determinística ou devido a ruído externo.

O estudo citado acima [2] abordou justamente esta questão. Eles mostraram que a regularidade da oscilações UP e DOWN, pelo menos em alguns casos específicos in vitro, está associada ao fenômeno da coerência estocástica.  Variando a excitabilidade neuronal através da concentração extracelular de  potássio, eles mostraram que o coeficiente de variação da duração dos estados UP e DOWN tem um mínimo para uma certa concentração específica de potássio. Sendo assim, eles provaram através de modelos computacionais e experimentos in vitro que existe um valor intermediário de ruído para o qual a regularidade das oscilações neuronais UP e DOWN é máxima. Além disso, como o trabalho utilizou redes de vários neurônios, estes resultados mostram que a coerência estocástica pode ocorrer como um fenômeno coletivo e emergente no nosso cérebro. Ou seja, apesar de cada neurônio individualmente do sistema não estar em um regime de coerência estocástica, esse regime surge (emerge) quando conectamos os neurônios uns aos outros de uma maneira específica.

Parece que, mais uma vez, a evolução garantiu a perpetuação de quem usou as adversidades do meio a seu favor e nos colocou em algum ponto ótimo.


8_image2

Figura modificada da Ref. [2].  Primeira evidência experimental da coerência estocástica em tecidos corticais. Esses dados foram obtidos no laboratório da  pesquisadora Mavi Sanchez Vives em Barcelona. No topo, séries temporais da atividade elétrica do tecido mostrando os estados UP e DOWN para três concentrações diferentes de potássio. Na base, medida da variabilidade dos estados como função da concentração de potássio em várias repetições do experimento (colorido) e o valor médio em preto. Note que no ponto ótimo [K+]=0 há um mínimo na variabilidade, indicando um máximo na previsibilidade dos estados UP e DOWN.

Referências:

[1] Simonotto, Enrico; Riani, Massimo; Seife, Charles; Roberts, Mark; Twitty, Jennifer; Moss, Frank (1997). “Visual Perception of Stochastic Resonance”. Physical Review Letters. 78 (6): 1186.

[2] Sancristóbal B, Rebollo B, Boada P, Sanchez-Vives MV, Garcia-Ojalvo J. Collective stochastic coherence in recurrent neuronal networks. Nature Physics. 2016 Sep;12(9):881.

 

0

Como estarão a Antártica e o Oceano Austral em 2070?

 

r384SYGQSgCVaQ50DhEm4A_thumb_88f5

Foto: Iceberg no Setor Atlântico do Oceano Austral. OPERANTAR XXXIII. Natalia Ribeiro

Apesar de ser uma das regiões mais remotas do planeta, a Antártica está completamente acoplada ao restante do sistema climático terrestre. As teleconexões oceânicas e atmosféricas se comunicam com as variações do clima das baixas às altas latitudes, influenciando a atmosfera polar, a estabilidade das plataformas de gelo, o gelo marinho e a própria biosfera. Dada a influência da Antártica e do Oceano Austral no aumento do nível do mar, clima e ecossistemas marinhos em geral, mudanças na região trazem consequências generalizadas para o planeta e para a humanidade. Por conta da situação política do continente e do oceano, que são divididos e regulados por um conjunto de países através do Tratado Antártico, todas as decisões dependem de esforço global e, portanto, estão idealmente atreladas aos interesses de todos e não somente a uma nação. Dessa forma, as decisões tomadas no presente, serão as responsáveis por como será o mundo do futuro para as crianças de hoje.

Em um estudo publicado recentemente na revista Nature, pesquisadores discutem dois cenários sob a perspectiva de um observador do futuro, baseado nas decisões tomadas 50 anos antes. (1) No primeiro cenário, as emissões de gases do Efeito Estufa não foram controladas, o clima segue esquentando e as decisões tomadas para responder às mudanças climáticas foram inefetivas de forma geral. (2) No segundo cenário, ações ambiciosas foram tomadas para limitar as emissões de gases do Efeito Estufa e para estabelecer políticas que reduzissem a pressão antropogênica sobre o ambiente. Para desenvolver esses cenários foram utilizados dados quantitativos de modelos climáticos para variáveis físicas e químicas e, quando não era possível (ex. avaliação da situação dos sistemas biológicos e sociais), foi feita uma análise heurística, baseada no entendimento dos processos e respostas conhecidas de mudanças passadas.

Screen Shot 2018-07-01 at 3.47.09 PM

Fig. 1 | Antártica e Oceano Austral em 2070, sob os cenários de “baixas emissões/ações efetivas (esquerda) e “altas emissões/ações fracas” (direita).

(1) Antártica em 2070 sob altas emissões, segundo nosso viajante do futuro:

“Observando os 50 anos anteriores, fica claro que os últimos 50 anos se desenvolveram de acordo com o esperado pelo 5˚ Relatório do IPCC (2013). A demanda por alimentos e energia aumentou devido ao crescimento populacional e foi suprida por intensa atividade agrícola, principalmente sustentada por combustíveis fósseis e desmatamento. Isso, aliada à falta de regulação das emissões, acabou por aumentar ainda mais as emissões de gases de efeito estufa.

A temperatura média do ar já é mais de 3.5˚C mais alta que no fim do século XIX, o que excede os 2˚C recomendados pelos acordos climáticos internacionais (como o Acordo de Paris). A temperatura do Oceano Austral aumentou 1.9˚C o que, aliada à dessalinização por conta do aumento da precipitação, causou profundas mudanças na circulação dos oceanos e colapso de plataformas de gelo tanto do oeste como do leste da Antártica. Os icebergs gerados são cuidadosamente monitorados por conta do aumento do tráfego de navios na área, tanto de turismo como navios de pesca e navios comerciais. A melhora do acesso ao continente, aumentou consideravelmente a pesca. Rapidamente a sobrepesca de algumas espécies base alterou as cadeias tróficas, diminuindo o número de predadores de topo (como os pinguins) e ferindo a biodiversidade da região. Espécies invasoras no continente, especialmente de plantas, também são uma realidade.

O aumento do nível do mar já causa mais de 1 trilhão de dólares de prejuízo por conta de 27 cm de aumento, e as taxas esperadas para os próximos anos consideram um aumento de 10m irreversível, números similares ao último período de deglaciação da Terra.

As alianças começam a dar sinais de desgaste. Muitas discussões sobre criação de espécies marinhas e, principalmente, mineração, e como esses recursos poderiam ser divididos entre as nações causam conflitos que parecem ser irreversíveis. A conservação vai perdendo a importância e a Antártica hoje é tratada como um Parque Nacional ou reserva ambiental, vivendo precariamente do balanço entre turismo, lucro possível e conservação da biodiversidade.”

(2) Antártica em 2070 sob baixas emissões, segundo nosso viajante do futuro:

“Embora as perspectivas de ação global eficaz para mitigar as emissões parecessem sombrias em 2015, a subsequente ratificação do acordo climático das Nações Unidas em Paris (Acordo de Paris) por 196 países, anunciou uma nova era de cooperação internacional para reduzir as emissões de gases de efeito estufa. A redução mais rápida do que o previsto nos custos das energias renováveis ​​desencadeou uma rápida transição do carvão. Um aumento na magnitude e frequência de eventos climáticos extremos que afetam grandes populações e economias destacou a vulnerabilidade generalizada e convenceu os tomadores de decisão a aumentar sua ambição de reduzir as emissões de gases de efeito estufa, com o forte envolvimento de cidades, regiões e empresas. Como resultado dessas políticas, a ampliação dos feedbacks de carbono não foi acionada, e estamos agora no caminho para manter o aquecimento bem abaixo da meta de 2°C. Novos caminhos financeiros ajudaram a criar um mercado de carbono funcional e equitativo, que é um incentivo para a rápida transição para uma economia de baixo carbono. Líderes empresariais e gestores de fundos começaram a apreciar as oportunidades financeiras e outros co-benefícios da transição associada à descarbonização, e as novas tecnologias permitiram o sequestro seguro e eficiente e, por fim, a remoção de gases de efeito estufa da atmosfera. O amplo reconhecimento dos perigos do uso irrestrito de combustíveis fósseis inspirou mudanças nos padrões de consumo no mundo desenvolvido, incluindo mudanças em dietas baseadas em plantas mais sustentáveis ​​e mudanças na agricultura e práticas de uso da terra. A disponibilidade de energia renovável de baixo custo permitiu que os países em desenvolvimento fornecessem energia acessível e diminuíssem a pobreza.

A temperatura do ar e demais aspectos da atmosfera, como o padrão de ventos, se mantiveram muito similares aos padrões de 50 anos atrás. As tendências de aquecimento e dessalinização no Oceano Austral observadas no início do século XXI foram se reduzindo até reverterem entre 2020 e 2050. As plataformas de gelo ficaram menos expostas às águas quentes, mas essa mudança não aconteceu rápido o suficiente para preservar as plataformas do oeste da Antártica. Quanto às plataformas do leste da Antártica, mais volumosas, estas se mantiveram relativamente intactas. O aumento do nível do mar foi de 6cm e continua principalmente sendo derivado da expansão térmica. O gelo marinho também retraiu, mas apenas 15%.

Em relação à biodiversidade, a estrutura continua muito parecida com a de 50 anos atrás e as espécies invasoras continuam controladas, principalmente porque a relativa estabilidade da  temperatura manteve o ambiente inóspito para as espécies que dominam os outros continentes. As ações mitigatórias também foram efetivas em diminuir a taxa de acidificação dos oceanos, preservando a biodiversidade dependente de cálcio e aragonita.

Como reflexo dos bons resultados do Acordo de Paris e motivadas por uma apreciação mais clara das ameaças à região e o valor global de uma melhor compreensão da Antártica e suas ligações com latitudes mais baixas, as nações envolvidas reafirmaram o compromisso de manter a Antártida como uma reserva natural para a paz e ciência.”

E o presente?

Os dois cenários são altamente especulativos e, segundo os autores, a intenção do estudo prioriza mais catalisar a discussão do que fazer previsões diretas para o futuro. A principal lição é que as escolhas feitas na próxima década irão determinar que trajetória seguiremos enquanto humanidade e que, apesar de o caminho da preservação e mitigação não ser fácil, ele é possível.

 

 

____________________________________________________________________________________________

Referências

Rintoul, S.; Chown, S.; Deconto, R.; England, M.; Fricker, H.; Masson-Delmotte, V.; Naish, T.; Siegert, M. and  J. Xavier. 2018. Choosing the future of Antarctica. Nature, 558, 233 – 241.

0

Por que alguns sons são considerados música e outros não?

O viral e controverso áudio “laurel versus yanny”, dividiu e confundiu os internautas. Este é só um exemplo de como a nossa audição é um fenômeno complexo e de como um mesmo som pode ser interpretado de formas diferentes por pessoas e grupos de pessoas diferentes. Créditos: Pinterest.

De tempos em tempos, novas e velhas ilusões de óptica viralizam nas redes sociais. Ilusões aurais e outros tipos de fenômenos relacionados à percepção auditiva são menos conhecidas, mas o recente e controverso áudio “laurel versus yanny” dividiu e também confundiu as pessoas que o escutaram. O jornal americano The New York Times chegou a publicar uma ferramenta que aplica progressivamente filtros de frequência ao arquivo, que é originalmente uma manipulação do áudio correspondente ao verbete “laurel” do site Vocabulary. Com esta ferramenta é possível comparar com outras pessoas a partir de que ponto a interpretação do áudio passa a ser ambígua.

Estas diferenças de percepção são apenas um exemplo entre muitos fenômenos relacionados à audição que variam entre uma pessoa e outra. Elas se devem às vezes a estruturas biológicas – neste caso diferenças entre os sistema auditivo e nervoso de cada indivíduo – e às vezes a diferenças culturais.

Estabelecer uma linha que divida exatamente onde cada um destes fatores passa a interferir ou deixa de influenciar a resposta a um determinado estímulo é virtualmente impossível. Para estudar este tipo de tendência, cientistas das áreas de psicofísica, neurociências, antropologia, psicologia e muitas outras valem-se de ferramentas estatísticas para estudar as diferenças de resposta em diferentes grupos de pessoas.

Quando falamos sobre nossas reações à música, podemos debater até mesmo o que é considerado um som musical ou não. Esta noção já foi debatida à exaustão por estudiosos da etnomusicologia, que apontam que a cultura musical não é transmitida para pessoas sem contexto prévio algum, e que a percepção de como o som é organizado e significado é sujeita ao sistema simbólico prévio do indivíduo que está escutando, executando ou compondo música [1].

O estudo publicado recentemente por McDerbott et al. [2] foi dedicado ao estudo das diferenças de percepção de dissonância musical em cinco grupos de pessoas (americanos com treinamento musical, americanos sem treinamento musical, bolivianos residentes em La Paz, bolivianos que residem em uma cidade consideravelmente menor que a capital e bolivianos pertencentes ao grupo étnico dos Tsimane’ que não tiveram contato com a música tradicional ocidental).

Figura 1 – Membros do grupo Tsimane’, na Amazônia boliviana – Foto de Piotr Strycharz, licença Creative Commons.

Para isso, os pesquisadores apresentaram aos voluntários de cada um dos grupos uma série de estímulos sonoros, dentre eles sons de risadas, suspiros e uma série de díades e acordes, já classificadas como consonantes ou dissonantes na tradição ocidental.

O estudo demonstrou, entre outras tendências, que os membros do grupo Tsimane’ são capazes de distinguir estímulos que são considerados ou não dissonantes na tradição musical ocidental, mas que não consideram os sons dissonantes menos prazerosos que os consonantes.

Os outros dois grupos bolivianos estudados, que têm mais contato com a música ocidental tonal, apresentaram maior predileção pelos sons considerados consonantes nesta cultura, embora tal preferência demonstre ser mais discreta com relação aos voluntários americanos.

Estes resultados corroboram com a hipótese de que as noções estéticas musicais de um grupo de pessoas é predominantemente determinado pelos seus contextos culturais e que, ao contrário das diferentes percepções do áudio “laurel versus yanny”, pouco reflete nossa estrutura biológica responsável pela audição.

No caso específico da resposta a sons consonantes e dissonantes, o estudo sugere que o julgamento da agradabilidade de um acorde é diretamente determinado pela exposição prévia à estrutura harmônica da música ocidental tonal.

Referências
[1] Moisala, P. (1995) Cognitive study of music as culture — basic
premises for “cognitive ethnomusicology”
, Journal of New Music Research, 24:1,
8-20. Disponível aqui.

[2] McDermott, J.H.; Schultz, A.F.; Undurraga, E.A.; Godoy, R.A. (2016). Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature volume 535, pages 547–550. Disponível aqui.

0

Alquimia do universo: como produzir elementos químicos – Parte II

alquimia_do_universo_parte_ii_imagem_destacada

Figura 1:  Estrela Sh2-106. Imagem do Telescópio Espacial Hubble da NASA/ESA mostrando a estrela recém-formada Sh 2-106. Crédito: NASA/ESA

Continuamos a nossa série “Alquimia do universo” que começou aqui falando sobre os elementos criados durante o Big Bang. O evento que deu origem ao universo produziu a maior parte do hidrogênio e do hélio que existe! Isso não é pouca coisa quando consideramos que aproximadamente 98% de toda a matéria comum (bariônica) que forma você, as árvores, a Terra, o Sol é composta por hidrogênio e hélio.

Tudo muito bom e muito bonito mas hoje nós vamos falar das estrelas! ⭐ Antes de nós passarmos para nosso bate-bola estelar (e não, não vamos falar de falar de futebol 🤣), vamos falar sobre o que são estrelas.

Vídeo 1: SN 2006gy, uma estrela explodindo. Simulação de uma estrela extremamente massiva lançando algumas de suas camadas externas em uma grande erupção antes de colapsar violentamente. A explosão (do tipo supernova) por sua vez entra no gás expelido (em cor acobreada), que se encontra numa temperatura mais fria, criando um espetáculo de luz brilhante. Créditos: NASA/CXC/A.Jubett.]

Estrelas são bolas de gás e poeira com a particularidade que elas conseguiram juntar tanto gás e tanta poeira (graças à força gravitacional) que o núcleo dessas bolas esquentou, e esquentou, até atingir uma temperatura em torno de 4 milhões de Kelvins! Isso é tipo um cadinho menos que 4 milhões de graus Celsius! 🔥😵🔥 Essa temperatura é especial porque significa que agora a nossa “bolinha de poeira” tem energia suficiente para fusionar os núcleos de hidrogênio originando novos núcleos de hélio. E isso acontece bilhões de vezes por segundo, e cada fusão desse tipo gera mais energia, numa cadeia de inúmeras explosões atômicas. É essa energia liberada no processo de fusão que transforma a ex-bola de gás numa bola de gás incandescente: uma estrela.

Vídeo 2: Simulação sobre a formação estelar. O início da simulação parte de uma nuvem molecular distribuída esfericamente que, graças ao efeito da gravidade, começa a colapsar até eventualmente originar estrelas. Créditos: Youtube/Francis Villatoro.

Durante esse período no qual a estrela transforma o hidrogênio presente em seu núcleo em hélio, dizemos que a estrela está na sequência principal de sua evolução estelar. E essa também corresponde a maior fase da vida de uma estrela, como se fosse sua vida adulta.

Se você quer entender melhor como estrela evoluem, dá uma olhada nessa simulação maneiríssima onde você mesma, pessoa, escolhe o tamanho da sua estrela. Tá em português!

 

Só para dar uma ideia..
uma estrela como o nosso Sol demorou 50 milhões de anos para juntar energia suficiente antes de começar a fusionar hidrogênio. Ela está na sequência principal (fase adulta) há aproximadamente 5 bilhões de anos e assim vai permanecer por mais uns 5 bilhões de anos.🌞

 

Depois que a estrela queima o hidrogênio do seu núcleo, os eventos seguintes dependem da massa da estrela. Estrelas entre 0,08 até ~8 massas solares são consideradas estrelas de baixa massa. E estrelas superiores a 8 massas solares estão na categoria de estrelas massivas. A estrela mais massiva observada até hoje tem 265 vezes a massa do Sol, mas estima-se que no começo de sua fase na sequência principal sua massa foi de 320 vezes a massa do Sol! 🤯

Talvez você esteja pensando que estrelas de massivas “vivam” mais do que estrela com menos massa, mas é o contrário. A força gravitacional das estrelas massivas é maior do que as com menos massa. Por isso, a pressão do seu núcleo é muito maior, o que eleva ainda mais a temperatura, fazendo com que queimem o seu hidrogênio muito mais rápido do que estrelas menos massivas. Uma estrela com baixa massa fica na sequência principal por dezenas de bilhões de anos, enquanto estrelas massivas “apenas” por centenas de milhões de anos. Fala sério, vai me dizer que não bateu um alívio do Sol ser do time das baixinhas agora! 

 

Voltando ao assunto, depois que a estrela queima o hidrogênio do núcleo, ela passa a queimar outros elementos (ou o hidrogênio de camadas fora do núcleo), desde que ela atinja a energia de fusão desses outros elementos químicos. E, como você pode imaginar pelo papo que tivemos até aqui, quanto maior a massa da estrela, maior a temperatura que ela pode atingir. Então, quanto mais massiva, mais elementos químicos ela produz.

Sendo assim, estrelas de baixa massa têm energia suficiente para produzir carbono, nitrogênio e oxigênio. Estrelas massivas produzem esses elementos e continuam colapsando e subindo a temperatura de seus núcleos produzindo, subsequentemente, elementos químicos até chegar ao Ferro. Dá uma olha na tabela periódica a seguir para conferir os elementos.

Figura 2: Tabela periódica com elementos produzidos na natureza e legenda representando os eventos que os produzem. Em azul, nucleossíntese do Big Bang; em verde, a morte de estrelas de baixa massa; em rosa, fissão de raios cósmicos; em dourado, explosão de estrelas massivas; em roxo, colisão de estrelas de nêutrons; e em cinza, explosão de anãs brancas. Créditos: Wikipedia/Jennifer Johnson (OSU).

 

E agora vamos ao nosso bate-bola!

Evento: Nucleossíntese estelar

Quando acontece

Dentro das estrelas, durante a fase principal da vida das estrelas e depois em sucessivos processos anteriores a sua morte.

O que é 

As estrelas fundem elementos químicos através de fusão nuclear de forma a manterem sua estabilidade hidrostática: o equilíbrio entre a força gravitacional gerada pelo efeito sua própria massa (pressão “para dentro” da estrela) contra a radiação eletromagnética produzida durante a fusão dos elementos (pressão “para fora” da estrela).

O que é produzido

Desde do hélio-4, a partir do fusão dos núcleos de hidrogênio, até o oxigênio-16 em estrelas de baixa massa. Em estrelas massivas são produzidos elementos desde o hélio-4 até o ferro-56. Veja na tabela periódica a seguir os outros elementos químicos.

Escala de energia
  • o hélio-4 é produzido a temperaturas de 4 milhões de Kelvins;
  • o oxigênio-16 a 2 bilhões de Kelvins;
  • e o ferro-56 a 3 bilhões de Kelvins.
Em quanto tempo são produzidos
  • todo o hélio-4 é produzido em dezenas de milhões de anos;
  • a produção de oxigênio-16 em menos de 1 ano;
  • e, por fim, todo o ferro-56 em menos de 1 segundo!!!
Com que frequência ocorre 

Isso está acontecendo desde que o universo tinha aproximadamente 100 milhões de anos. Hoje, estima-se que o universo tem mais ou menos 14 bilhões de anos e em torno de 2 trilhões de galáxias. E cada galáxia tem em torno de 100 milhões de estrelas, das quais 90% estão na fase de transformar hidrogênio em hélio e as outras 10% estão produzindo outras coisas. Vou deixar para você contar quantas estrelas estão queimando hidrogênio nesse exato instante 😉

Os dados desse bate-bola foram retirados dessa aula super legal do Dr. Dmitry Semenov, Instituto de Astronomia Max Planck, na Alemanha.

 

Espero que você esteja pensando “tá legal, mas perá lá! E o que acontece depois disso? Como é que a estrela libera tudo isso no espaço? Cadê estrela de nêutrons, buracos negros e supernovas? Falta coisa aí!”. E você está certíssima, pessoa! E esse será o tema do nosso próximo papo: os elementos químicos produzidos na morte das estrelas. ⭐💥💀💫

Vídeo 3: Animação da formação de uma nebulosa planetária. Ao contrário do que o nome sugere nebulosas planetárias não dão origem a planetas. Elas são a sopa quente e poderosa de elementos químicos formadas após a explosão de anã branca. 🤩 Esse é tipo o de fim de vida que nosso Sol vai levar. 💥 Créditos: NASA/ESA/J.Gitlin(STScI).

0

Sobre bebês, raciocínio lógico e a nossa incrível capacidade de fazer ciência

Com que idade nós, humanos, aprendemos a pensar de maneira lógica?  Em que momento das nossas vidas começamos a fazer ciência, construir modelos baseados em evidências e testar hipóteses? Será que bebês já são capazes de processar regras simples de lógica como “A e B”, “A ou B”, “não-A e não-B”? Será que algum desses processos podem ocorrer antes mesmo dos bebês serem capazes de expressar suas ideias em palavras?

O debate filosófico sobre essas questões é antigo. Cinco décadas atrás Piaget defendia que a lógica é um processo mental que demora anos sendo desenvolvido e se estende até a adolescência [1]. Dez anos depois, Fodor sugeriu que deveríamos possuir algo como uma linguagem específica para os pensamentos ligados ao aprendizado e teste de hipóteses. Nos anos 80, Susan Carey propôs que o raciocínio lógico deveria estar presente desde o início do nosso desenvolvimento cognitivo [2]; e que, portanto, crianças deveriam ser capazes de usar teorias intuitivas, modelos e inferências como cientistas profissionais. De fato, diversos experimentos cognitivos têm mostrado que crianças e bebês são capazes de formular certas hipóteses sobre eventos complexos e de modificá-las racionalmente quando necessário (por exemplo frente a evidências inconsistentes).

No mês passado um artigo na renomada revista Science [1] mostrou mais uma forte evidência em favor das ideias de Fodor and Carey.  Cesana-Arlotti e colaboradores realizaram experimentos com bebês de 12 e 19 meses que ainda não falam, e verificaram que esses bebês são capazes de raciocinar espontaneamente sobre os acontecimentos, através de um processo de eliminação. O grupo usou um paradigma da forma: se A ou B, e não-A, então B. Em outras palavras se eu te informo que a cor da camisa que estou vestindo é Azul ou Branca e depois alguém te informa que a camisa que estou vestindo não é Azul, então você é capaz de concluir que a cor da minha camisa é Branca.

Os cientistas utilizaram o fato de que bebês observam por mais tempo qualquer coisa que eles julguem interessante. Eles mediram a posição do olhar dos bebês enquanto assistiam a um vídeo sem som (veja Vídeos 1 e 2 e Figura 1).

Vídeo 1: Exemplo de um filme com bebês de 19 meses. Condição de inferência, conteúdo da caneca revelado, resultado consistente. Créditos: “Movie S1” em Cesana-Arlotti et al/Science.

Vídeo 2: Exemplo de um filme com bebês de 19 meses. Condição de inferência, conteúdo da caneca revelado, resultado inconsistente. Créditos: “Movie S2” em Cesana-Arlotti et al/Science.

Inicialmente no vídeo dois objetos, que chamaremos de A e B, são mostrados e em seguida escondidos atrás de uma parede. Na sequência, uma caneca retira um dos objetos que estava atrás da parede de maneira que só a parte superior do objeto (exatamente igual para A e B) pode ser vista. Ou seja, ainda não é possível afirmar qual dos dois objetos foi retirado de trás da parede (condição ambígua A ou B). Neste momento os bebês poderiam formular o seguinte pensamento “o objeto na caneca pode ser A ou B”. Em seguida a ambiguidade é esclarecida quando a parede se move e é possível ver qual objeto permaneceu atrás dela. Este é o momento da eliminação da ambiguidade e uma oportunidade para inferir que “como o objeto A não estava na caneca, então o objeto B está na caneca”. Este momento de inferência também é chamado de dedução.

Finalmente o conteúdo da caneca é revelado: ou o objeto esperado B  aparece dentro da caneca (Vídeo 1) ou de maneira surpreendente o objeto A aparece dentro da caneca (Vídeo 2).

7_image

Figura 1. Esquema da sequência de imagens nos vídeos 1 e 2. B) Comparação entre os intervalos de tempo que os bebês gastaram olhando para o objeto revelado em cada caso. Os bebês olham por mais tempo para a situação inconsistente, indicando que seus modelos de mundo (ou hipóteses) foram violados.
Créditos:  Cesana-Arlotti et al/Science.

O primeiro resultado super legal do experimento foi: os bebês olham por mais tempo para os casos surpreendentes. Ou seja, de alguma maneira suas expectativas foram violadas (veja Fig. 1B). Além disso, no momento da dedução, quando as inferências podem ser feitas, a pupila dos bebês se dilata e seu olhar se move em direção ao objeto ambíguo (dentro da caneca).  Isto não ocorre quando a parede é transparente e portanto não há ambiguidade sobre qual objeto está na caneca (veja Vídeo 3). E mais, este comportamento ocular (olhar para o objeto escondido enquanto infere sua identidade) também ocorre quando o experimento é realizado com adultos. Os autores sugerem, portanto, que os mecanismo neurais envolvidos em tarefas de lógica são estáveis.

Vídeo 3: Exemplo de um filme com bebês de 12 meses. Sem condição de inferência, conteúdo da caneca não revelado, resultado consistente. Créditos: “Movie S5” em Cesana-Arlotti et al/Science.

O passo seguinte é caracterizar que regiões do cérebro estão envolvidas nesses processos lógicos. Uma das autoras correspondentes do artigo Ana Martín realizará nos próximos três meses experimentos similares aos descritos, em que será capaz de medir a atividade cerebral dos participantes enquanto assistem aos vídeos. Depois disso, ela será capaz de mapear as principais regiões envolvidas nessa tarefa, e tentar entender como a informação visual e nossos modelos prévios sobre o mundo se unem para gerar conhecimento, expectativas e inferências.

Assim como já existem estudos sobre as rede cerebrais envolvidas em linguagem, leitura, matemática, música, agora pode-se estudar que regiões do cérebro estão relacionadas aos pensamentos lógicos (que não necessariamente requerem o uso de palavras). E com isso, poderemos um dia entender em que momento do nosso desenvolvimento essas redes se consolidam, se já nascemos com elas, que animais possuem redes similares, que tipos de déficits cognitivos podemos ter quando algumas dessas regiões não funciona como esperado e assim por diante… Por enquanto seguimos fazendo isso que sabemos fazer desde pequenininhas: propondo modelos e testando hipóteses sobre o mundo…

Referências:

[1] Cesana-Arlotti, N., Martín, A., Téglás, E., Vorobyova, L., Cetnarski, R., & Bonatti, L. L. (2018). Precursors of logical reasoning in preverbal human infants. Science, 359(6381), 1263-1266.

[2] Halberda, J. (2018). Logic in babies. Science, 359(6381), 1214-1215.