0

O que é vida? Como a física pode contribuir para essa questão?

O que é a vida? Poucas questões são tão intrigantes e simples de serem formuladas como esta. Ainda que do ponto de vista prático possa parecer fácil:

Um cachorro é vida? Sim.

Uma cadeira é vida? Não.

Do ponto de vista das definições formais não há uma resposta simples. A própria linguagem utilizada por pesquisadores em diferentes áreas para caracterizar a vida pode ser  bastante diferente. Em biologia costumamos falar de homeostase, células, metabolismo, resposta a estímulos, reprodução, evolução. Em física falamos em sistema fora do equilíbrio, entropia, calor, dissipação, autorreplicação, auto-organização.

10_escher_lifetime70156_x_featured-800.jpg

Sky and Water I (Céu e Água I). Xilogravura do artista holandês M. C. Escher, impressa pela primeira vez em junho de 1938.

Em 1944, um dos físicos mais famosos do século passado, Erwin Schrödinger, publicou um livro fantástico sobre o que é vida do ponto de vista da física [1]. Nele Schrödinger usou a ideia de entropia negativa, e desde então, costuma-se pensar em vida como uma diminuição da desordem local (entropia negativa) aumentando a desordem global (entropia positiva). Neste contexto, o atual sonho de muita gente na física é uma generalização da mecânica estatística desenvolvida por Boltzmann (que utiliza conceitos microscópicos, para explicar propriedades macroscópicas como pressão e volume de gases) que fosse capaz de utilizar este conceito. Esta generalização descreveria sistemas que estão fora do equilíbrio termodinâmico, dentre eles células, cérebros e a própria vida.

10_book

Livro do Schrödinger [1]

Recentemente um jovem professor do MIT,  Jeremy England, desenvolveu uma formulação matemática baseada num teorema bem estabelecido da mecânica estatística fora do equilíbrio (teorema da flutuação de Crooks) para explicar o aumento da organização local em certos sistemas. England mostrou que um grupo de átomos dirigido por uma fonte externa de energia (como o sol ou combustível químico) imersa em um banho térmico (como o oceano ou a atmosfera), vai gradualmente se estruturar de maneira a dissipar cada vez mais energia. Este aumento gradual na organização local vem sendo chamado de adaptação dirigida por dissipação, e não seria uma mera coincidência, mas a trajetória fisicamente mais provável para um sistema vivo.

Sua teoria tem bases matemáticas firmes, mas as interpretações do quanto seus modelos podem ser comparados com a vida real ainda são especulativas. Em todo caso, suas ideias são suficientemente interessantes e inovadoras para prender nossa atenção. England sugere que, além de entropia negativa, para que os organismos vivos sejam complexos como são é necessário que os estados de maior organização sejam razoavelmente estáveis.

Assim poderíamos falar em adaptação num sentido mais amplo do que o de Darwin.  Não só em termos de algo ser mais adaptado do que seus ancestrais para sobreviver, mas ser mais adaptado do que as configurações anteriores que assumiu. E para isso poderíamos pensar, por exemplo, nas configurações espaciais de átomos formando moléculas e proteínas. Uma definição de adaptação seguindo essa linha poderia ser que uma entidade bem adaptada absorve energia do meio ao redor de maneira mais eficiente do que outras (ou do que ela mesma no passado).

Um professor da Universidade de Oxford, Ard Louis, sugeriu  que se England estiver correto talvez passemos a dizer algo como: a razão pela qual um organismo possui características X e não Y pode não ser porque X é mais apto que Y, mas sim porque as restrições físicas do sistema permitiram que X evoluísse mais que Y.

Forma e funcionalidade.

A relação entre forma e funcionalidade é a ideia de que certas estruturas biológicas são exatamente como são porque sua forma está relacionada com sua utilidade ou funcionalidade. Guiados por essa ideia, muitos cientistas procuram entender a funcionalidade (ou a vantagem evolutiva) de certas estruturas que aparecem mais do que outras (ou mais do que deveríamos esperar apenas ao acaso).

Por exemplo, certas proteínas podem ser encontradas em mais de uma configuração espacial (mas não em todas as configurações possíveis) e cada configuração tem uma função diferente. Outro exemplo, tanto no cérebro de primatas como em um animal simples como um verme (C. Elegans), a probabilidade de achar grupos de três neurônios conectados de uma maneira específica é maior do que a probabilidade de encontrar a mesma configuração se as conexões entre os neurônios ocorressem ao acaso. Ou ainda, se pegarmos todos os átomos de uma bactéria, separarmos numa caixa e a sacudirmos, a probabilidade de ao acaso eles se reorganizarem na configuração de algo que se pareça com uma bactéria é mínima.

Texto10_Fig

Figura 3.
A) Uma rede quadrada de tamanho 15×15 com 25 partículas distinguíveis (cada uma tem uma cor diferente e poderia representar uma mólecula orgânica) que podem estar em um dos dois estados: borda preenchida ou tracejada. B) Dois exemplos de configurações mais complexas desejadas (que poderiam representar duas configurações possíveis de uma mesma proteína). C) Em cada passo de tempo uma partícula aleatória é sorteada e pode se mover em uma das quatros direções. Se a energia da nova configuração for menor que a da primeira o movimento ocorre com probabilidade 1; se for maior, existe uma probabilidade menor que 1 da partícula se mover. Em seguida uma nova partícula é sorteada e seu estado pode ser alterado pela mesma regra de probabilidade. Adaptada da referência [2].

Portanto, um dos ingredientes mais simples para a existência de vida deveria ser uma maior probabilidade de encontrar certas configurações específicas do que outras. Ou seja, a entropia local diminui e as configurações são estáveis o suficiente para continuarem existindo na natureza. Recentemente mais um trabalho do grupo do England foi publicado levando em conta essas ideias [2]. A pesquisadora Gili Bisker é a primeira autora do artigo que simula um modelo simples de partículas interagentes em uma rede quadrada. As partículas podem se mover no espaço e mudar seu estado interno. Assim como diversas proteínas, as partículas podem formar diversas estruturas diferentes utilizando os mesmos componentes básicos (veja Figura 3).

Bisker e England mostraram que a existência de um forçamento local (que favorece certos estados internos das partículas dependendo do estado das suas vizinhas – veja Figura 4) diminui o tempo necessário para atingir certas configurações “desejadas” e aumenta a estabilidade dessas configurações uma vez formadas. Eles mostraram ainda que a distribuição de probabilidade de atingir cada configuração é diferente daquela esperada pela distribuição de Boltzmann. Sem esse forçamento local, a probabilidade de que as configurações desejadas ocorra é baixa. E o aumento do forçamento aumenta a eficiência da auto-organização estrutural.

Texto10_Fig2

Figura 4. O forçamento local foi incluído como um termo extra aumentando ou  diminuindo a energia do estado final apenas para a mudança de estado interno e não para o movimento.  Com isso a probabilidade de em um passo de tempo o sistema mudar entre uma das quatro configurações acima, que inicialmente era igual, com o forçamento ficou mais fácil ir de D para A, do que de A para D. Essa pequena mudança, bastante razoável do ponto de vista biológico, da partícula ser influenciada pelos vizinhos, torna muito mais provável a formação (e aumenta a estabilidade) das configurações desejadas (mostradas na Figura 1B). Adaptada da Referência [2].

O modelo computacional ainda é bem mais simples que sistemas biológicos reais, e o grupo pretende usar as simulações para ajudar a propor experimentos onde possam testar suas ideias. Mas, por enquanto, esse resultado nos deixa com a sensação de que a matéria inanimada, na presença de um forçamento simples, pode assumir características de auto-estruturação que “parecem vida”. Mais que isso, nos deixa com a impressão de estarmos (um pouco) mais perto de uma teoria da física capaz de explicar os eventos que ocorrem (no tempo e no espaço) dentro de uma célula, como propôs Schrodinger já na primeira página do seu livro em 1944 [1].

Referências:

[1] Erwin Schrödinger. What Is Life? the physical aspect of the living cell and mind. Cambridge University Press, Cambridge, 1944.

[2] Gili Bisker e Jeremy L. England. Nonequilibrium associative retrieval of multiple stored self-assembly targets. Proceedings of the National Academy of Sciences 115.45 (2018): E10531-E10538.

[3] Natalie Wolchover. A New Physics Theory of Life. Scientific American (2014).

[4] Natalie Wolchover. First Support for a Physics Theory of Life. Quanta Magazine (2017).

Anúncios
0

CRISPR/Cas: A revolução do século está prestes a enfrentar seu maior desafio

O ano de 2012 foi o responsável por gerar, principalmente nos indivíduos que sofriam com doenças genéticas, uma grande esperança. As cientistas Emmanuelle Charpentier (https://pt.wikipedia.org/wiki/Emmanuelle_Charpentier) e Jennifer Doudna (https://pt.wikipedia.org/wiki/Jennifer_Doudna) propuseram uma técnica capaz de permitir aos humanos a capacidade de editar o DNA e corrigir erros no genoma humano, responsáveis por causarem doenças.

A técnica proposta é conhecida como CRISPR/Cas9 e é inspirada num mecanismo de defesa bacteriano (https://cientistasfeministas.wordpress.com/2017/05/11/entenda-a-nova-arma-da-engenharia-genetica-crisprcas9-e-a-polemica-envolvida/).

Essa técnica, assim como outras duas famosas estratégias com o mesmo fim, é capaz de produzir quebra nas duas fitas do DNA no local para o qual foram destinadas pelo cientista.

No sistema CRISPR/Cas a enzima Cas provoca a quebra no DNA no local em que foi posicionada por uma molécula de RNA, o RNA guia (gRNA). Ele é desenhado pelo manipulador para direcionar a enzima para o local desejado no genoma para que a edição aconteça (Figura 1).

Para corrigir a região com um erro que cause doença, o corte deve ser dirigido pelo gRNA para o local do erro, e o manipulador deve também fornecer trecho de DNA com sequência correta para substituição do trecho errado. Se o desejo for apenas de que a região seja modificada por remoção de alguns pares de bases para impedir a função de algum gene (silenciá-lo), não é necessário fornecer o trecho de DNA citado; apenas a enzima e o RNA são requeridos neste caso.

Figura 1

Figura 1: Representação esquemática da ação da ferramenta de edição sítio-dirigida de genes conhecida como CRISPR/Cas para inserir sequência correta corrigindo erro no DNA. O gRNA encontra-se em amarelo e nuclease Cas (enzima) em vermelho. Modificado de https://www.sciencedirect.com/science/article/pii/S0734975017300617?via%3Dihub.

Durante os anos de 2017 e 2018 este blog trouxe até vocês textos abordando diversos progressos científicos alcançados por meio desta tecnologia de edição (https://cientistasfeministas.wordpress.com/2017/10/30/trigo-sem-gluten-e-possivel-estamos-chegando-la/ ; https://cientistasfeministas.wordpress.com/2017/08/16/o-primeiro-embriao-humano-corrigido/ ; https://cientistasfeministas.wordpress.com/2017/06/14/celulas-tronco-geneticamente-modificadas-um-novo-tratamento-para-doencas-inflamatorias/ ) e de tecnologias de mesma finalidade (https://cientistasfeministas.wordpress.com/2018/07/04/a-era-da-edicao-de-genes-humanos-para-curar-doencas-comecou/ ).

No entanto, o grande desafio para provar que a metodologia é segura e pode realmente revolucionar a medicina está se iniciando. Doze pacientes que sofrem com anemia falciforme ou beta-talassemia participarão, até 2022, de um estudo clínico na Europa que utilizará CRISPR/Cas visando a correção do DNA dos pacientes (https://www.clinicaltrialsregister.eu/ctr-search/trial/2017-003351-38/DE).

Na Alemanha também serão realizados ensaios semelhantes por empresas com sede nos Estados Unidos: em Boston (Vertex Pharmaceuticals) e em Massachusetts (CRISPR Therapeutics).

Talassemia e anemia falciforme

Ambas as doenças estão relacionadas com produção anormal de hemoglobina: a principal proteína que existe dentro das células vermelhas do sangue e que é responsável pelo transporte de oxigênio em nosso organismo. Essa proteína no humano adulto deve possuir 4 unidades formadoras (subunidades): duas alfa e duas beta (Figura 2), uma configuração diferente da hemoglobina existente no feto (que contém duas cadeias alfa e duas gama).

Figura 2

Figura 2: Estrutura tridimensional da proteína hemoglobina humana do adulto. Fonte: PDB – 1GZX.

Nas talassemias, diferentes mutações no DNA podem levar à produção de formas erradas da subunidade alfa (alfa-talassemia) ou da subunidade beta (beta-talassemia) em diferentes proporções, acarretando diferentes graus de comprometimento da saúde do paciente (http://bvsms.saude.gov.br/bvs/folder/talassemias_folder.pdf).

Em casos mais graves o paciente pode inclusive necessitar receber transfusões de sangue para manter-se vivo.

Na anemia falciforme, (http://www.abhh.org.br/imprensa/7-verdades-sobre-anemia-falciforme/) a mutação no DNA acarreta produção de subunidade beta com defeito, que leva as células vermelhas (hemácias) a adotarem o formato de foice (Figura 3), comprometendo o transporte de oxigênio. O paciente pode sofrer com obstruções de vasos de pequeno calibre por estas células e a anemia decorrente da destruição destas células de formato atípico também pode torná-los mais propensos a infecções.

Figura 3

Figura 3: Hemácia normal e hemácia com forma de foice da anemia falciforme. Fonte: http://sites.uem.br/drgenetica/hematologia-clinica/hemoglobinopatias/anemia-falciforme

 

Terapias utilizando CRISPR/Cas

Estas terapias dos ensaios clínicos consistem em remover células-alvo dos pacientes, editar o DNA destas em laboratório e devolvê-las aos pacientes de doenças causadas por erros no genoma. Desta forma espera-se melhora no quadro do paciente, e em alguns casos, futuramente, sua cura.

O estudo das empresas americanas consiste em obter de 12 pacientes entre 18 e 35 anos que sofram de beta-talassemia e sejam dependentes de transfusão, células-tronco responsáveis pela geração de células do sangue, conhecidas como HSPCs. Em laboratório visa-se utilizar o sistema CRISPR/Cas para editar região regulatória do gene BCL11A e posteriormente devolver ao paciente, via um cateter venoso central, as células modificadas (https://clinicaltrials.gov/ct2/show/NCT03655678 ).

BCL11A está relacionado a impedir a produção de hemoglobina fetal a partir de cerca de 3 meses de idade para a produção de hemoglobinas ser apenas da versão adulta. Se este gene for silenciado, no entanto, espera-se que a produção de hemoglobina fetal possa ocorrer nos pacientes, reduzindo-se os sintomas da beta-talasssemia: visto que os pacientes poderão produzir hemoglobina fetal (que não tem cadeias beta – sítio da mutação que assola os pacientes) para realizar o transporte de oxigênio em seus organismos.

Toda a comunidade científica aguarda ansiosa pelos resultados que poderão tornar a grande promessa de cura de doenças genética através da técnica CRISPR/Cas uma realidade, postergar um pouco mais esta almejada realidade para que ajustes na técnica sejam feitos, ou invalidar este sonho.

0

Museus e pinturas: Como aprender a nomear obras de vários autores

graffiti-508272_640

Fonte da imagem: https://pixabay.com/pt/grafite-mural-arte-de-rua-pintura-508272/

É provável que vocês, leitores, em algum momento da vida tiveram a oportunidade de ir a um museu de arte. E que apesar de admirar várias pinturas, vocês tenham tido dificuldade de responder adequadamente quando alguém questiona quem foi o pintor de determinada obra (exceto talvez os que estudam arte ou tópicos relacionados). Você pode até ter aprendido algumas obras e artistas durante a escola, mas não se lembra mais de (quase) nada, não é mesmo?

A maneira tipicamente utilizada para memorizar autores e obras é fazer cartões com vários nomes e pinturas e tentar agrupá-los, mas isso pode ser demorado e não garante o aprendizado. Nesse sentido, maneiras alternativas de ensinar (e aprender) categorias de elementos têm sido desenvolvidas. Na Psicologia, existe um modelo cuja eficácia tem sido cientificamente provada há muitos anos. Esse modelo se chama “equivalência de estímulos” (e.g., Sidman & Tailby, 1982; Sidman, 1994) e é, grosso modo, uma maneira de aprender a tratar estímulos fisicamente dissimilares como se fossem substitutos uns dos outros (em certas ocasiões), ou, no contexto da categorização, a tratarmos certos estímulos em uma categoria A (e não B ou N), e outros na categoria B (e não A, ou N).

Esse modelo tem sido utilizado para ensinar, por exemplo, uma segunda língua, estatística, neuroanatomia, entre outros tópicos academicamente relevantes. Recentemente, os pesquisadores Paulo Ferreira e seus colaboradores utilizaram o modelo para ensinar indivíduos a reconhecer pinturas de Gauguin, Botticelli, Monet e Picasso. Dois experimentos foram realizados e ambos contavam com o mesmo procedimento e número de participantes, mudando apenas um dos pintores trabalhados (Gauguin, Botticelli e Monet no estudo 1, e Botticelli, Monet e Picasso no estudo 2).

No estudo 1, 10 participantes (três mulheres e sete homens) foram ensinados, inicialmente, a reconhecer as pinturas de cada um dos pintores. Diante da foto de uma entre 10 pinturas de um mesmo autor, os participantes tinham que selecionar, entre as três alternativas (Gauguin, Botticelli e Monet), qual era a correta. Um feedback informava os participantes, após a escolha, se suas respostas estavam certas ou erradas. Nessa fase, foram realizados três blocos, um para cada autor. Os participantes tinham que acertar 6 tentativas em sequência para avançar para a próxima fase.

Na fase seguinte, os participantes deveriam, diante de uma entre 30 pinturas dos três autores, escolher uma de três figuras abstratas. Cada figura foi arbitrariamente considerada o par correto para 10 pinturas do mesmo autor, e os participantes recebiam feedback após suas respostas. Para avançar para a fase seguinte, os participantes deveriam acertar 18 tentativas seguidas em um bloco com 30 tentativas.

Na terceira fase, os participantes deveriam relacionar as figuras abstratas aos nomes dos pintores. Ou seja, diante de cada símbolo abstrato, eles deveriam selecionar o pintor que foi considerado arbitrariamente o par correto para tal símbolo abstrato. Nessa fase, havia 18 tentativas, e os participantes deveriam acertar 6 tentativas consecutivas para avançar para a fase de testes.

Revisando, os participantes aprenderam, até o momento, a 1) reconhecer 30 pinturas de cada um dos três autores, 2) relacionar cada um dos três pintores com três figuras abstratas, arbitrariamente consideradas os pares corretos para cada pintor, e 3) relacionar cada uma das três figuras abstratas com 10 pinturas de cada um dos três autores.

Atingindo o critério dessa fase de treino, havia a fase de testes. Os participantes deveriam, diante de cada pintura, selecionar o pintor correto. Veja que, nessa metodologia, não se aprende diretamente a relacionar as pinturas com os pintores; isso ocorre de maneira indireta, como resultado do procedimento de treino. Além das pinturas utilizadas na fase de treino, também apareciam 15 novas pinturas, 5 de cada pintor, como uma medida de generalização. Assim, havia 60 tentativas, duas de uma mesma pintura, sem feedback de acerto ou erro, embora os participantes fossem instruídos a continuar respondendo como haviam aprendido nas fases anteriores.

Os resultados mostraram que seis dos 10 participantes aprenderam a relacionar as pinturas com os pintores correspondentes. Esses seis participantes também generalizaram, ou seja, acertaram as tentativas mesmo quando as pinturas apresentadas não foram treinadas anteriormente. No estudo 2, outros 10 participantes (quatro mulheres e seis homens) foram expostos à mesma sequência de treinos e testes supracitada, sendo a única diferença que em vez de utilizar como estímulos “Gauguin” e suas pinturas, foi utilizado “Picasso” e suas pinturas. No estudo 2, oito dos 10 participantes passaram a categorizar as pinturas de acordo com os pintores de maneira adequada, mesmo quando as pinturas não tinham sido utilizadas na fase de treino (generalização).

Esse estudo mostrou como metodologias alternativas de ensino podem ser utilizadas na aprendizagem de categorização e, especialmente, na categorização de pinturas e seus autores. Uma possível limitação (não apontada pelos autores) foi o uso de estilos diferentes nas três categorias: pós-impressionismo com Gauguin, impressionismo com Monet, renascentismo com Botticelli e cubismo com Picasso. Isso possibilita que características comuns das obras possam ter sido utilizadas como base para a categorização, além do treino. De qualquer modo, essa possibilidade deve ser verificada empiricamente. Levando em consideração que existe uma ampla produção utilizando o que chamamos de equivalência de estímulos para ensinar diversas habilidades, não é surpresa que a categorização de pinturas seja também possível com o uso dessa metodologia.

Ficou interessado?

O artigo: Ferreira, P. R. S., Cruz, S. A., Sampaio, W. M., Teodoro, J. V., Correia, L. L., & Santos, E. L. (2018). Interaction between equivalence and categorization in the recognition of paintings. The Psychological Record, 68(4), 477-488. doi: 0.1007/s40732-018-0291-2

0

Selênio: um micronutriente de “macro” importância

O Selênio (Se) é um metal do grupo dos calcogênios, de número atômico 34 e massa atômica de 78 u. É encontrado no solo, em alimentos, em microrganismos e no corpo humano, sendo considerado um elemento traço ou micronutriente, pois é um dos muitos elementos e vitaminas que o ser humano precisa, em quantidades mínimas (microgramas/litro), para sobreviver. Devido à suas múltiplas funções, o selênio tem sido alvo de muitos estudos.

sel1

O selênio é proveniente da dieta, sendo encontrado em diversos alimentos. Sua concentração varia também de acordo com as características do solo ou água, influenciando quanto deste elemento será fixada aos alimentos neles produzidos. O conteúdo sérico de selênio varia entre diferentes populações, de acordo com os hábitos e características dos alimentos ingeridos.

Além disso, cerca de 50% da população dos Estados Unidos faz suplementação com selênio. Os valores de referência para o selênio no soro de humanos variam entre 46 a 143 mcg/mL, sendo que a deficiência é associada com várias doenças. O consumo diário recomendado de selênio é de cerca de 60 mcg/dia. Diversos ensaios clínicos estudaram, também o efeito benéfico da suplementação dietética de selênio. É preciso ter cuidado, já que em sua forma inorgânica torna-se tóxico em doses altas.

sel3

O selênio nos alimentos (microgramas/100g alimento): castanhas, atum, ostras, fígado de peru, caviar, mexilhões, gergelim, ovos, arroz integral, milho, queijo, coco.  Imagem disponível em: http://marcelosgaribaldi.blogspot.com/2017/08/el-mineral-selenio_9.html.

 

Em 2012, Margaret Rayman, professora da faculdade de Saúde e Ciências Médicas da Universidade de Surrey, no Reino Unido, publicou uma extensa revisão sobre a importância do selênio na saúde, na conceituada revista Lancet, intitulada “Selênio e a saúde humana”. O selênio possui efeitos sistêmicos e complexos sobre o nosso organismo, que ainda não são totalmente compreendidos. No entanto, sabemos da importância de sua ação como antioxidante, anti-inflamatório, neuroprotetor e estimulador do sistema imunológico. No corpo humano, o selênio é encontrado associado à selenoproteínas com extensa distribuição e diferentes funções, como ativação de células imunológicas e participação na detoxificação do organismo. Níveis baixos de selênio sérico, bem como mutações nas selenoproteínas foram associados com maior risco para diversas doenças (câncer, doenças neurodegenerativas, doenças infecciosas, etc) o que levantou muitos estudos sobre este elemento.

São descritas 25 selenoproteínas em humanos, que incorporam o aminoácido selenocisteína pelo código genético UGA no RNA mensageiro. O micro-elemento é carreado no corpo por diversos transportadores – a família SEPP.

Níveis elevados de selênio no soro são associados com menor risco de mortalidade. Um grande estudo conduzido nos EUA, por Joachim Beyes, Ana Navas-Acien e Eliseo Guallar, dos Departamentos de Epidemiologia e Medicina, Centro Welch de Prevenção, Epidemiologia e Pesquisa Clínica, e Ciências da Saúde do Hospital Médico Johns Hopkins, com a participação de mais de 13 mil adultos acompanhados por 12 anos, o “US Third National Health and Nutrition Examination Survey”, mostrou que níveis séricos superiores à 135 mcg/mL estavam associados a redução da mortalidade. Outro estudo, conduzido na França, com 1389 idosos, mostrou que níveis baixos de selênio estão associados à maior predisposição para o câncer e no estudo “Baltimore Women’s Health and Aging Study”, um estudo com mulheres idosas foi demonstrada que a deficiência de selênio aumenta o risco de morte em 5 anos.

sel_10dez

Figura 1. Hazard ajustado para todas as causas de mortalidade por concentração sérica de selênio, nos participantes do US Third National Health and Nutrition Examination Survey. Podemos ver na curva vermelha, que os valores maiores de selênio são acompanhados de queda no risco de mortalidade.

 

O selênio possui grande importância no Sistema imunológico. Há evidências de que o selênio estimule o sistema imune, inclusive atuando sobre a proliferação e ativação de células T, aumentando a citotoxicidade mediada por linfócitos CTL (citotóxicos) e a atividade de células NK (natural killers). Em um estudo conduzido no Arizona, com idosos, a suplementação de 400𝜇g de selênio diárias, aumentou significativamente a produção de leucócitos, foi observado um aumento de 27% da contagem de células T, quando comparados aos pacientes que receberam placebo.

Os níveis séricos de selênio também interferem no prognóstico e curso de infecções bacterianas e virais. A deficiência de selênio está associada com diminuição da sobrevida de pacientes infectados com HIV. Um dos motivos seria a associação entre concentrações mais baixas de selênio (mesmo que ainda não seja considerado uma deficiência) com contagens mais baixas de linfócitos T CD4+ e alta carga viral. Estudos do tipo ensaio clínico randomizado e controlado já demonstraram benefícios da suplementação de selênio em pacientes HIV/AIDS.

No meu projeto de mestrado, desenvolvido na UFCSPA (Universidade Federal de Ciências da Saúde) estudamos a relação entre polimorfismos em um transportador de selênio codificado pelo gene SEP15 e o tempo de progressão do HIV a AIDS. O paciente infectado com HIV leva em média 3 anos para manifestar os sintomas, sendo então constatada a AIDS. No entanto, existem pessoas que fogem dessa média: os progressores rápidos – desenvolvem a AIDS em até um ano da infecção – e os progressores lentos – que continuam sem tratamento e sem progressão por tempo indeterminado (10 anos ou até mais). Nós conseguimos demonstrar que os pacientes portadores do genótipo AA no polimorfismo rs5859 do gene SEP15, codificador de uma proteína transportadora de selênio, possuem maior risco de progredir da infecção do HIV para AIDS em menor tempo. Outros estudos já mostraram que essa mutação diminui a função do transportador, o que pode impactar nas funções do selênio nas células. Esse achado mostra importância da análise genética dos pacientes e auxilia na predição do tempo de progressão para AIDS.

 

sel2

Figura 2. Risco cumulativo de progressão a AIDS em relação aos anos de infecção pelo HIV no mutante homozigoto AA em comparação com GG e GA para o polimorfismo em estudo.

 

O selênio também possui importância no desenvolvimento e conservação do tecido cerebral. Níveis adequados de selênio durante a vida, favorecem um envelhecimento saudável, pois combatem o estresse oxidativo e a morte celular. A proteína SEPP1 está envolvida em processos de neuroproteção, sobrevivência neuronal e prevenção de apoptose nas células do tecido nervoso. Sua deficiência ou mutação já foi associada com risco aumentado de Parkinson, Alzheimer, demência e síndromes convulsivas. Em um estudo realizado na China com 2000 idosos, foi demonstrado que níveis baixos de selênio também estão associados a déficit cognitivo e menor QI (coeficiente de inteligência).

 

Na fertilidade e sistema reprodutor o selênio também possui importância. Proteínas contendo selênio, como a GPx4 atuam sobre os espermatozoides, permitindo sua conservação e maior motilidade. Em mulheres, a deficiência de selênio é associada ao risco de pré-eclâmpsia. Isso porque o selênio atua como antioxidante, anti-inflamatório, reduzindo dano aos vasos também. Uma mutação na proteína SEPS1 também já foi associada ao risco aumentado de pré-eclâmpsia.
No corpo humano, o tecido que maior concentra selênio é a glândula tireóide. O selênio está envolvido no processo de síntese dos hormônios T3 e T4, amplamente responsáveis pelo controle do metabolismo. Além disso, esse micronutriente desempenha uma função protetora sobre a tireóide, diminuindo a incidência de doenças auto-imunes. Alguns estudos já demonstraram que a suplementação de selênio diminui os sintomas da Tireoidite de Hashimoto, doença auto-imune caracterizada por inflamação que leva ao hipertireoidismo.
O selênio também pode influenciar na ocorrência de diferentes tipos de câncer. Há evidências de que a suplementação com selênio diminui o risco de câncer de pulmão, bexiga, do colorretal, fígado, esôfago, tireóide e próstata. O estudo US Multiethnic Cohort, demonstrou que os 25% dos pacientes homens com os mais altos valores séricos de selênio, na população estudada, possuíam um risco 41% menor de desenvolver câncer de próstata. Outro estudo com foco na prevenção do câncer, com 1312 participantes com histórico prévio de câncer de pele não-melanoma, chamado de “Nutritional Prevention of Cancer (NPC) trial”, testou efeitos da suplementação diária de selênio (200𝜇g/dia) durante 4 a 5 anos. Esse estudo demonstrou que a suplementação de selênio está associada a redução da taxa de mortalidade, em 50%, e redução da incidência total de diferentes tipos de câncer (37%), chegando até mesmo uma redução de 52% do risco de câncer de próstata em homens.
Devido a essas diversas funções sobre o nosso organismo, o selênio também tem sido alvo de estudos da farmacologia. Como sua forma inorgânica é tóxica em quantidades elevadas no ser humano, voltou-se a atenção para compostos orgânicos de selênio. Esses compostos têm sido estudados desde a década de 1980, e apresentam resultados promissores como hepatoprotetores, neuroprotetores, anti-inflamatórios, antibacterianos, antifúngicos e antivirais.

 
O selênio possui múltiplas funções, interferindo em diversas etapas do nosso metabolismo e no estado de saúde-doença do corpo. No entanto, esses mecanismos são complexos e ainda pouco conhecidos. Isso abre portas e levanta a curiosidade para muitos estudos sobre a ação do selênio na saúde humana, bem como um potencial fármaco ou aliado na suplementação dietética.

Apesar disso, devemos estar atentos aos riscos de uma superexposição ao mesmo, que causam danos ao sistema nervoso central, podendo se manifestar como disfunções motoras e sensoriais. Por isso é importante, antes de qualquer suplementação, conhecer a reserva de selênio de cada paciente, suas demandas e características individuais.

Referências:
Margareth P. Rayman . Selenium and human health. Lancet 2012; 379: 1256–68
Jéssica Louise Benelli, Rubia Marılia de Medeiros, Maria Cristina Cotta Matte, Marineide Gonçalves de Melo, Sabrina Esteves de Matos Almeida, and Marilu Fiegenbaum. Role of SEP15 Gene Polymorphisms in the Time of Progression to AIDS. GENETIC TESTING AND MOLECULAR BIOMARKERS Volume 20, Number 7, 2016.
Zhonglin Cai, Jianzhong Zhang, Hongjun Li. Selenium, aging and aging-related diseases. Vol.:(0123456789) Aging Clinical and Experimental Research, 2018.

 

 

0

“O dia depois de amanhã” pode ser real?

Modelos climáticos finalmente sugerem que colapso da circulação do Oceano Atlântico não só é possível, como levaria o continente Europeu a uma nova “Era Glacial”.

Fonte: Setor norte da Circulação/Célula de Revolvimento Meridional. Jack Cook, Woods Hole Oceanographic Institute.

 

Filmes de ação e thrillers apocalípticos, como “O dia depois de amanhã” de Roland Emerich, vêm retratando consequências catastróficas de um eventual colapso da circulação do Oceano Atlântico há pelo menos 20 anos. Até recentemente, no entanto, nenhum modelo climático havia sido capaz de reproduzir tal colapso.

Esse padrão de circulação, conhecido como Circulação de Revolvimento Meridional  (Atlantic Meridional Overturning Circulation – AMOC), é de extrema importância para a manutenção do clima global, na medida em que atua no balanço de calor. A AMOC transporta pela superfície águas quentes do equador em direção aos pólos e, em profundidade, águas frias dos pólos em direção ao equador¹. A comunidade científica acreditava na estabilidade desse padrão até janeiro de 2017, quando um artigo² publicado na revista Science Advances apontou erros em diversos modelos climáticos que estariam superestimando essa estabilidade. Ao neutralizar esses erros e efetuar novas simulações, os autores reproduziram o colapso da circulação em algum momento no futuro, o que paralisaria o transporte dessas águas quentes em direção à Groenlândia e culminaria no resfriamento de todo o continente Europeu.

Como cenário para as simulações, os autores utilizaram variações nas concentrações de CO2, o principal vetor do aquecimento global antropogênico³. As simulações finais apontaram o colapso da AMOC como sendo 300 anos depois que as concentrações de CO2 na atmosfera dobram a concentração de 355ppm (nível registrado em 1990). O efeito desse colapso seria o resfriamento do Oceano Atlântico Norte (aprox. -2.4° C em média na superfície) e a consequente expansão do gelo marinho do Ártico. Como as trocas de calor entre o oceano e a atmosfera são responsáveis pela manutenção do clima, a temperatura do continente Europeu também cairia (em média 7° C), causando profundas mudanças no clima da região ou uma pequena “Era Glacial”.

Essa nova descoberta tem enormes implicações para o campo das Mudanças Climáticas, indo de encontro aos últimos dois relatórios do Painel Intergovernamental de Mudanças Climáticas (Intergovernmental Panel on Climate Change – IPCC). O IPCC até então considera a AMOC “estável e não colapsável”, enquanto admite que ela pode enfraquecer o transporte de calor com o tempo. Nesse sentido, esse estudo contribui, principalmente, na melhora das previsões de cenários climáticos, já que trabalham com os erros intrínsecos dos modelos climáticos mais utilizados. Entretanto, para que se compreendam na totalidade os desdobramentos do colapso da AMOC ainda serão necessários mais estudos que desenvolvam esses novos e interessantes resultados.

Dito isso, se faz necessário mencionar e se posicionar contra a tragédia anunciada que a agenda ambiental prometida pelo novo governo causará a curto e a longo prazo a diversos setores produtivos do Brasil. Durante a campanha, Jair Bolsonaro deixou claro que a agenda ambiental não só não será prioridade, como servidores e órgãos reguladores perderão autonomia de fiscalização e preservação dos recursos naturais brasileiros. Recentemente, foi decidido pelo Itamaraty e pelo futuro chanceler Ernesto Araújo, que a Conferência do clima das Nações Unidas (COP 25) que serviria como local de negociações para implementação do Acordo de Paris deixará de ser sediada no Brasil em 2019 por conta de “restrições fiscais e orçamentárias” e devido ao “período de transição da nova administração”.  O presidente eleito Jair Bolsonaro, que votou a favor da PEC do teto de gastos enquanto deputado federal, diz que teve participação nessa escolha, ou seja, que ela não foi exclusiva do seu chanceler. É no mínimo lamentável que uma decisão dessa magnitude seja tomada por (1) um futuro chanceler que vive na Guerra Fria e acredita que o tema “Mudanças Climáticas” é uma conspiração marxista e puro alarmismo e (2) um presidente eleito que foi multado dentro de uma reserva por pesca ilegal e nunca pagou sua multa. Infelizmente, esse posicionamento tacanha e de negação de evidências científicas tende a retirar o Brasil de sua posição de líder global nas questões ambientais, posição essa que ocupa desde a histórica cúpula climática Rio 92.

Além do perigo a curto prazo para patrimônio natural brasileiro, essa agenda negacionista é uma ameaça para a economia brasileira. Todos os países que implementaram medidas de mitigação para as mudanças climáticas aumentaram seu PIB e geraram empregos. Recentemente, um relatório produzido a pedido do Congresso dos Estados Unidos mostra que 10% do PIB do país será comprometido em função das mudanças climáticas até o fim deste século. O documento mostra que centenas de bilhões de dólares são gastos por conta das políticas ambientais de Donald Trump, cuja agenda econômica orbita em torno dos combustíveis fósseis e negligencia energias renováveis – políticas essas que servem de guia ao presidente eleito Jair Bolsonaro, admirador declarado do presidente americano.

A retirada da candidatura do Brasil para a COP 25 demonstra com clareza o que devemos esperar da agenda ambiental do novo governo: exposição irrestrita dos brasileiros aos riscos e implicações dos efeitos das Mudanças Climáticas. Em tempo, esse posicionamento ameaça a possibilidade de um Brasil forte e soberano no futuro, pois entrega nossos recursos naturais a própria sorte pela má gerência e impacta a economia brasileira. Veremos nossos setores produtivos em dificuldade, danos materiais por conta de desastres naturais aumentando e uma defasagem tecnológica que nos impedirá ou tornará extremamente cara nossa mitigação e adaptação aos efeitos das mudanças climáticas. O Brasil, ao que tudo indica, terá muita dificuldade em sair respirando ao fim desses quatro anos.

 

Referências

¹Talley, Lynne D. “Descriptive physical oceanography: an introduction.” Academic press, 2011.

²Liu, Wei, et al. “Overlooked possibility of a collapsed Atlantic Meridional Overturning Circulation in warming climate.” Science Advances 3.1 (2017): e1601666.

³Stocker, T. F., et al. “IPCC, 2013: climate change 2013: the physical science basis. Contribution of working group I to the fifth assessment report of the intergovernmental panel on climate change.” (2013).

 

0

Redução de açúcares dos alimentos industrializados: o que muda com o acordo?

No final de novembro deste ano (26/11), o Ministério da Saúde assinou um acordo com os presidentes de associações do setor produtivo de alimentos, com o objetivo de reduzir o teor de açúcar de cinco categorias de alimentos: 1) bebidas adoçadas (refrigerantes, néctares e refrescos); 2) biscoitos (biscoitos doces sem recheio, exceto, biscoitos maria e maisena, biscoitos doces recheados, biscoitos wafers e rosquinhas; 3) bolos e misturas para bolos; 4) achocolatados em pó e produtos similares; e 5) produtos lácteos. A lista completa de produtos e os itens do acordo podem ser lidos na íntegra aqui

assorted candy lot

Photo by rawpixel.com on Pexels.com

Por meio desse acordo, estima-se reduzir um total 144 mil toneladas de açúcar dos produtos até 2022. A Agência Nacional de Vigilância Sanitária (Anvisa) realizará o monitoramento da redução do açúcar na formulação dos produtos a cada dois anos, sendo a primeira análise no final de 2020. Fazem parte do acordo a Associação Brasileira das Indústrias da Alimentação (ABIA), a Associação Brasileira das Indústrias de Refrigerantes e de Bebidas Não Alcoólicas (ABIR), a Associação Brasileira das Indústrias de Biscoitos, Massas Alimentícias e Pães e Bolos Industrializados (ABIMAPI) e a Associação Brasileira de Laticínios (Viva Lácteos) {1}.

Segundo dados do Ministério da Saúde, as metas propostas  foram estabelecidas na forma de quantidade de açúcar por porção do alimento, baseadas em critérios que envolvem desde o consumo de açúcar pela população  e distribuição dos teores de açúcar dos alimentos até a necessidade de redução dos níveis máximos de açúcar do alimento; queda dos teores de açúcares livres não resultantes em aumento no valor energético e de adição ou substituição por adoçantes, além do percentual de produtos a serem reformulados para atingirem à meta. Cada tipo de produto possui uma meta individual de redução da quantidade de açúcar por porção, como pode ser lido no acordo. Os biscoitos e produtos lácteos terão os maiores percentuais de meta para redução do alimento até 2022, com a meta de retirar 62,4% e 53,9% de açúcar da composição, respectivamente. Para bolos, a meta é de até 32,4% e para as misturas para bolos, até 46,1% do teor de açúcar. Já os achocolatados, tem a meta de cair até 10,5% e as bebidas açucaradas até 33,8%.

A medida faz parte dos esforços do Brasil para auxiliar no controle das doenças crônicas não transmissíveis, como a obesidade, o diabetes e as doenças cardiovasculares (leia mais sobre o tema nos textos do blog). Segundo o Ministério da Saúde, o país se destaca como um dos primeiros países do mundo a buscar a diminuição do açúcar nos alimentos industrializados. Apesar de números totais robustos, o acordo divide opiniões de especialistas da área de Alimentação e Nutrição, e é considerado fraco. As críticas incluem o caráter voluntário da medida, a falta de punições para quem não cumprir o acordo e metas tímidas, que não atingem alguns dos produtos mais consumidos pelos brasileiros, como refrigerantes e bebidas açucaradas. Ao lermos o rótulo dos refrigerantes mais famosos, por exemplo, observa-se que eles possuem 10,5 gramas de açúcar para cada 100 mililitros, enquanto que a meta para 2022 é de 10,6 gramas por 100 mililitros. Segundo dados da pesquisa do sistema de vigilância de fatores de risco e proteção para doenças crônicas por inquérito telefônico (VIGITEL), 26% da população brasileira entrevistada consome refrigerantes pelo menos cinco dias na semana, sendo mais frequente entre os mais jovens{2}. Outro importante estudo brasileiro, a Pesquisa de Orçamentos Familiares (POF 2008-2009) do Instituto Brasileiro de Geografia e Estatística (IBGE), mostra que nos últimos anos houve redução do consumo do açúcar de mesa, mas cresce a ingestão de açúcares adicionados a alimentos e bebidas em produtos industrializados, como refrigerantes, néctares, balas, biscoitos, bolos e chocolates {3}. Ou seja, o aumento do consumo de açúcar em alimentos prontos para consumo representa um cenário muito preocupante.

O “desânimo” de alguns especialistas em relação ao acordo também está pautado no desdobramento de um acordo anterior para redução do sódio dos alimentos, assinado em 2011. Da mesma forma que o atual, o acordo do sódio previa metas já alcançadas pela maioria dos produtos. Segundo uma pesquisa do Instituto Brasileiro de Defesa do Consumidor (Idec) foi constatado que o valor estipulado era muito baixo e ineficiente, exatamente porque a maioria dos produtos já estavam dentro da meta estabelecida {4}. Para a nutricionista do Idec, medidas eficazes são aquelas que realmente apoiam a escolha de alimentos saudáveis pelo consumidor, e que exigem maior controle do Estado. Um exemplo é a mudança dos rótulos dos alimentos, que passariam a conter advertências para o teor de sódio e açúcar, por exemplo, empoderando o consumidor. A inclusão das advertências nos rótulos é um projeto de lei, ainda em votação (link para votar), e precisa muito do apoio de toda a população{5}.

Outra medida interessante é a taxação extra de produtos industrializados.

Medidas similares já foram adotadas por países como Colômbia e México, onde se aumentou a taxação de impostos sobre produtos açucarados. O impacto da medida ainda está sendo avaliadoem pesquisas da área de saúde pública, mas já é considerada estratégia importante com benefícios sociais, econômicos e para a saúde , mostrando redução da probabilidade de compra e ingestão de açúcar especialmente nas populações de menor renda{6,7,8}.

A única certeza que se tem é que para enfrentar as doenças crônicas são necessárias ações em diferentes frentes. A alimentação adequada e saudável constitui um dos principais pilares para a promoção da saúde. Para que essa alimentação saudável seja possível,  é imprescindível a participação da sociedade, compartilhando informações e manifestando posicionamentos – afinal o maior poder é dos consumidores.

Referências

  1. http://portalms.saude.gov.br/noticias/agencia-saude/44777-brasil-assume-meta-para-reduzir-144-mil-toneladas-de-acucar-ate-2022
  2. https://www.ans.gov.br/images/Vigitel_Saude_Suplementar.pdf
  3. https://biblioteca.ibge.gov.br/visualizacao/livros/liv50063.pdf
  4. https://idec.org.br/em-acao/artigo/acordo-para-reduco-de-sodio-nos-produtos-industrializados-no-e-eficiente-entrevista-especial-com-ana-paula-bortoletto
  5. http://www2.camara.leg.br/camaranoticias/noticias/SAUDE/563665-PROJETO-PREVE-ADVERTENCIA-EM-ROTULOS-DE-ALIMENTOS-PROCESSADOS-E-ULTRAPROCESSADOS.html
  6. Backholer, K., & Martin, J. (2017). Sugar-sweetened beverage tax: The inconvenient truths. Public Health Nutrition, 20(18), 3225-3227. doi:10.1017/S1368980017003330
  7. Nakamura R, Mirelman AJ, Cuadrado C, Silva-Illanes N, Dunstan J, Suhrcke M. Evaluating the 2014 sugar-sweetened beverage tax in Chile: An observational study in urban areas. PLoS Med. 2018 Jul 3;15(7):e1002596. doi: 10.1371/journal.pmed.1002596. eCollection 2018 Jul.
  8. Álvarez-Sánchez C, Contento I, Jiménez-Aguilar A, et al. Does the Mexican sugar-sweetened beverage tax have a signaling effect? ENSANUT 2016. PLoS One. 2018;13(8):e0199337. Published 2018 Aug 22. doi:10.1371/journal.pone.0199337

 

0

A financeirização do espaço urbano e o que você tem a ver com isso

Referências:

As cidades vêm crescendo em ritmo acelerado pelo mundo todo. Atualmente, mais da metade da população mundial vive em cidades, com estimativa de que este percentual chegue perto dos 70% em 2050, segundo estudo da Organização das Nações Unidas.

Neste cenário,também vêm crescendo os interesses capitalistas sobre as cidades, no duplo sentido de adaptá-las às necessidades produtivas em geral e aos interesses e formas de acumulação financeirizadas.

A financeirização pode ser definida como uma forma de acumulação que se tornou dominante, no capitalismo, a partir dos anos 70/80. Ela é baseada na circulação de títulos que garantem o direito de propriedade de seu detentor a rendas futuras (como as ações de empresas, os títulos representativos de produção agrícola, etc). A grande novidade é que o preço destes títulos não obedece,necessariamente, a qualquer critério da realidade na esfera produtiva. São, na realidade, fixados com base em percepções subjetivas de agentes do mercado,altamente sujeitos à especulação e à manipulação. Esse descolamento entre a realidade e a precificação desses títulos aumenta as possibilidades de fortes crises financeiras, como a que vivenciamos em 2008.

Não são poucos os exemplos de processos de financeirização no espaço urbano: criação de títulos negociáveis em bolsa lastreados em empreendimentos urbanos (CEPACS,LCIs, etc), abertura de capitais de construtoras, número crescentes de fundos de investimentos que, por sua vez, adquirem cada vez mais imóveis na cidade,entre outros.

Pois bem: mas se você não é investidor de bolsa de valores ou trabalha no mercado imobiliário,porque este texto pode te interessar? Simples: porque você provavelmente mora e/ou trabalha em uma cidade e convive com os impactos desses processos diariamente, mesmo sem se dar conta.

Os processos de financeirização do espaço urbano têm afetado de forma direta e indireta a vida de todos os habitantes. De forma direta, os exemplos devem ser casuísticos, mas,de maneira geral, podemos falar de intervenções no espaço urbano voltadas para a instalação de infraestruturas voltadas para as necessidades tecnológicas desta forma de acumulação financeirizada (cabos de fibra ótica, centros de comunicação, etc), além de outras intervenções para a valorização de determinadas áreas da cidade, conforme os interesses de fundos de investimento,construtoras de capital aberto, entre outros agentes financeiros.

De forma indireta, temos a dominância de uma nova lógica na produção urbana: a da valorização acionária. A cidade como um todo, bem como intervenções específicas, passam a ser direcionadas por essa lógica que visa primordialmente à valorização dos espaços, seja por meio de intervenções diretas (profundas ou de “maquiagem”) ou de medidas de marketing urbano.

A grande questão que se apresenta a partir da dominância da lógica da valorização acionária tem por base a consideração de que a cidade não é um empreendimento ou uma empresa,mas sim um grande espaço de troca, convivência e reprodução da classe trabalhadora. Sua importância vem crescendo junto com a população que a habita,conforme visto no início deste texto.

Neste cenário, a gestão da cidade deve ser dirigida ao equacionamento de conflitos e ampliação de acesso a direitos de seus habitantes, conforme estabelecido por tratados internacionais e pela Constituição Federal do Brasil. Este tipo de gestão exige o engajamento público em investimentos em áreas com menor infraestrutura, para garantir o maior nível de equidade possível entre os moradores, o que vai de encontro aos investimentos realizados sob a lógica da valorização acionária,que tendem a reforçar os privilégios de áreas já valorizadas, em um ciclo de aumento da segregação socioespacial.

Esta seletividade de investimentos e atuação do poder público, que cria círculos viciosos de valorização em determinadas áreas da cidade já valorizadas em detrimento de áreas precarizadas, aumenta exponencialmente o volume o impacto de graves problemas urbanos como a mobilidade, a violência, o acesso à saúde e à educação, entre outros.

Você já parou para pensar sobre como teríamos uma cidade mais justa, solidária e, possivelmente,pacífica se os hospitais e escolas de qualidade estivessem igualmente espalhados pelo território? E se os investimentos públicos permitissem que os deslocamentos se tornassem menores, mais baratos e eficientes para milhões de trabalhadores? E ainda se houvesse investimentos e políticas para a integração social nas cidades e não a retirada de moradores mais pobres de territórios valorizados em nome de mais valorização?

São muitos os mecanismos que tornam essas perguntas apenas o roteiro de uma ficção, mas,atualmente, o principal deles é a financeirização do espaço urbano, que se espalha pelo mundo com consequências mais graves em cidades de países em desenvolvimento. Conhecer os mecanismos por trás dos fenômenos é o primeiro passo para a mudança. Vamos junt@s mudar a lógica de construção das cidades?

Para saber mais sobre pesquisas que envolvem esta temática, confira as referências abaixo!

CENTRO REGIONAL DE INFORMAÇÃO DAS NAÇÕES UNIDAS. Relatório da ONU mostra população mundial cada vez mais urbanizada, mais de metade vive em zonas urbanizadas ao que se podem juntar 2,5 mil milhões em 2050. Acesso em 10 de novembro de 2018.

DE MATTOS, Carlos A. “Financiarización, mercantilización y metamorfosis planetaria: lo  urbano  en  la  valorización  del  capital”. Sociologias, Porto Alegre, v. 18, n. 42, p. 24-52, mai./ago.

PAULANI, Leda. “Não há saída sem a reversão da financeirização”. Estudos Avançados, 31 (89), 2017.2016. Acesso em 08 de novembro de 2018.

ROLNIK, Raquel. A Guerra dos lugares: a colonização da terra e da moradia na era das finanças. São Paulo: Boitempo, 2015.