Desacoplamento de neurônios pode ser estratégia de neuroproteção

Estadão – Da Agência Fapesp

 

Reprodução

Neurônios se comunicam por sinapses químicas e elétricas

Além das conhecidas sinapses químicas – que permitem a interação entre as células nervosas, envolvendo neurotransmissores e receptores –, os neurônios também se comunicam com sinapses elétricas. Nesse tipo de sinapse, correntes de íons passam diretamente de uma célula a outra por meio de canais conhecidos como “junções comunicantes”, produzindo um acoplamento entre os neurônios.

Uma pesquisa realizada por pesquisadores brasileiros mostrou que desacoplar os neurônios pode ser uma estratégia simples e eficaz para a neuroproteção – isto é, interromper processos de morte celular relacionados a doenças neurodegenerativas como Parkinson, Alzheimer e epilepsia.

O estudo, publicado na revista PLoS One, foi liderado pelo professor Alexandre Kihara, coordenador da pós-graduação em Neurociência e Cognição da Universidade Federal do ABC (UFABC). O trabalho foi realizado com apoio da FAPESP por meio do Programa Jovens Pesquisadores em Centros Emergentes.

Além de Kihara, participaram da pesquisa seus orientandos de doutorado Vera Paschon e Guilherme Higa – ambos bolsistas da FAPESP –, além dos professores Luiz Roberto Britto, do Departamento de Fisiologia e Biofísica do Instituto de Ciências Biomédicas (ICB) da Universidade de São Paulo (USP), e Rodrigo Resende, do Departamento de Bioquímica e Imunologia da Universidade Federal de Minas Gerais (UFMG).

Segundo Kihara, embora sejam historicamente menos estudadas que as sinapses químicas, sabe-se hoje que as sinapses elétricas são fundamentais em diversas funções fisiológicas e cognitivas, como desenvolvimento, aprendizado, memória e percepção. Estudos recentes têm mostrado, também, que a participação das junções comunicantes no acoplamento entre os neurônios está relacionada com o espalhamento da apoptose, ou morte celular.

“Na apoptose, que é um processo comum a todas as doenças neurodegenerativas, o neurônio altera sua programação interna para ‘se suicidar’. Ocorre que, se um neurônio em apoptose estiver acoplado com um neurônio sadio – como mostra nosso estudo –, esse acoplamento permite a passagem de determinadas moléculas que aumentam a probabilidade de o neurônio sadio entrar em apoptose também”, disse Kihara à Agência FAPESP.

Segundo Kihara, no entanto, os cientistas ainda estão investigando quais são as moléculas envolvidas no espalhamento da apoptose por meio do acoplamento entre os neurônios. Além de tradicionais segundos mensageiros – como IP3, um importante sinalizador de cálcio – , o grupo da UFABC levanta a hipótese de que os microRNAs (miRNAs) podem estar envolvidos no processo.

“Os miRNAs regulam negativamente a tradução e representam uma camada adicional de controle entre o RNAm e as proteínas. A proposta de que miRNAs possam trafegar por junções comunicantes é considerada muito ousada. No entanto, ninguém conseguiu levantar argumentos concretos contra a hipótese, enquanto nós já temos alguns indícios a favor”, disse Kihara.

Para que ocorra um trânsito de moléculas entre as células, não basta que elas estejam acopladas. É preciso também que existam gradientes – isto é, que um dos neurônios acoplados tenha uma concentração de moléculas maior que o outro. Sendo assim, os pesquisadores usaram a estratégia de gerar gradientes a partir de lesões feitas com agulhas finíssimas nas retinas de galos.

A lesão era focada o suficiente para produzir a morte celular em um ponto específico do tecido, sem afetar o entorno, gerando um gradiente. Esse acoplamento foi manipulado farmacologicamente com diversas drogas. Quando os fármacos desacoplavam os neurônios, os pesquisadores observaram uma redução do espalhamento da morte celular.

“A estratégia foi produzir uma lesão aguda e localizada, com o intuito de gerar gradientes de concentração no tecido, para em seguida desacoplar bioquimicamente os neurônios. Para isso, uma dupla abordagem foi realizada, combinando lesões de retina in vivo e explantes de retina, modelo in vitro, mais adequado que as tradicionais culturas de células”, explicou Kihara.

Aplicação potencial

A estratégia de neuroproteção utilizando diferentes moléculas que desacoplam neurônios foi também capaz de regular negativamente genes pró-apoptóticos como as caspases. “A estratégia se mostrou tão eficiente que foi reproduzida in vivo, resultando em diminuição da área afetada e da morte neuronal”, disse Kihara.

“Mostramos também que os neurônios que estão em apoptose mantêm a expressão de conexinas – que são proteínas responsáveis por formar os canais de junções comunicantes, permitindo a ocorrência do acoplamento. Isso é importante, porque assim pudemos eliminar a hipótese de que um neurônio em processo de apoptose pudesse deixar de expressar as proteínas que formam o canal de acoplamento”, disse.

Segundo Kihara, a partir de agora os estudos irão investigar a hipótese de que os miRNAs transitem pelos canais de junções comunicantes e participam do processo de espalhamento da apoptose entre células acopladas.

A equipe que trabalhará com essa hipótese terá a participação de Erica de Sousa, aluna de graduação da UFABC e autora de um capítulo sobre miRNAs no livro Sinalização de Cálcio: Bioquímica e Fisiologia Celulares, que será lançado no início de outubro, no 1º Simpósio Brasileiro de Sinalização de Cálcio: Bioquímica e Fisiologia Celulares, na UFMG.

De acordo com Kihara, os estudos continuarão também a explorar as possibilidades de utilizar o desacoplamento de neurônios como estratégia de neuroproteção, com potencial aplicação no tratamento de doenças neurodegenerativas.

“Continuaremos investigando como e quando fazer isso de forma mais eficiente dependendo da doença. Mas acreditamos que uma nova porta foi aberta para estudos em neurodegeneração”, disse.

27/09/2012 at 1:58 PM Deixe um comentário

Estação espacial pode ter que manobrar para evitar colisão com lixo espacial

Estadão – Da Efe

Pedaços de satélite militar russo abandonado podem ameaçar a segurança da estação

 

Divulgação

Estação Espacial Internacional

A Estação Espacial Internacional (ISS) pode ser obrigada a manobrar para se esquivar dos restos de um satélite de espionagem militar russo abandonado, informou nesta quarta-feira, 26, um porta-voz do Centro de Controle de Voos Espaciais (CCVE) da Rússia.

“Dois pedaços do aparelho espacial Kosmos-2251 podem ameaçar a segurança da estação. Para evitar o lixo espacial, pode ser necessário uma manobra da ISS”, afirmou a fonte à agência “Interfax”.

Em caso de necessidade, a plataforma orbital poderia corrigir sua órbita já nesta quinta-feira, com ajuda do cargueiro europeu ATV. Em janeiro, a estação corrigiu sua órbita para evitar a colisão com um fragmento de satélite americano Iridium-33.

Os restos deste satélite se espalharam pela órbita terrestre em 10 de fevereiro de 2009, depois que ele se chocou com o Kosmos-2251, o que fez com que ambos se partissem em mais de mil fragmentos.

Em junho de 2011, a perigosa proximidade do lixo, que passou a apenas 250 metros da estação, obrigou os seis tripulantes a evacuar a plataforma e buscar refúgio nas naves Soyuz que nela estavam acopladas.

A corporação aeroespacial russa Energuia constrói uma nave tripulada para recolher lixo espacial, principal ameaça para a ISS. Os pesquisadores das principais agências espaciais acreditam que mais de 700 mil fragmentos de lixo espacial vaguem na órbita terrestre.

27/09/2012 at 1:56 PM Deixe um comentário

Brasileiros vão decifrar genomas do papagaio e do sabiá-laranjeira

Folha –  REINALDO JOSÉ LOPES EDITOR DE “CIÊNCIA+SAÚDE”

Não é todo dia que uma imagem de Zé Carioca ilustra uma apresentação sobre genômica, mas o malandro arquetípico da Disney tinha um bom motivo para figurar no Powerpoint de Francisco Prosdocimi, da UFMG (Universidade Federal de Minas): o tema era o genoma “dele”.

Ou melhor, o do papagaio-verdadeiro (Amazona aestiva), que está entre as espécies mais comuns do bicho em cativeiro. O objetivo de Prosdocimi e seus colegas é vasculhar o DNA da ave em busca de pistas que ajudem a explicar sua proverbial tagarelice.

Para atingir esse objetivo, o papagaio-verdadeiro não é o único alvo. O grupo de cientistas, batizado de Sisbioaves, pretende sequenciar (grosso modo, “soletrar”) o genoma de outras espécies tipicamente brasileiras, como o sabiá-laranjeira e o bem-te-vi.

Editoria de Arte/Folhapress

Em comum, esses bichos possuem o chamado aprendizado vocal -a capacidade, similar à dos seres humanos, de aprender padrões de vocalização ao longo da vida.

Detalhes sobre o projeto foram apresentados durante o 58º Congresso Brasileiro de Genética, em Foz do Iguaçu.

“A gente sabe que o aprendizado vocal é polifilético [ou seja, evoluiu mais de uma vez em linhagens sem parentesco próximo]”, explica Claudio Mello, brasileiro que trabalha na Universidade de Saúde e Ciência do Oregon (Estados Unidos).

“Portanto, se a gente encontrar genes relevantes para esse comportamento que são compartilhados entre os vários grupos de aves e os humanos, provavelmente isso quer dizer que eles representam a base do aprendizado vocal”, diz Mello.

Na maioria das aves, afirma Mello, existe o chamado período crítico de aprendizado — uma fase da “infância” do bicho na qual ele precisa ser exposto ao canto de outro animal para que ele aprenda a cantar de forma apropriada, coisa que também se verifica no caso da fala humana. Já os papagaios parecem ser mais versáteis, sendo capazes de aprender a imitar sons humanos em praticamente qualquer fase de sua vida.

A estimativa de Prosdocimi e de sua colega Maria Paula Schneider, da UFPA (Universidade Federal do Pará), é que a leitura dos genomas do papagaio e do sabiá-laranjeira esteja concluída em meados do ano que vem.

Segundo o pesquisador da UFMG, que é bioinformata (especialista na análise computacional de dados biológicos), espera-se que os bichos tenham genomas relativamente compactos, com menos da metade do tamanho do genoma humano.

Os pesquisadores ainda não encontraram, nos papagaios, o equivalente ao gene FOXP2, hoje um dos grandes candidatos a influenciar a capacidade humana para a fala. Mas não é só o lado vocal que interessa aos cientistas.

Prosdocimi destaca que os papagaios são inteligentes de modo geral. E vivem muito, passando dos 70 anos, o que traria pistas sobre as bases genéticas da longevidade.

26/09/2012 at 2:58 PM Deixe um comentário

Estudo questiona interpretação clássica do princípio da incerteza

FERNANDO MORAES COLABORAÇÃO PARA A FOLHA

Dentro da física, poucas coisas são mais citadas e menos compreendidas que o princípio da incerteza.

Leigos e até cientistas costumam resumir o princípio com a ideia de que qualquer medição das propriedades de átomos ou partículas “bagunça”, de certo modo, aquilo que se quer medir, criando uma incerteza intrínseca.

Um novo estudo acaba de mostrar que essa incerteza é menor do que muita gente imaginava.

Editoria de arte/folhapress

DEPOIS DE HEISENBERG

O princípio da incerteza, formulado pelo alemão Werner Heisenberg, em 1927, estabelece um limite intransponível para a quantidade de informação que se pode obter do mundo atômico e subatômico, que é regido pelas leis da mecânica quântica.

Não vale, portanto, para o nosso mundo cotidiano, ao contrário do que muita gente imagina.

Se pensarmos numa praia, por exemplo, podemos não saber o número de grãos de areia que existem, mas poderíamos, em tese, determinar seu valor, que existe independentemente de contagem.

No mundo quântico, isso não ocorre. Os valores das propriedades das partículas só são determinados no momento em que são medidos. “Sequer há sentido em dizer qual é o valor de uma grandeza física antes de a medirmos. Podemos falar de valores medidos, mas não que uma grandeza física possua um valor bem definido antes da medida”, explica o físico André Landulfo, da Universidade Federal do ABC.

Comentando o caráter contraintuitivo da maioria dos resultados da física do muito pequeno, o grande físico Richard Feynmam (1918-1988) escreveu: “Posso dizer sem me enganar que ninguém compreende a mecânica quântica”.

Um dos modos de apresentar o princípio da incerteza é por meio da formulação original de Heisenberg. No instante em que medimos, por exemplo, a posição de uma partícula, provocamos uma perturbação que afeta a sua velocidade. A perturbação é tanto maior quanto mais exata é a medida da posição.

“Essa interpretação é ainda muito difundida na comunidade científica e ensinada em cursos de física”, afirma Landulfo.

Um grupo de físicos da Universidade de Toronto, no Canadá, produziu um experimento de medida com fótons (partículas de luz) que mostrou que o ato de medir introduz menos incerteza no sistema que o estabelecido pelo princípio de Heisenberg.

O experimento buscou medir duas propriedades diferentes e inter-relacionadas de um fóton: seus estados de polarização. De acordo com o princípio de Heisenberg, existiria um limite sobre a certeza com que podemos conhecer ambos os estados.

Os pesquisadores utilizaram uma técnica chamada medição “fraca”, insuficiente para causar uma perturbação, mas que permite ter uma ideia vaga da orientação da polarização do fóton.

Primeiro eles mediram “fracamente” a polarização do fóton em um plano. Em seguida, mediram da maneira usual a polarização em outro plano. Por fim, fizeram novamente uma medição usual da primeira polarização para saber o tamanho da perturbação causada pela segunda medição.

O resultado foi que a medição em um plano não perturba a do outro estado. “Eles mostraram que a desigualdade prevista pelo princípio da incerteza, na interpretação incorreta de que a medida de uma quantidade física gera incerteza na outra, não é satisfeita”, diz Landulfo.

As implicações do trabalho são principalmente conceituais e educacionais.

“Muitos livros de física ainda trazem, ao lado da explicação correta do princípio da incerteza, sua versão em termos de medições”, acrescenta o físico.

Mas extirpar essa explicação talvez não seja tão fácil. O líder do experimento, Aephraim Steinberg, revelou que, mesmo após sua pesquisa, incluiu uma questão sobre como medições criam incerteza em um recente trabalho para seus alunos.

“Só quando eu estava corrigindo os trabalhos percebi que a questão estava errada.”

A pesquisa foi publicada na revista científica “Physical Review Letters”.

26/09/2012 at 2:36 PM Deixe um comentário

Novas estações meteorológicas serão instaladas na Amazônia

Estadão – Agência Brasil

Equipamentos coletam dados meteorológicos, como umidade relativa do ar e pressão atmosférica por meio de sensores

 

O Centro Gestor e Operacional do Sistema de Proteção da Amazônia (Censipam) deu início, na segunda quinzena de setembro, ao levantamento de campo em Roraima para a implantação de novas estações meteorológicas de Superfície (EMS). Serão visitados os municípios de Mucajaí, Caracaraí e Pacaraima, que fazem parte da Amazônia Ocidental. Junto com a área da Amazônia Oriental (como o município de Don Elizeu, no Pará), a Amazônia deve receber dez estações novas a partir de outubro.

As EMS são sistemas que coletam dados meteorológicos, como umidade relativa do ar e pressão atmosférica por meio de sensores. De acordo com Ricardo Dallarosa, chefe de Divisão de Meteorologia do Centro Regional de Manaus do Censipam, as informações recolhidas pelas estações serão enviadas para o Sistema de Proteção da Amazônia (Sipam) e para outros órgãos governamentais que precisarem usá-las. “São órgãos operacionais e de pesquisa, além das defesas civis”.

Outros municípios devem ser verificados pelo Censipam. A escolha dos locais que passam pelo levantamento de campo leva em consideração a distribuição das estações que já existem (Manaus, por exemplo, já possui uma EMS) – de modo que as novas ocupem lugares que ainda não apresentam coleta de dados – e o interesse de parceiros do Sipam, como a Defesa Civil.

As estações devem melhorar a descrição do ambiente onde estão instaladas, além da previsão do tempo em outros locais. Segundo Dallarosa, “as EMS instaladas pelo Sipam serão colocadas na região amazônica, porém esse dado serve não só para o Brasil como para todo o globo, alimentando de informações os modelos de previsão do tempo”.

26/09/2012 at 2:01 PM Deixe um comentário

Imagens de satélite revelam aumentos desiguais nos níveis dos oceanos

G1 – Da BBC

Relatório feito por leitura de satélites aponta média pequena na elevação dos mares, que esconde variações grandes em certas regiões.

Uma reavaliação de imagens feitas por satélites dos últimos 18 anos forneceu uma visão nova e mais detalhada das mudanças no nível do mar em todo o mundo.

Um novo estudo, que se vale de informações levantadas a partir de imagens registradas por diferentes sondas espaciais, afirma que os níveis dos mares no planeta estão subindo apenas uma média de 3 milímetros por ano. Mas essa reavaliação oculta algumas grandes diferenças regionais – tanto para cima quanto para baixo.

O Mar das Filipinas, por exemplo, sofreu um aumento médio que ultrapassa 10 milímetros por ano. Em parte, isso reflete grandes oscilações nos ventos e na temperatura do Oceano Pacífico.

O estudo integra a Iniciativa de Mudanças Climáticas (CCI, na sigla em inglês), aprovada pelo Agência Espacial Europeia (ESA, na sigla original) durante sua reunião ministerial de 2008.

Reavaliação de imagens feitas por satélites dos últimos 18 anos forneceu uma visão nova e mais detalhada das mudanças no nível do mar em todo o mundo. (Foto: BBC)

Razões das variações
”O mapa de tendências é uma forma de olhar para as mudanças que ocorreram nos últimos 20 anos. Os lugares em que você observa tendências de alta provavelmente não terão novas tendências de alta nos próximos 20 anos”, afirma Steve Nerem, da Universidade do Colorado, dos Estados Unidos.

”Muitas destas variações por décadas tendem a se tornar mais estáveis se analisadas por períodos mais longos. É por isso que precisamos de mais missões para compreender o porquê de tais variações”, acrescenta.

Paolo Cipolini, do Centro Nacional de Oceanografia da Grã-Bretanha, afirma também que ”muitas das características vistas no mapa de tendências indicam mudanças no armazenamento de calor e correspondem, no longo prazo, às variações nas correntes do oceano’.

A pesquisa deverá ajudar cientistas a compreender a escala de diferentes fatores no aumento do nível do mar a longo prazo e as mudanças anuais e interanuais que podem ocorrer.

Atualmente, acredita-se que os principais causadores do aumento do nível dos mares sejam a absorção de mais calor pelos oceanos e as águas geradas pelo derretimento de geleiras e de camadas de gelo.

Medições
Os pontos essenciais são identificar até que ponto a elevação do nível do mar estaria ficando mais rápida e colocar de lado as oscilações de longo prazo no comportamento dos oceanos, que podem contribuir para distorções nas leituras dos níveis marítimos.

A mensuração da superfície oceânica por satélites é algo relativamente novo. As observações de rotina tiveram início com a espaçonave europeia ERS-1, em 1991. A referência no setor atualmente é o Jason/Poseidon, resultado de uma cooperação entre os Estados Unidos e a Europa.

Agora em sua terceira versão, o satélite Jason circula o globo estabelecendo um mapa topográfico de 95% dos oceanos terrestres a cada dez dias.

Para realizar isso, ele usa um radar altimétrico que constantemente mede pulsações de micro-ondas a partir da superfície do mar. Ao determinar o quanto o sinal demora para fazer a viagem de volta, o instrumento pode determinar a altura da superfície marítima.

Mas para que se tenha um retrato mais completo, é preciso relacionar os dados fornecidos pelo Jason com os de satélites que observam partes do mundo que acabam não sendo registradas de outras formas.

Outra importante ferramenta introduzida recentemente é o satélite gravitacional – especificamente as duas espaçonaves USGrace. Elas são capazes de medir a quantidade de gelo na Antártida e na Groenlândia e a quantidade de água armazenada nos continentes. E são capazes de oferecer novos dados a respeito do derretimento nos polos e o impacto das mudanças na precipitação que podem mover grandes quantidade de águas as águas para a terra.

26/09/2012 at 1:45 PM Deixe um comentário

Telescópio mostra Via Láctea rodeada por enorme nuvem de gás

Do G1, em São Paulo

Círculo de gás tem pelo menos 600 mil anos-luz de diâmetro, diz estudo. Massa de halo é comparável à de todas as estrelas da nossa galáxia.

 

O telescópio de raio X Chandra, da agência espacial americana (Nasa), detectou uma enorme nuvem de gás quente ao redor da Via Láctea e de duas galáxias vizinhas, a Grande e a Pequena Nuvem de Magalhães.

O estudo foi conduzido pelas pesquisadoras Anjali Gupta e Smita Mathur, da Universidade do Estado de Ohio, nos EUA, e publicado na revista científica “The Astrophysical Journal”. O trabalho foi feito em co-autoria com a Universidade Nacional Autônoma do México, o Centro de Astrofísica Harvard-Smithsonian e a Universidade de Miami.

A foto abaixo é uma concepção artística e, nela, o círculo de gás aparece com cerca de 600 mil anos-luz de diâmetro – o que pode ser ainda maior.

Nuvem de gás aparece ao redor de 3 galáxias (Foto: Nasa/CXC/M.Weiss; Nasa/CXC/Ohio State/A.Gupta et al.)

Segundo dados do telescópio, a massa desse halo pode ser comparável à de todas as estrelas da Via Láctea.

Em estudo recente, uma equipe de cinco astrônomos usou informações do Chandra, do telescópio XMM-Newton, da Agência Espacial Europeia (ESA), e do satélite japonês Suzaku para estabelecer a massa, a extensão e a temperatura dessa auréola de gás – que varia entre 1 milhão e 2,5 milhões de graus Celsius, enquanto na superfície do Sol chega a 6 mil graus Celsius, por exemplo. As outras duas medidas ainda não foram avaliadas com precisão.

Outras pesquisas já demonstraram que a Via Láctea e outras galáxias estão embutidas nesse gás quente, com temperaturas variando entre 100 mil e 1 milhão de graus Celsius. Também há indícios da presença de um componente que ultrapassa esse valor.

Se a dimensão e a massa do halo de gás forem confirmadas, poderão solucionar um problema da física conhecido como “bárions perdidos” na Via Láctea. Os bárions são partículas subatômicas, assim como prótons e nêutrons, que compõem mais de 99,9% de toda a massa de átomos existente no Universo.

Medidas de halos e galáxias extremamente distantes indicam que a matéria “bariônica” presente quando o Universo ainda tinha poucos bilhões de anos representava cerca de um sexto da massa e da densidade da matéria não observável – também chamada de matéria escura.

Recentemente, um censo estimou o total de bárions em estrelas e gases na Via Láctea e em galáxias vizinhas. O resultado apontou que pelo menos metade deles simplesmente havia sumido.

26/09/2012 at 1:28 PM Deixe um comentário

Posts antigos


Paideia

Seu encontro semanal com a cultura científica. Todas às 3ª feiras, às 18h, na Rádio UFSCar 95,3FM para São Carlos - SP ou www.radio.ufscar.br para o mundo!

@programapaideia

@clickciencia

Podcasting

Faça o download do podcasting do Paideia

Edições anteriores