Mostrando postagens com marcador Unicamp. Mostrar todas as postagens
Mostrando postagens com marcador Unicamp. Mostrar todas as postagens

terça-feira, 27 de fevereiro de 2018

Microscópio de tunelamento entra em funcionamento na Unicamp

27 de fevereiro de 2018


Agência FAPESPUm microscópio de varredura por tunelamento, equipamento que permite estudar materiais em nível atômico – único do tipo no Estado de São Paulo –, acaba de ser instalado no Grupo de Pesquisas Fotovoltaicas do Departamento de Física Aplicada do Instituto de Física “Gleb Wataghin” (IFGW) da Unicamp.

O aparelho PanScan FLOW, da RHK Technology, foi adquirido com apoio da FAPESP por meio do Programa Equipamentos Multiusuários (EMU).

Microscópio de tunelamento entra em funcionamento na Unicamp Sistema que permite estudar propriedades eletrônicas e ópticas de materiais nanoestruturados foi adquirido com apoio do Programa Equipamentos Multiusuários da FAPESP (foto: divulgação) 
 
O microscópio opera em ultra-alto-vácuo e em temperaturas menores que 15 K (cerca de 258 ºC negativos). Segundo o professor Luiz Fernando Zagonel, responsável pelo projeto, o sistema permitirá estudar propriedades eletrônicas e morfológicas de materiais com resolução atômica, impulsionando estudos em nanotecnologia no Estado de São Paulo.

Será possível compreender de forma mais ágil as propriedades eletrônicas e ópticas de materiais nanoestruturados, como nanopartículas, nanofios e materiais bidimensionais”, disse Zagonel à Agência FAPESP.
Depois da realização de estudos preliminares para estabelecer protocolos de utilização, o equipamento será aberto para usuários externos por meio do Parque de Equipamentos Multiusuários do IFGW. “Pesquisadores no Estado de São Paulo que tenham interesse em utilizar o equipamento poderão submeter projetos de pesquisa”, disse Zagonel.

O sistema conta com instalações para aquecimento de amostras in situ e armazenamento de pontas. Um dispositivo para detecção de luz também está sendo finalizado para operação conjunta com o microscópio.

“Com isso, será possível detectar a luz emitida por amostras semicondutoras devido à corrente túnel do microscópio. Essa capacidade permitirá grande agilidade nos estudos de materiais nanoestruturados com potencial para aplicações em optoeletrônica, como LEDs”, disse Zagonel.

“Alguns desses materiais, como WSe2 [seleneto de tungstênio] ou MoS[bissulfeto de molibdênio] têm atraído muita atenção nos últimos anos devido ao seu potencial em eletrônica flexível, por exemplo. O microscópio poderá também ser aplicado em estudos de moléculas e de organização de superfícies dentro de outras áreas do conhecimento”, disse. 

quinta-feira, 3 de março de 2016

Pesquisadores criam método que permite detectar Zika em sangue de transfusão

Hemocentro de São Paulo usará teste desenvolvido com apoio da FAPESP para triar bolsas destinadas a gestantes e a transfusões intrauterinas 

KARINA TOLEDO | Edição Online 0:43 6 de fevereiro de 2016

Email this to someoneTweet about this on TwitterShare on Google+Share on FacebookShare on LinkedIn

Sangue destinado a gestantes deverá ser testado
Sangue destinado a gestantes deverá ser testado
Agência FAPESP

Um método para detectar a presença do vírus Zika no sangue usado em transfusões foi desenvolvido no âmbito de um projeto apoiado pela FAPESP e coordenado por José Eduardo Levi, chefe do Departamento de Biologia Molecular da Fundação Pró-Sangue/Hemocentro de São Paulo – instituição ligada à Secretaria de Estado da Saúde e à Faculdade de Medicina da Universidade de São Paulo (FMUSP).

De acordo com o pesquisador, inicialmente, a metodologia seria indicada apenas para a triagem de bolsas de sangue destinadas a gestantes ou a transfusões intrauterinas (nas quais o sangue é transfundido diretamente no feto). A iniciativa é medida de precaução, já que não existe confirmação de que a transmissão transfusional do vírus represente risco ao feto.
“No caso do Zika, a grande preocupação é com grávidas e fetos. Achamos que não seria boa ideia, nesses casos, usar sangue com risco de ter o vírus. Nossa proposta foi fazer um teste para ser usado em um pequeno número de bolsas de sangue – 0,16% do estoque do banco de sangue – destinado a esse público-alvo. Pretendemos começar a aplicar o teste no Hemocentro de São Paulo logo após o Carnaval”, afirmou.

Desde o início da epidemia de Zika no Brasil, em 2015, pelo menos dois casos de transmissão por meio de transfusão sanguínea foram confirmados no Hemocentro da Universidade Estadual de Campinas (Unicamp), interior de São Paulo.

Em relação à dengue, já é conhecida a possibilidade de ocorrer transmissão transfusional. Segundo Levi, estima-se que até 1% dos doadores de sangue – nos períodos de pico epidêmico – sejam positivos para o vírus da dengue no momento da doação, mas não é feita nenhum tipo de triagem laboratorial.
“Isso nunca foi considerado um problema, pois, na maioria das vezes, o receptor do sangue nem sequer chega a desenvolver a doença. No Brasil, nunca foi detectado um caso grave de dengue transfusional. Esse primeiro receptor contaminado com Zika em Campinas também não apresentou sintomas da doença, embora tenha sido confirmada a presença do vírus em seu sangue (o segundo paciente morreu em decorrência dos ferimentos por arma de fogo que levaram à necessidade de transfusão). De maneira geral, ainda não há evidências de que o vírus Zika seja algo problemático do ponto de vista transfusional, com exceção das grávidas”, explicou o pesquisador. “Não temos evidência, por exemplo, de que o Zika adquirido pela via transfusional possa causar microcefalia, mas acreditamos que exista uma alta probabilidade de que isso ocorra.”

Levi também é professor do Instituto de Medicina Tropical da USP e integra a chamada Rede Zika – grupo articulado de maneira emergencial no último mês de dezembro, sob a coordenação do professor Paolo Zanotto, do Instituto de Ciências Biomédicas da USP, para tratar de questões relacionadas à epidemia de Zika e aos crescentes casos de microcefalia associados.
“Já estava em andamento um projeto, apoiado pela FAPESP, dedicado à prevenção da transmissão transfusional da malária no Estado de São Paulo. Em dezembro, solicitamos um recurso adicional que foi usado no desenvolvimento do teste para detectar o vírus Zika”, contou Levi.

A metodologia alia um método de biologia molecular conhecido como PCR (reação em cadeia da polimerase) em tempo real a protocolos desenvolvidos no Centro de Controle de Doenças (CDC), dos Estados Unidos, para detecção do vírus Zika.

“O protocolo do CDC sugere alguns reagentes específicos, primers e sondas, já testados e aprovados para detecção do vírus Zika usando PCR em tempo real. Fizemos algumas adaptações nesse protocolo aqui no Hemocentro de São Paulo”, contou.
A validação do método foi feita com controles positivos (isolados do vírus cultivados em laboratório que servem para confirmar se o que está sendo detectado é de fato o vírus Zika) fornecidos por pesquisadores da Rede Zika.

“Depois validamos também no plasma do receptor contaminado por transfusão – gentilmente cedido pelo dr. Marcelo Addas, do Hemocentro da Unicamp. Como obtivemos sucesso, já distribuímos o método para a Rede Zika, para quem quiser usar”, contou Levi.

Diante da falta de evidências sobre a importância de triar todo o sangue doado para a presença do vírus Zika, avaliou Levi, não h

“Estamos observando atentamente a evolução dos casos e, se forem surgindo evidências de que isso é necessário, vamos batalhar para obter mais recursos. Por enquanto o que entendemos prudente é triar apenas essa pequena parcela”, avaliou.
Email this to someoneTweet about this on TwitterShare on Google+Share on FacebookShare on LinkedIn

quarta-feira, 16 de setembro de 2015

A história da paisagem na areia dos rios

Análises de grãos de quartzo em planícies fluviais revelam processos recentes de transformação do relevo
CARLOS FIORAVANTI | ED. 235 | SETEMBRO 2015
Email this to someoneTweet about this on TwitterShare on Google+Share on FacebookShare on LinkedIn

© EQUIPE ARCHIME DES PEREZ FILHO / IG-UNICAMP
Planície do rio Beija-Flor, em Minas Gerais: um dos lugares estudados para se conhecer melhor o clima nos últimos 20 mil anos
Planície do rio Beija-Flor, em Minas Gerais: um dos lugares estudados para se conhecer melhor o clima nos últimos 20 mil anos.

Grãos de areia extraídos das margens de rios estão trazendo à tona informações sobre mudanças no relevo e delineando possíveis variações do clima nas regiões sudeste e nordeste nos últimos 20 mil anos. Dois estudos publicados em abril na Revista Brasileira de Geomorfologia apresentam diferentes idades obtidas com a análise de cristais de quartzo dos depósitos de areia das margens de dois rios paulistas, o Mogi Guaçu e o Corumbataí, e sugerem a ocorrência de períodos de chuvas intensas alternados com outros, de chuvas escassas. Não são casos isolados. Geógrafos da Universidade Estadual de Campinas (Unicamp), os autores desses trabalhos, encontraram grãos de quartzo com idade variando de 200 a 3.500 anos em nove rios de São Paulo e caracterizaram os movimentos de construção e reconstrução de planícies fluviais, que, com as outras formas de relevo, formam o que o geógrafo francês Jean Tricart chamava de epiderme da Terra.

As conclusões desse e de outros estudos foram obtidas por meio de uma técnica de análise chamada luminescência opticamente estimulada, que revela quando um cristal de quartzo foi exposto à luz solar pela última vez antes de ser coberto por sedimentos mais recentes. Os resultados fortalecem as conjecturas sobre a evolução da paisagem brasileira propostas há 50 anos pelo geógrafo Aziz Ab’Saber e pelo zoólogo Paulo Vanzolini. Eles afirmavam que a alternância entre clima seco e clima úmido teria sido decisiva para construir e esculpir o relevo e determinar a formação do solo e a expansão ou retração de florestas e do Cerrado em todo o país.

As análises dos cristais de quartzo, a serem confirmadas ou ajustadas por outras abordagens, também questionam conceitos estabelecidos. “Os dados obtidos mostram que a paisagem tropical é frágil e recente, diferentemente do que se afirmava”, diz o geógrafo Archimedes Perez Filho, professor do Instituto de Geociências da Unicamp. Com sua equipe, ele percorreu 8.610 quilômetros e coletou 93 amostras de areias de nove rios paulistas que desaguam no Paraná (ver mapa). “As possíveis oscilações climáticas nos últimos 20 mil anos não são apenas regionais”, diz Archimedes, com base em observações realizadas também ao longo do rio Itapicuru e na foz do rio Jequitinhonha, na Bahia.
“A ideia de que a paisagem, as florestas e o solo são muito antigos, com centenas de milhares ou milhões de anos, precisa ser revista. Não é o que estamos vendo”, reitera o geógrafo Antonio Carlos de Barros Correa, professor da Universidade Federal de Pernambuco (UFPE). Segundo ele, a técnica de luminescência opticamente estimulada pode fazer datações de até 1 milhão de anos, mas as idades obtidas até agora não passaram de 100 mil anos. Ele próprio encontrou uma idade máxima de 40 mil anos em levantamentos realizados nos estados de Piauí, Pernambuco, Paraíba, Rio Grande do Norte e Alagoas. “Sedimentos mais antigos já foram levados para o mar”, afirma Correa.

As diferentes idades dos cristais de quartzo indicam que a intensidade dos processos erosivos poderia variar por região. “Cada região tem uma história climática própria, mais ou menos conectada com a região vizinha, até mesmo de modo oposto. Quando chovia no Sudeste, fazia seca no nordeste, de modo alternado”, diz Correa, que tem visto sinais de que o clima no nordeste foi muito mais dinâmico do que se pensava. “Identificamos sinais de chuvas torrenciais nas encostas do planalto da Borborema, em Pernambuco, há 17 mil anos. Em uma fase de clima seco no nordeste, portanto, houve momentos de muita chuva, que podem ter durado décadas.” A análise dos movimentos dos sedimentos transportados pelas chuvas o levou a cogitar que “a paisagem é transformada aos poucos, por meio de pulsos climáticos de grande intensidade, sem ciclos definidos, e não de modo contínuo”.

A formação dos rios

Archimedes identificou variações da vazão dos rios ao examinar cristais de quartzo colhidos de profundidades entre 80 centímetros e 1 metro nos altos e baixos terraços. Os altos terraços, localizados entre 30 e 50 metros acima do nível atual dos rios, constituíram as áreas antes inundadas, com seixos do fundo de leito, enquanto os baixos estão de 3 a 5 metros acima do nível atual dos rios. Segundo ele, o volume de água determinou a ampliação das planícies, em épocas mais secas, ou seu entalhamento, formando degraus, em períodos mais chuvosos, em que o rio transbordava para além de seu leito. “O clima tem de ser quente e seco, com chuvas torrenciais, para os terraços se expandirem”, diz ele, “enquanto o entalhamento dos leitos dos rios se faz por meio de chuvas contínuas, predominantes no clima quente e úmido”.

As análises dos cristais de quartzo delinearam quatro períodos de acúmulo de sedimentos nas planícies dos rios – portanto, de provável clima seco – nos últimos 2 mil anos entre os nove rios examinados. O primeiro foi de cerca de 200 a 300 anos atrás, o segundo de 600 a 700 anos, o terceiro de 1.100 a 1.200 e o quarto de 1.900 a 2.000 anos. “Tais pulsos estão sendo também identificados na Argentina, por equipes de geomorfólogos que estudam processos glaciares”, diz Archimedes. Os climatologistas ainda não conseguiram delinear ciclos com tamanha precisão e observam que a formação das planícies não deveria ser considerada um indicador direto de variações climáticas, embora outros estudos tenham indicado uma aceleração nos processos erosivos nos últimos 4 mil anos, em consequência das chuvas mais intensas e frequentes.

“Com as informações climatológicas atuais, muitas delas com períodos de registros de menos de 100 anos, é muito difícil identificar ou avaliar ciclos climáticos na escala de centenas de anos”, comenta o climatologista José Marengo, pesquisador do Centro Nacional de Monitoramento e Alertas aos Desastres Naturais (Cemaden), que analisa a variação do clima de ano para ano no último século. “Indicadores paleoclimáticos podem ser úteis para preencher as lacunas no conhecimento sobre o clima na escala de milhares de anos e para comparar os mecanismos de variabilidade climática do presente com os do passado.”
Cada rio guarda sua própria história. Períodos mais secos ocorridos há cerca de 5.060 anos, 2.570 e 1.070 anos devem ter favorecido a deposição de sedimentos nos altos e baixos terraços do rio Corumbataí, enquanto os baixos terraços do Mogi Guaçu parecem ter se formado ao mesmo tempo ou em períodos secos mais recentes, a 1.900, 1.150 e 630 anos. As datações, ressalta Archimedes, têm uma margem de erro em torno de 10% para mais ou para menos.

Em 2012, Fred Teixeira Trivellato, do mesmo grupo, repetiu – e comparou – as medições realizadas pelos integrantes da Comissão Geográfica e Geológica do Estado de São Paulo em 1906 no rio Peixe, um dos afluentes do Paraná. Trivellato verificou que, diferentemente dos comentários dos moradores da região, a largura, profundidade do leito e velocidade e vazão do rio aumentaram, em consequência da expansão das áreas urbanas e da agricultura e da retirada da vegetação nativa. “Antes, com as florestas, a infiltração da água no solo era maior”, diz Archimedes. “Hoje, quando chove, a água escoa mais rapidamente para os rios.” Outra mudança é que, em consequência da construção dos reservatórios das hidrelétricas, as corredeiras desapareceram.

Cerrado também recente

Cada região ou trecho estudado pode apresentar um mosaico de áreas com diferentes idades. A geógrafa Gizelle Prado da Fonseca, em seu doutorado, a ser defendido até o fim deste ano, verificou que a idade das planícies de uma região ao norte do Pantanal, em Mato Grosso, varia de menos de 10 mil a 70 mil anos. “Esses estudos mostram como o relevo é produzido e esculpido e como a vegetação se instala e se recompõe”, comentou o geógrafo Jurandyr Ross, professor da Universidade de São Paulo (USP) que orientou o estudo no Pantanal.

A equipe da Unicamp verificou que a idade dos terrenos atualmente ocupados pelo Cerrado no interior paulista varia de 12 mil a 15 mil anos, bem menos do que se esperava. Portanto, concluiu Archimedes, as diferentes fisionomias atuais do Cerrado devem ter essa idade aproximada, já que a vegetação depende da formação do solo para se manter. A conclusão converge com outros estudos, como os de Luiz Carlos Pessenda, do Centro de Energia Nuclear da USP, que identificou registros de Cerrado com pelo menos 15 mil anos em fragmentos de carvão naturalmente soterrados no solo na região de Jaguariúna e Campinas.
O biólogo Marcelo Simon, da Embrapa Recursos Genéticos e Biotecnologia (Cenargen), observa: “A idade do solo não está necessariamente ligada à vegetação associada a ela. Vegetações bastante recentes podem estar assentadas em terrenos muito antigos”. Antes de formarem uma vegetação específica, as árvores que hoje caracterizam o Cerrado provavelmente estavam dispersas em meio a outras, com as araucárias, mais adaptadas ao clima frio que deve ter predominado na região sudeste há cerca de 20 mil anos.

O geólogo Francisco Cruz, professor do Instituto de Geociências da USP, participou de um estudo publicado em 2012 que indicou intensas variações do clima, inferidas a partir da análise da proporção de formas de oxigênio em minerais de cavernas e sedimentos de lagos, nos últimos 2 mil anos no estado de São Paulo. Agora é a vez de a equipe da Unicamp detectar sinais de oscilações do clima por volta do ano 1100, reforçando a ideia de que o hemisfério Sul possa ter tido um contraponto de clima quente e úmido, com muita chuva, à chamada pequena idade do gelo, verificada no hemisfério norte nessa mesma época. Para ampliar suas conclusões, Archimedes começou a colher amostras de materiais do solo nas planícies de rios da chapada de Uberlândia e Uberaba, em Minas Gerais. “Eu queria ter 20 anos a menos e os equipamentos que tenho hoje”, diz o geógrafo, hoje com 67 anos.

Projeto

Evolução da paisagem e geocronologia do relevo no planalto ocidental e na depressão periférica paulista/SP (nº 2012/00145-6); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Archimedes Perez Filho (IG/Unicamp); Investimento R$ 258.247,58.

Artigos científicos

STORANI, D. L. e PEREZ FILHO, A. Novas informações sobre geocronologia em níveis de baixo terraço fluvial do rio Mogi Guaçu, SP, Brasil. Revista Brasileira de Geomorfologia. v. 16, n. 2, p. 191-9. 2015.

DIAS, R. L. e PEREZ FILHO, A. Geocronologia de terraços fluviais na bacia hidrográfica do rio Corumbataí-SP a partir de luminescência opticamente estimulada (LOE). Revista Brasileira de Geomorfologia. v. 16, n. 2, p. 341-9. 2015.

VUILLE, M. et al. A review of the South American monsoon history as recorded in stable isotopic proxies over the past two millennia. Climate of the past. v. 8, p. 1309-21. 2012.

quinta-feira, 17 de julho de 2014

Telescópios investigam relação entre ciclo do Sol e clima

17/07/2014
Por Diego Freire
Agência FAPESP – Pesquisadores da Universidade Estadual de Campinas (Unicamp) e da Universidade Federal Fluminense (UFF) construíram dois telescópios que vão funcionar de forma sincronizada na detecção contínua de partículas derivadas da radiação do Sol para investigar possíveis relações entre os ciclos solares e as variações climáticas da Terra.

O trabalho é resultado da pesquisa “Detecção e estudo de eventos solares transientes e variação climática”, realizada no âmbito de um acordo de cooperação entre a FAPESP e a Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj) que tem como objetivo apoiar projetos cooperativos e intercâmbio de pesquisadores e estudantes em áreas ligadas às mudanças climáticas globais.
De acordo com o coordenador da pesquisa na Unicamp, Anderson Campos Fauth, professor associado do Instituto de Física Gleb Wataghin, já se sabe que os ciclos solares e suas flutuações apresentam alguma relação com a intensidade com que os raios cósmicos atingem a Terra, apesar de não serem considerados uma das principais causas das mudanças climáticas globais.


Equipamentos serão sincronizados para monitorar a atividade solar de forma ininterrupta e registrar informações que podem ser associadas à variação climática (foto:divulgação)

“Não existe um consenso sobre o mecanismo que relaciona a atividade solar e as mudanças climáticas. Há uma hipótese de que o aumento do fluxo de raios cósmicos pode estar associado ao surgimento de nuvens baixas, que globalmente exercem um efeito de resfriamento e, nas regiões polares, onde a incidência da radiação solar é baixa, têm impacto contrário, provocando aquecimento”, disse.
Fauth explica que cientistas têm observado que certos fenômenos climáticos – oceanos mais quentes, maior quantidade de chuvas tropicais, menos nuvens subtropicais, circulação mais intensa de ventos – parecem estar em parte associados ao ciclo de atividade solar, que dura em média 11 anos.
“Entretanto, esses estudos estão em fase inicial e é necessário fazer novas observações das radiações emitidas pelo Sol, principalmente quando surgem atividades como as explosões solares, e monitorar suas variações sazonais”, ponderou.

Diante disso, o trabalho da Unicamp e da UFF com os telescópios foca em um dos sinais do ciclo solar: a presença e o comportamento das partículas múons na atmosfera terrestre.
O múon é a mais abundante partícula com carga elétrica presente na superfície da Terra, representando cerca de 80% dos raios cósmicos com carga elétrica em altitudes próximas ao nível do mar. A cada segundo surgem, aproximadamente, 140 múons por metro quadrado.
O fato de a partícula quase sempre possuir trajetória retilínea facilita sua detecção com um arranjo de poucos detectores. “Essas partículas permitem estudar os eventos solares em uma região de energia que os satélites e os monitores de nêutrons posicionados na superfície terrestre não observam”, explicou Fauth.
O ano de 2014 é propício à detecção de múons pelos telescópios da Unicamp e da UFF. Ao longo deste período, o ciclo atual do Sol atinge sua máxima atividade: o número de manchas solares observadas aumenta consideravelmente e os flares – explosões que ocorrem na superfície do Sol – irrompem com grande intensidade, libertando milhões de toneladas de gás magnetizado.
Além disso, Campinas e Niterói, onde os telescópios estão instalados, têm localização privilegiada para a detecção de partículas derivadas da radiação solar, pois estão próximas à região central da Anomalia Magnética do Atlântico Sul (SAA, da sigla em inglês), onde a resistência magnética para entrada de partículas carregadas vindas do espaço é muito baixa.
A maioria dos detectores de partículas solares energéticas está instalada próximo às regiões dos polos porque, nas outras regiões, o campo magnético da Terra desvia as partículas carregadas. Mas na região da SAA há uma intensidade magnética muito inferior, uma espécie de buraco na magnetosfera que se comporta como um funil.

Muonca

O telescópio construído na Unicamp, que recebeu o nome Muonca, iniciou em abril a tomada de dados contínua, utilizando quatro detectores de partículas. Os detectores da UFF entraram em funcionamento em junho, no modo monitor – quando se realiza a contagem dos múons, sem determinar ainda sua direção de chegada.

O Muonca utiliza quatro detectores de partículas idênticos. A partícula múon, ao atravessar o cintilador do detector, produz uma luz que permite o registro de sua passagem. Um computador é utilizado no sistema de aquisição de dados, e as informações brutas são registradas em arquivos diários.
O telescópio da Unicamp foi construído em dois anos, incluindo o tempo para os processos de importação, realização dos projetos, desenhos técnicos das peças, execução por técnicos da universidade e de empresas privadas, montagem por membros do grupo de pesquisa, desenvolvimento do software de aquisição de dados e calibração dos detectores, além da programação dos códigos de análise dos dados.
O experimento opera continuamente, 24 horas por dia, e os pesquisadores desenvolvem agora um sistema que alerte por e-mail e SMS quando ocorrer algum problema ou possível evento solar na aquisição dos dados.

Recentemente, os detectores instalados em Campinas e Niterói registraram simultaneamente uma tempestade geomagnética. De acordo com Fauth, os dados estão sendo avaliados para publicação e os primeiros resultados conjuntos dos dois telescópios serão apresentados em setembro no 34º Encontro Nacional de Física de Partículas e Campos, organizado pela Sociedade Brasileira de Física em Caxambu (MG).



quinta-feira, 10 de julho de 2014

Instrumentação Analítica

Estrutura genética da cana pode ser desvendada com nova metodologia

SAMSUNG
A cana-de-açúcar é uma planta poliploide, ou seja, o número de homólogos de cada cromossomo varia, e suas células podem conter de dez a 14 cópias de cada cromossomo, o que gera um total de mais de 110 cromossomos individuais. Foto: freedigitalphoto.

Ao mesmo tempo em que sua importância econômica cresce, a cana-de-açúcar ainda guarda, em sua estrutura genética, um mistério que só agora começa a ser desvendado, graças a uma metodologia pioneira desenvolvida por uma equipe internacional, com participação decisiva de pesquisadores da Unicamp, USP, IAC e UFSCar e descrita em artigo publicado no periódico online Scientific Reports, do grupo Nature. Outro trabalho do mesmo grupo, publicado no início deste ano no periódico PLoS ONE descreve a identificação de mais de 5 mil novos genes da planta, entre outras descobertas, o que ampliará a aplicação de metodologia desenvolvida.

“A cana é muito diferente de todas as outras espécies cultivadas que a gente conhece”, disse ao Jornal da Unicamp a pesquisadora Anete Pereira de Souza, do Centro de Biologia Molecular e Engenharia Genética (CBMEG) e professora do Departamento de Biologia Vegetal do Instituto de Biologia (IB) da Unicamp. “Creio que é a espécie mais complexa que conhecemos. Outras espécies, não usadas pelo ser humano, talvez tenham uma organização genética como a da cana, mas não sabemos porque não as usamos”.
Essa complexidade vem da forma como os cromossomos se organizam nas células da planta. Quem se lembra das aulas de biologia do ensino médio sabe que o ser humano, por exemplo, é diploide: isso significa que os cromossomos humanos se organizam em pares, de modo que a cada cromossomo corresponde uma cópia, ou homólogo. Quando o óvulo é fecundado, o embrião se forma recebendo um homólogo do pai e outro da mãe. É por isso que as crianças apresentam características de ambos os pais.

A cana-de-açúcar, em comparação, é uma planta poliploide: isso significa que o número de homólogos de cada cromossomo varia – no caso específico da cana, as células podem conter de dez a 14 cópias de cada cromossomo, o que gera um total de mais de 110 cromossomos individuais. “A cana é o cruzamento de duas espécies que geraram um organismo que conservou o número de cromossomos de ambos os pais”, disse Anete. “E para complicar ainda mais, foi um cruzamento entre duas espécies que se comporta como se fosse a duplicação de uma só espécie: ela é autopoliploide. Então, a genética dela é muito complexa, ela é muito diferente”.
Essas diferenças, explicou a pesquisadora, acabaram levando o estudo da genética da cana a uma espécie de beco sem saída na última década: como a maioria dos métodos e das tecnologias de análise genética existentes tinham sido desenvolvidos para lidar com diploides – como o ser humano – apenas 10% do genoma da cana estava ao alcance da ciência.
“Tem um genezinho aqui que me interessa. Como que eu faço para achar esse gene?”, exemplificou a pesquisadora. “A metodologia genética que a gente tinha para usar aqui não se aplicava. A gente estudava todo esse genoma como se fosse igualzinho ao diploide, de dois em dois. Então, a gente via, assim, 10% do genoma, e só”.

“O arranjo numeroso e complexo dos genes nos poliploides, como cana-de-açúcar, torna difícil entender como características genéticas são transferidas dos pais para os filhos em tais plantas, e como funcionam os múltiplos variantes de cada gene. Infelizmente, o melhoramento da cana enfrenta esse enigma, o que dificulta o melhoramento e, consequentemente, a obtenção de variedades mais produtivas”, diz nota divulgada pelo grupo responsável pelo artigo na Scientific Reports.
“Já em 2004, eu e o Augusto [Antonio Augusto Franco Garcia, do Departamento de Genética da Esalq/USP, também autor do artigo na Scientific Reports] percebemos que se a gente continuasse trabalhando daquele jeito, nós nunca poderíamos conhecer o genoma todo, estaríamos sempre limitados pela metodologia que estava sendo usada. A metodologia era inadequada”, disse Anete.
unicamp
Detalhe do chip usado no sequenciamento. Foto: Antonio Scarpinetti/Unicamp

O novo método, que segundo a pesquisadora “abre o caminho” para o estudo completo do genoma da cana, se vale de SNPs (sigla em inglês para “polimorfismo de base única”, normalmente pronunciada “snip”), que são diferenças de uma única “letra” do código genético em pontos específicos de cromossomos homólogos. Cromossomos homólogos com diferentes SNPs contêm diferentes versões, ou alelos, dos mesmos genes.

“Creio que foi por volta de 2007, quando eu ministrava aula de genética para o curso de Farmácia, aqui na Unicamp: o curso de genética básica, que surgiu a ideia de como resolver o problema”, contou Anete. “Preparando as aulas para o curso, tomei contato com uma área que chama farmacogenômica. A indústria farmacêutica, ao desenvolver remédios para diferentes doenças, percebeu que as pessoas respondem de modo muito diferente a certos remédios: por exemplo, quimioterápicos para câncer, que podem fazer muito mal para algumas pessoas, e quase não afetar outras”. Essa diferença, em alguns casos, pôde ser rastreada e associada a diferentes SNPs. E a indústria farmacêutica já dispunha de tecnologia capaz de analisar SNPs a partir de amostras de DNA de milhares de pessoas, o que permitia estimar o impacto que algumas drogas viriam a ter na população.

Crucialmente, uma máquina usada em farmacogenômica, chamada Sequenom (um espectrômetro de massas do tipo MALDI-TOF, capaz de identificar as diferentes bases do DNA), era capaz de informar a “dosagem alélica”: qual a proporção de cada tipo de SNP presente na amostra analisada.
“Tendo o alelo e a dosagem, a genética da cana vira genética normal, mendeliana”, explicou Anete, numa referência ao tipo de cálculo genético desenvolvido a partir do trabalho de Gregor Mendel, no século 19. “A grande descoberta desta metodologia foi isso: a gente poder analisar SNPs na cana como se estivessem presentes só em dois cromossomos, mas considerando a dosagem de cada um dos alelos, porque os SNPs têm sempre apenas dois alelos, mesmo que estejam em organismos como a cana. E aí, quando a gente consegue fazer isso, a gente consegue usar todos os princípios da genética mendeliana, como fazemos para o estudo do feijão, milho, arroz, ervilha e outras espécies diploides. Aí a gente faz genética mendeliana”.
Um Sequenom foi adquirido para o CBMEG, com apoio da Fapesp e do CNPq, mas uma nova barreira metodológica apareceu: o software do fabricante do equipamento só era capaz de lidar com genomas diploides. As primeiras tentativas de medir a dosagem de SNPs da cana produziram resultados ruins.
“A ideia dos SNPs nós tivemos, o equipamento para fazer isso a gente achou, mas o software teve de ser específico: todo feito em casa, tudo montado por nós”, disse ela. “Foi aí que o Augusto fez todo esse software único, idealizado por ele e seus alunos, que tem toda uma análise de probabilidade. É tudo uma análise genético-estatística que foi montada especificamente para analisar a dosagem que o equipamento, que o hardware do equipamento, solta. Só que o software de análise deles não serve para nós, porque é feito para diploide”.

O trabalho com o desenvolvimento do software específico para poliploides também já rendeu um artigo científico, publicado no periódico PLoS ONE em 2012 e um capítulo de livro da série Methods in Molecular Biology em 2013, assinados por Franco Garcia e Marcelo Mollinari, da Esalq, e Oliver Serang, de Harvard.
Anete acredita que a nova metodologia auxiliará muito no mapeamento de genes importantes para o melhoramento, e também abre caminho para o sequenciamento do genoma da cana-de-açúcar. Esse processo é complexo, explicou ela, porque, dado o grande número de homólogos de cada cromossomo, fica difícil, uma vez analisados os fragmentos do DNA, montar a sequência completa na ordem correta para cada um dos cromossomos homólogos. “Você pica o DNA e sai sequenciando os pedacinhos. E aí tem de juntar tudo, cromossomo por cromossomo, isto é, homólogo por homólogo. E como você vai saber se esse pedacinho é daqui ou dali?” Com mais de dez homólogos de cada tipo de cromossomo e mais de uma centena de cromossomos no total, a tarefa é gigantesca. Com o uso de SNPs, no entanto, a questão fica mais simples: “Usando vários SNPs, todos em linha, você sabe exatamente, do começo ao fim, como juntar: porque se eu tenho dois SNPs em comum aqui, e outros dois em comum ali, mas este outro é diferente, então trata-se de um alelo diferente e, portanto, de outro cromossomo. É uma maneira exata de conseguir montar um genoma”.

Após a publicação do software e da metodologia, um artigo no periódico PLoS ONE, contendo os resultados de pesquisa coordenada pelo pesquisador do CBMEG Renato Vicentini, apresentou ao mundo resultados que viabilizarão e auxiliarão a aplicação da técnica: a descoberta de mais de 5 mil novos genes de cana e de centenas de milhares de SNPs, “além de ter visto a expressão global do genes codificados em cana-de-açúcar em seis variedades diferentes e de interesse para o melhoramento no Brasil”, explicou Anete.

A equipe responsável pela criação da nova técnica incluiu, além de pesquisadores da Unicamp e da USP, cientistas da Universidade Federal de São Carlos (UFSCar), do Instituto Agronômico de Campinas (IAC), da Universidade Harvard e de duas instituições australianas, a Universidade Southern Cross e a Universidade de Queensland.

Instalado no CBMEG da Unicamp, montado em parceria com o Instituto de Biologia da Unicamp, o Laboratório Multiusuário de Genotipagem e Sequenciamento, onde se encontra o Sequenom, está aberto a projetos de pesquisa de cientistas e estudantes de fora do grupo multidisciplinar encabeçado por Anete, e mesmo que não estejam ligados ao projeto da cana-de-açúcar. “Nosso trabalho só foi possível graças ao financiamento da Fapesp e, principalmente, do Programa Bioenergia. Então a gente abriu o laboratório como multiusuário. Foi um compromisso nosso desde a submissão do projeto. Agora que conseguimos um produto considerável, podemos abrir com segurança de ajudar o usuário”, disse ela.

“Um objetivo é permitir que pessoas que trabalham com organismos não-modelo desenvolvam seu próprio protocolo e descubram os segredos de seu organismo, como nós descobrimos. E isso só foi possível porque temos o equipamento disponível”.
Com informações da Unicamp

segunda-feira, 16 de junho de 2014

Seriguela e sucupira pela agricultura

Genes de plantas do cerrado e do semiárido podem contribuir para o melhoramento de cultivares 

NOÊMIA LOPES e RICARDO ZORZETTO | Edição 220 - Junho de 2014
© FABIO COLOMBINI
Tolerância elevada: flor de pequizeiro, árvore nativa do cerrado, adaptada ao calor e à seca
Tolerância elevada: flor de pequizeiro, árvore nativa do cerrado, adaptada ao calor e à seca

A seriguela e o umbuzeiro, árvores comuns no semiárido nordestino, e a sucupira-preta, do cerrado, integram um grupo de plantas brasileiras que podem ajudar a agricultura a enfrentar duas das consequências das mudanças climáticas: o aumento da temperatura e a escassez de água em certas regiões. É que essas três espécies apresentam grande capacidade adaptativa por serem tolerantes ao calor e à seca.
A identificação e o isolamento dos genes que conferem resistência a essas plantas podem ajudar a tornar culturas agrícolas como a soja, o milho, o arroz e o feijão mais tolerantes aos extremos climáticos, afirmou o engenheiro agrícola Eduardo Assad, do Centro Nacional de Pesquisa Tecnológica em Informática para a Agricultura (CNPTIA) da Embrapa, em palestra apresentada no quarto encontro do Ciclo de Conferências 2014 do programa Biota-FAPESP Educação, realizado em 22 de maio em São Paulo.

“O cerrado já foi muito mais quente e seco do que hoje e árvores como pau-terra, pequi e faveiro, além da sucupira-preta, sobreviveram”, disse Assad. “Precisamos estudar o genoma dessas espécies para identificar e isolar os genes que as tornam tão adaptáveis.” Uma vez feito isso, o passo seguinte é tentar inseri-los em plantas como a soja ou o milho para aumentar a tolerância à falta de água e ao calor. “Não é fácil, mas precisamos começar”, afirmou.
© EDUARDO CESAR
Eduardo Assad, Leonardo Meireles e Alexandre Colombo: necessidade de adaptação
Eduardo Assad, Leonardo Meireles e Alexandre

Colombo: necessidade de adaptação

O Brasil abriga, segundo Assad, a maior variedade conhecida de plantas resistentes ao calor e à seca. E aumentar a capacidade de suportar escassez de água e temperaturas elevadas é um dos grandes desafios da agricultura nacional. Afinal, as simulações de cenários futuros feitas pela Embrapa indicam que a produtividade de culturas como milho, soja e arroz deve cair ainda mais nas próximas décadas em consequência das alterações no clima do planeta. “Esses cenários valem para as variedades genéticas atuais”, explicou Assad. “Uma das soluções é buscar genes alternativos para trabalhar com melhoramento [dessas culturas].”

Como exemplo de contribuição do Centro Nacional de Pesquisa de Soja da Embrapa para enfrentar um cenário de aumento de temperatura e redução de chuvas, Assad apresentou uma variedade de soja geneticamente alterada a ser lançada em 2015. Essa variedade contém um gene chamado Dreb (sigla em inglês de proteína de resposta à desidratação celular), que codifica uma proteína responsável por acionar as defesas naturais da planta contra a perda de água. Patenteado pelo Centro de Pesquisa Internacional do Japão para Ciências Agrícolas (Jircas), esse gene foi extraído de uma planta da família da mostarda, a Arabidopsis thaliana, o primeiro vegetal a ter o genoma sequenciado. Na soja, esse gene parece aumentar a resistência à escassez de água. “Nós a testamos neste ano, no Paraná, durante um terrível período sem chuvas”, contou. “Ainda há estudos a serem feitos, mas ela está se saindo muito bem.”
Ele também mencionou avanços obtidos pelo Instituto Agronômico do Paraná (Iapar), que já lançou quatro cultivares de feijão tolerante a temperaturas elevadas, e pesquisas feitas no município de Varginha, em Minas Gerais, em busca de variedades de café mais tolerantes ao calor e à falta de água.

Prejuízos

Cálculos da Embrapa feitos com base na produtividade média da soja mostram que somente esse grão acumulou no Brasil perdas de mais de US$ 8,4 bilhões em consequência de mudanças climáticas entre 2003 e 2013. Já a produção de milho perdeu mais de US$ 5,2 bilhões no mesmo período.
© FABIO COLOMBINI
Pequizeiro: o sequenciamento de seu genoma pode revelar genes que favorecem a tolerância a altas temperaturas e à escassez de água
Pequizeiro: o sequenciamento de seu genoma pode revelar genes que favorecem a tolerância a altas temperaturas e à escassez de água

Pesquisas feitas pela Embrapa e pela Universidade Estadual de Campinas (Unicamp) indicam ainda que nos próximos anos deve ocorrer uma redução na área favorável ao plantio de algumas culturas. Essas análises preveem um encolhimento de 9,45% na área considerada de baixo risco para o cultivo do café arábica até 2020, o que pode causar prejuízos de R$ 882 milhões. A perda de área boa para o café pode chegar a 17,15% até 2050, elevando as perdas para R$ 1,6 bilhão.

Diante do risco de prejuízos, outra solução proposta por Assad é a revisão do modelo produtivo agrícola. “A concentração de gases de efeito estufa na atmosfera aumentou mais de 20% nos últimos 30 anos, tornando indispensável a implantação de sistemas produtivos mais limpos”, disse à Agência FAPESP. “O Brasil é muito respeitado nessa área, em especial porque reduziu o desmatamento na Amazônia e, ao mesmo tempo, ampliou a produtividade na região.”
Esse resultado, segundo Assad, cria a oportunidade de se discutir a adoção de práticas agrícolas mais sustentáveis, como a integração da lavoura com a pecuária e a floresta, o plantio direto na palha, o uso de bactérias fixadoras de nitrogênio no solo, a rochagem (uso de micro e macronutrientes para melhorar a fertilidade dos solos), a aplicação de adubos organominerais, além do melhoramento genético.
“O confinamento do gado é outro ponto que está em discussão por pesquisadores e criadores em diversas partes do mundo”, lembrou Assad. Para diminuir o risco de contaminação dos rebanhos confinados, a saída é a recuperação de pastos degradados. Estudos da Embrapa Agrobiologia mostra que a produção de carne em pastagens recuperadas pode reduzir em até 10 vezes a emissão de gases de efeito estufa.
“Ambientalistas, ruralistas, o governo e o setor privado precisam sentar e decidir o que fazer daqui em diante”, afirmou Assad. “Qual sistema de produção adotar? Com ou sem pasto? Com ou sem árvores? Rotacionado ou não? São mudanças difíceis, de longo prazo, mas muitos agricultores já estão preocupados com essas questões e com os prejuízos que o aquecimento global pode trazer, e começam a buscar soluções”, disse.
© FABIO COLOMBINI
Palmito-juçara: palmeira que pode perder espaço na mata atlântica com o aquecimento global
Palmito-juçara: palmeira que pode perder espaço na mata atlântica com o aquecimento global
Biodiversidade
As consequências das alterações no clima do planeta não deverão se restringir à agricultura. Em ecossistemas bastante degradados, como a mata atlântica, muitas das espécies de árvores também podem perder espaço com o aumento da temperatura média da superfície do planeta prevista para as próximas décadas. Em sua apresentação, o biólogo Alexandre Colombo mostrou o que deve acontecer com 38 espécies de árvores nativas da mata atlântica até a metade deste século.
Colombo usou informações sobre a distribuição dessas 38 espécies, coletadas em 2.837 localidades do país, para alimentar um modelo matemático que levou em consideração as alterações na temperatura previstas para as próximas décadas. No cenário otimista, em que se espera um aumento de dois graus na temperatura média da superfície do planeta, 32 espécies poderiam sofrer uma redução significativa em sua área de distribuição até 2050 – na média, a área de ocorrência dessas espécies pode sofrer uma redução de 25%. Já no cenário pessimista, em que a temperatura pode subir quatro graus, a área de ocorrência de 19 espécies pode encolher em mais de 50%.

A redução do ambiente adequado para sobreviver deve afetar principalmente árvores como o palmito-juçara (Euterpe edulis) e a pimenteira (Mollinedia schottiana), segundo o estudo de Colombo, realizado sob a coordenação de Carlos Alfredo Joly, professor da Unicamp e coordenador do Biota-FAPESP.

Das 38 espécies analisadas nesse trabalho, publicado em 2010 no Brazilian Journal of Biology, a que mais pode perder espaço é a guaricica (Vochysia magnifica), uma árvore que pode alcançar quase 25 metros de altura cuja distribuição pode sofrer uma redução brutal (73%). Hoje encontrada no Sudeste e no Sul do país, a guaricica pode passar a existir apenas no oeste de Santa Catarina e no norte do Rio Grande do Sul se a temperatura subir quatro graus até 2050.

Atualmente os pesquisadores trabalham em colaboração também com equipes da Universidade de São Paulo (USP), do Instituto Nacional de Pesquisas Espaciais (Inpe), com apoio da Petrobras, para investigar o que deve ocorrer com a distribuição de 81 espécies de árvores dos diferentes biomas brasileiros até 2100.
Como estratégia para reduzir o possível impacto causado pelas alterações no clima do planeta, Colombo propõe que se invista na preservação dos remanescentes florestais e no reflorestamento de áreas em que a vegetação natural foi degradada. Também sugere que sejam criados corredores conectando os fragmentos de vegetação nativa.

O biólogo Leonardo Dias Meireles, professor da Escola de Artes, Ciências e Humanidades da USP, explicou em sua palestra como são construídos os modelos de distribuição geográfica potencial de uma espécie. Por levarem em consideração variáveis ambientais e climáticas dos locais onde as espécies já foram encontradas, esses modelos permitem, por exemplo, identificar novas áreas com condições similares às habitadas hoje pelas espécies. Assim, é possível a área de ocupação potencial de uma espécie orientar coletas ou mesmo sua reintrodução consciente no ambiente. Como exemplo, ele citou o caso da árvore casca-d’anta (Drimys brasiliensis), que recentemente foi encontrada em uma região do sudeste de Goiás, como apontado por modelos desenvolvidos por Meireles durante seu doutorado, sob orientação de George Shepherd, na Unicamp.

Segundo Meireles, esses modelos são importantes para estimar o ganho ou redução na área de ocorrência de uma espécie e como elas podem responder às alterações climáticas. Também auxiliam na identificação de áreas climaticamente favoráveis ao estabelecimento de novas populações no futuro, permitindo ajudar na concepção de estratégias de preservação da flora e da fauna.

O ciclo de conferências organizado em 2014 pelo Programa de Pesquisas em Caracterização, Conservação, Restauração e Uso Sustentável da Biodiversidade do Estado de São Paulo tem como foco os serviços ecossistêmicos. O último encontro da série tem como tema “Biodiversidade e ciclagem de nutrientes” e deve ser realizado no dia 25 de junho.

quarta-feira, 26 de fevereiro de 2014

Novos materiais realizam fotossíntese artificial

26/02/2014
Por Elton Alisson, de Chicheley, Inglaterra

Agência FAPESP – A capacidade de fotossíntese das plantas tem servido de inspiração para cientistas de diferentes áreas tentarem produzir em laboratório materiais artificiais com propriedades semelhantes.
Um grupo de pesquisadores do Instituto de Química (IQ) da Universidade Estadual de Campinas (Unicamp), por exemplo, desenvolve materiais com estrutura em escala nanométrica (bilionésima parte do metro) capazes de realizar fotossíntese artificialmente para a produção de energia.


Pesquisadores da Unicamp desenvolvem moléculas de clorofila artificial capazes de usar energia solar e água para gerar hidrogênio e oxigênio; estudo foi apresentado em evento na Inglaterra (imagem de cloroplastos de planta: Wikimedia)

Alguns dos resultados desses estudos foram apresentados na terça-feira (25/02) no UK-Brazil-Chile Frontiers of Science. Organizado pela Royal Society, do Reino Unido, em conjunto com a FAPESP e as Academias Brasileira e Chilena de Ciências, o evento ocorre até esta quarta-feira (26/02) em Chicheley, no sul da Inglaterra. O objetivo é fomentar a colaboração científica e interdisciplinar entre jovens pesquisadores brasileiros, chilenos e do Reino Unido em áreas de fronteira do conhecimento.

“Com base no conhecimento existente do sistema natural de fotossíntese realizado pelas plantas, estamos tentando reproduzir os pontos essenciais para a função fotossintética em materiais artificiais, para energia elétrica ou até mesmo combustível a partir da energia solar”, disse Jackson Dirceu Megiatto Júnior, professor do IQ da Unicamp, à Agência FAPESP.

De acordo com o pesquisador, que realizou doutorado direto com Bolsa da FAPESP, a ideia de realizar fotossíntese artificial foi proposta no início do século XX.
O projeto, contudo, só começou a se tornar possível nos últimos anos em razão de importantes avanços na área, que permitiram a síntese em laboratório de materiais capazes de usar energia solar e água para gerar gases hidrogênio e oxigênio, segundo Megiatto.

Alguns desses avanços foram o desenvolvimento de materiais catalisadores (que aceleram uma reação) que, ao serem ativados pela energia solar, quebram as moléculas de água em hidrogênio e oxigênio.
Essa etapa do processo de fotossíntese é considerada a mais complexa, uma vez que os átomos de hidrogênio e oxigênio estão bastante “grudados” nas moléculas de água. Por essa razão, era difícil encontrar um material capaz de separá-los seletivamente, sem se degradar.

Mas recentemente foram desenvolvidos novos materiais, como painéis solares de silício, com a capacidade de realizar esse processo denominado de “separação da água induzida pela luz solar”. Com isso, de acordo com Megiatto, abriu-se a perspectiva de conectar esses materiais fotoativos a células a combustível convencionais – células eletroquímicas que convertem energia química em elétrica ao combinar os gases hidrogênio e oxigênio para formar moléculas de água novamente.
“O desafio agora é conectar esses materiais a uma célula a combustível. Se formos capazes de usar o hidrogênio e o oxigênio produzidos por esses novos materiais em uma célula a combustível, será possível gerar água novamente e eletricidade e fechar o ciclo de realização de fotossíntese artificial”, avaliou.

Materiais naturais

De acordo com Megiatto, algumas das limitações para utilizar painéis solares de silício para separar hidrogênio e oxigênio das moléculas de água por meio da energia solar é que são materiais caros e difíceis de serem processados para que tenham a pureza necessária a essa finalidade.
A fim de encontrar uma alternativa, os pesquisadores do Instituto de Química da Unicamp buscam na própria natureza materiais capazes de absorver a luz solar e gerar energia (fotovoltaicos), que também funcionem como catalisadores.

O material mais promissor encontrado foi a clorofila – o pigmento fotossintético que, além de conferir a cor verde, é utilizado pelas plantas para realizar fotossíntese.

“Essas moléculas são a saída da natureza para conseguir absorver energia solar. O processo de sintetização química delas, no entanto, é difícil e caro”, disse Megiatto.
Para transpor essas barreiras, o pesquisador começou a sintetizar durante seu pós-doutorado, realizado nos Estados Unidos, moléculas de uma clorofila artificial, chamadas de porfirinas.
Além de mais simples de serem sintetizadas do que a clorofila natural, as moléculas artificiais do pigmento também são mais fáceis de serem manipuladas quimicamente, disse Megiatto.

“Temos uma flexibilidade muito maior de projetar materiais fotoativos usando porfirinas em vez de clorofila”, afirmou o pesquisador. “Com técnicas de nanoengenharia, podemos otimizar as propriedades dessas moléculas para aumentar a eficiência delas de absorver a luz, por exemplo”, indicou.
Outra vantagem da clorofila artificial, de acordo com Megiatto, é a maior estabilidade química das porfirinas. As moléculas de clorofila natural, quando estão dentro do meio proteico da fotossíntese natural, são estáveis. Ao extraí-las do meio proteico, no entanto, apresentam reações físico-químicas e são degradadas rapidamente.

Já a porfirina tem uma tendência menor a apresentar esse tipo de comportamento, comparou o pesquisador.
“Esses materiais, quando conectados a catalisadores, têm se mostrado muito promissores para a transformação da energia solar em energia química por meio da oxidação de moléculas de água, mas, no momento, estão sendo estudados apenas em solução aquosa e não em um dispositivo fotossintético real”, afirmou Megiatto.
“O que tentamos fazer agora é formar um filme polimérico fotoativo com essas moléculas, de forma a desenvolver um material sólido e depositá-los sobre placas metálicas e semicondutoras [eletrodos], necessários para o funcionamento de uma célula solar”, detalhou.
Aumento da eficiência da fotossíntese
Segundo Megiatto, as plantas desperdiçam grande quantidade de energia solar durante o processo fotossintético natural. Como depende de energia para uma série de necessidades, como para seu desenvolvimento e manutenção da vida, a cana-de-açúcar, por exemplo, só utiliza uma pequena parte da energia solar para fixar gás carbônico em açúcares, apontou.
“A eficiência máxima da fotossíntese natural é, aproximadamente, 10%”, afirmou Megiatto. “Plantas terrestres têm eficiência fotossintética menor do que 1%, enquanto algumas algas são capazes de realizar fotossíntese com uma eficiência que varia entre 4% e 5%.”
Para aumentar a eficiência da fotossíntese de plantas como o arroz, por exemplo, o consórcio internacional de pesquisa “Arroz C4”, financiado pela Fundação Bill e Melinda Gates, pelo Instituto Internacional de Pesquisa do Arroz (IRRI, na sigla em inglês) e por instituições de pesquisa do Reino Unido, pretende realizar modificações genéticas no metabolismo da cultura agrícola.

O arroz e outros grãos, como a soja e o feijão, são denominados de plantas C3 por apresentar maior capacidade de crescimento e menor eficiência fotossintética do que as plantas C4, como o milho e a cana-de-açúcar. Em contrapartida, as plantas C4 possuem sistema fotossintético mais eficiente, mas menor capacidade de crescer rapidamente e cobrir grandes áreas de cultivo como fazem as plantas C3 .
Por meio de mudanças em rotas bioquímicas e na anatomia das folhas da planta, os pesquisadores participantes do consórcio pretendem desenvolver uma variedade de arroz que combine as propriedades das plantas C3 e C4.

“Uma variedade de arroz com as propriedades das plantas C3 e C4 teria a eficiência fotossintética, de uso de água e de nitrogênio 50% maior do que uma variedade não modificada geneticamente”, disse Sarah Covshoff, pesquisadora da University of Cambridge e participante do projeto “Arroz C4”, durante palestra em Chicheley.

Segundo Covshoff, o desenvolvimento da variedade de arroz com as propriedades fotossintéticas das plantas C4 irá se valer do avanço de técnicas da biologia sintética. O objetivo do consórcio internacional de pesquisa é ter um protótipo do arroz C4 até o final de 2016.
“Os conhecimentos adquiridos nesse projeto também poderão ser aplicados na pesquisa agrícola para aumento do rendimento de plantas utilizadas para produção de biocombustíveis”, afirmou.

terça-feira, 14 de janeiro de 2014

Em dia com a Ciência

Cientistas brasileiros desenvolvem novo método de análise genética (14/01/2014)
 
 
Cana-AA-300x200Um grupo de pesquisadores brasileiros da Universidade Estadual de Campinas (Unicamp), da Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP), da Universidade Federal de São Carlos (UFSCar) e do Instituto Agronômico (IAC) de Campinas, em colaboração com colegas da Austrália e dos Estados Unidos, desenvolveu uma metodologia de análise do genoma de plantas poliploides (com mais de dois conjuntos de cromossomos do mesmo tipo e origem).

Muitas plantas de grande importância econômica são poliploides, a exemplo da batata, trigo, algodão e cana-de-açúcar. Ainda assim, o entendimento dos processos genéticos destas espécies ainda é limitado. Enquanto os seres humanos herdam duas cópias de cada um de seus 23 pares de cromossomos, um do pai e outro da mãe, as plantas polipoides têm uma composição genética mais complexa, com várias cópias de cada cromossomo e numerosas variantes de cada gene. Por essa razão, é mais difícil entender como as características são transferidas e como funcionam os genes.


A nova metodologia mistura o uso de marcadores moleculares com uma análise genético-estatística inovadora para determinar a estrutura genética e genômica de poliploides complexos, como a cana-de-açúcar. Segundo a cientista da Unicamp, uma das autoras do estudo, Anete Pereira de Souza, da Unicamp, a pesquisa deve contribuir para construir mapas genéticos moleculares que possibilitariam identificar a localização exata de genes de interesse nos cromossomos. O melhoramento genético da cana-de-açúcar, cultura econômica e socialmente importante para o Brasil, poderá se beneficiar da descoberta.
A análise genômica da cana demonstrou que o número de cópias de cada gene da planta pode variar de 6 a 14. “Esta poliploidia da cana e de outras plantas é resultado de sua evolução e domesticação ao longo de milhares de anos, que as tornaram mais produtivas e adaptadas a diferentes condições de plantio”, explicou Anete.


Os resultados do projeto realizado no âmbito do Programa FAPESP de Pesquisa em Bioenergia (BIOEN) foram publicados em dezembro na Scientific Reports – revista de acesso aberto editada pelo grupo Nature.
Fonte: Scientific Reports, Janeiro de 2014

segunda-feira, 13 de janeiro de 2014

Pesquisadores desenvolvem método para análise do genoma da cana

13/01/2014
Por Elton Alisson
Agência FAPESP – Apesar da importância econômica da cana-de-açúcar para países como o Brasil e da série de investimentos e esforços feitos desde a década de 1970 no país para realizar melhoramento genético da planta, a compreensão do genoma dessa cultura agrícola ainda é limitada, afirmam especialistas na área.

Tecnologia poderá contribuir para melhoramento e obtenção de variedades mais produtivas da planta, com características de interesse agrícola (divulgação)



Isso porque, diferentemente de organismos como os humanos – que têm duas cópias de cada um de seus 23 pares de cromossomo, sendo uma recebida do pai e a outra da mãe, e duas variantes de cada gene herdado dos genitores –, a cana-de-açúcar possui um arranjo genético muito mais complexo, com várias cópias de cada cromossomo e numerosas variantes de cada gene.
Por essa razão, é difícil entender como características genéticas são transferidas e como funcionam os múltiplos variantes de cada gene na planta – o que dificulta o melhoramento e a obtenção de variedades mais produtivas de cana-de-açúcar.

Um grupo de pesquisadores da Universidade Estadual de Campinas (Unicamp), da Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP), da Universidade Federal de São Carlos (UFSCar), campus de Araras, e do Instituto Agronômico (IAC) de Campinas, em colaboração com colegas da Austrália e dos Estados Unidos, desenvolveu uma metodologia de análise do genoma de plantas poliploides (com mais de dois conjuntos de cromossomos do mesmo tipo e origem) que poderá auxiliar a desvendar a complexa estrutura do genoma da cana.
Resultado de um Projeto Temático, realizado no âmbito do Programa FAPESP de Pesquisa em Bioenergia (BIOEN), a nova metodologia foi utilizada em um estudo de análise do genoma da planta. Os resultados foram publicados em dezembro na Scientific Reports – revista de acesso aberto editada pelo grupo Nature.
“A nova metodologia representa um divisor de águas na história do melhoramento genético e da genômica da cana-de-açúcar”, disse Anete Pereira de Souza, professora do Instituto de Biologia e pesquisadora do Centro de Biologia Molecular e Engenharia Genética (CBMEG) da Unicamp e uma das autoras do estudo,
à Agência FAPESP.

“É como se antes, com as ferramentas de que dispúnhamos, pudéssemos olhar o genoma da cana-de-açúcar com uma lente de aumento de 10 vezes, e agora, com a metodologia que desenvolvemos, conseguimos analisá-lo com um microscópio eletrônico com aumento de 100 milhões de vezes, com resolução muito maior”, comparou.

A nova metodologia consiste na combinação do uso de marcadores moleculares de polimorfismo de base única (SNPs, na sigla em inglês) com uma análise genético-estatística inovadora para determinar a estrutura genética e genômica de poliploides complexos, como a cana-de-açúcar.
Já utilizados no estudo de diversas doenças humanas, como o câncer, os SNPs possibilitam interpretar a variação de cada gene de espécies de plantas poliploides como dois únicos alelos (variantes de um mesmo gene) para cada SNP, explicou a pesquisadora.
Por meio de um espectrômetro de massas, adquirido por intermédio do projeto, e do método de análise genético-estatístico que desenvolveram, baseado em algoritmos e softwares criados especificamente para essa finalidade, os pesquisadores identificaram essas variantes de genes da cana-de-açúcar e estimaram em quais dosagens estão presentes na planta.
Os resultados da análise genética e genômica da planta demonstraram que a cana-de-açúcar tem um nível de ploidia (cromossomos repetidos) e de variantes de genes elevado. O número de cópias de cada gene da planta, por exemplo, pode variar de 6 a 14, apontou o estudo.
“Esta poliploidia da cana e de outras plantas é resultado de sua evolução e domesticação ao longo de milhares de anos, que as tornaram mais produtivas e adaptadas a diferentes condições de plantio”, explicou Souza.
Possíveis contribuições
Na avaliação da pesquisadora, o novo método deve contribuir para realizar de forma confiável a análise genética de plantas poliploides e construir mapas genéticos moleculares que possibilitariam identificar a localização exata de genes de interesse nos cromossomos dessas culturas agrícola que representam, aproximadamente, 70% das espécies de plantas existentes no planeta.
Embora tenha ocorrido nos últimos anos avanços no desenvolvimento de instrumentação e de técnicas de manipulação bioquímica que permitiram sequenciar e analisar em tempo recorde o genoma de diversos organismos, eles ainda não se traduziram em aumento significativo do conhecimento e da eficiência do melhoramento genético de plantas poliploides complexas como a cana-de-açúcar.
Uma das razões para a existência desse obstáculo é que ainda não foi possível compreender perfeitamente o funcionamento das diferentes variantes dos genes presentes nessas espécies de planta, apontou Souza.
“Um dos desafios enfrentados para realizar melhoramento genético da cana-de-açúcar, por exemplo, é identificar qual variante de gene é responsável por uma determinada característica de interesse agrícola – como a resistência a pragas ou maior produção de açúcar –, e em que dosagem deve estar presente no genoma da planta”, explicou.

“Por meio dessa nova metodologia será possível identificar regiões de interesse no genoma da planta e cloná-las por intermédio de uma biblioteca com mais de 400 mil clones de variantes de genes de cana-de-açúcar que construímos paralelamente ao desenvolvimento do estudo, e que poderão ser utilizados para transformação genética caso haja interesse”, disse Souza.
O método também deverá contribuir para a montagem de sequências do genoma de referência da cana-de-açúcar e de outras culturas agrícolas poliploides de interesse econômico, como algodão, trigo e morango.
Em razão da insuficiente compreensão dos genes e de suas funções dessas culturas agrícolas poliploides, ainda não foi possível conseguir ordenar e identificar corretamente suas sequências e realizar a leitura completa de seus genomas, apontam os pesquisadores.
“O estudo indicou, pela primeira vez, que é possível realizar a genotipagem [leitura do genoma] de espécies de plantas poliploides complexas, como é o caso da cana-de-açúcar”, destacou Antonio Augusto Franco Garcia, pesquisador do Departamento de Genética da Escola Superior de Agricultura Luiz de Queiroz (Esalq/USP) e um dos autores da pesquisa.
Próximas etapas
Além da cana-de-açúcar, o método começou a ser utilizado agora para o estudo do genoma de espécies de plantas forrageiras de grande importância para a pecuária brasileira, como a braquiária e o capim colonião.
A exemplo da cana, essas espécies de plantas, utilizadas para alimentação de gado, também não dispunham de uma metodologia e ferramentas adequadas e eficientes para estudar seu genoma como as já existentes para espécies de plantas diploides (com duas cópias de cromossomo), como feijão, arroz, soja e laranja, e que permitiram melhorar geneticamente variedades dessas culturas, tornando-as mais adaptadas e produtivas.

“Os programas de melhoramento genético de milho, soja e arroz, por exemplo, utilizam rotineiramente marcadores moleculares, que ainda não são usados na cana-de-açúcar em função de sua complexidade genética”, disse Garcia.
“O trabalho que realizamos abre a possibilidade de, em um futuro próximo, também incorporar de forma eficiente informações provenientes de marcadores moleculares nos programas de melhoramento genético de cana existentes no Brasil”, avaliou.

Atualmente, os pesquisadores participantes do projeto têm se dedicado à construção de um mapa genético da cana-de-açúcar, que deverá ser concluído em 2014. O próximo passo é identificar no genoma da planta características de interesse na planta utilizando a nova metodologia.
“A ideia é conectar as informações genômicas identificadas no mapa genético da cana-de-açúcar que está em fase de desenvolvimento com as características de interesse para programas de melhoramento da planta”, explicou Marcelo Mollinari, que realiza pós-doutorado no Departamento de Genética da Esalq sob orientação de Garcia com Bolsa da FAPESP.

Mollinari seguirá em fevereiro para a Universidade de Purdue, nos Estados Unidos, onde permanecerá um ano com uma Bolsa Estágio de Pesquisa no Exterior (BEPE), também concedida pela FAPESP, para concluir essa etapa da pesquisa.

“Queremos saber por intermédio desse estudo quais posições do genoma da cana estão associados com a variação de teor de fibra da planta, por exemplo, que é uma característica importante para produção de etanol de segunda geração”, disse Mollinari.

O artigo SNP genotyping allows an in-depth characterization of the genome of sugarcane and other complex autopolyploids (doi: 10.1038/srep03399), de Garcia e outros, pode ser lido na Scientific Reports em www.nature.com/srep/2013/131202/srep03399/full/srep03399.html.

segunda-feira, 25 de fevereiro de 2013

Ao menos 70% das espécies da Terra são desconhecidas

25/02/2013
Por Karina Toledo

Agência FAPESP – Embora o conhecimento sobre a biodiversidade do planeta ainda esteja muito fragmentado, estima-se que já tenham sido descritos aproximadamente 1,75 milhão de espécies diferentes de seres vivos – incluindo microrganismos, plantas e animais. O número pode impressionar os mais desavisados, mas representa, nas hipóteses mais otimistas, apenas 30% das formas de vida existentes na Terra.

Estima-se que existam outros 12 milhões de espécies ainda por serem descobertas”, disse Thomas Lewinsohn, professor do Departamento de Biologia Animal da Universidade Estadual de Campinas (Unicamp), durante a apresentação que deu início ao Ciclo de Conferências 2013 organizado pelo programa BIOTA-FAPESP com o intuito de contribuir para o aperfeiçoamento do ensino de ciência.
 
Dando início ao Ciclo de Conferências 2013 do BIOTA-FAPESP Educação, Thomas Lewinsohn (Unicamp) falou sobre o tempo e o custo estimado para descrever todas as espécies do planeta (foto:Léo Ramos)

Mas como avaliar o tamanho do desconhecimento sobre a biodiversidade? “Para isso, fazemos extrapolações, tomando como base os grupos de organismos mais bem estudados para avaliar os menos estudados. Regiões ou países em que a biota é bem conhecida para avaliar onde é menos conhecida. Por regra de três chegamos a essas estimativas”, explicou.

Técnicas mais recentes, segundo Lewinsohn, usam fórmulas estatísticas sofisticadas e se baseiam nas taxas de descobertas e de descrição de novas espécies. Os valores são ajustados de acordo com a força de trabalho existente, ou seja, o número de taxonomistas em atividade.
“No entanto, o mais importante a dizer é: não há consenso. As estimativas podem chegar a mais de 100 milhões de espécies desconhecidas. Não sabemos nem a ordem de grandeza e isso é espantoso”, disse.
Lewinsohn avalia que, para descrever todas as espécies que se estima haver no Brasil, seriam necessários cerca de 2 mil anos. “Para descrever todas as espécies do mundo o número seria parecido. Mas não temos esse tempo”, disse.

Algumas técnicas recentes de taxonomia molecular, como código de barras de DNA, podem ajudar a acelerar o trabalho, pois permitem identificar organismos por meio da análise de seu material genético. Por esse método, cadeias diferentes de DNA diferenciam as espécies, enquanto na taxonomia clássica a classificação é baseada na morfologia dos seres vivos, o que é bem mais trabalhoso.
“Dá para fazer? Sim, mas qual é o custo?”, questionou Lewinsohn. Um artigo publicado recentemente na revista Science apontou que seriam necessários de US$ 500 milhões a US$ 1 bilhão por ano, durante 50 anos, para descrever a maioria das espécies do planeta.

Novamente, o número pode assustar os desavisados, mas, de acordo com Lewinsohn, o montante corresponde ao que se gasta no mundo com armamento em apenas cinco dias. “Somente em 2011 foram gastos US$ 1,7 trilhão com a compra de armas. É preciso colocar as coisas em perspectiva”, defendeu.

Definindo prioridades

Muitas dessas espécies desconhecidas, porém, podem desaparecer do planeta antes mesmo que o homem tenha tempo e dinheiro suficiente para estudá-las. Segundo dados apresentados por Jean Paul Metzger, professor do Instituto de Biociências da Universidade de São Paulo (USP), mais de 50% da superfície terrestre já foi transformada pelo homem.
Essa alteração na paisagem tem muitas consequências e Metzger abordou duas delas na segunda apresentação do dia: a perda de habitat e a fragmentação.

“São conceitos diferentes, que muitas vezes se confundem. Fragmentação é a subdivisão de um habitat e pode não ocorrer quando o processo de degradação ocorre nas bordas da mata. Já a construção de uma estrada, por exemplo, cria fragmentos isolados dentro do habitat”, explicou.
Para Metzger, a fragmentação é a principal ameaça à biodiversidade, pois altera o equilíbrio entre os processos naturais de extinção de espécies e de colonização. Quanto menor e mais isolado é o fragmento, maior é a taxa de extinção e menor é a de colonização.
“Cada espécie tem uma quantidade mínima de habitat que precisa para sobreviver e se reproduzir. Não conhecemos bem esses limiares de extinção”, alertou.

Metzger acredita que esse limiar pode variar de acordo com a configuração da paisagem, ou seja, quanto mais fragmentado estiver o habitat, maior o risco de extinção de espécies. Como exemplo, ele citou as áreas remanescentes de Mata Atlântica do Estado de São Paulo, onde 95% dos fragmentos têm menos de 100 hectares.
“Estima-se que ao perder 90% do habitat, deveríamos perder 50% das espécies endêmicas. Na Mata Atlântica, há cerca de 16% de floresta remanescente. O esperado seria uma extinção em massa, mas nosso registro tem poucos casos. Ou nossa teoria está errada, ou não estamos detectando as extinções, pois as espécies nem sequer eram conhecidas”, afirmou Metzger.

Há, no entanto, um fator complicador: o período de latência entre a mudança na estrutura paisagem e mudança na estrutura da comunidade. Enquanto as espécies com ciclo curto de vida podem desaparecer rapidamente, aquelas com ciclo de vida longo podem responder à perda de habitat em escala centenária.
“Cria-se um débito de extinção e, mesmo que a alteração na paisagem seja interrompida, algumas espécies ficam fadadas a desaparecer com o tempo”, disse Metzger.
Mas a boa notícia é que as paisagens também se regeneram naturalmente e além do débito de extinção existe o crédito de recuperação. O período de latência representa, portanto, uma oportunidade de conservação.
“Hoje, temos evidências de que não adianta restaurar em qualquer lugar. É preciso definir áreas prioritárias para restauração que otimizem a conectividade e facilitem o fluxo biológico entre os fragmentos”, defendeu Metzger.

Colhendo frutos

Ao longo dos 13 anos de existência do BIOTA-FAPESP, a definição de áreas prioritárias de conservação e de recuperação no Estado de São Paulo foi uma das principais preocupações dos pesquisadores.
Os resultados desses estudos foram usados pela Secretaria Estadual do Meio Ambiente para embasar políticas públicas, como lembrou o coordenador do programa e professor do Instituto de Biologia da Unicamp, Carlos Alfredo Joly, na terceira e última apresentação do dia.
“Atualmente, pelo menos 20 instrumentos legais, entre leis, decretos e resoluções, citam nominalmente os resultados do BIOTA-FAPESP”, disse Joly.

Entre 1999 e 2009, disse o coordenador, houve um investimento anual de R$ 8 milhões no programa. Isso ajudou a financiar 94 projetos de pesquisa e resultou em mais de 700 artigos publicados em 181 periódicos, entre eles Nature e Science.

A equipe do programa também publicou 16 livros e dois atlas, descreveu mais de 2 mil novas espécies, produziu e armazenou informações sobre 12 mil espécies, disponibilizou e conectou digitalmente 35 coleções biológicas paulistas.

“Desde que foi renovado o apoio da FAPESP ao programa, em 2009, a questão da educação se tornou prioridade em nosso plano estratégico. O objetivo deste ciclo de conferências é justamente ampliar a comunicação com públicos além do meio científico, especialmente professores e estudantes”, disse Joly.

A segunda etapa do ciclo de palestras está marcada para 21 de março e terá como tema o “Bioma Pampa”. No dia 18 de abril, será a vez do “Bioma Pantanal”. Em 16 de maio, o tema será “Bioma Cerrado”. Em 20 de junho, será abordado o “Bioma Caatinga”.

Em 22 de agosto, será o “Bioma Mata Atlântica”. Em 19 de setembro, é a vez do “Bioma Amazônia”. Em 24 de outubro, o tema será “Ambientes Marinhos e Costeiros”. Finalizando o ciclo, em 21 de novembro, o tema será “Biodiversidade em Ambientes Antrópicos – Urbanos e Rurais”.
Programação do ciclo: www.fapesp.br/7487

domingo, 7 de agosto de 2011

Unicamp lança site para divulgar concursos

05/08/2011
Agência FAPESP – A Universidade Estadual de Campinas (Unicamp) lançou um novo site destinado à divulgação de concursos e processos seletivos para contratação de docentes.
Com conteúdo em português e inglês, o serviço lista todos os concursos e processos seletivos abertos na universidade, procura esclarecer as dúvidas mais frequentes dos interessados em ingressar na carreira do magistério superior e também explica como funciona o Programa Professor Visitante.
Esse programa da Unicamp oferece a pesquisadores doutores com experiência acadêmica internacional a oportunidade de desenvolver atividades de ensino e pesquisa na universidade pelo período de um a dois anos.
O site também permitirá o envio de boletins com informações sobre novos concursos e processos seletivos para todos os usuários cadastrados.
“A criação do site se insere no esforço da administração central de divulgar oportunidades docentes e ampliar o número de candidatos qualificados do Brasil e do exterior que se inscrevem para os concursos públicos da carreira docente”, disse Ronaldo Pilli, pró-reitor de Pesquisa da Unicamp.
Além do novo site, a Pró-Reitoria de Pesquisa criou um banco de currículos de pesquisadores interessados em participar do Programa Professor Visitante. O banco, com cerca de 180 currículos cadastrados, pode ser acessado pelos diretores de todas as unidades de ensino e pesquisa que desejarem buscar perfis profissionais de potencial interesse.
Atualmente, três professores visitantes estão em atividade pelo programa: Alan Hazell e François Artiguenave, na Faculdade de Ciências Médicas (FCM), e Mario Bernal, no Instituto de Física Gleb Wataghin (IFGW). Outros dois devem assumir suas posições neste segundo semestre – um na Faculdade de Engenharia Elétrica e de Computação (FEEC) e outro na Faculdade de Tecnologia (FT), em Limeira, e há cinco candidaturas ainda sob análise das unidades.
“Os esforços em torno do Programa Professor Visitante visam a atrair os melhores candidatos do Brasil e do exterior para exercer atividades docentes na Unicamp”, disse o reitor Fernando Costa.
Mais informações: www.reitoria.unicamp.br/concursos

terça-feira, 26 de julho de 2011

Biblioteca do IB ganha prédio à altura do seu acervo

Edição das imagens: 
Everaldo Silva
[22/7/2011] Fundada em 1969 num espaço de 523m2, que se tornou totalmente inadequado para os alunos, a Biblioteca do Instituto de Biologia (IB) – a primeira da Unicamp e que deu origem à Biblioteca Central Cesar Lattes – ganhou um moderníssimo prédio de dois pavimentos e 1.068m2, inaugurado oficialmente nesta sexta-feira (22) pelo reitor Fernando Costa. Com áreas para estudo individual e em grupo, auditório, videoteca, centro de memória, estantes deslizantes e rede de internet sem fio, além de um belo mobiliário, o novo prédio está à altura de um acervo de 22 mil volumes, considerado um dos maiores e melhores do país na área de ciências biológicas e biomédicas.

ib_shirlei_290x240_.jpgEm seu discurso na cerimônia de inauguração, a professora Shirley Maria Recco Pimentel, diretora do IB, fez um histórico dos 10 anos transcorridos desde a idealização da Biblioteca em 2001, dentro do Plano Diretor proposto na gestão de Maria Luiza Mello. “Este prédio é um marco para o Instituto de Biologia, o sonho realizado da nossa comunidade de docentes, alunos e funcionários”.

A nova Biblioteca do IB foi incluída no Planejamento Estratégico Institucional da Unicamp e construída com recursos do Plano de Expansão de Vagas da Graduação. O prédio ficou pronto em agosto do ano passado, mas ainda carecendo de toda a infraestrutura interna, que foi concretizada com verbas da Reserva Técnica Institucional da Fapesp. Os alunos, na verdade, estão se beneficiando desta infraestrutura desde abril último, quando os livros foram transferidos para o novo prédio a fim de viabilizar a reforma do espaço antigo, onde permaneceram apenas os periódicos.

ib_reitor_290x240_.jpgO reitor Fernando Costa observou que o investimento em bibliotecas, salas de aula e laboratórios é sempre prioritário porque resulta em progressos relevantes para a Universidade. “Como o tempo vai passando, o modo de utilização muda bastante. Mesmo que não seja para apanhar um livro ou periódico, o aluno pode vir à Biblioteca para uso dos computadores, estudos e discussões – é o futuro de um espaço como este. Muda o tipo de utilização, mas não a sua importância”.
A diretora técnica Ana Rabetti afirma que a Biblioteca do IB segue as novas tendências, implementando serviços eletrônicos de acesso às informações e disponibilizando documentos tanto via base de dados quanto via internet. “As teses estão todas digitalizadas e os sistemas de acesso a pesquisas e de empréstimos e devoluções de documentos também são informatizados. Em 2010, registramos 62 mil empréstimos e consultas a livros, periódicos e CDs, e 743 mil acessos às teses com 147 mil downloads. E os funcionários também passaram a trabalhar num espaço bem mais adequado”.
ib_selma_290x240_.jpgA professora Selma Giorgio, coordenadora da Biblioteca, viu o movimento quadruplicar de abril para cá, devido ao encanto que o novo prédio causa nos alunos, que não são apenas dos cursos tradicionais das ciências biológicas. “Os professores do IB dão aulas para a medicina, enfermagem, farmácia, educação física e algumas engenharias. O fluxo de alunos é muito grande, tanto que antes abríamos às sete horas. Agora que seguimos o padrão das demais bibliotecas da Unicamp, abrindo às nove, os alunos querem que voltemos ao horário antigo para aproveitar o espaço. Merecíamos este prédio porque o nosso acervo é lindo”.