Pesquisa FAPESP 221

100

description

O monitor do cérebro

Transcript of Pesquisa FAPESP 221

Page 1: Pesquisa FAPESP 221
Page 2: Pesquisa FAPESP 221

4 | julho DE 2014

Conferência Brasileira de Ciência e Tecnologia em BioenergiaBrazilian BioEnergy Science and Technology Conference

De 20 a 24 de outubro de 2014

INSCREVA-SE E PARTICIPE DO PRINCIPAL EVENTODO ANO VOLTADO À BIOENERGIA

De caráter internacional e com a participação

de palestrantes renomados, a conferência será

um fórum de discussão sobre os principais avanços

na área de bioenergia, incluindo aspectos

tecnológicos, sociais, econômicos e ambientais

relacionados à produção e uso de bioenergia

Oito minicursos serão ministrados no evento:

melhoramento da cana-de-açúcarmanejo agrícola da cana-de-açúcarprodução de etanol no Brasilrotas bioquímicas para produção de etanol celulósicorotas termoquímicas para a produção de biocombustíveisbiorrefi nariasmotores movidos a biocombustívelsustentabilidade da produção de bioenergia.

Os participantes poderão realizar visitas técnicas à Usina São Manoel, em São Manoel; ao Centro de Tecnologia Canavieira (CTC), em Piracicaba (SP), e ao Laboratório Nacional de Ciência e Tecnologia do Bioetanol (CTBE), em Campinas.

Envio de resumos de trabalhos até 20 de julho de 2014

OS MELHORES TRABALHOS SERÃO PREMIADOS

Para maiores informações, acesse

www.bbest.org.br

Pós-graduandos podem participar do BE-BASIC International

Design Competition for Students, enviando

o seu plano de inovação para a produção sustentável de

produtos baseados em bioenergia. O autor

da melhor proposta será premiado (R$ 30 mil)

e poderá colocar a sua ideia em prática

002_2aCapaa Capa_BBEST_221.indd 100 7/2/14 7:43 PM

Page 3: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 3

Orgânicas e cambiantesAs imagens mostram o interior de botões florais de maracujá

(Passiflora edulis). Elas foram obtidas pela técnica OPT (Optical

Projection Tomography), que utiliza métodos matemáticos para

reconstruir tridimensionalmente o que se deseja observar. A flor

é vista de lado (A), de cima (B) e por dentro (C e D), indicando

as diferentes densidades dos tecidos do botão. As imagens

foram feitas por Alexandra Verwij, sob orientação de Marcelo

Carnier Dornelas, do Instituto de Biologia da Universidade Estadual

de Campinas (IB-Unicamp), que estuda o desenvolvimento floral

e a biologia molecular do maracujá.

FotolAb

Imagens enviadas por Marcelo Carnier Dornelas, do IB-Unicamp

Se você tiver uma imagem relacionada à sua pesquisa, envie para [email protected], com resolução de 300 dpi (15 cm de largura) ou com no mínimo 5 MB. Seu trabalho poderá ser selecionado pela revista.

A B

C D

Page 4: Pesquisa FAPESP 221

4 | julho DE 2014

46 InternetEstudo indica que o Twitter é a rede social mais usada para divulgar artigos científicos de revistas brasileiras

CIÊNCIA

48 AstronomiaPesquisadores brasileiros explicam o tamanho de Marte

54 AstrofísicaModelo destaca irregularidades na nuvem de gás e poeira que envolve a estrela Eta Carinae

56 ImunologiaVirulência do protozoário T. gondii fortaleceu defesas de seu principal hospedeiro

58 OceanografiaVermes marinhos revelam estratégias adaptativas às águas frias e escuras da costa brasileira

62 GenômicaDesvendada diversidade genética de tangerinas, laranjas e limões

66 EcologiaÁrvores de clima frio já foram comuns na região Norte do Brasil

68 Especial Biota Educação XIVMudanças nos ciclos de substâncias químicas podem acentuar deterioração dos ecossistemas

TECNOLOGIA

70 BiofísicaMicrossensores ajudam a entender comportamento das abelhas Apis mellifera

74 Sensoriamento remotoSoftware automatiza a avaliação de queima de cana em imagens de satélite

76 ComputaçãoIBM em São Paulo cria aplicativo que permite a cegos “enxergar” conteúdo de placas e painéis

78 Medicina nuclearNovo reator deve suprir o país de radiofármacos para diagnóstico e tratamento de doenças em 2018

HUMANIDADES

82 SociologiaEstudo estima que 3,8 milhões de pessoas vivem precariamente em favelas, loteamentos clandestinos e loteamentos irregulares em 113 municípios paulistas

46

julho n.221

SEçÕES 3 Fotolab 5 Carta da editora 6 Cartas 7 On-line 8 Dados e projetos 9 Boas práticas 10 Estratégias 12 Tecnociência86 Memória 88 Arte 92 Ficção 94 Resenhas 97 Carreiras 99 Classificados

CA

pA i

lusT

RA

çã

O M

AR

iAn

A C

OA

n

CApA16 Sensor monitora de modo não invasivo alterações no cérebro causadas por traumas e pela gestação

ENTREVISTA24 Demi GetschkoPrimeiro brasileiro a ser incluído no Hall da Fama da Internet fala dos atuais desafios da web

POLÍTICA CIENTÍFICA E TECNOLÓGICA

32 publicaçãoGrupo propõe novo método para classificar o papel de cada autor nos artigos científicos

36 InfraestruturaFacilities garantem acesso a equipamentos de última geração para múltiplos usuários e modelo avança no estado de São Paulo

42 EducaçãoProjetos de alunos de escolas públicas despontam entre os melhores apresentados em feiras de ciência

Page 5: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 5

cArtA dA EdItorA

F echar esta edição de Pesquisa FAPESP na situação, para nós inédita, de ter uma Copa do Mundo acon-tecendo em casa teve qualquer coisa de insólito.

Envolveu, por exemplo, o desafio de manter um grau de disciplina bem acima do usual para conseguir obede-cer à dinâmica e aos prazos de produção da revista, em meio às fortes paixões despertadas pelos jogos do Brasil e ao genuíno interesse pelo futebol que outras grandes ou surpreendentes seleções mostrariam. E envolveu, certamente, uma capacidade íntima de resistência para não sermos arrastados pelo espírito geral de férias, pelo clima justificado de festa prolongada, que se espraiou pelo país desde 12 de junho, consciência sobre o lado negócios e eventuais sombras que a Copa embute à parte.

Por exemplo, no sofrido jogo do Brasil contra o Mé-xico, em 17 de junho, havia que trabalhar antes dele segurando a ansiedade, e trabalhar, em seguida, con-tendo alguma frustração pelo empate, depois de tor-cer ardorosamente, olhos grudados num televisor de 42 polegadas posto estrategicamente na redação, por gols que não vieram para dissolver tamanha tensão. Foi um pouco melhor seguir trabalhando depois da vitória por quatro gols contra o time de Camarões, em 23 de junho. Mas bom mesmo nos pareceria po-der sair imediatamente para comemorar e extravasar a alegria sentida. Vê-se, por esse relato, que a equipe de Pesquisa FAPESP, com raríssimas exceções, é for-mada por fanáticos torcedores e fanáticas torcedoras de futebol, se não sempre, pelo menos de quatro em quatro anos, nas copas. Daí por que, na reta final do fechamento da edição, vem-me a sensação de que tra-balharemos depois de 13 de julho, por algum tempo, com uma estranha sensação de vazio no cotidiano da redação. Depois, a dinâmica dos dias e a plasticidade do cérebro farão seu trabalho de nos restituir a uma normalidade que não entretece jogos de futebol com entrevistas, textos, títulos, imagens, infográficos e man-chas de páginas de revista.

O cérebro, a propósito, era mesmo o meu desejado ponto de chegada nesta carta – a Copa era um inesca-pável começo de conversa –, em função da reportagem

de capa desta edição, elaborada por nosso editor de ciência, Ricardo Zorzetto. Trata-se do relato sobre o desenvolvimento de um equipamento por uma equi-pe de quase 40 pessoas, liderada pelo infatigável físico Sérgio Mascarenhas, 86 anos, que promete um caminho eficiente e não invasivo para o monitoramento dinâmico da pressão intracraniana e, com ele, talvez a abertura de uma via larga para a compreensão e o controle de con-dições patológicas que guardam aparentemente relação estreita com as variações dessa pressão.

Na linha de frente dessas condições, os pesquisado-res veem a pré-eclâmpsia, que atinge aproximadamen-te 10% dos 3 milhões de mulheres que engravidam no Brasil a cada ano e que ameaça tanto sua vida quanto a dos fetos que elas estão gestando. Mas registre-se que a pressão intracraniana é um parâmetro extre-mamente importante a ser considerado quando a pes-soa sofre um trauma na cabeça ou apresenta outros problemas no sistema nervoso central, derivados, por exemplo, de um tumor ou de um AVC. E poder medi-la sem invasão, com a mesma facilidade com que se mede hoje a pressão arterial, é um sonho com que o sensor de pressão intracraniana, desenvolvido em São Carlos, acena. Vale muito a pena conferir os detalhes a partir da página 16, saber quantas institui-ções estão envolvidas nessa pesquisa e conhecer um pouco da motivação pessoal de Sérgio Mascarenhas para desenvolver o equipamento.

Gostaria de destacar aqui várias outras reportagens, mas, dado o pequeno espaço que resta, vou me concen-trar na recomendação à notável entrevista de Demi Gets-chko, elaborada por nosso editor de tecnologia, Marcos de Oliveira (página 24). Através da fala desse brilhante e amável engenheiro elétrico formado pela Escola Po-litécnica da USP, que se tornou o primeiro brasileiro a ter o nome incluído no Hall da Fama da Internet, é a própria história da montagem da rede mundial de computadores em nosso país, para a qual ele contribuiu muito desde os seus primórdios, que podemos acom-panhar. É imperdível.

Boa leitura!

Cérebro, internet e dribles no tempoMariluce Moura | Diretora De reDação

Page 6: Pesquisa FAPESP 221

6 | julho DE 2014

Niède GuidonParabéns à edição 220 da revista Pesqui-sa FAPESP e ao suplemento que enfoca o Prêmio Conrado Wessel, em especial a Niède Guidon, arqueóloga na serra da Capivara, em São Raimundo Nonato, no Piauí. As ilustrações e redação confron-tando a posição de Walter Neves, pes-quisador da Universidade de São Paulo (USP), sobre a datação dos instrumentos líticos lançam luzes e estão sugerindo novas hipóteses que enriquecem aquela grande arqueóloga brasileira.Francisco J. B. Sá

Salvador, BA

Nota da Redação A ilustração ao lado, da capa da edição 220 (“O velho mar de Mi-nas Gerais”), de Sandro Castelli, baseou-se na xilo -

gravura A grande onda de Kanagawa, criada pelo artista japonês Katsushika Hokusai (1760-1849).

Cartas para esta revista devem ser enviadas para o e-mail [email protected] ou para a rua Joaquim Antunes, 727, 10º andar - CEP 05415-012, Pinheiros, São Paulo-SP. As cartas poderão ser resumidas por motivo de espaço e clareza.

caRtaS [email protected]

Fogo no cerradoNa reportagem interessante de Maria Guimarães sobre alguns resultados da pesquisa de Giselda Durigan (“A origem do cerrado”, edição 219), diz-se que “a fauna (gado) e as queimadas são parte integrante do ecossistema”. E em outra citação da mesma pesquisadora se lê: “No Brasil vamos ter que aprender a usá--lo [o fogo] como ferramenta de manejo, agora que a lei prevê a prática para o bem do ecossistema”. Em outra reportagem (“Sem floresta, gasta-se mais”, mesma edição), José Galizia Tundisi parece contradizer essa prática. Dedico-me, há 40 anos, à preservação de uma área de 70 hectares de cerrado e minha expe-riência, acompanhada de especialistas, desaconselha o fogo e o pisoteio do gado. O sistema de captação de águas pluviais que mantenho tem dado incalculáveis benefícios para a recarga dos aquíferos. Seria importante que Giselda orientasse de forma mais clara onde, quando e como usar o fogo para o bem do ecossistema.Giovenardi Eugênio

Brasília, DF

Golpe de 1964Parabéns pelas reportagens sobre o gol-pe militar de 1964 (edição 218). Estão sensacionais.Enio cardillo Vieira

Belo Horizonte, MG

CElSo lAFErPrEsiDEntE

EDuArDo MoACyr KriEGErvicE-PrEsiDEntE

coNSElho SupERioR

AlEJAnDro SzAnto DE tolEDo, CElSo lAFEr, EDuArDo MoACyr KriEGEr, FErnAnDo FErrEirA CoStA, HoráCio lAFEr PivA, João GrAnDino roDAS, MAriA JoSé SoArES MEnDES GiAnnini, MArilzA viEirA CunHA ruDGE, JoSé DE SouzA MArtinS, PEDro luiz BArrEiroS PASSoS, SuEly vilElA SAMPAio, yoSHiAKi nAKAno

coNSElho técNico-admiNiStRatiVo

JoSé ArAnA vArElADirEtor PrEsiDEntE

CArloS HEnriquE DE Brito CruzDirEtor ciEntífico

JoAquiM J. DE CAMArGo EnGlErDirEtor ADministrAtivo

coNSElho EditoRialCarlos Henrique de Brito Cruz (Presidente), Caio túlio Costa, Eugênio Bucci, Fernando reinach, José Eduardo Krieger, luiz Davidovich, Marcelo Knobel, Marcelo leite, Maria Hermínia tavares de Almeida, Marisa lajolo, Maurício tuffani, Mônica teixeira

comitê ciENtíFicoluiz Henrique lopes dos Santos (Presidente), Adolpho José Melfi, Carlos Eduardo negrão, Douglas Eduardo zampieri, Eduardo Cesar leão Marques, Francisco Antônio Bezerra Coutinho, Joaquim J. de Camargo Engler, José Arana varela, José roberto de França Arruda, José roberto Postali Parra, lucio Angnes, luis Augusto Barbosa Cortez, Marcelo Knobel, Marie-Anne van Sluys, Mário José Abdalla Saad, Marta teresa da Silva Arretche, Paula Montero, roberto Marcondes Cesar Júnior, Sérgio luiz Monteiro Salles Filho, Sérgio robles reis queiroz, Wagner do Amaral Caradori, Walter Colli

cooRdENadoR ciENtíFicoluiz Henrique lopes dos Santos

diREtoRa dE REdação Mariluce Moura

EditoR chEFE neldson Marcolin

EditoRES Fabrício Marques (Política), Marcos de oliveira (Tecnologia), ricardo zorzetto (Ciência); Carlos Fioravanti e Marcos Pivetta (Editores espe ciais); Bruno de Pierro e Dinorah Ereno (Editores assistentes)

REViSão Daniel Bonomo, Margô negro

aRtE Mayumi okuyama (Editora), Ana Paula Campos (Editora de infografia), Maria Cecilia Felli e Alvaro Felippe Jr. (Assistente)

FotóGRaFoS Eduardo Cesar, léo ramos

mídiaS ElEtRôNicaS Fabrício Marques (Coordenador) iNtERNEt Pesquisa FAPESP onlineMaria Guimarães (Editora)Júlio César Barros (Editor assistente) rodrigo de oliveira Andrade (Repórter)

Rádio Pesquisa BrasilBiancamaria Binazzi (Produtora)

colaBoRadoRES Alexandre Affonso, Ana lima, Daniel Bueno, Daniela lima, Evanildo da Silveira, Guilherme lepca, igor zolnerkevic, João Paulo Pimenta, Juliana Sayuri, Mariana Coan, Maria Hirszman, Mauro de Barros, nelson Provazi, Pedro Franz, Pedro Hamdan, Samuel rodrigues, valter rodrigues, yuri vasconcelos, zé vicente

é pRoiBida a REpRodução total ou paRcial dE tExtoS E FotoS SEm pRéVia autoRização

paRa FalaR com a REdação (11) [email protected]

paRa aNuNciaR (11) 3087-4212 [email protected] aSSiNaR (11) 3087-4237 [email protected]

tiRaGEm 44.500 exemplaresimpRESSão Plural indústria GráficadiStRiBuição DinAP

GEStão admiNiStRatiVa inStituto uniEMP

pESQuiSa FapESp rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP

FapESp rua Pio Xi, no 1.500, CEP 05468-901, Alto da lapa, São Paulo-SP

SECrEtAriA DE DESEnvolviMEnto EConôMiCo,

CiênCiA E tECnoloGiA GoVERNo do EStado dE São paulo

FunDAção DE AMPAro à PESquiSA Do EStADo DE São PAulo

iSSn 1519-8774

paRa QuEm aNuNcia

pesquisa FapESp proporciona falar com um leitor qualificado, formador de opinião e que decide.

paRa QuEm lê E aSSiNa

pesquisa FapESp traz, todo mês, as mais atualizadas notícias sobre pesquisa científica e tecnológica nos vários campos do conhecimento.

para assinar 11 3087-4237 [email protected]

para anunciar 11 3087-4212 [email protected]

www.revistapesquisa.fapesp.br

Page 7: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 7

youtube.com/user/PesquisaFaPesP

on-linew w w . r e v i s t a P e s q u i s a . F a P e s P. b r

x Fêmeas com pênis e machos com vagina foram descobertos em insetos de cavernas brasileiras. são quatro espécies de pequenos animais alados descritas e estudadas por pesquisadores do brasil, da suíça e do Japão (Current Biology). o novo gênero, Neotrogla, foi localizado no norte de minas Gerais, no tocantins e na bahia. a descoberta do biólogo rodrigo Ferreira, da universidade Federal de Lavras, representa o único caso conhecido de genitálias invertidas no reino animal. ele acredita que ainda há espécies por encontrar.

x a manipulação do solo para plantio de cana em áreas antes ocupadas por outros cultivos agrícolas não emite um excedente de carbono, de acordo com um trabalho realizado por pesquisadores do brasil e dos estados unidos (Nature Climate Change). a emissão de carbono pela transformação de pastagens em canaviais, por sua vez, poderia ser compensada em dois a três anos após o plantio. “agora temos certeza de que estamos entregando um combustível de baixa emissão de carbono”, diz carlos cerri, da universidade de são Paulo (usP).

exclusivo no site

Vídeo do mês

Importantes para armazenar carbono, manguezais migram diante de alterações no nível do mar

ro

dr

iGo

Lo

Pe

s Fe

rr

eir

a /

uFL

a Rebeca Lima Barboza dos Santos_ muito legal, não vejo a hora de chegarem às farmácias! (Prata contra bactérias) Sandra Alvarez Guerrero Zerbini_ interessante. um pouco mais de nanotecnologia para vocês. (Nanopapiros de carbono) Carlos Elson Cunha_ querendo entender a cabeça do ser humano, afinal, não sabemos de nada. (entrevista com Francis collins) Bruno Nunes_ tem lógica mesmo, pois laranjas e tangerinas são mais ou menos doces. (A identidade das frutas cítricas) Aloisio Eduardo Leon_ um assunto com probabilidade de ser abordado tanto no enem como no vestibular! (O último litoral de Minas) Ilka Biondi_ excelente trabalho científico, em uma região tão importante da nossa bahia. (Reservatório de microrganismos)

Maricilia Arruda_ Perda de importantes informações com a destruição do Nereus, veículo subaquático de pesquisas. (Submarino perdido)

nas redes

Assista ao vídeo:

macho e fêmea de Neotrogla: posições e órgãos sexuais trocados

Doações de ex-alunos começam a ser capitalizadas por universidades brasileiras

Rádio

Page 8: Pesquisa FAPESP 221

8 | julho DE 2014

DaDos E projEtos

temáticos50 anos de feminismo (1965-2015): novos paradigmas, desafios futuros Pesquisadora responsável: Eva Alterman Blayinstituição: FFLCH/USPProcesso: 2012/23065-8Vigência: 01/04/2014 a 31/03/2017

Desenvolvimento de sensores quânticos com átomos ultrafrios Pesquisador responsável: Philippe Wilhelm Courteille instituição: Instituto de Física de São Carlos/USPProcesso: 2013/04162-5Vigência: 01/08/2014 a 31/07/2019

Papel da NAD(P)H oxidase nos mecanismos moleculares da fisiologia e patologia das células secretoras de insulina Pesquisador responsável: Angelo Rafael Carpinelliinstituição: Instituto de Ciências Biomédicas/USPProcesso: 2013/08769-1Vigência: 01/06/2014 a 31/05/2018

estudo molecular e funcional de transportadores de membrana Pesquisador responsável: Gerhard Malnicinstituição: Instituto de Ciências Biomédicas/USPProcesso: 2013/23087-4Vigência: 01/05/2014 a 30/04/2018

epidemiologia, avaliação de danos e controle de doenças da videira Pesquisadora responsável: Lilian Amoriminstituição: Escola Superior de Agricultura Luiz de Queiroz/USPProcesso: 2013/24003-9Vigência: 01/06/2014 a 31/05/2019

modelagem da produção e das exigências nutricionais de aves e peixes Pesquisadora responsável: Nilva Kazue Sakomurainstituição: Faculdade de Ciências Agrárias e Veterinárias de Jaboticabal/UnespProcesso: 2013/25761-4Vigência: 01/06/2014 a 31/05/2019

segurança e confiabilidade da informação: teoria e prática Pesquisador responsável: Marcelo Firerinstituição: Instituto de Matemática, Estatística e Computação Científica/UnicampProcesso: 2013/25977-7Vigência: 01/06/2014 a 31/05/2019

Diversidade e conservação dos anfíbios brasileiros Pesquisador responsável: Célio Fernando Baptista Haddadinstituição: Instituto de Biociências de Rio Claro/Unesp

temáticos e JoVem PesquisADor receNtesProjetos contratados em maio e junho de 2014

Processo: 2013/50741-7Vigência: 01/04/2014 a 31/03/2019

A origem e irradiação dos dinossauros no Gondwana (Neotriássico – eojurássico) Pesquisador responsável: Max Cardoso Langerinstituição: Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto/USPProcesso: 2014/03825-3Vigência: 01/05/2014 a 30/04/2018

utilização de células-tronco mesenquimais na interface do sistema nervoso central e periférico: reparo de lesões proximais Pesquisador responsável: Alexandre Leite Rodrigues de Oliveirainstituição: Instituto de Biologia/UnicampProcesso: 2014/06892-3 Vigência: 01/06/2014 a 31/05/2018

JoVem PesquisADorserotonina e controle respiratório em vertebrados Pesquisador responsável: Glauber dos Santos Ferreira da Silvainstituição: Faculdade de Ciências Agrárias e Veterinárias de Jaboticabal/UnespProcesso: 2013/17606-9Vigência: 01/06/2014 a 31/05/2018

regulação do metabolismo da glicose pelo osso: ações da osteocalcina na resistência à insulina e inflamação em tecidos adiposo e hepático Pesquisadora responsável: Daniela Tomie Furuyainstituição: Instituto de Ciências Biomédicas/USPProcesso: 2013/18841-1Vigência: 01/06/2014 a 31/05/2017

Análise funcional de genes de cana-de-açúcar em arroz transgênico e obtenção de cana com conteúdo de lignina modificado para a produção de etanol celulósico Pesquisadora responsável: Paula Macedo Nobileinstituição: Instituto Agronômico de Campinas/SaaspProcesso: 2013/19214-0Vigência: 01/06/2014 a 31/05/2017

sistemas regionais ameríndios em transformação: o caso do Alto Xingu Pesquisador responsável: Antonio Roberto Guerreiro Júniorinstituição: Instituto de Filosofia e Ciências Humanas/UnicampProcesso: 2013/26676-0 Vigência: 01/07/2014 a 30/06/2018

investimentos estaduais em P&D em 2012

unidades da Federação

total (em milhões

de r$)

% do total

orçamento (em milhões

de r$)

% do orçamento

ensino superior (em milhões

de r$)

% de investimento no ensino superior

total 9.782,20 100,00 3.165,40 100,00 6.616,80 100

são Paulo 7.133,80 72,93 1.476,80 46,65 5.657,10 85,50

Rio de Janeiro 696,9 7,12 382,2 12,07 314,7 4,76

Paraná 539 5,51 288 9,10 251 3,79

Minas Gerais 296,4 3,03 279 8,81 17,4 0,26

Santa Catarina 207,4 2,12 153,1 4,84 54,3 0,82

Bahia 192,1 1,96 66,3 2,09 125,8 1,90

Ceará 100,8 1,03 25,8 0,82 75 1,13

Rio Grande do Sul 89,2 0,91 89,2 2,82 — 0,00

Pernambuco 72,4 0,74 56,9 1,80 15,6 0,24

Pará 67,9 0,69 55 1,74 12,9 0,19

Amazonas 61,9 0,63 52,3 1,65 9,5 0,14

Goiás 59,4 0,61 55,6 1,76 3,8 0,06

Paraíba 57,8 0,59 23,2 0,73 34,5 0,52

Mato Grosso do Sul 39,7 0,41 30,8 0,97 8,9 0,13

Rio Grande do Norte 32,3 0,33 17,5 0,55 14,8 0,22

Distrito Federal 29,8 0,30 29,8 0,94 — 0,00

Maranhão 25,5 0,26 21,5 0,68 4 0,06

Espírito Santo 23,4 0,24 23,4 0,74 — 0,00

Mato Grosso 21,8 0,22 6,5 0,21 15,3 0,23

Alagoas 16,8 0,17 16,8 0,53 — 0,00

Sergipe 7,3 0,07 7,3 0,23 — 0,00

Piauí 2,7 0,03 2 0,06 0,7 0,01

Tocantins 2,6 0,03 2,6 0,08 — 0,00

Acre 1,8 0,02 1,8 0,06 — 0,00

Roraima 1,6 0,02 0,2 0,01 1,4 0,02

Amapá 1,4 0,01 1,4 0,04 — 0,00

Rondônia 0,4 0,00 0,4 0,01 — 0,00

Fontes: Rede de Indicadores Estaduais de Ciência, Tecnologia e Inovação, Ministério da Ciência, Tecnologia e Inovação

Estados apoiam FAPs, institutos e universidades

Page 9: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 9

Auditoria externa contra má conduta

Fraudador reabilitado

Boas práticas

Pesquisadores da Irlanda terão que abrir suas anotações de laboratório para auditores externos e mostrar a eles como previnem casos de má conduta, de acordo com uma estratégia proposta pela principal agência de fomento à pesquisa básica do país. Mark Ferguson, diretor da Science Foundation Ireland (SFI), convidou empresas de consultoria independentes para fazer um inédito trabalho de auditoria. As empresas contratadas irão verificar se instituições financiadas pela SFI, incluindo as principais universidades da Irlanda, têm procedimentos adequados para relatar e investigar casos de má conduta científica, além de averiguar se os gestores têm seguido esses procedimentos em situações concretas e se as investigações foram feitas de forma satisfatória.

Alguns projetos financiados pela agência, selecionados aleatoriamente, serão analisados de forma mais profunda. Os auditores irão avaliar como os dados experimentais foram anotados e analisados e poderão checar informações que lastrearam papers desses grupos. “Não quero parecer um big brother. Quero que seja algo construtivo e educativo”, disse Ferguson à revista Nature. “A ideia é encontrar erros e propagar boas práticas. Nosso objetivo comum é assegurar que fazemos o melhor com o nosso dinheiro.”

O anúncio foi recebido com reservas por setores da comunidade científica irlandesa. Duvida-se, por exemplo, que os auditores tenham conhecimento científico suficiente para avaliar algo além de aspectos meramente formais da pesquisa. Para John Ioannidis, professor de metodologia científica da Universidade Stanford, há o risco

de que a checagem seja superficial. “É uma ideia interessante, mas duvido que a amostra de projetos auditados seja grande o suficiente para fazer alguma diferença”, afirmou à Nature.

Dias antes do anúncio, foi lançada a Declaração da Política Nacional para Assegurar a Integridade da Pesquisa na Irlanda, assinada pelas principais instituições de pesquisa e agências de fomento do país, que segue diretrizes semelhantes às adotadas pela União Europeia. O documento enumera quatro compromissos. O primeiro é com a promoção de padrões elevados de integridade em todas as etapas da pesquisa. O segundo, voltado para a educação, propõe estimular uma cultura de integridade no ambiente acadêmico a fim de reforçar a formação dos futuros pesquisadores. O terceiro estabelece o engajamento de todas as instituições signatárias

Causou constrangimento no Reino Unido a descoberta de que um dos premiados pelo Parlamento inglês na tradicional lista de homenageados no aniversário da rainha Elizabeth II é um médico que chegou a perder seu registro profissional em 2002 e foi acusado de fraudar um artigo científico. Trata-se do cirurgião Anjan Kumar Banerjee, 54 anos, que trabalha atualmente num hospital em Bedford, Leste da Inglaterra, e é diretor de uma empresa de consultoria em ciências da vida. Em 2000, foi considerado culpado por falsificar um artigo científico publicado em 1990. Também perdeu o registro médico em 2002, acusado de mentir para pacientes sobre o

em trabalhar de forma conjunta e coordenada em favor das boas práticas. O último determina a adoção de processos justos e transparentes para tratar alegações de má conduta. Esses quatro compromissos estão incluídos no Código de Boas Práticas Científicas da FAPESP, lançado em 2011.

dA

nie

l b

uen

o

tempo de espera de tratamentos, encaminhando-os para serviços privados, e de cobrar por tratamentos não realizados. Banerjee recuperou o registro médico em 2007. O comitê ligado ao gabinete do premiê britânico, responsável pela premiação, alegou não ter sido informado sobre o passado de Banerjee, indicado pelos serviços prestados nos hospitais em que vem trabalhando. Ao jornal The Independent, Banerjee disse que lamenta os atos que cometeu e que aprendeu com essas experiências. Ele alega ter cumprido um rigoroso programa de reabilitação na carreira. “Todos os hospitais em que trabalhei desde 2007 foram informados sobre o meu passado”, afirmou.

Page 10: Pesquisa FAPESP 221

10 | julho DE 2014

Estratégias

A astrônoma brasileira Marcelle Soares-Santos recebeu o Prêmio Alvin Tollestrup 2014, concedido pela Associação de Universidades de Pesquisa dos Estados Unidos a trabalhos de destaque feitos por pós-doutorandos no Fermi National Accelerator Laboratory (Fermilab), laboratório norte-americano de física de partículas de altas energias. Doutora em astronomia pela Universidade de São Paulo, Marcelle está no Fermilab desde 2010 e foi reconhecida por suas contribuições ao estudo da energia escura. Sua pesquisa de pós-doutorado se concentra no projeto Dark Energy Survey (DES), cujo objetivo é observar 300 milhões de galáxias e usá-las para determinar a evolução da expansão do Universo.

Pesquisa premiada nos EUA

“Eu contribuí para a construção e instalação da câmera do DES, a DECam”, diz Marcelle, referindo-se à câmera, peça-chave do projeto, em funcionamento desde 2012 no telescópio Blanco, localizado no Cerro Tololo Inter-American Observatory, no Chile. Sua pesquisa também busca contribuir para esclarecer a questão da energia escura, forma hipotética de energia que estaria distribuída por todo o espaço. “Desenvolvi um método para detectar aglomerados de galáxias e uso esse método para estudo da energia escura”, explica. “Marcelle trabalha com dados para desenvolver novas maneiras de entender a formação do Universo”, disse Brenna Flaugher, chefe do Departamento de Astrofísica do Fermilab.

Marcelle Soares-Santos: contribuição destacada

Telescópio recebe recursos

O Observatório Estratosférico de Astronomia Infravermelha (Sofia, na sigla em inglês), da agência espacial norte-americana (Nasa), recebeu um sopro de vida. No mês passado, o Senado dos Estados Unidos votou a favor da destinação de US$ 87 milhões ao observatório em 2015. Maior telescópio voador do mundo, o Sofia está instalado num Boeing 747 adaptado para observar o Universo em voos de cerca de 12 mil metros de altitude. A proposta ainda precisa ser confirmada pela Câmara dos Representantes. Em março, a Nasa havia cogitado cancelar o projeto, fruto de uma

parceria com o Centro Aeroespacial Alemão (DLR), devido aos altos custos operacionais. O orçamento inicial do programa previa gastos de US$ 360 milhões, mas até o lançamento os gastos já haviam ultrapassado US$ 1 bilhão. O Sofia fez seu primeiro voo em 2010, mas só agora está passando à fase operacional. Outro fato que animou os pesquisadores envolvidos no programa foi o início das operações do Echelon-Cross- -Echelle Spectrograph (Exes), um espectrógrafo acoplado ao telescópio. “A combinação da alta resolução espectral do Exes e o acesso do Sofia à radiação infravermelha do espaço criam condições sem precedentes para estudar objetos celestes em comprimentos de onda que não podem ser acessados a partir de outros telescópios”, diz Pamela Marcum, pesquisadora da Nasa.

Sofia: observatório instalado num Boeing 747 adaptado

1

2

Page 11: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 11

Foto

S 1

FNA

L 2

NA

SA /

CA

RL

A T

hO

MA

S 3

AR

qU

IvO

IAC

4 U

NIv

. DE

hA

IFA

IlU

Str

ão

DA

NIE

L B

UEN

O

Desafios da internet do futuro

A FAPESP e a Intel, por meio de seu Uni-versity Research Office, anunciaram uma nova chamada de propostas no âmbito do acordo de cooperação entre as insti-tuições. Pesquisadores vinculados a instituições de ensino superior e de pes-quisa no estado de São Paulo podem submeter propostas sobre segurança para dispositivos do tipo Internet of Things (IoT) – termo que designa a futu-ra geração de eletroeletrônicos, carros

e qualquer outro tipo de dispositivo ca-paz de se comunicar via internet, com-partilhando informações e interagindo com outros dispositivos. Espera-se que o uso desses dispositivos cresça, criando novos desafios de pesquisa, principal-mente nos campos da criptografia e da proteção de informações. As propostas devem ter como foco um ou mais dos seguintes vetores de pesquisa: cripto-grafia, comunicação de dados e softwa-

re. A Intel e a FAPESP destinarão um total de US$ 200 mil aos projetos sele-cionados, que poderão ter até dois anos de duração. As propostas serão recebidas até o dia 29 de agosto. A chamada está disponível em www.fapesp.br/8701.

Lafer recebe honoris causa

O presidente da FAPESP, Celso Lafer, recebeu no dia 27 de maio o título de doutor honoris causa da Universidade de haifa, em Israel, em cerimônia realizada no campus da instituição. “Este doutorado honoris causa reflete a valorização, pela Universidade de haifa, de aspectos de minha carreira ligados à atividade acadêmica, inclusive na presidência da FAPESP, e à atividade política, especialmente no tocante às relações internacionais do Brasil na América Latina e com Israel”, disse Lafer, que é professor titular aposentado da Faculdade de Direito da USP e foi ministro das Relações Exteriores e do Desenvolvimento,

Indústria e Comércio. Lafer destacou em sua fala no evento os valores de pluralismo e tolerância que marcam a Universidade de haifa, bem como sua imagem de centro de ensino e pesquisa jovem e dinâmico. Outras sete personalidades também receberam o honoris causa de haifa: o ex-presidente da África do Sul e Prêmio Nobel da Paz Frederik Willem de Klerk, a filósofa francesa Julia Kristeva, a filantropa britânica Lady Irene hatter, o dramaturgo e ator israelense Chaim Topol, o professor emérito da Universidade de Cambridge Stefan Reif, o pedagogo suíço Ernst Strauss e o diplomata israelense Uri Lubrani. No dia 14 de julho, Lafer receberá o título de doutor honoris causa concedido pela Universidade de Birmingham, no Reino Unido. A FAPESP mantém acordos de cooperação com as universidades de Birmingham e de haifa, assinados, respectivamente, em 2011 e 2013.

Trajetória reconhecidaProfessor titular do Departamento de Economia, Administração e Sociologia da Escola Superior de Agricultura Luiz de queiroz (Esalq) da Universidade de São Paulo (USP) e diretor administrativo da FAPESP, Joaquim José de Camargo Engler recebeu o prêmio Personalidade da Pesquisa, concedido pelo Instituto Agronômico (IAC), em Campinas. A entrega do Prêmio IAC ocorreu na comemoração do aniversário de 127 anos do IAC, no dia 26 de junho. “Essa premiação muito me honra, principalmente pelo fato de o IAC ser uma instituição dedicada à pesquisa no Brasil mais do que centenária, com grandes trabalhos realizados e renome internacional”, disse Engler à Agência FAPESP. “O IAC foi também onde realizei minhas primeiras atividades profissionais, quando ainda era estudante de agronomia na Esalq. Entre 1961 e 1963, realizei estágios

no IAC e pude conhecer a qualidade do trabalho lá desenvolvido.” Na categoria Pesquisador, o agraciado foi Maurilo Terra, do Centro de Frutas do IAC. Na categoria Servidor, a homenageada foi valéria Garcia, do Centro de Citricultura Sylvio Moreira do IAC. O empresário Dorival Finotti foi agraciado na categoria Produtor Rural. A medalha Franz Wilhelm Dafert foi oferecida ao Centro de Engenharia e Automação do IAC, ao Ensaio de Proficiência IAC para Laboratórios de Análise de Solo para Fins Agrícolas, ao Centro Integrado de Informações Agrometeorológicas (Ciiagro), ao Programa Cana IAC e à Pós-graduação IAC.

O professor Engler recebe Prêmio IAC: Personalidade da Pesquisa

Celso Lafer, na Universidade

de haifa: homenageado

com outras sete personalidades

3

4

Page 12: Pesquisa FAPESP 221

12 | julho DE 2014

Centro Regional Sul do Instituto Nacional de Pesquisas Espaciais (Inpe) e da Universidade Federal de Santa Maria (UFSM), no Rio Grande do Sul. O cubesat brasileiro tem como principal missão científica a utilização de um sensor chamado magnômetro para estudo do campo magnético terrestre e sua interação com parte da radiação do Sol e das estrelas que pode afetar as comunicações, os sinais de GPS, além das redes de distribuição de energia. O NanosatC-BR1 também vai testar no espaço os dois primeiros circuitos integrados projetados no Brasil para uso espacial (ver Pesquisa FAPESP nº 219). Além de servir de instrumento para aprendizado de estudantes, os nanossatélites estão se tornando uma opção barata para coletar dados espaciais.

Em testes com uma droga experimental, uma equipe internacional coordenada pelo biólogo brasileiro Ivan Cruz Moura e pelo médico francês Olivier Hermine demonstrou ser possível controlar e até reverter o sintoma mais comum e debilitante da talassemia, uma doença genética que não tem cura e exige transfusões sanguíneas por toda a vida. A causa da talassemia são defeitos nos genes que guardam a receita para a produção de uma das duas proteínas que formam a hemoglobina, molécula que transporta o oxigênio e o gás carbônico no sangue. Alterações nesses genes levam à produção de hemoglobinas defeituosas e à morte precoce das hemácias, as células que a abrigam. A morte precoce dessas células leva à anemia, uma redução importante no número de hemácias em circulação, que pode afetar o desenvolvimento e causar problemas cardíacos. Os pesquisadores verificaram que, em experimentos com roedores e testes iniciais com pessoas com talassemia, foi possível aumentar a taxa de amadurecimento das hemácias e reverter a anemia. “Na talassemia, as células precursoras das hemácias morrem

Para reverter a anemia

por acumular proteínas defeituosas que formam a hemoglobina”, explica Moura, pesquisador do Instituto Nacional de Saúde e Pesquisas Médicas (Inserm) da França. Usando o composto experimental sotatercept, inicialmente desenvolvido para tratar a osteoporose, os pesquisadores conseguiram aumentar o número de células precursoras que sobreviviam à fase crítica e se tornavam hemácias maduras. O brasileiro Thiago Maciel e o francês Michael Dussiot testaram o composto em camundongos geneticamente modificados para apresentar sintomas de talassemia e obtiveram resultados animadores (Nature Medicine, abril). Como o composto já havia sido dado a mulheres com osteoporose, foi possível iniciar em seguida os testes em humanos. Cerca de 20 pessoas com talassemia haviam sido tratadas até o fim de abril. Oitenta por cento das que receberam doses terapêuticas melhoraram da anemia. “O composto não combate a causa da doença, mas corrige o problema”, diz Moura. “Por ora, podemos dizer que é promissor.” Ele acredita que, se funcionar contra a talassemia, talvez seja útil contra outras formas de anemia.

Hemácias vistas ao microscópio eletrônico: morte precoce na talassemia

TEcnociência

Nanossatélite no espaço

O primeiro nanossatélite brasileiro está desde 19 de junho enviando do espaço dados sobre a sua posição na trajetória em volta da Terra a 600 quilômetros de altitude. Com o nome de NanosatC-BR1, o satélite com menos de um quilo de peso é do tipo cubesat, em forma de cubo. Foi lançado pelo foguete russo Dnepr, da base de Yasny, junto com mais 30 artefatos semelhantes de vários países. O primeiro cubesat do país foi desenvolvido por pesquisadores do

Ilustração do NanosatC-BR1: missão científica, instrumento de ensino e opção barata para coleta de dados

1

2

Page 13: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 13

Sensor autônomoEngenheiros da Universidade de Illinois, Estados Unidos, desenvolveram uma nova classe de robôs de menos de um centímetro a partir de células musculares que podem ser controladas por uma corrente elétrica. O trabalho foi publicado em junho na versão on-line da revista PNAS. As pequenas máquinas biológicas foram fabricadas em uma impressora 3D utilizando hidrogel – um polímero com consistência similar à de uma gelatina, que retém água em sua estrutura – e células vivas. Anteriormente, o grupo de pesquisadores, liderado por Rashid

Bashir, havia apresentado “biorrobôs” elaborados a partir de células cardíacas extraídas de ratos. No entanto, como as células do coração se contraem constantemente, os pesquisadores tinham dificuldade de controlar os movimentos do robô, que se locomovia por conta própria. Dessa vez, as minúsculas máquinas são alimentadas por uma faixa de células do músculo esquelético, que são acionadas por pulso elétrico. Os pesquisadores querem integrar princípios da engenharia com a biologia no desenvolvimento de tecnologias com aplicação médica. A técnica pode ser usada, por exemplo, na fabricação de um dispositivo que só funciona quando uma certa substância química é detectada ou por meio de um determinado estímulo. Na forma de um sensor autônomo, seria capaz de perceber a presença de uma toxina no organismo, mover-se até ela e liberar algum agente para neutralizá-la.

Estetoscópio do pulmão

Um novo modelo de estetoscópio desenvolvido por pesquisadores da Universidade do Havaí, nos Estados Unidos, poderá no futuro auxiliar médicos na detecção precoce de acúmulo de água nos pulmões, uma consequência direta da insuficiência cardíaca – a incapacidade do coração de bombear o sangue em volumes suficientes para os órgãos do corpo. A nova tecnologia recebeu financiamento da National Science Foundation (NSF) e consiste num equipamento que se fixa à superfície do corpo do paciente da mesma forma que os sensores usados em exames de

eletrocardiograma. Por meio de sensores de radiofrequência, ele detecta pequenas alterações na quantidade de água nos pulmões, monitorando, ao mesmo tempo, a frequência cardíaca e respiratória do indivíduo. Sob a coordenação do pesquisador Magdy Iskander, o projeto pretende também usar a nova tecnologia na obtenção do diagnóstico precoce de outras doenças, como edema e enfisema pulmonar, além de lesões pulmonares agudas. A insuficiência cardíaca afeta cerca de 5 milhões de pessoas nos Estados Unidos, gerando um gasto total de US$ 32 milhões com serviços de saúde.

Bicampeonato em fórmula de carros elétricos

A equipe E-Racing, da Universidade Es-tadual de Campinas (Unicamp), conquis-tou em junho o bicampeonato nos Estados Unidos em uma prova de carros elétricos desenvolvidos por estudantes universitá-rios. A competição, a Fórmula SAE Lincoln, realizada na cidade de mesmo nome no estado de Nebraska, é promovida pela Sociedade dos Engenheiros da Mobilida-de (SAE), com participantes norte-ame-

ricanos, da Alemanha, Itália, Inglaterra e Austrália, divididos em 20 equipes. Os participantes passam por provas em que são avaliados itens como projeto, esta-bilidade, aceleração e eficiência energé-tica. Os carros são tracionados por mo-tores elétricos e baterias de até 600 volts. Formada por estudantes das faculdades de Engenharia Mecânica, Elétrica e Com-putação e do Instituto de Física da

Unicamp, a equipe E-Racing conquistou a oportunidade de participar da Fórmula SAE Lincoln ao ficar em primeiro lugar na categoria na Fórmula SAE Brasil-Petrobras realizada em novembro de 2013, em Pi-racicaba (SP). Na categoria de motores a gasolina, a vencedora no Brasil também foi uma equipe da Unicamp que, em Lin-coln, com problemas de tração, ficou em 44º lugar entre as 80 competidoras.

Foto

S 1

CD

C /

JAN

ICE

HA

NE

Y C

AR

R 2

INP

E 3

SA

E Il

USt

rA

çã

o D

AN

IEl

BU

ENO

Carro da equipe E-Racing, da Unicamp, ganha competição nos Estados Unidos pela segunda vez

3

Page 14: Pesquisa FAPESP 221

14 | julho DE 2014

Novidade em ultrassom

A resolução das imagens médicas produzidas por ultrassonografias pode, no futuro, ser mil vezes melhor. Isso se for posta em prática a tecnologia demonstrada por pesquisadores do laboratório Nacional lawrence Berkeley, nos Estados Unidos, para produzir, detectar e controlar ondas sonoras de frequência ultra-alta em sistemas na escala nanométrica. A equipe capitaneada por Xiang Zhang produziu nanoestruturas de ouro em forma de cruz com 35 nanômetros (nm) de espessura, com as dimensões horizontal e vertical de 120 e 90 nm, respectivamente. Por meio da ação de um laser que oscila nos braços das cruzes, o sistema gera ondas de energia vibracional (Nature Communications, junho). A operação do novo sistema ocorre com frequência de 10 gigahertz (10 bilhões de ciclos por segundo). Em comparação, os ultrassons médicos atuais geram frequência de cerca de 20 mega-hertz (20 milhões de ciclos por segundo).

Cálculos complexos feitos com a luz

Computadores quânticos capazes de executar tarefas variadas ainda estão muito longe de se tornarem realidade. É bem possível, porém, que até a próxima década sejam construídos computadores quânticos com funções limitadas, mas que ainda assim usem as propriedades quânticas da luz para executarem em poucos dias cálculos complexos que computadores normais demorariam anos para concluir. Esse é o objetivo a longo prazo de uma colaboração entre brasileiros e italianos formada pelos físicos

teóricos Ernesto Galvão e Daniel Brod, do Instituto de Física da Universidade Federal Fluminense, em Niterói, e pelas equipes de físicos experimentais lideradas por Paolo Mataloni e Fabio Sciarrino, da Universidade la Sapienza de Roma, e Roberto Osellame, do Instituto de Fotônica e Nanotecnologia, em Milão. A equipe demonstrou, em 2012, como realizar cálculos matemáticos usando um chip de vidro em que três partículas de luz, os fótons, percorrem simultaneamente um circuito de cinco

Eletrodos em forma de filamentos

Pesquisadores da Bahia conseguiram produzir tubos microscópicos de ouro usando como molde espécies de fungo que crescem em plantas da lagoa do Abaeté, área de proteção ambiental ameaçada pela expansão urbana em Salvador. Com permissão das autorida-des ambientais, a equipe do químico Marcos Malta, da Universidade Federal da Bahia, coletou caules, folhas e raízes de plantas do Abaeté e, em laboratório, isolou três espécies de fungos filamen-tosos que cresciam no interior dos ve-getais. Em seguida, os fungos foram cultivados por dois meses em soluções contendo diferen tes concentrações de um sal – o citrato, usado como fonte de nutriente – e nano partículas de ouro. Por mecanismos ainda não entendidos, as nanopartículas de ouro aderem à super-fície externa da parede celular do fungo, criando uma carapaça. Ao final do pe-ríodo, os pesquisadores submeteram os fungos a uma secagem que preserva a forma desses microrganismos, antes de

eliminar a parte orgânica por calcinação. O resultado foram tubos ocos e porosos com alguns micrômetros de extensão que imitam a forma dos fungos (Bioma-terials Science, março de 2014). O fato de os tubos serem ocos e porosos au-menta a superfície de contato, algo im-portante em reações eletroquímicas em que o ouro funciona como eletrodo de alta área superficial. “Essa estratégia”, acredita Malta, “pode reduzir a quanti-dade de ouro necessária para produzir esse tipo de eletrodo”.

Molde natural: microtubos de ouro produzidos ao redor de filamentos de fungos

3

caminhos entrelaçados (ver Pesquisa FAPESP nº 209). Agora em junho a revista Nature Photonics publicou novos resultados da equipe, com cálculos mais complexos feitos por um chip maior, usando até três fótons percorrendo um circuito de nove e outro de 13 caminhos. Os físicos também utilizaram um novo teste estatístico para verificar os resultados de seus cálculos. Quanto mais fótons e caminhos no circuito, mais difícil fica verificar os cálculos realizados pelo chip com computadores convencionais.

Cruzes nanométricas de ouro recebem lasers e geram ondas sonoras

1

2

Page 15: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 15

Mais esponjas carnívoras

Em 2012, o furacão Sandy destruiu ou danificou 650 mil casas e causou um prejuízo de US$ 50 bilhões apenas no estado norte- -americano de Nova Jersey. Situações desse tipo devem continuar nas regiões costeiras dos Estados Unidos. A elevação do nível do mar deve causar prejuízos estimados em US$ 106 bilhões até 2050 e em US$ 507 bilhões até 2100 às propriedades costeiras norte-americanas (Earth’s Future, junho). A previsão é considerada a primeira a estimar os possíveis prejuízos em nível local e regional nos Estados Unidos causados pelas mudanças do clima do planeta. Os cálculos anteriores eram mais genéricos e previam os impactos econômicos

Foto

S 1

MA

RC

OS

MA

lTA

/ U

FBA

2 l

NlB

3 M

BA

RI

4 U

S A

IR F

OR

CE

/ M

AR

k C

. OlS

EN

Prejuízos climáticos

Passagem desastrosa: danos na área costeira de Nova Jersey deixados pelo furacão Sandy

globais. A nova estimativa foi feita com o propósito de ajudar proprietários de casas litorâneas, investidores e planejadores urbanos norte-americanos a programar melhor seus investimentos. Coordenado por Robert kopp, da Universidade Rutgers, esse estudo indicou que o nível do mar na cidade de Nova York deve subir de 0,7 a 1,4 metro nos próximos 100 anos, mais do que o esperado como média mundial. Mesmo uma elevação moderada do nível do mar no estado da Flórida resultaria em prejuízos de US$ 23 bilhões, na forma de casas cobertas pelas águas, até 2050. Há 1% de risco de que as propriedades urbanas nesse estado, avaliadas em US$ 681 bilhões, sejam cobertas pela água até o fim do século.

Foi uma mordida e tanto. Durante vinte anos apenas sete espécies de esponjas carnívoras tinham sido identificadas, mas agora pesquisadores dos Estados Unidos e do Canadá, de uma só vez, apresentaram quatro novas espécies desses seres bizarros, que vivem no fundo do mar na costa do Pacífico (Zootaxa, abril). Os filamentos que cobrem as esponjas consistem

de ganchos microscópicos que capturam crustáceos e outros organismos pequenos, e em algumas horas as células das esponjas começam a digerir a caça. Depois de alguns dias, resta apenas uma carcaça vazia. Biólogos do Instituto de Pesquisa do Aquário da Baía de Monterrey (MBARI), na Califórnia, Estados Unidos, filmaram e coletaram as esponjas no fundo do mar. Depois, em laboratório, encontraram numerosos crustáceos em estágios variados de decomposição na cabeleira de duas espécies, Cladorhiza caillieti e Cladorhiza evae. Normalmente as esponjas se alimentam filtrando bactérias e outros microrganismos da água do mar. Não é o caso das novas espécies, algumas com espículas, como a Asbestopluma rickettsi, encontrada entre comunidades de moluscos e vermes no sul da Califórnia, e outras sem, como a Asbestopluma monticola, coletada pela primeira vez em um vulcão extinto da costa da Califórnia.

A esponja Asbestopluma

monticola, coletada em um

vulcão extinto da costa da Califórnia 3

4

Page 16: Pesquisa FAPESP 221

16 | julho DE 2014

capa

Page 17: Pesquisa FAPESP 221

pESQUISa FapESp 221 | 17

Sensor permite monitorar de modo

não invasivo alterações no cérebro

causadas por traumas e pela gestação

passava um pouco das nove horas quando a neu-rocirurgiã Luiza da Silva Lopes acomodou-se em um banco de madeira e iniciou a primeira das três operações que faria na manhã daquela sexta feira, 16 de maio, em uma pequena sala do Laboratório

de Neurocirurgia Pediátrica da Universidade de São Paulo (USP) em Ribeirão Preto. Com o bisturi em sua mão direita, realizou uma incisão firme, de pouco mais de um centíme-tro, no couro cabeludo da rata anestesiada e afastou a pele, os músculos e uma membrana fibrosa que recobre os ossos do crânio. Em menos de cinco minutos a área estava pronta para o biólogo Danilo Cardim instalar um pequeno sensor na superfície do crânio do roedor. Pelos 20 minutos seguintes, Danilo registrou as oscilações da pressão no interior do crânio do animal usando um aparelho portátil, atualmente em fase de aprimoramento, desenvolvido pelo grupo do qual faz parte na Universidade de São Paulo em São Carlos. Hoje estão em funcionamento cinco exemplares do protótipo, alguns sendo usados em testes experimentais em seres humanos.

Um pouco mais tarde naquela manhã, Luiza repetiu o pro-cedimento cirúrgico em outras duas ratas, desta vez prenhes, para que Danilo realizasse novas medições. Aqueles dados e outros coletados nas semanas anteriores seriam depois enca-minhados para o físico-médico Brenno Cabella analisar usando uma série de ferramentas matemáticas sofisticadas. O objetivo do grupo é verificar se a pressão a que o cérebro está subme-tido no interior do crânio sofre alterações durante a gestação.

Caso a suspeita se confirme e a pressão apresente variações anormais, o trio, parte de uma equipe de quase 40 pessoas coordenada por um pesquisador incansável, o físico Sérgio Mascarenhas, de 86 anos, terá conseguido mais um indício de que está no caminho certo para tentar identificar preco-cemente – e, quem sabe, tratar de forma mais adequada – o problema de saúde que mais mata mulheres durante a gesta-ção: a pré-eclâmpsia. Marcada pelo aumento da pressão ar-terial após a 22a semana da gravidez, a pré-eclâmpsia atinge

Ricardo Zorzetto, de São Carlos e Ribeirão Preto, SP

IlU

StR

ão

m

aR

ian

a C

oa

n

Page 18: Pesquisa FAPESP 221

18 | julho DE 2014

aproximadamente 10% dos 3 milhões de brasilei-ras que engravidam a cada ano e ameaça tanto a vida da mulher como a do feto. Nas grávidas ela pode desencadear crises convulsivas e até levar ao coma, enquanto o feto corre o risco de ficar sem nutrientes e oxigênio pelo descolamento da placenta ou de nascer prematuramente. “Essa é uma doença com ônus elevado para a sociedade: é a maior matadora de gestantes e de crianças no período perinatal”, afirma o obstetra Geral-do Duarte, chefe do Serviço de Alto Risco do Departamento de Ginecologia e Obstetrícia da Faculdade de Medicina da USP em Ribeirão Pre-to e colaborador de Mascarenhas nesse projeto. “A ciência ainda deve muito nessa área porque sabemos pouco a respeito dessa doença.”

Enquanto aguardam o resultado dos experi-mentos com os roedores, Duarte e o obste-tra Ricardo Cavalli planejam usar a segun-

da e mais recente versão do sensor de pressão intracraniana para iniciar o monitoramento das gestantes atendidas no Hospital das Clínicas da USP em Ribeirão. Totalmente não invasiva, a nova versão do sensor vem sendo desenvolvida e aperfeiçoada pela equipe de Mascarenhas na USP em São Carlos ao longo dos últimos qua-tro anos, com financiamento da FAPESP e do Ministério da Saúde. Diferentemente do sensor usado no teste com ratos, essa nova versão foi projetada para ser usada em seres humanos sem a necessidade de intervenção cirúrgica e, em abril deste ano, foi testada em um pequeno grupo de pacientes da unidade de cuidados neurocríticos

do Hospital de São João, ligado à Universidade do Porto, em Portugal.

Feita de material plástico rígido e um pouco maior que uma caixa de fósforos, a nova versão do sensor é posicionada sobre a pele e o cabelo da pessoa acordada. Durante o monitoramento per-manece presa por uma faixa elástica semelhante à usada pelos tenistas, que causa apenas uma leve pressão sobre o crânio, como a que sente quem usa um chapéu um pouco apertado. A nova versão do sensor funciona com base em um princípio bastante simples. Um pino que se apoia sobre a pele oscila com os movimentos microscópicos dos ossos da cabeça, resultado de variações na pressão intracraniana determinada em grande parte pela chegada de um maior volume de san-gue ao cérebro e aos outros órgãos do encéfalo a cada batimento do coração. O deslocamento do pino move uma alavanca à qual estão presos sensores de deformação (extensômetros), que transformam a movimentação sutil em sinais elétricos, transmitidos para um equipamento que

InFo

gR

áFI

co

an

a P

au

la

Ca

mP

oS

IlU

StR

ão

ma

Ria

na

Co

an

Sem cortes nem sangueSensor fixado sobre a pele registra variações da pressão no interior do crânio

amplIFIcação

no monitor, os sinais

são amplificados

e decodificados, gerando

gráficos que mostram

a evolução da pressão

intracraniana

FontE GuStavo fRiGieRi vilela / uSP-RP

tRanSFoRmação

as oscilações movem

uma alavanca à qual

estão presos sensores

(extensômetros) que

transformam a deformação

em sinais elétricos

Crânio

Cérebro

Cérebro Crânio

fita elásticaalavanca metálica

extensômetros

Pino

tRanSmISSão

um cabo elétrico

conduz os sinais

captados pelo

sensor não

invasivo para

um monitor

Sensor não invasivo

1

1

2

2

3

3

dEtEcção

um pino que se apoia

sobre a pele oscila com

os movimentos dos

ossos da cabeça,

resultado de variações

na pressão intracraniana

Cabo de conexão com o monitor

4

Page 19: Pesquisa FAPESP 221

pESQUISa FapESp 221 | 19

os amplifica e exibe na forma de um gráfico em um monitor (ver infográficos ao lado e na página seguinte). O sensor atual representa um avanço importante em relação ao modelo anterior, em-bora o princípio de funcionamento seja o mesmo: ambos medem oscilações no volume craniano.

O primeiro sensor, usado nos experimentos com animais (ratos, coelhos e ovelhas) e também em testes iniciais com pacientes internados em unidades de terapia intensiva, exige um corte no couro cabeludo e a instalação do sensor na superfície do crânio. Começou a ser projetado em 2007 por Mascarenhas e foi desenvolvido pelo farmacêutico Gustavo Frigieri Vilela, na época aluno de doutorado de Mascarenhas em São Carlos. Ambos buscavam uma forma menos agressiva e invasiva de monitorar a pressão intra-craniana, um dos parâmetros mais importantes que os médicos analisam em pessoas que sofrem traumas na cabeça e outros problemas no sistema nervoso central. Os valores da pressão intracra-niana permitem saber se o cérebro e os outros órgãos do encéfalo estão recebendo a quantidade adequada de nutrientes e oxigênio e se as toxinas estão sendo eliminadas no ritmo que deveriam. Também permitem ter uma ideia de como o siste-ma nervoso central reage a condições anormais, como lesões provocadas por traumas na cabeça, que provocam edema; alterações no suprimento de sangue que ocorrem nos acidentes vasculares cerebrais (AVC) por isquemia ou hemorragia; de-senvolvimento de tumores e distúrbios na circu-lação do líquido cefalorraquidiano ou liquor, que banha o encéfalo e a medula espinhal.

o método mais adotado de monitoramento da pressão intracraniana é considerado um tanto invasivo. Exige a abertura de

um furo no crânio por meio da qual o neuroci-rurgião insere um sensor. O mais superficial fica próximo a uma das membranas que envolvem e protegem o cérebro. Já o mais profundo chega a penetrar cerca de oito centímetros, causando pequenas lesões no tecido cerebral e aumentando o risco de sangramento e infecções. “Em média, infecções e sangramentos ocorrem em 3% dos casos, o que é um risco aceitável do ponto de vis-

ta cirúrgico, mas piora o prognóstico de um doente já grave”, diz o neu-rocirurgião Fernando Gomes Pinto, do Hospital das Clínicas da USP em São Paulo. “Conseguir uma forma de medir a pressão intracraniana não in-vasiva pode trazer grande benefício.”

Mascarenhas começou a buscar um modo menos invasivo de monito-rar a pressão intracraniana em 2006, segundo conta, “por inconformis-mo”. Pouco tempo antes havia pas-sado por uma delicada cirurgia para implantar uma válvula em uma das câmaras do cérebro e drenar o exces-so de liquor. Inicialmente identifica-do como mal de Parkinson – o físico começou a apresentar dificuldade de caminhar e falhas de memória –, o problema de Mascarenhas era outro: hidrocefalia de pressão nor-mal. Comum em idosos, é causada

pelo acúmulo do líquido cefalorraquidiano nas câmaras do cérebro. Um adulto saudável produz meio litro, ou cerca de dois copos, de liquor por dia, um fluido transparente que banha todo o sis-tema nervoso central e o protege, amortecendo os impactos e removendo os metabólitos. Com a idade, o sistema de reabsorção do liquor pode deixar de funcionar adequadamente e o fluido se acumular, pressionando o cérebro. É um fenôme-no semelhante ao que se observa na hidrocefalia infantil, que atinge uma em cada mil crianças e leva à deformação do crânio porque os ossos do crânio ainda não estão consolidados.

“Existem hoje no Brasil cerca de 300 mil vál-vulas como a que uso implantadas”, conta Mas-carenhas. “O problema é que em 30% dos casos

o método mais usado para medir a pressão no interior do crânio exige que se implante um sensor no cérebro, com risco de infecção

Foto

S e

du

aR

do

Ce

SaR

do presente ao passado:

três gerações de monitores

da pressão intracraniana

o sensor minimamente

invasivo (no alto) e o não invasivo

(ao lado): ambos usam

o extensômetro

Page 20: Pesquisa FAPESP 221

20 | julho DE 2014

elas entopem e precisam ser trocadas [por meio de cirurgia].” O que mais inquietava o físico era o fato de que uma das formas de avaliar o funcio-namento da válvula exigia, de tempos em tempos, instalar um sensor de pressão intracraniana. “Eu não me conformava que, em pleno século XXI, ainda fosse preciso fazer um furo na cabeça para medir a pressão intracraniana”, recorda.

Mascarenhas decidiu, então, buscar uma al-ternativa. Consultando colegas de engenharia, descobriu que havia tempos a engenharia civil se valia de um pequeno dispositivo elétrico chamado extensômetro para avaliar sutis deformações em estruturas como as vigas de concreto ou de aço de uma ponte ou as colunas de um edifício. Em um teste inicial, Mascarenhas colou um extensômetro na superfície de um crânio humano emprestado da Faculdade de Medicina da Universidade Federal de São Carlos (UFSCar) e inflou em seu interior um balão de aniversário. Ao balão acoplou um aparelho de medir pressão arterial (manômetro) e comparou os valores registrados no manômetro com os do extensômetro (ver Pesquisa FAPESP nº 159). Embora cada equipamento use unidades de medida diferentes – o manômetro marca em milí-metros de mercúrio e o extensômetro, em volts –, os valores apresentaram o mesmo comportamento: cresciam linearmente à medida que aumentava a pressão e diminuíam igualmente quando a pressão baixava. Era um sinal de que as duas ferramentas mediam o mesmo fenômeno. Mas era preciso con-vencer os médicos, uma tarefa nada fácil.

há pouco mais de dois séculos as escolas médicas ensinam que, uma vez consoli-dadas as articulações dos ossos da cabe-

ça, o crânio se torna rígido e não sofre expansão. Quem primeiro propôs essa ideia foi o anatomista escocês Alexander Monro em 1783. Estudando animais, pacientes e cadáveres humanos, ele e seu aluno e colaborador, o também escocês George Kellie de Leith, postularam, entre outras coisas, que a caixa óssea que abriga o encéfalo, sangue e liquor era inexpansível nos adultos. Nesse con-junto de ideias que se tornou conhecido como doutrina Monro-Kellie, afirmaram ainda que, por não sofrer deformação, qualquer mudança no volume de um dos componentes (sangue, li-quor ou tecido encefálico) levaria à alteração no volume em um dos outros, de modo que o volume total permanecesse constante.

Mascarenhas e seus colaboradores repetiram os experimentos com o balão e o crânio humano e demonstraram que a doutrina Monro-Kellie precisava ser revista. O sensor montado com o extensômetro não só detectou uma sutil dilata-ção do crânio (da ordem de micrômetros), pro-porcional ao aumento da pressão interna, como também registrou sua retração, também linear.

“Mostramos que o material não tinha uma memória da deformação, o que impediria o uso do extensômetro no sensor para monitorar a pressão intra-craniana”, contou Mascarenhas durante uma longa conversa na manhã de 15 de maio na sede do Instituto de Estudos Avançados (IEA), que criou e dirige na USP de São Carlos.

Foram necessários quase quatro anos de tentativas até que uma revista cien-tífica aceitasse publicar os resultados. “Vários editores diziam que o trabalho era bom, mas desafiava um paradigma antigo e muito sólido da medicina”, con-tou Gustavo Vilela, coautor do artigo pu-blicado em 2012 na Acta Neurochirurgi-ca, durante a entrevista na sede do IEA.

Ao mesmo tempo que trabalhavam para aprimorar o sensor, Mascarenhas e Vilela se dedicavam a desenvolver um monitor portátil, para ser usado tam-bém fora das salas de cirurgia e UTIs. A

versão atual do monitor – a terceira já produzida – traz todos os componentes eletrônicos embar-cados. Pesando menos de dois quilos, tem a apa-rência de uma maleta com aproximadamente 30 centímetros de largura por 30 de altura e 15 de profundidade. Sua bateria suporta cinco horas de funcionamento e seu cartão de memória, que pode ser substituído, tem capacidade para arma-zenar informações de dias de monitoramento.

Experimentos realizados com um balão de borracha demonstraram que o aumento da pressão dentro da cabeça faz o crânio dilatar

mais que um númerooscilações da pressão intracraniana permitem saber como evolui a resposta do cérebro a danos

FontE GuStavo fRiGieRi vilela / uSP-RP

Page 21: Pesquisa FAPESP 221

pESQUISa FapESp 221 | 21

Em princípio, poderia ser usado por médicos ou paramédicos em uma ambulância para ava-liar a pressão intracraniana de quem sofreu um acidente de trânsito antes de chegar ao hospital.

Além de todo o hardware, a nova versão do mo-nitor abriga um programa que converte os sinais elétricos gerados pela pulsação do crânio em dois gráficos: o apresentado em um quadro maior mos-tra a evolução da pressão ao longo de um tempo que varia de cinco a 20 minutos, enquanto o se-gundo, que aparece em uma janela menor, permite observar o formato (morfologia) da curva num in-tervalo de tempo de poucos segundos. Esse gráfico é importante porque informa ao médico como o cérebro está respondendo aos danos. Os pesqui-sadores estimam que o equipamento todo (sensor e monitor), já com impostos, chegue ao mercado por cerca de R$ 3.500, quase 15 vezes mais barato do que os aparelhos usados nas formas invasivas de monitorar a pressão intracraniana.

“A versão anterior precisava ser conectada a um notebook e não passaria nos testes de emissão de radiação do Inmetro [Instituto Nacional de Metrologia]”, conta Vilela. Com cinco unidades já produzidas, a versão mais nova do monitor es-tá pronta para ser encaminhada para análises de qualidade e segurança no Inmetro. Os pesquisa-dores terão de aguardar a aprovação do instituto para em seguida submeterem à análise da Agên-cia Nacional de Vigilância Sanitária (Anvisa), necessária para que o equipamento seja liberado para a comercialização e o uso na prática clínica.

Mesmo antes de passar por esses testes, no en-tanto, o equipamento já pode ser usado como produto para pesquisa.

“Nossa intenção é entrar no mercado univer-sitário para ajudar a formar uma massa crítica sobre o produto”, diz Vilela, um dos sócios de Mascarenhas na Braincare, empresa criada em janeiro deste ano para ser a fabricante legal do equipamento – a produção deve ficar a cargo de uma empresa terceirizada, a Cluster Tech, tam-bém de São Carlos. “Queremos dar o equipamen-to para as pessoas interessadas trabalharem e as deixar descobrir coisas, porque não temos tempo nem dinheiro para fazer todos os testes”, afirma Mascarenhas. “A Braincare não quer fabricar, quer ser uma empresa que desenvolve ideias”, completa Vilela.

o desenvolvimento de uma tecnologia to-talmente nacional na área de saúde é al-go demorado. Pode levar de 10 a 15 anos

para cumprir todos os procedimentos de análi-se de segurança e custo-efetividade. E também um feito um tanto raro no país. “Em geral o de-senvolvimento é incremental; sempre fomos compradores de tecnologia, por isso o déficit na balança comercial nessa área é negativo em cerca de R$ 10 bilhões”, conta Paulo Henrique Antonino, coordenador-geral de equipamentos e materiais de uso em saúde da Secretaria de Ciência, Tecnologia e Insumos Estratégicos do Ministério da Saúde. “Se tudo o que o grupo de São Carlos está mostrando até agora se confir-mar, será uma revolução”, diz. “A expectativa é ter um produto para ser usado nos pacientes em rede de urgência e emergência pela praticida-de.” Antonino acredita que, se essa tecnologia passar por todos os estágios de aprovação e for incorporada à prática médica, ela pode ganhar o mercado global.

Os avanços para transformar o protótipo em produto devem-se, em boa parte, à interação dos pesquisadores da Braincare com os da Sapra Landauer, empresa de equipamentos de prote-ção radiológica criada por Mascarenhas em 1979 e dirigida por seus dois filhos, os físicos Paulo e Yvone. “A colaboração da Sapra é ajudá-los a pôr o pé no chão”, disse Yvone durante uma conversa em maio na sede da Sapra, um prédio de dois andares a 10 minutos do campus da USP em São Carlos. “Na universidade, a tendência é tentar melhorar sempre e não ir para o merca-do”, explica. Em sua opinião, para que se con-siga melhorar um produto é preciso ter algum retorno, até mesmo financeiro, do que já foi fei-to. “O mercado fala de volta para você”, diz. “No caso desse equipamento, esse é um mercado que ainda será criado e precisamos saber o que o mercado vai querer.”Il

USt

Ra

çã

o m

aR

ian

a C

oa

n I

nFo

gR

áFI

co

an

a P

au

la

Ca

mP

oS

40 milímetros de mercúrio é o valor que marca o início da hipertensão intracraniana

cURva dE pRESSão noRmal

cURva dE tEndêncIa da pRESSão

cURva dE pRESSão altERada

em condições normais,

a pressão intracraniana

varia de cinco a 20

milímetros de mercúrio

e a curva apresenta três

picos decrescentes

alterações na pressão

modificam o formato da

curva. o segundo pico mais

elevado (seta) indica uma

redução na capacidade do

cérebro de absorver sangue

na tela do monitor há dois gráficos. o maior,

acima, mostra a evolução da pressão intracraniana

em um intervalo de até 20 minutos. o menor,

abaixo, permite ver o formato (morfologia) da curva

oU

Page 22: Pesquisa FAPESP 221

22 | julho DE 2014

A possibilidade de monitorar a pressão in-tracraniana de forma não invasiva é algo que se busca há tempos. “É o sonho de todo neuroci-rurgião e neurologista”, afirma o neurocientista Esper Cavalheiro, da Universidade Federal de São Paulo (Unifesp), que acompanha de perto os resultados do grupo de São Carlos. Há várias situações em que a elevação crônica da pressão intracraniana pode levar à perda neuronal, lem-bra o pesquisador, especialista em epilepsia. “As formas diretas de medir a pressão intracraniana são invasivas e as indiretas, como os exames de imagem, são apenas indicativas e não fornecem uma comprovação de que esse aumento de fato ocorre”, explica. “Seria de grande ajuda para quem trabalha com pacientes refratários ao tra-tamento para epilepsia, que apresentam aumento da pressão intracraniana, em especial aqueles cuja doença de base é a neurocisticercose.”

outro grupo que pode se beneficiar de uma forma não invasiva de monitoramento é o das crianças com hidrocefalia, o acúmulo

de liquor nas câmaras (ventrículos) cerebrais, que nos bebês causa, entre outras coisas, a de-formação do crânio. “Há vários casos em que há dúvida se a válvula implantada para reduzir a pressão na hidrocefalia está funcionando bem”, afirma o neurocirurgião pediátrico Sergio Ca-valheiro, também da Unifesp. Antes que o equi-pamento do grupo de São Carlos seja liberado para uso na clínica, lembra o neurocirurgião, é preciso demonstrar que os efeitos medidos são decorrentes mesmo da dilatação do crânio, e não da distensão da pele. “Se a medição sobre a pele permitir o monitoramento fiel da pressão intra-craniana, será fantástico”, afirma.

O médico uruguaio Felix Rígoli, coordenador da área de tecnologia e inovação em saúde da Organização Pan-americana da Saúde (Opas) no Brasil, que também apoia a execução do projeto, vê nessa nova tecnologia a oportunidade de se abrir uma jane-la para o desconhecido. “Se for pos-sível medir a pressão intracraniana de modo não invasivo, poderemos fazer o monitoramento continuado e tentar descobrir o que ocorre em problemas como Alzheimer e até en-xaqueca”, diz. Nesses casos, haveria questionamento ético da necessidade de realizar um procedimento cirúrgi-co para medir a pressão intracrania-na. Para Rígoli, a forma não invasiva de monitorar também permitiria co-nhecer os níveis normais da pressão intracraniana nas pessoas saudáveis, algo que ainda se desconhece. “Pode

acontecer o mesmo que ocorreu com a pressão arterial dois séculos atrás, quando, ao se conse-guir uma forma de medir a pressão fora do corpo, criou-se toda uma linha de possíveis aplicações, inclusive na prevenção de doenças.”

Com cinco exemplares da nova versão do equi-pamento funcionando, os pesquisadores de São Carlos e Ribeirão Preto agora trabalham para co-letar dados em pacientes e tentar demonstrar que o monitoramento não invasivo e a técnica invasiva medem o mesmo fenômeno. Em abril deste ano Gustavo Vilela e o engenheiro Rodrigo Andrade passaram um mês na cidade do Porto, onde usa-ram o novo equipamento para monitorar a pres-são intracraniana de oito pacientes e comparar suas medições com os dados obtidos pela técnica invasiva. As 850 horas de registro estão agora sob a análise de Brenno Cabella, em Ribeirão. Os resul-tados preliminares, apresentados em um congresso internacional realizado em Cingapura em novembro de 2013, sugerem que as duas estratégias medem a mesma coisa. “Em alguns casos, a correlação foi altíssima”, conta Cabella. Mas ainda são precisos muito mais casos, talvez algumas centenas, para que a reprodutibilidade das medições seja avaliada.

“Nessa fase, a investigação está na transição entre o refinamento técnico e a investigação ani-mal para a fase clínica de avaliação com doentes”, conta Celeste Dias, coordenadora da unidade de cuidados neurocríticos do Hospital de São João, na cidade do Porto. “Aqui começa minha maior contribuição: colaborar na investigação clínica”, diz a médica intensivista. Ela conheceu o trabalho dos pesquisadores de São Carlos em 2010 em um congresso internacional e os colocou em contato com a equipe de Marek Czosnyka, da Universi-dade de Cambridge, na Inglaterra, renomado

o sonho dos neurocirurgiões e neurologistas é obter uma forma não invasiva de monitorar a pressão intracraniana

Page 23: Pesquisa FAPESP 221

pESQUISa FapESp 221 | 23

Projetos1. desenvolvimento de um equipamento para monitoramento mini-mamente invasivo da pressão intracraniana (nº 08/53436-2); Moda-lidade Programa Pesquisa inovativa em Pequenas empresas (Pipe); Pesquisador responsável Sérgio mascarenhas oliveira (Sapra/S.a.); Investimento R$ 221.430,90 (faPeSP).2. Registro e comercialização de um equipamento para monitoramen-to minimamente invasivo da pressão intracraniana (nº 11/51080-9); Modalidade Programa Pesquisa inovativa em Pequenas empre-sas (Pipe); Pesquisador responsável Sérgio mascarenhas oliveira (Sapra/S.a.); Investimento R$ 165.647,77 (faPeSP).3. desenvolvimento de sensor não invasivo, hardware e software para monitoramento de pressão intracraniana em pacientes com hidrocefalia e acidente vascular cerebral (nº 12/50129-7); Modali-dade Programa Pesquisa inovativa em Pequenas empresas (Pipe); Pesquisador responsável Gustavo Henrique frigieri vilela (Sapra/S.a.); Investimento R$ 219.948,02 (faPeSP).

artigo científicomaSCaRenHaS, S. et al. the new iCP minimally invasive method shows that the monro-Kellie doctrine is not valid. acta neurochirurgica. 2012.

Estudo-piloto avaliou a viabilidade de usar o novo sensor em gestantes em busca de sinais de pré-eclâmpsia

especialista em análise da pressão intracraniana com quem Celeste Dias já colaborava. Em outu-bro Danilo Cardim vai para Cambridge, onde fará doutorado no grupo de Czosnyka. O biólogo bra-sileiro, que em seu mestrado avaliou a variação da pressão intracraniana em ratos epilépticos, levará na bagagem dois exemplares do equipamento não invasivo para fazer o monitoramento da pressão intracraniana em pessoas que sofreram acidente vascular cerebral ou trauma e confrontar com os registros da técnica invasiva.

A lém do trauma, do acidente vascular cere-bral e da hidrocefalia, problemas que sabi-damente exigem a averiguação da pressão

intracraniana, os pesquisadores pretendem am-pliar a verificação desse parâmetro para outros problemas de saúde nos quais nada se sabe sobre o comportamento da pres-são intracraniana, como a pré-eclâmpsia.

Em São Carlos e Ribei-rão Preto, a expectativa de Cavalli, Duarte e a equipe de Mascarenhas é de que o monitoramento não invasi-vo forneça algum sinal que sirva de indicador preco-ce do risco de desenvolver pré-eclâmpsia. Hoje estão disponíveis no mercado tes-tes que medem o nível de dois compostos do sangue. Mas eles só permitem saber se a mulher desenvolverá essa forma de hi-pertensão típica da gestação no máximo três sema-nas antes de a pressão sanguínea começar a subir e surgirem sintomas como dores de cabeça, tontura e confusão mental. “Há uma grande dificuldade de encontrar um preditor que funcione bem e mais precocemente”, conta Cavalli, que retornou em março de um estágio na Universidade Harvard, onde investigou a eficácia desses marcadores san-guíneos. “Queremos encontrar um indicador que permita saber já no início da gestação quem tem maior risco de desenvolver o problema”, diz.

No início de maio Cavalli realizou um estudo--piloto com voluntárias para avaliar a aplicabi-lidade do sensor não invasivo. Em apenas uma tarde, os pesquisadores monitoraram a pressão intracraniana de oito gestantes. “Vimos que é muito simples e rápido”, diz.

“Se conseguirmos antecipar o diagnóstico, po-demos triar as pacientes com risco de desenvolver pré-eclâmpsia e também acompanhar a evolução do tratamento”, afirma Duarte, que planeja para breve um teste clínico com o monitor não invasivo para acompanhar a evolução da pressão intracra-niana de gestantes ao longo da gravidez e compa-rar com os marcadores sanguíneos disponíveis.

Embora não haja dados na literatura científica associando a pré-eclâmpsia a alterações na pres-são intracraniana, Duarte conta que há indícios de que isso possa ocorrer. “Pode ser que não en-contremos nada, mas pode ser que se consiga algo que ninguém ainda obteve”, diz Duarte. “Se der certo, talvez seja possível ajudar a reduzir a taxa de mortalidade perinatal e materna.” n

Page 24: Pesquisa FAPESP 221

24 | julho DE 2014

idade 61 anos

especialidade Redes de computação

formação Escola Politécnica da Universidade de São Paulo (da graduação ao doutorado)

instituições Núcleo de Informação e Coordenação do Ponto BR (NIC.br) e Pontifícia Universidade Católica de São Paulo (PUC-SP)

léo

Ra

mo

S

Page 25: Pesquisa FAPESP 221

pesQuisa fapesp 221 | 25

um construtor da internet

entrevista

marcos de oliveira

Demi Getschko foi o primeiro brasileiro a ter o nome incluído no Hall da Fama da Internet, uma honraria concedida pela Internet Society (ISoc), organização não governamental formada por representantes

de todo o mundo com o objetivo de promover a evolução da internet. O mérito de Getschko foi contribuir para que a rede mundial de computadores alcançasse êxito no Brasil durante os seus primórdios. Estava à frente do Centro de Proces-samento de Dados (CPD) da FAPESP em 1991 quando, ele mesmo diz, “pingaram os primeiros pacotinhos da internet” na sede da Fundação no bairro da Lapa, em São Paulo. Era o primeiro contato do país com a novidade que traria inovações em vários aspectos na vida das pessoas e das instituições. Por meio de acordos diretos com a administração das redes norte-americanas acadêmicas, Demi Getschko e a equipe do CPD da FAPESP conseguiram a delegação do domínio .br, que identifica o código do país nos endereços da web e dos e-mails.

Com a implantação da internet e sua rápida expansão, que aconteceu primeiro no meio acadêmico, Getschko coordenou, ainda como chefe do CPD da FAPESP, a área de operações da Rede Nacional de Pesquisa (RNP) que interligou as principais universidades do país. Ele também ajudou a implementar e a dirigir a rede Academic Network de São Paulo (ANSP), pro-vedora das universidades paulistas. Por participar de todo esse processo, ele esteve na composição do Comitê Gestor da Internet no Brasil (CGI) desde setembro de 1995 até hoje. Em 2005, foi convidado para montar e ser o diretor-presidente do Núcleo de Informação e Coordenação do Ponto BR (NIC.br), entidade que é o braço executivo do CGI e coordena os serviços da rede no Brasil. Nos últimos anos, participou ati-vamente da elaboração do marco civil da internet, aprovado este ano no Congresso Nacional. Antes de assumir o NIC.br, ele também foi membro da diretoria da Internet Corporation for Assigned Names and Numbers (Icann) e, depois de deixar a FAPESP em 1996, foi diretor de tecnologia da Agência Estado

Demi Getschko

e do provedor IG. Engenheiro elétrico formado pela Escola Politécnica da Universidade de São Paulo (Poli-USP), onde fez mestrado e doutorado, Getschko é professor na Pontifícia Universidade Católica de São Paulo (PUC-SP).

Como é ser escolhido para o Hall da Fama da Internet?Faz três anos que a Internet Society [ISoc] escolhe pessoas pa-ra o Hall da Fama. A ISoc é uma associação formada em 1992 e concebida por Robert Kahn, Vint Cerf e Lyman Chapin [norte--americanos pioneiros na tecnologia da internet], quando a in-ternet foi aberta para a comunidade fora do mundo acadêmico. A ISoc decidiu criar esse tipo de reconhecimento. São três ca-tegorias distintas: pioneiros, inovadores e conectores globais. A primeira contempla os que deram profunda contribuição à tecnologia da internet e desenvolveram os protocolos da família TCP/IP [Transmission Control Protocol e Internet Protocol]. Nela se inserem, por exemplo, Vint Cert, Robert Kahn, Jon Postel, Steve Crocker e outros. Os inovadores são aqueles que construíram ferramentas para operar sobre a estrutura básica da internet. Entre eles estão pesquisadores como Tim Berners--Lee, que criou a web, uma importantíssima aplicação sobre a internet. A terceira categoria é a dos conectores globais com o pessoal que se envolveu com a disseminação da rede e apoiou a internet em vários locais do mundo. É nessa terceira que meu nome foi lembrado.

Da América Latina o senhor é o único?Sou o segundo a ser nomeado da América Latina. Tivemos, no ano passado, Ida Holz, do Uruguai, da Universidade Nova Re-pública, de Montevidéu, que ganhou também nessa categoria de Global Connectors. Ela é bastante conhecida na área porque participou do início de muitas redes acadêmicas. Fui o primeiro do Brasil e o segundo da América Latina. Mas vamos reconhecer uma coisa muito importante: essa designação pessoal de alguém é algo absolutamente injusto, porque sempre é um trabalho

Page 26: Pesquisa FAPESP 221

26 | julho DE 2014

coletivo. Como não se pode eleger um ti-me de muitos, elegem um ou dois. Então queria deixar claro aqui que ninguém fez nada sozinho. E eu sou uma das pessoas que participaram do time que trouxe as redes acadêmicas para o país e que tinha gente da FAPESP, da RNP [Rede Nacio-nal de Pesquisa], do LNCC [Laboratório Nacional de Computação Científica], da UFRJ [Universidade Federal do Rio de Janeiro], e muitos mais, que montaram conexões acadêmicas no Brasil no fim dos anos 1980. Por algum motivo acabaram me citando, talvez porque eu tenha ficado na área de forma mais ou menos constante.

O senhor faz parte da Internet Society?A Internet Society [ISoc] é uma organi-zação não governamental que tem se-de nos Estados Unidos e capítulos pelo mundo. Eu faço parte do chapter brasi-leiro, que deve ter uns 300 membros. A Internet Society central é mantida com recursos financeiros do registro de domí-nios sob o .org, que é operado pelo PIR [Public Interest Registry]. Assim, tudo que é registrado debaixo de .org gera recursos que são carreados para a ISoc. Da mesma forma que o .br gera recursos a partir do registro de domínios para o CGI e para o NIC. Uma das principais atividades da ISoc é coordenar as reu-niões do IETF [Internet Engineer Task Force], o órgão que trabalha na geração dos padrões da internet. O IETF é coor-denado pelo IAB [Internet Architectu-re Board], que mantém a ortodoxia da internet, no sentido de observar e pre-servar os princípios originais da rede.

O que seriam esses princípios originais da internet?A internet foi concebida para ser uma re-de aberta e única. Espera-se que ela não se fragmente. Quando acontecem ten-sões na China, na Rússia ou em outros lugares, surgem ameaças de fragmenta-ção. A internet é uma rede cooperativa e a raiz de seus nomes é única. Quando você escreve um nome que, por exem-plo, termina em .com, ele é resolvido de forma única: não existem duas formas de nomear um equipamento na rede. Além disso, outro princípio básico é que ela teria que ser mantida sempre neutra entre os dois pontos finais: o emissor e o receptor. Esteja você na Austrália e eu no Brasil, ninguém no meio da re-de teria o direito de se intrometer nos

pacotes e seu conteúdo, nos serviços e protocolos usados. A função do “meio” da rede é a de carregar informação (pa-cotes) de um ponto da rede para o outro. É uma grande “despachante” de pacotes. A rede nunca entra no mérito do que es-tá carregando, só despacha. Claro que, com o tempo, aparecem coisas no meio do caminho, como ataques propositais a sítios, que podem afetar um pouco o conceito fim a fim, a ideia original da in-ternet. Outra fonte de tensão é o fato de que a internet representa uma ruptura para uma série de modelos preexisten-tes. Um deles é o modelo tradicional de geração de padrões. A internet não tem um processo formal envolvendo gover-nos e grandes empresas de telecomuni-cações, como acontece, por exemplo, na ITU [International Telecommunication Union], mas sim um processo aberto a pessoas e entidades de qualquer área, seja acadêmica, técnica ou comercial, que querem participar. Os voluntários se reúnem três vezes ao ano, sempre repre-sentando a si próprios, não instituições, discutem e geram padrões que até hoje sustentam e fazem crescer a rede. Outra característica é que, como sua base está estabelecida a partir de padrões abertos TCP/IP, todos estão livres para gerar aplicações sobre essa base sem precisar de nenhuma licença ou tipo de permis-são: a chamada permissionless inovation [inovação sem permissão]. Ninguém per-guntou se podia lançar o Twitter ou o Fa-cebook. Você tem uma ideia? Implante e jogue na rede. Se for um sucesso, muito bem, você pode se tornar milionário; se for mau, melhor pensar em outra ideia. Essas são características típicas da in-ternet que não existem na telefonia ou nas telecomunicações.

Existem propostas nos Estados Unidos, pelo crescimento intenso do uso da rede com vídeo, de aumentar a participação arrecadatória das empresas de teleco-municações. Como o senhor vê isso e como está a situação no Brasil?É importante racionalizar o tráfego para o benefício de todos. Uma das formas de fazer isso é implantar Pontos de Troca de Tráfego [PTTs], ou IXP [Internet Ex-change Points]. No Brasil o ponto mais importante de tráfego está em São Paulo, onde já bateu 500 gigabites por segundo de pico, que é um número muito sério. Somos o quarto ou quinto país do mun-

do que mais usa PTTs na troca de tráfe-go. O que se nota hoje é uma mudança no aspecto da curva de tráfego no PTT de São Paulo e que é uma boa amostragem brasileira. Antes tínhamos um pico às 11 horas, caía um pouco na hora do almoço, voltava a subir às 14 horas, alcançava o máximo às 16 horas e começava a descer, decaindo até a madrugada. De uns seis meses para cá, continua o pico das 11h30, cai um pouquinho no almoço, sobe às 14 horas e vai subindo até as 16h30, aí come-ça a cair e quando dão 18h30, 19 começa a subir de novo e atinge o pico do dia às 22 ou 23 horas.

Por causa do quê? Porque o tráfego é cada vez mais afetado por aplicações que se dedicam a entre-tenimento. As pessoas estão usando mais banda em casa do que no escritório, por-que não assistem a filmes durante o tra-balho, mas em casa sim. E domingo, que era um dia de tráfego muito baixo, hoje tem mais tráfego que segunda ou terça. Significa uma mudança no perfil de trá-fego em direção à área de entretenimen-to, não apenas só comércio, informação, serviço etc. Um filme usa muito mais ban-da que um acesso à conta bancária, por exemplo. A discussão sobre isso é com-plicada, envolve inclusive o debate sobre neutralidade. Só para abrir um parênte-se, em fins de abril tivemos em São Pau-lo o NetMundial, um evento que gerou um importante documento final. Eu par-ticipei da equipe de consolidação e de redação deste documento, que foi um processo de busca do consenso. Consen-so é algo que, teoricamente, não é inacei-tável pelos participantes, pode desagradar um pouco a cada um, mas o faz por igual. Neste documento de consenso, a palavra “neutralidade” [net neutrality] não apa-rece, mas foi preservado o importante conceito de fim a fim, de que não pode haver interferência de um intermediário no pacote de dados que trafegam na rede. Por que não aparece neutralidade? Por-que essa palavra hoje está semanticamen-te muito carregada. O que se entende por neutralidade nos Estados Unidos não é o mesmo que se entende na Europa ou na Índia. É difícil definir, e alguém sem-pre vai dizer que não aceita a definição do outro, mesmo sem saber bem qual é. Vou dar um exemplo. Neutralidade é fa-cilmente entendida quando tratamos de telecomunicações, mas não é esse o caso

Page 27: Pesquisa FAPESP 221

pesQuisa fapesp 221 | 27

quando falamos de neutralidade na in-ternet, onde há inúmeras camadas e con-textos em que neutralidade é algo a ser mantido. Olhe o que se passa, por exem-plo, na TV a cabo por assinatura. Se ama-nhã aparecer um novo canal que eu não assino, eu posso nem saber que ele surgiu, mesmo que eventualmente fosse um ca-nal com conteúdo que me interessa. Na internet surgiu há pouco tempo, por exemplo, o Twitter. Todos puderam ter contato com esse novo serviço e adotá-lo ou não. Não há assinatura de serviços na internet – acessa-se tudo o que nela exis-te. Ao contrário do mundo da TV a cabo, que é um “jardim murado”. Esse não é o modelo que gostaríamos para a internet, por isso lutamos pela sua neutralidade: a rede tem de estar aberta para qualquer inovação e serviço e eles de-vem estar disponíveis para todos os usuários. A expe-riência de cada um de nós na internet tem que ser sempre total. Ninguém pode dizer que uma pessoa só pode ver vídeos do YouTube, ou só ver correio eletrônico na rede. Um “jardim murado” limita a navegação no máximo ao já existente: se aparecer algo novo, os usuários podem nem ficar sabendo. E isso é quebra da neutralidade. Em resumo, é preciso pensar em neutra-lidade como algo qualitativo. Não podemos ter distinção entre conteúdos, entre servi-ços. Quantitativamente, se eu quero mais banda, tenho que pagar mais por ela. Se eu que-ro 10 megabits por segundo, isso é mais caro do que um megabit. Mas, com qual-quer banda de acesso, 10 ou um, deve-se ver uma internet completa, sem bloqueios ou “muros”.

E o marco civil da internet no Brasil que foi aprovado? O conceito e a constatação da necessidade de marco civil para a internet no Brasil começaram a partir da discussão e apro-vação do decálogo do CGI. O marco civil foi objeto de longa discussão, com diversas audiências públicas e mais de 2 mil con-tribuições de indivíduos até se chegar ao seu formato final. Foi um projeto de lei criado e discutido com muita interação e, fundamentalmente, com a busca de um

consenso. O Alessandro Molon [PT-RJ], deputado federal relator do projeto, tra-balhou muito para que o marco civil che-gasse à sua aprovação e em todas as fases sempre batalhou para manter de pé os três pilares fundamentais do marco, baseados no decálogo do CGI: neutralidade, pri-vacidade do usuário e responsabilização adequada da cadeia de valor.

O que é responsabilização adequada da cadeia de valor?Quando se busca um responsável por um abuso cometido na rede, há sempre uma tendência de pegar o caminho mais fácil ou mais visível. Por exemplo, diga-mos que há um vídeo problemático no YouTube – e isso ocorreu, por exemplo, com um vídeo na praia de uma artista,

a Daniella Cicarelli, há uns sete anos. Alguém se sentiu ofendido pelo vídeo e entrou na Justiça pela sua remoção. Não entro no mérito do vídeo em questão, se é bom ou ruim, mas não parece razoável tirar todo o serviço de vídeos [YouTube] do ar por causa desse vídeo específico, mas foi o que um juíz à época decidiu. Daí sai o vídeo da Cicarelli, mas sai uma enorme quantidade de outros vídeos tam-bém, que nada têm a ver com o eventual abuso em questão. De quem é a culpa no caso desse vídeo da Cicarelli? Não pare-ce ser do provedor de vídeos [YouTube], mas sim da pessoa que fez o vídeo. Se é para responsabilizar alguém, onere-se quem gerou o abuso, e não quem está no meio do caminho. O mensageiro não tem

culpa da mensagem. Se eu receber uma carta que me ofenda, não vou responsa-bilizar o carteiro. Pode-se até pedir para o YouTube tirar esse vídeo específico do ar, porque a Justiça o considerou inade-quado e, se for viável tecnicamente, o provedor tem que o remover obedecendo à decisão judicial. Mas, se o provedor for automaticamente responsável pelo que lá está hospedado, podemos chegar a uma situação onde, se há uma página cujo conteúdo desagrada a alguém, e se esse alguém responsabilizá-lo, ao ser notifi-cado da reclamação, esse provedor certa-mente vai retirar do ar o que está sendo reclamado, por medo de ser processado. Mesmo que o conteúdo da página não seja irregular. Com isso cria-se um am-biente de provável autocensura. Então é

preciso que se responsabilize o verdadeiro autor, evitando--se o crescimento do fantas-ma da autocensura.

Qual o papel da Icann [In-ternet Corporation for As-signed Names and Num-bers]? Esse órgão é ligado ao governo norte-americano?A Icann é uma instituição sem fins lucrativos, sediada na Califórnia, que tem um conselho formado por 16 pessoas de todos os lugares do mundo, mas não tem a ver com tráfego na internet. A constituição do conselho da Icann é multissetorial, da mesma forma que a do CGI. Três brasileiros já fizeram parte do Conselho da Icann:

Ivan Moura Campos, Vanda Scartezini e eu, que lá estive por cinco anos, eleito pela ccNSO [Country Code Names Sup-porting Organization], organização ligada aos domínios de código dos países. Tem também alguns pontos fracos. O defeito, por exemplo, de não ser legalmente inter-nacional ao estar sob a lei da Califórnia. Se algum juiz de lá decidir alguma coisa estranha baseado em lei local, isso pode afetar a internet. O problema da Icann é que ela cuida de algo bastante limita-do, mas importante, que é a raiz da lista telefônica responsável por traduzir um nome de domínio para um número IP. Tudo que termina em .br, por exemplo, tem que ser convertido para um núme-ro. Mas alguém precisa ser o cabeça da

É preciso pensar em neutralidade como algo qualitativo, sem distinções entre conteúdos e serviços

Page 28: Pesquisa FAPESP 221

28 | julho DE 2014

lista e dizer como se chega ao .br para que, depois, o responsável pelo .br, no caso o NIC.br, finalizar a tradução de, por exemplo, usp.br, ou fapesp.br. Assim, da raiz dessa “árvore” de tradução de nomes para números é a Icann que cuida. Além disso, a Icann tem outra tarefa crítica, que é distribuir números IP [Internet Protocol] para os órgãos regionais RIRs [Regional Internet Registries], que os distribuem para as instituições e usuá-rios finais. Aqui no Brasil, desde 1994, nós recebemos do Lacnic e distribuímos números para o país, autonomamente.

E essa questão de que todo o tráfego da internet passa pelos Estados Unidos?Bem, isso depende mais da geografia e do projeto global de engenharia nas tele-comunicações. Não da Icann, que, como disse, trabalha com nomes e números. Tráfego tem a ver com a localização das fibras ópticas submari-nas, das grandes centrais de comutação de dados. As fi-bras brasileiras, por exemplo, aportam em sua grande maio-ria nos Estados Unidos e dali saem outras para a Europa, Ásia e África. É o resultado de modelagem da engenharia de telecomunicações, não da internet, que apenas trafega no interior desses cabos. Com isso, os EUA acabam sendo topologicamente um centro de tráfego muito importante e, se usarem isso para espio-nar o tráfego, têm facilidades especiais por concentrarem a passagem de boa parte dele.

As pessoas fazem muito essa confusão?Sim, mas a confusão também pode ser proposital, porque tem interesses envol-vidos. Existem pontos privilegiados na re-de, onde uma monitoração pegaria quase tudo que passa. É como colocar câmeras e sensores no metrô da praça da Sé: to-do mundo baldeia ali. Se monitorarmos aquela estação toda, pegaremos boa parte do tráfego total que passa no metrô. Claro que o monitoramento ilegal em telecomu-nicações e internet é uma ação deplorável e todo mundo devia ser contra, mas isso não é culpa da internet em si, que paga o pato. O que seria culpa direta da inter-net? Vazar o correio eletrônico, que estava

armazenado em algum lugar, é um típico caso ligado diretamente à internet. Mas os casos delatados pelo Snowden [Ed-ward Snowden, ex-analista da Agência de Segurança dos Estados Unidos que revelou casos de espionagem do governo norte-americano] ou são vazamentos em cabos submarinos e, portanto, das teleco-municações, ou são grampos na telefonia celular, que também é telecomunicações. A internet entrou nisso de gaiata e está pagando por um problema que não é dela.

E do Julian Assange, do Wikileaks [site que revelou documentos secretos dos Estados Unidos]?Também é vazamento, principalmente de telegramas e de cabos submarinos, ou seja, telecomunicações. Recolhe-se a informa-

ção de algum lugar e se dissemina na rede. Se houvesse vazamento no correio ele-trônico, por exemplo, seria um problema da internet. Na China, há algum tempo, o governo queria descobrir quem era o do-no de alguns blogs e algumas empresas, inclusive norte-americanas, colaboraram e o governo chegou até alguns ativistas. Isso certamente é uma culpa que pode ser atribuída à internet e, claramente, não é bom. Assim, não estou dizendo que a internet não tem culpa, tem sim, mas na proporção que lhe diz respeito.

Eu queria que o senhor falasse também sobre o Comitê Gestor da Internet. Foi um exemplo para outros países?Sim. O Brasil foi muito feliz ao criar um

órgão leve e multissetorial como o CGI. Continuamos recebendo elogios e ci-tações em vários lugares. O presidente da Icann, quando vai a um país, sempre elogia o modelo brasileiro e sugere que o imitem. O CGI foi montado em 1995, te-ve algumas reformulações e atualmente está na configuração que foi criada por decreto em 2003.

Que reformulações?O CGI teve pequenas alterações de com-posição, tanto em número de conselhei-ros como na representação. Na configu-ração atual que temos, a de 2003, são 21 membros, sendo nove do governo e 11 da sociedade civil, eleitos pelos respec-tivos segmentos. Os nove do governo não têm prazo de mandato porque ficam

até outro representante ser eventualmente nomeado pe-lo ministro correspondente. Às vezes, o próprio minis-tro é o ocupante da cadeira no CGI. Os 11 eleitos direta-mente por suas comunida-des têm três anos de man-dato. Existem três assentos para a academia, quatro pa-ra o Terceiro Setor, quatro para a área empresarial, as-sim distribuídos: um para os usuários empresariais, um para provedores de acesso e serviços, um para provedo-res de infraestrutura e um para o segmento empresa-rial de software e hardware. Importante observar que o governo não tem maioria no CGI. O coordenador do CGI,

por razões históricas, desde sua criação é sempre o representante indicado pelo Ministério da Ciência, Tecnologia e Ino-vação. Em teoria teríamos uma situação em que 12 se sobrepõem aos nove numa votação, mas, em termos de internet e de consenso, isso não seria nada bom. Uma votação com maioria apertada nunca aconteceu, a votação é, sempre que pos-sível, substituída por comum acordo. Raramente tivemos votações e, quando houve, foi 20 a um, 19 a dois, por exem-plo. Outro aspecto importante é que o CGI não tem poder de imposição ou de regulação. Ele gera boas normas, toma medidas, gera estatísticas, dá cursos em áreas específicas e toma ações em favor da internet no país.

o padrão da internet se mostrou magnífico desde kilobytes até terabytes, mas será sempre assim?

Page 29: Pesquisa FAPESP 221

pesQuisa fapesp 221 | 29

O TCP/IP continua forte mesmo com todas as mudanças. O senhor continua com essa visão?Sim. Desde há muito tempo o TCP/IP, o Ethernet e outros padrões viraram a úni-ca opção prática, e não há discussão. Antes disso, nos anos 1980, havia uma multiplici-dade de opções e era uma longa discussão a escolha do padrão a ser usado em cada caso. Sem falar que as opções eram ligadas aos fabricantes. Para redes, por exemplo, os usuários da IBM usavam SNA e Token Ring, os usuários da Digital, Decnet etc. Tudo isso se consolidou em torno de um único padrão dominante, que é ainda o TCP/IP. Essa dis-cussão dos anos 1980 não acontece mais hoje, e ninguém mais fala em rede de longo alcance sem se referir automaticamente ao TCP/IP, e não tem rede local que não este-ja usando Ethernet. Certamente o pessoal que pesquisa protocolos não vai deixar que continue tudo congelado por mais 30 anos. O TCP/IP mostrou uma flexibilidade mag-nífica, indo dos kilobytes até os gigabytes e terabytes, mostrou que ainda está avan-çando e tem vitalidade, mas não se pode garantir que continue a ser sempre assim. Padrões exaurem-se e são eventualmente trocados por outros ou recebem adições. Hoje existe uma forte pressão da área de pesquisa em redes para que se desenvol-vam e testem alternativas, o que é sempre muito saudável. Se a alternativa for boa, ela acaba se sobrepondo ao que existe. Se não for, nada acontece. Hoje pragmaticamente não temos alternativa comercial viável ao TCP/IP, mas pode ser que daqui a cinco anos seja diferente. O pessoal começa a ficar inquieto e quer mudar tudo.

O senhor chefiava o CPD quando a FA-PESP fez a primeira ligação de internet do Brasil. Como foi que o senhor entrou na Fundação?Entrei na Poli em 1971 para fazer engenha-ria elétrica e antes do fim do ano passei a ser estagiário do Centro de Computação Eletrônica [CCE]. Na Poli, segui eletrônica e dentro dela fui para telecomunicações, mas sempre trabalhei na área digital. Em 1976, quando estava formado e o diretor do CCE era o professor Geraldo Lino de Campos, da Politécnica, a FAPESP tinha instalado experimentalmente um compu-tador num sobradinho na rua Pirajussara, perto do Rei das Batidas, na entrada prin-cipal da USP. Era um Burroughs 1726, uma excelente máquina com um sistema ope-racional muito interessante. Lá o Geraldo

desenvolveu o sistema Sirius, que contro-laria auxílios e pesquisas da FAPESP. Eu era também do CCE e ele me chamou para participar do desenvolvimento do Sirius. Eu ia lá de noite. Passei a ir três vezes por semana na Pirajussara, ligava o Burroughs e tentava escrever alguma parte dos pro-gramas agregados ao Sirius. Nessa época eu conheci o professor Oscar Sala, físico e membro do Conselho Superior da FAPESP. Era ele que fazia o maior esforço para levar a informatização para a Fundação e tinha batalhado pelo B1726. A FAPESP nessa época ficava em um prédio na avenida Pau-lista e tinha todo seu controle de bolsas e auxílios ainda em fichas, de forma manual.

Como chegavam as informações na rua Pirajussara?Chegavam em papel ou em fita. Não era on-line, estávamos ainda testando o sis-tema e recebíamos os conjuntos de da-dos da Paulista em papel. A FAPESP tinha acabado a construção do prédio atual na Lapa e ia montar um datacenter lá. Ainda lembro do dia em que mudamos os equi-pamentos da rua Pirajussara para a nova sede. O B1726 foi num caminhão, que era semiaberto. Fui junto e torcia para que não chovesse... Se chovesse, a gente arriscaria o B1726. Por sorte o dia estava ensolarado e tudo acabou bem: chegamos intactos à rua Pio XI. Com o computador instalado e funcionando na nova sede da Fundação, tudo deixava de ser experimental e era preciso uma equipe definitiva e estável na FAPESP. Eu, que estava ligado ao CCE, onde trabalhava normalmente, encerrei minha participação na iniciativa de infor-matização da Fundação. Quem assumiu o datacenter foi o Vitor Mammana de Barros, um engenheiro que tinha saído do CCE. Ele ficou na FAPESP como superintendente de informática, e eu tinha ainda algum con-tato para ajustar os programas que tínha-mos feito ainda na Pirajussara. Em 1985, quando o CCE passava por algumas refor-mulações importantes gerando incerteza geral, aconteceu de o professor Alberto Carvalho e Silva, que era presidente do CTA [Conselho Técnico-Administrativo] da FAPESP, me chamar para conversar e disse que o Vitor estaria voltando para o CCE, que estava sendo reestruturado. Ele perguntou se eu não queria assumir o da-tacenter. Eu conhecia bem a máquina e o Sirius e isso me agradou muito. Por outro lado, tinha terminado o mestrado na Poli em 1982 e ir à FAPESP era uma ideia mui-

to feliz, porque me permitiria continuar o doutorado além de trabalhar em algo em que eu já tinha me envolvido e de que gos-tava. Então, decidi que iria para a Fundação, juntar-me e cuidar da pequena equipe de três ou quatro analistas, aos quais compe-tia tratar da informatização dos processos administrativos internos e das concessões de bolsas de auxílios para pesquisadores.

Nessa época a comunidade acadêmica começava a utilizar correio eletrônico.Sim. O pessoal da física, por exemplo, que ia fazer mestrado e doutorado fora do país, queria preservar o contato com os pesquisadores no exterior. E lá fora já usavam extensamente correio eletrôni-co, que aqui não havia. Aí começamos a pesquisar como trazer isso pra cá. A ne-cessidade era tanto de pesquisadores da USP como da Unicamp e Unesp. Assim, o professor Sala decidiu que, se tanta gente queria, o melhor era que a FAPESP as-sumisse o papel de fazer o serviço e que nós tentássemos dar uma solução. Pude chamar o Alberto Gomide, um profissio-nal brilhante em software que já havia trabalhado no CCE e estava na Unesp. Além dele, mais alguns, entre eles lem-bro do Joseph Moussa, matemático, Vil-son Sarto, engenheiro, e outros. O Sala tinha ótimos contatos com o Fermilab, um laboratório de física de alta energia em Batávia, perto de Chicago, nos Esta-dos Unidos, e combinou com eles a nossa conexão, porque afinal precisávamos nos conectar em algum lugar. Em 1987, numa reunião que houve na Poli sobre redes acadêmicas, descobrimos que existiam também outras iniciativas no país ten-tando conexões com redes acadêmicas internacionais. Estavam nessa reunião o Michael Stanton, da PUC-Rio, o Tadao Takahashi, do CNPq e que lideraria a fu-tura RNP, o Paulo Aguiar, da UFRJ. Nós já tínhamos alguma experiência com redes, porque havíamos montado a primeira fa-se da Rede USP, que era uma rede de ter-minais do computador Burroughs 6700 da universidade. Nessa reunião em 1987, vimos que tanto o LNCC como a FAPESP estavam tentando uma conexão interna-cional e que ambos tinham escolhido fa-zer conexão a uma rede bem simples, de que os pesquisadores gostavam muito à época: a Bitnet. Havia também a proposta de criação de uma rede nacional, que se-ria a futura RNP, mas ainda não se sabia quais seriam os padrões.

Page 30: Pesquisa FAPESP 221

30 | julho DE 2014

Eram tempos pré-PC?Os PCs estavam começando a se espa-lhar, mas não estavam ligados em rede ampla, apenas em redes locais. Tínhamos alguns na FAPESP. Mas, voltando à Bit-net, o LNCC conectou-se a ela em setem-bro de 1988, um mês antes da conexão da Fundação. A conexão do LNCC era com a Universidade de Maryland, nos Esta-dos Unidos, e a nossa foi com o Fermilab, mas sempre nos ajudávamos mutuamente. Quando fomos nos conectar, entramos com um pedido de ligação de cinco máquinas: USP, IPT, Unicamp, FAPESP e Unesp. Aí o pessoal da Bitnet, nos Estados Unidos, nos avisou que conectar cinco novos nós a essa rede, e todos do Brasil, configurava--se mais como uma conexão de uma nova sub-rede [ver mais em Pesquisa FAPESP nº 180]. Então era melhor, em vez de pedir uma conexão de cinco máquinas à Bitnet, criar uma sub-rede regional, como outras que estavam conectadas à rede. Para no-me dessa sub-rede, o Gomide sugeriu São Paulo Academic Network, Span, mas esse nome já existia, era da Nasa, o Space Phy-sics Analysis Network, e nós não sabíamos. Tivemos que mudar, trocamos a ordem das letras e ficou Ansp, que é Span invertido: an Academic Network at São Paulo.

Foi a primeira latino-americana?Sim. À época da Bitnet não lembro de nenhuma outra. Tanto assim que toda a topologia Bitnet no Brasil passou a ser definida na FAPESP. O roteamento da Bitnet consistia apenas de uma tabela que descrevia quais computadores estavam ligados em que máquinas. Essa tabela era atualizada uma vez por mês, para incluir novas máquinas participantes ou alterar conexões. Roteamento bem pouco dinâ-mico. Para tornar os nomes um pouco mais padronizados sugerimos usar br na frente de todos eles. Ficamos com brfa-pesp, brusp, bruc, da Unicamp, bript etc. Eram nomes com um nível só, sem “sobre-nome”, sem ponto isso ou ponto aquilo. O pessoal do Rio e de outros lugares passou também a usar o br na frente: brufmg, brufrgs, brufpe, começamos a difundir a rede desse jeito. Um e-mail levava horas, às vezes um dia, dependendo do tamanho da fila de despacho. Mas já era uma ma-ravilha, porque, perto do correio normal, não tinha comparação – era muito melhor.

Como foi registrar o .br para o Brasil?A rede acadêmica crescia com uma

multiplicidade de protocolos e máqui-nas. Além da Bitnet, tínhamos a HEPNet [High Energy Physics Network], máqui-nas ligadas à UUCP, à Fidonet, à Renpac (x.25) da Embratel etc. E ficava difícil dar nome adequado às máquinas. Fomos atrás do “sobrenome” .br e pedimos o seu registro, que nos foi delegado em 18 de abril de 1989 pelo Jonathan Postel, ad-ministrador da Iana [Internet Assigned Numbers Authority] na Universidade do Sul da California, onde ficava a gestão da raiz da internet. Não houve nenhu-ma interação mais formal, exceto com o pessoal envolvido em redes acadêmicas. Nem intervenção de nenhum tipo do go-verno norte-americano, nem do governo brasileiro, ou do Itamaraty. Foi algo entre a comunidade dos que operavam redes acadêmicas, como era praxe na internet. O Postel achou que tínhamos maturida-de suficiente para sermos o foco do .br e resolveu atender à comunidade local e, assim, delegou o .br aos cuidados da equipe que operava a rede na FAPESP.

E a internet no Brasil? Bem, ganhamos o .br em 18 de abril de 1989, mas já perto do fim daquele ano ficou claro que a Bitnet começava a mur-char, e que a internet, que tinha muito mais recursos, iria acabar prevalecendo e absorvendo a Bitnet e, provavelmente, as demais alternativas também. A Bitnet era boa para correio eletrônico, listas de discussão, mas era muito limitada na interação e no acesso remoto a compu-tadores, além de estar crescendo bem menos. Nessa época pedimos ao pessoal do Fermi que, quando eles fossem para a internet, nos levassem junto.

Vocês perceberam a movimentação e sabiam da internet.Em 1989 estava sendo criada uma espinha dorsal para o Departamento de Energia norte-americano, onde o Fermi estava ligado e essa espinha dorsal, a exemplo da NSFNET [da National Science Foun-dation], também usaria TCP/IP e faria parte da internet. O Fermi migraria as-sim que possível para esse recém-criado backbone [espinha dorsal], chamado de ESNet [Energy Sciences Network], o que aconteceu em 1990. Como estávamos li-gados a eles, trabalhamos para implantar TCP/IP também na máquina da FAPESP e, em janeiro de 1991, conseguimos trocar os primeiros pacotes TCP/IP, usando um

pacote de software que implementava o TCP/IP em máquinas DEC. A data pre-cisa não lembro, mas era janeiro, férias coletivas na FAPESP. O Joseph Moussa [funcionário do CPD da FAPESP] estava lá e recebemos uma fita com o programa que fazia a implementação do TCP/IP. O Joseph instalou o programa, funcionou, e os primeiros pacotes da internet come-çaram a entrar na FAPESP.

Como foi o início?A linha que sustentava a rede acadêmica brasileira via RNP era a da FAPESP, ini-cialmente uma pobre linha de 64 kilobits [Kbps], que depois passou a 128 Kbps, 256 Kbps e, finalmente, para dois Mbps. Eu era o coordenador de operações da RNP, que estavam centradas na FAPESP e, por uma questão de organização, pedíamos dire-tamente à Embratel as linhas que a RNP usaria em seu backbone. A RNP pagaria as linhas nacionais e equipamentos alocados nos pontos de presença nos estados e a Fundação, a conexão internacional. Todo o primeiro backbone da RNP foi projetado numa reunião na FAPESP com a partici-pação do Michael Stanton, do Alexandre Grojsgold, do LNCC, e do Alberto Gomide, da FAPESP. Logo em seguida discutiu-se a estrutura de nomes a usar embaixo do .br. As universidades, por sua participação histórica no processo, poderiam ficar di-retamente debaixo do .br, surgindo assim usp.br, unicamp.br, ufmg.br etc. Criamos o gov.br para o governo e, abaixo dele, as si-glas dos estados, como sp.gov.br. O com.br foi definido para a futura área comercial, o org.br para o segmento de organizações sem fins de lucro, o net.br, para máquinas ligadas à infraestrutura da rede.

Era um espelho do que já existia nos Estados Unidos?Sim. E parece-me que foi uma boa ideia. Porque .com, .net e .org já existiam nos Estados Unidos e nós achamos bom man-ter essas siglas com três letras, sob o .br. Os ingleses usam duas: ac.uk, por exemplo, para academic, ou co.uk, no commercial. O com.br valeu-se da expansão do .com in-ternacional em termos de disseminação. Afinal, se trata de uma empresa brasileira, em vez de usar .com, que use .com.br. Na época não tinha quase nada comercial ain-da, mas claro que era bom prever. Se àque-la época quase tudo era acadêmico, a dis-seminação foi muito rápida e tudo mudou em poucos anos. Em dezembro de 1994,

Page 31: Pesquisa FAPESP 221

pesQuisa fapesp 221 | 31

o comitê Gestor da internet criou a onG nic.br em 2002 e em 2005 assumiu a gestão da rede

finalmente a Embratel se convenceu a dar acesso à internet para as pessoas físicas no Brasil. O TCP/IP era ainda um padrão não “de direito” e algo underground. Mas o mundo já estava mudando e adotando ra-pidamente o TCP/IP, até porque a família de protocolos proposta pela ITU era mui-to mais cara, bem complicada e voltada à bilhetagem, diferente do mundo internet. A Embratel, convencida pela RNP, montou no Rio o primeiro ponto de acesso à inter-net para os usuários brasileiros. Só que a abordagem dela foi muito centralizadora: criou um 0800 para as pessoas ligarem e todo mundo ia ter uma conta em @embra-tel.net.br. Quer dizer, a Embratel seria a única porta de acesso à internet pelos bra-sileiros. Houve uma reação imediata, por-que o pessoal da rede acadêmica achava que estava errado a Embratel ser a “internet brasileira” e que isso seria muito limitante à ex-pansão. Então foi feito um con-tato entre a RNP e o ministro das Telecomunicações da épo-ca, o Sergio Motta. Tadao Ta-kahashi, Ivan Moura Campos e Carlos Afonso, do Ibase, con-venceram o ministro de que o caminho a seguir era outro: montar um esquema hierár-quico que desse riqueza à in-ternet brasileira. No começo de 1995, o ministro Sergio Mot-ta baixou uma portaria vedan-do a Embratel de fornecer a internet diretamente. A Em-bratel daria acesso às teles re-gionais [empresas de telefo-nia], que dariam acesso aos provedores, que levariam a in-ternet ao usuário final. Surgiram provedo-res da área de conteúdo, Folha, Abril, Es-tadão, JB etc. Assim, apareceu material em português rapidamente. Diziam que bra-sileiro não ia querer saber de internet, por-que o conteúdo dela era todo em inglês, mas isso foi facilmente desmentido. O Co-mitê Gestor entendeu que precisava con-solidar a estrutura existente e delegou à equipe da FAPESP o registro de nomes e números. Depois, o CGI também decidiu que íamos começar a cobrar o registro de nomes de domínio, como aliás acabava de acontecer nos Estados Unidos, para que a atividade pudesse ser autossustentável. Até então a Fundação mantinha três ou quatro funcionários, além de suportar o pagamento das linhas internacionais. A

decisão foi de cobrar o equivalente ao que se cobrava nos Estados Unidos: R$ 50 na inscrição e mais R$ 50 por ano. Para que esse recurso ficasse segregado, foi criado um processo dentro da FAPESP, o proje-to de auxílio à pesquisa Comitê Gestor da Internet no Brasil. O CGI passou a ter recursos para aplicar em atividades de interesse da internet no país. Lembro da reunião do CGI na FAPESP, em 2000, quando o professor Landi [Francisco Lan-di, ex-diretor-presidente da FAPESP] co-mentou que o projeto do Comitê Gestor já tinha cinco anos e esse era o tempo má-ximo de duração dos projetos na FAPESP, e que não poderia abrigar mais o registro da internet brasileira. O CGI concordou que era hora de buscar uma solução pró-pria e mudar. O registro brasileiro migrou

em 2001 para um prédio na marginal Pi-nheiros e construiu um centro de proces-samento de dados lá.

E o NIC foi criado?O CPD do CGI já estava montado quan-do, em 2002, o Ivan Moura Campos, que era o coordenador do CGI, concluiu que necessitávamos de uma pessoa jurídica para substituir a FAPESP tanto na even-tual responsabilização pelas ações do re-gistro brasileiro quanto no recolhimento e depósito das contribuições. Até então, todos os boletos saíam com o CNPJ da FAPESP, que acabava também envolvi-da nos processos judiciais referentes a conflitos no registro de nomes de domí-nio sob o .br. Isso era um incômodo adi-

cional para a Fundação. Decidiu-se em 2002 que o CGI criaria uma ONG sem fins lucrativos, o NIC.br.

O senhor nasceu na Itália e se tornou brasileiro? Como foi?Nasci na cidade de Trieste e minha famí-lia veio para o Brasil em 1954, quando eu tinha um ano de idade, e sou naturaliza-do brasileiro, mas eu não tinha nenhuma nacionalidade anterior. Não era italiano e virei brasileiro.

Como assim? Eu fui apátrida até me naturalizar em 1976. Meu pai era grego, minha mãe é búlgara e meu irmão nasceu no Brasil. Nasci em 1953 e Trieste ainda era zona de ocupação aliada depois da Segunda

Guerra Mundial, porque só no final daquele ano os norte--americanos saíram de algu-mas cidades-chave. Meus pais se naturalizaram brasileiros bem antes de mim. Quando estava no fim da Poli, acelerei o processo de naturalização porque tirar passaporte como apátrida é um inferno.

Vieram para São Paulo? Viemos em 1954 e sempre moramos aqui. Minha raiz religiosa familiar é greco--ortodoxa e estudei num colégio de freiras católicas no Tatuapé, depois num co-légio de padres espanhóis no ginásio e científico e, por fim, entrei na Poli.

E a vida acadêmica como professor?Fiz mestrado e doutorado [Poli-USP] e até entrei como professor na Poli e dei aulas de rede de computadores por uns anos por lá. Foi na época da FAPESP ain-da, quando se abriu um concurso. Entrei, dei aulas, mas, como eu não tinha tem-po para pesquisar na Poli, achei melhor abandonar. Academicamente estou na PUC-SP desde que foi criado o curso de ciências da computação. Dei aulas para as turmas na graduação, sobre arquitetu-ra de computadores e de redes. Também dou aulas no programa de pós-graduação em Tecnologia de Inteligência e Design Digital, um curso interdisciplinar bastan-te interessante que acabou de formar o primeiro doutor. n

Page 32: Pesquisa FAPESP 221

Crédito para todos

Um grupo de pesquisadores dos Estados Unidos e do Reino Unido vai propor até o iní-cio de 2015 um modelo para identificar com mais precisão

a contribuição de cada um dos autores de um artigo científico. A iniciativa vem sendo desenvolvida há dois anos e busca criar uma classificação capaz de informar qual foi o papel de cada autor até mesmo em papers com centenas de assinaturas. O esboço dessa taxonomia, a ser utiliza-da no momento em que um manuscrito é submetido on-line a uma revista cien-tífica, está em processo de avaliação. Ele estabelece 14 formas diferentes de par-ticipar da elaboração de um artigo (ver quadro), como o desenho intelectual do trabalho e as diversas etapas de realiza-ção do experimento e da redação. Os tó-picos mais polêmicos são os que propõem crédito para categorias não envolvidas intelectualmente na produção do artigo, como o gestor do projeto de pesquisa, o curador dos dados (que cuida das fontes de informação coletadas e as torna aces-síveis para uso posterior) e o responsável pela obtenção de financiamento.

Este esboço preliminar foi testado pe-los autores principais de 230 artigos do campo das ciências da vida divulgados em publicações dos grupos Nature, El-sevier e PLoS e nos periódicos Science e eLife. Cerca de 85% consideraram a classificação fácil de usar. Para 45%, a acurácia na identificação dos autores é maior que a dos métodos usados atual-mente, enquanto para 37% a precisão é equivalente. Alguns autores sugeriram o desdobramento de certos tópicos, ou-tros propuseram que as atividades sem vínculo intelectual com o artigo sejam tratadas fora da classificação. Nos próxi-mos meses, os pesquisadores dedicados à iniciativa, ligados à Universidade Har-vard e à organização britânica de apoio à pesquisa biomédica Wellcome Trust, prometem refinar a classificação, adap-tando-a às necessidades de outras áreas do conhecimento. Tópicos do esboço poderão ser acrescentados e outros des-cartados. Um workshop para discutir as mudanças está programado para o final do ano. “Certamente há muito trabalho ainda a fazer”, afirma Liz Allen, diretora de avaliação do Wellcome Trust, uma das

Fabrício Marques

1 ConCepção

do estudo

Formulação de ideias

e proposição de

hipóteses e de

perguntas de pesquisa

2 MetodologiaDesenvolvimento ou desenho de metodologias e criação de modelos

polítiCa C&t publicação y

Grupo propõe novo método para classificar

o papel de cada autor nos artigos científicos

32 z jUlho DE 2014

Page 33: Pesquisa FAPESP 221

pesquisadoras envolvidas na empreitada, ao relatar o esforço num artigo publicado em abril na revista Nature.

O número crescente de autores em papers, resultado da intensificação das colaborações de pesquisa, é o principal motivador da iniciativa. Segundo dados apresentados por Liz Allen, entre 2006 e 2010, o número médio de autores de artigos vinculados a estudos patrocina-dos pelo Wellcome Trust cresceu de 10,21 para 28,82 na área de genética e de 6,28 para 8,32 no cômputo geral. “Em estudos multicêntricos, as pesquisas envolvem contribuições de dezenas de pesquisado-res e a autoria fica bastante disseminada. Em certos casos, as contribuições dos di-versos grupos de pesquisa envolvidos são muito diferentes e a lista de autores não consegue mostrar isso”, diz Abel Packer, diretor do programa SciELO/FAPESP. Mais transparência, ele observa, é essen-cial para que financiadores e comunidade científica consigam identificar quem fez o que numa pesquisa realizada a várias mãos. Há outros problemas que a taxo-nomia busca contornar, como a falta de padrão entre as disciplinas para produzir

a lista de autores de um artigo (algumas colocam o autor principal em primeiro lugar, outras em último, algumas adotam ordem alfabética).

Problemas relacionados à autoria de papers preocupam cada vez mais os edi-tores de revistas científicas e há tempos muitos deles passaram a exigir que seja declarada a contribuição de cada um dos autores nos artigos submetidos à publicação. De acordo com Sigmar de Mello Rode, presidente da Associação Brasileira de Editores Científicos (Abec) e editor executivo da revista Brazilian Oral Research, a pressão para publicar produziu casos de pesquisadores que de-claram ser autores de mais de 30 artigos por ano, o que sugere a não participação ou participação superficial na maioria dos projetos, ele diz. “Muita gente con-funde a formação de grupos de pesqui-sa, algo desejado para se trabalhar em direção a um objetivo, com fábricas de trabalho, onde cada um faz uma coisa e prestigia os outros do grupo. Isso real-mente multiplica a produção científica de cada um, já que no período suficiente para se realizar um trabalho publicam-se il

ust

ra

çõ

es

nel

son

pr

ov

az

i

3 CoMputação programação, desenvolvimento de softwares, implementação de códigos e de algoritmos de apoio

4 Coleta de dados

condução do

processo de pesquisa,

especificamente

coletando dados

e evidências

5 realização de experiMentoscondução do processo de pesquisa, especificamente realizando experimentos

6análise ForMal

aplicação de técnicas

estatísticas, matemáticas

e outras para analisar

os dados obtidos

para identificar a contribuição de cada umclassificação proposta pela universidade Harvard e o Wellcome Trust sugere 14 tipos possíveis de contribuições feitas por autores de artigos científicos

pesQuisa Fapesp 221 z 33

Page 34: Pesquisa FAPESP 221

vários. Há casos de autorias múltiplas até em revisões de literatura, nas quais não se justifica a presença de mais de um ou dois autores”, afirma Rode, que é pro-fessor da Faculdade de Odontologia de São José dos Campos, da Universidade Estadual Paulista (Unesp). “A declaração de autoria se transformou numa fonte de problemas éticos na comunicação científica, seja pela inclusão de autores que pouco ou nada contribuíram, seja por autorias fantasmas”, diz Abel Packer.

De acordo com os critérios do In-ternational Committee of Medical Journals Editors, para ser autor

de um trabalho é preciso preencher três condições: contribuir substancialmente para a concepção e o desenho do trabalho científico, a aquisição, a interpretação e a análise dos dados; participar da redação e da revisão crítica do trabalho, com real contribuição intelectual para seu con-teúdo; e aprovação final do conteúdo a ser publicado. “Todos aqueles que não se qualificam como autores deverão ser citados nos agradecimentos, incluindo sua participação no trabalho, na tradução, aquisição de fundos, análises técnicas e estatísticas, empréstimo de material, en-tre outras”, diz Sigmar Rode. O Código de boas práticas científicas lançado pela FAPESP em 2011 estabelece diretrizes semelhantes: “Em um trabalho científico devem ser indicados como seus autores todos e apenas os pesquisadores que, ten-do concordado expressamente com essa indicação, tenham dado contribuições intelectuais diretas e substanciais para a concepção ou realização da pesquisa cujos resultados são nele apresentados”, informa. Segundo o código, “em particular, a cessão de recursos infraestruturais ou financeiros para a realização de uma pes-quisa, como laboratórios, equipamentos, insumos, materiais, recursos humanos, apoio institucional etc., não é condição suficiente para uma indicação de autoria de trabalho resultante dessa pesquisa”.

Para Joaquim Nóbrega, editor do Jour-nal of the Brazilian Chemical Society,  em-bora a ciência seja cada vez mais uma atividade cooperativa e coletiva, há crité-rios que precisam ser preservados. “Mes-mo entendendo que a produção de um manuscrito envolve múltiplas etapas e tarefas, não podemos nos desobrigar de aspectos éticos que historicamente proporcionaram que a ciência atingis-se amplo reconhecimento social”, afir-ma. Entre as regras adotadas pela publi-cação, estabeleceu-se que o autor que submete um manuscrito é responsável pela inclusão de todos os pesquisadores efetivamente responsáveis pelo estudo. “Verificamos a atribuição de autoria do manuscrito submetido e do manuscrito revisado. Caso exista qualquer alteração ou inserção de novos autores, solicita-se uma justificativa com assinatura de todos os autores detalhando o processo de re-visão e a contribuição de cada autor para o manuscrito. Situações não devidamen-te esclarecidas implicarão rejeição do manuscrito revisado”, afirma Nóbrega.

A nova taxonomia proposta pelo grupo de Harvard e do Wellcome Trust é mais abrangente e, de certa forma, substitui o conceito de“autoria” pelo de “contribui-ção”. “Ela dá um reconhecimento mais preciso da participação individual dos autores e estabelece como contribuição tópicos que não estão previstos nos crité-rios atuais”, afirma Abel Packer. Segundo ele, a adoção de uma nova classificação é viável e desejável, pois se encaixa no esforço de tornar mais transparente o processo de produção e comunicação da ciência. Mas Packer observa que have-rá uma série de arestas a resolver. Uma delas pertence ao campo dos direitos autorais, que seriam estendidos a um grupo maior de pesquisadores do que o previsto hoje, se o esboço proposto atualmente prevalecer e for aceito pelas revistas científicas. Outro desafio será criar indicadores que levem em conta a nova taxonomia. “Não adianta adotar

9 esboço do artigopreparação, criação e/ou apresentação do artigo científico, especificamente escrevendo o seu primeiro esboço

0 revisão CrítiCapreparação, criação e/ou apresentação do artigo, especificamente fazendo revisão crítica ou tecendo comentários sobre seu conteúdo

7 reCursos

Fornecimento de materiais

de estudo, reagentes,

amostras e equipamentos,

seleção de pacientes para

estudo e oferta de animais

de laboratório

8 Curadoria de dados

atividades voltadas para

anotar adequadamente

os dados de pesquisa,

além de preservá-los

para reutilização

em outros estudos

34 z jUlho DE 2014

Page 35: Pesquisa FAPESP 221

uma nova classificação e seguir usando o índice h como parâmetro”, diz Packer, referindo-se ao indicador que relacio-na quantidade e qualidade da produção científica de um autor (número de arti-gos publicados e suas citações), mas não leva em conta se ele é o autor principal ou teve participação secundária.

Segundo os responsáveis pela taxo-nomia, os editores de periódicos seriam beneficiados, pois a clas-

sificação poderia poupar o tempo hoje gasto na tarefa de checar qual foi a parti-cipação de cada autor e na administração de disputas entre autores. Para Rafael Loyola, editor-chefe da revista Natureza & Conservação, vinculada à Associação Brasileira de Ciência Ecológica e Con-servação, a serventia para os editores é relativa. “Não temos como averiguar se o que está sendo informado é verdade. Acreditamos na boa-fé dos autores”, diz. Para ele, quem mais sairá ganhando são os próprios pesquisadores. “Com a taxo-nomia, a tarefa de organizar uma lista de assinaturas pode ficar mais simples. Do mesmo modo, seria mais fácil para o grupo de autores enxergar a contribui-ção individual de cada um, o que poderia evitar disputas durante a negociação so-bre a posição de cada um na lista”, afir-ma. Segundo Loyola, não é comum que os editores da Natureza & Conservação tenham problemas com atribuição de autoria, mas eles às vezes acontecem. “Certa vez, os autores de um artigo que já havia sido revisto várias vezes e estava prestes a ser aceito para publicação fize-ram um pedido inusitado: queriam que mais um nome fosse incluído na lista de autores. Perguntamos qual era a contri-buição do autor e eles nos informaram que se tratava do chefe do laboratório e que eles cometeram o erro de enviar o artigo sem conhecimento dele. Só acei-tamos o artigo quando asseguramos que o novo autor tinha de fato participado da pesquisa e exigimos que ele acrescen-

tasse seus comentários ao manuscrito e concordasse com a versão final”, afirma.

Charles Pessanha, editor emérito da re-vista Dados, vinculada ao Instituto de Es-tudos Sociais e Políticos da Universidade do Estado do Rio de Janeiro, passou por experiência semelhante. Um artigo que já havia passado pelos revisores e fora de-volvido para a autora com pedido de mu-danças foi ressubmetido – com um autor a mais. “Avisamos a autora que o proce-dimento era irregular e que, daquela for-ma, o artigo não seria publicado. Mas ela conseguiu mostrar que o segundo autor havia contribuído muito na reelaboração do artigo. Concluímos que estava sendo honesta e não deveria ser punida por isso. E publicamos o artigo”, conta Pessanha, professor do Instituto de Economia da Universidade Federal do Rio de Janeiro.

Para ele, a proposta de nova taxonomia segue um caminho inexorável, que é o de dar crédito para todos os que participam. “A saída é semelhante à adotada pelos es-túdios de cinema. Há tanta gente envolvi-da num filme que é preciso dar o crédito específico a todos eles no final do filme”, afirma. “O processo de produção científi-ca exige um número crescente de habili-dades e, com isso, a participação de novos atores. É essencial que todos eles tenham crédito, porque cada um precisa ser reco-nhecido pelo que fez.” Ele avalia, contudo, que dar crédito a todos não pode conspur-car o conceito de autoria, que é bem mais restrito. “É preciso encontrar um meio de reconhecer a contribuição de todos. Mas não dá para considerar como autor quem não participou da concepção do estudo, do delineamento da pesquisa e da interpreta-ção e análise dos dados. Assim como nos créditos cinematográficos, os produtores são reconhecidos – e até recebem seus pró-prios prêmios, como outros profissionais envolvidos. O fato de obter financiamento para uma pesquisa não transforma o pes-quisador automaticamente em um autor. É preciso participar da concepção e elabo-ração acadêmica do trabalho.” n

- visualização

de dados

preparação, criação e/ou

apresentação do artigo,

cuidando especificamente

da visualização de dados

q adMinistração do projetocoordenação ou gestão das atividades de pesquisa que resultaram no trabalho publicado

= supervisão

responsabilidade

pela supervisão

da pesquisa

e da orquestração

do projeto

w obtenção de FinanCiaMentoresponsabilidade pela conquista do apoio financeiro para o projeto que resultou no trabalho publicado

pesQuisa Fapesp 221 z 35

Page 36: Pesquisa FAPESP 221

36 z julho DE 2014

Page 37: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 37

Facilities garantem acesso a equipamentos

de última geração para múltiplos usuários

e modelo avança no estado de São Paulo

Em agosto do ano passado, a Universidade de São Paulo (USP) inaugurou um laboratório que reúne, num mes-mo ambiente, um conjunto de equipamentos modernos para uso compartilhado em pesquisas em biologia

celular e genômica, nos moldes das research facilities exis-tentes em universidades no exterior. Espalhado por 10 salas de um dos prédios do Instituto de Ciências Biomédicas, o Centro de Facilidades de Apoio à Pesquisa da USP (Cefap--USP) disponibiliza a pesquisadores de todo o país serviços de sequenciamento de nova geração, microscopia para estudo de células vivas, separação celular, espectrometria de massa para identificação de macromoléculas, entre outros. Em um ano de atividade, a facility já recebeu cerca de 80 grupos de pesquisa e apoiou estudos em temas como genes de reparo de DNA, busca de drogas contra a malária e plasticidade muscular, entre muitos outros. A maioria dos usuários veio da USP, das universidades Federal de São Paulo (Unifesp), Estadual Paulista (Unesp) e Estadual de Campinas (Unicamp). O Cefap recebeu investimento de cerca de US$ 4 milhões da FAPESP na compra dos equipamentos, enquanto a estrutura do laboratório e a contratação de funcionários couberam à USP. Também houve apoio da própria USP e da Coordenação de Pessoal de Nível Superior (Capes) para a compra de equipamentos.

Para obter os serviços de um dos 15 equipamentos do la-boratório, os pesquisadores precisam verificar a disponi-bilidade e agendar, no site do Cefap, a data e o horário de uso.

Bruno de pierro

FotoS Eduardo Cesar

os serviços de microscopia confocal e

de sequenciamento genético estão entre

os mais procurados nas facilities de São Paulo

Qualidade compartilhada

inFraeStrutura y

Page 38: Pesquisa FAPESP 221

38 z julho DE 2014

Um dos serviços mais procurados é o de microsco-pia confocal, utilizado por 51 grupos de pesquisa em mais de 180 projetos. Trata-se de uma ferramenta importante para estudos em biologia celular, pois ajuda a localizar proteínas no interior das células e a visualizar a interação entre proteínas. Há dois equipamentos disponíveis neste serviço: um mi-croscópio Zeiss LSM 780-NLO, que utiliza laser para gerar imagens de fluorescência em células, e o InCell Analyzer 2200 GE, próprio para pesquisas que necessitam de uma grande quantidade de ima-gens. “A ideia por trás dos equipamentos multiu-suários é facilitar o acesso a ferramentas de última geração e de difícil aquisição”, diz Carlos Menck, professor do ICB-USP e presidente do Cefap.

E xemplos como o do Cefap vêm se tornando frequentes. No estado de São Paulo, apro-ximadamente 50 facilities foram criadas a

partir de 2009, após o lançamento do segundo edital do Programa Equipamentos Multiusuários (EMU), estabelecido em 2005 pela FAPESP. O programa já concedeu cerca de R$ 250 milhões para compra de equipamentos de uso comparti-lhado. Em 2009, foram aprovados investimentos em torno de R$ 167 milhões para a aquisição de 250 equipamentos, sendo mais de 200 deles com valor superior a US$ 50 mil.

O modelo das research facilities garante um acesso mais abrangente a tecnologias essenciais para realizar estudos de nível internacional, e também economiza custos, com o compartilha-mento de técnicos e insumos. Em países da Euro-pa e nos Estados Unidos, esse esquema faz parte da rotina de muitos grupos de pesquisa. No Bra-sil, experiências desse tipo eram encontradas em situações isoladas, que serviram de referência às iniciativas mais recentes. O principal exemplo é o Laboratório Nacional de Luz Síncrotron (LNLS), em operação desde 1997. Nele funciona a única

fonte de luz síncrotron da América Latina, usada por pesquisadores brasileiros e estrangeiros em estudos da estrutura de proteínas e de materiais. “O Programa Equipamentos Multiusuários está conseguindo, paulatinamente, estimular a cultura de facilities no estado”, avalia José Antonio Brum, professor do Instituto de Física Gleb Wataghin da Unicamp e coordenador adjunto de Progra-mas Especiais da FAPESP.

Em junho, Brum participou do primeiro Work-shop on Multi-User-Equipment and Facilities, que reuniu representantes de facilities instaladas em São Paulo. Segundo ele, muitos pesquisadores ainda resistem em utilizar equipamentos alocados em laboratórios administrados por outros grupos. “Muitos gostariam de ter seu próprio equipa-mento”, diz. A FAPESP estimula a utilização das facilities nos projetos de pesquisa que financia, a menos que o pesquisador mostre que a aquisi-ção de um novo equipamento é imprescindível.

Alguns números apresentados pelo Laborató-rio Nacional de Nanotecnologia (LNNano) – que assim como o Laboratório Síncrotron é vincula-do ao Centro Nacional de Pesquisa em Energia e Materiais (CNPEM), em Campinas – sugerem que diminui a resistência ao uso compartilhado. “A procura por nossos equipamentos e consultoria aumenta a cada ano”, diz Fernando Galembeck, professor aposentado do Instituto de Química da Unicamp e diretor do LNNano. Em seus cinco la-boratórios – de Microscopia Eletrônica (LME), de Microfabricação (LMF), de Caracterização e Processamento de Metais (CPM), de Ciência de Superfícies (LCS) e de Metais Nanoestrutura-dos (LMN) – já foram executados cerca de 2.700 projetos de pesquisa até 2013. Só o LME, o mais antigo do LNNano, já apoiou mais de 2 mil pro-jetos. Em 2001, haviam sido submetidos ao LME 86 projetos. Em 2012 o número havia aumentado para 207. Esse número não aumentou nos últimos

1 Pesquisador do iQSC-uSP coloca amostras para serem analisadas no espectrômetro de massas

2 espectrometria de massas com fonte de ionização electrospray no Cefap-uSP

3 Serviço de Crio Microscopia eletrônica, no Lnnano, permite a obtenção de estruturas com resolução próxima à atômica

1

milhões é o valor que a FAPESP concedeu para a compra de equipamentos multiusuários no âmbito do EMu

R$250

Page 39: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 39

três anos, porque a utilização da ca-pacidade instalada é de praticamente 100%. Fundado em 1999, o LME in-tegra o LNNano desde 2011.

Segundo Galembeck, as facilities cumprem um papel importante no sistema de ciência e tecnologia, que é o de acelerar o andamento das pes-quisas. É cada vez maior a utilização das instalações do LNNano por pes-quisadores que não pertencem aos quadros da instituição: no LCS, foram 50% em 2012; 70% em 2013 e quase 80% em maio de 2014. Nesse período, a maior parte dos usuários externos veio da Unicamp (13%), Unesp (10%) e USP (9%). A maior demanda é por serviços de microscopia eletrônica e de sondas, utilizadas para a caracteri-

zação de substâncias e desenvolvimento de novos materiais em projetos acadêmicos e empresariais. A análise da estrutura de polímeros, uma das úl-timas etapas do doutorado de Rafael Bergamo Trinca no Instituto de Química da Unicamp, por exemplo, não poderia ter sido feita sem a ajuda de um Nanoscope III, microscópio de força atô-mica que fornece imagens tridimensionais da superfície de materiais em escala nanométrica. A orientadora de Trinca, a professora Maria Isabel Felisberti, sugeriu que ele procurasse o LNNano, que não apenas dispõe do equipamento como também oferece treinamento para sua utilização. “Aprendi a usar o microscópio e a obter dele os melhores resultados”, diz Trinca. Sua pesquisa, apoiada pela FAPESP, busca obter membranas biocompatíveis capazes, por exemplo, de liberar

fármacos a partir de certos estímulos, como o aumento de temperatura.

A formação dos chamados superusuários, isto é, pesquisadores que dominam o uso de equipa-mentos e podem utilizá-los sem o auxílio de téc-nicos, é algo que o Cefap, da USP, também busca desenvolver. “Temos limitação de especialistas para trabalhar nos laboratórios. Uma solução é capacitar os usuários”, explica Menck. Mas a maior parte do trabalho realizado no centro ainda é feita pelos técnicos, que recebem amostras en-viadas por pesquisadores. “A consolidação dessa cultura de facilities no país é lenta, porque, entre outros fatores, ainda não há pessoal suficiente para operar os equipamentos”, avalia Menck. “Além disso, muitos coordenadores de facilities não podem dedicar-se exclusivamente à gestão dos laboratórios, porque também lideram pes-quisas e orientam alunos.”

p ara evitar essa situação, o Laboratório Cen-tral de Tecnologias de Alto Desempenho (LaCTAD) da Unicamp – uma facility indu-

zida pela FAPESP e inaugurada no ano passado – criou o cargo de gerente-geral com dedicação exclusiva à administração do laboratório, ocupado pela química Sandra Krauchenco. “A gestão pre-cisa ser profissional”, diz Paulo Arruda, professor do Instituto de Biologia da Unicamp e membro do conselho gestor do LaCTAD, criado com o objetivo de dar suporte a pesquisas em genômica, bioinfor-mática, proteômica e biologia celular. A FAPESP investiu R$ 6 milhões na compra dos equipamen-tos para o laboratório, no âmbito do EMU.

Para trabalhos na área de genômica, o LaCTAD conta com três sequenciadores. No campo da pro-teômica, um dos equipamentos realiza cromatogra-fia líquida para análise e purificação de proteínas, e há também um calorímetro, utilizado para deter-minar parâmetros termodinâmicos de interações Fo

toS

1 E

3 n

on

on

on

on

o

“o EMU-FApESp está conseguindo, paulatinamente, estimular a cultura de facilities em São paulo”, diz José Antonio Brum

2

3

Page 40: Pesquisa FAPESP 221

40 z julho DE 2014

bioquímicas (ver Pesquisa FAPESP nº 206). Em biologia celular, o serviço mais demandado é o de microscopia confocal, que à diferença dos demais equipamentos exige a presença do usuário no mo-mento da análise. “No caso da microscopia, o usuá-rio é quem observa a imagem e decide qual parte da célula será observada”, explica Sandra Krauchenco.

Uma peculiaridade do LaCTAD em relação a outros laboratórios é o apoio aos pesquisadores desde o planejamento e a preparação das amostras até o processamento e análise dos dados obtidos. No exterior, se o usuário não souber solicitar com propriedade o que ele quer extrair da amostra, o ex-perimento pode dar errado, porque a facility segue à risca o que o pesquisador pede. “Aqui procuramos o pesquisador e pensamos em conjunto”, diz Arruda.

Antes da criação do LaCTAD, membros do conselho visitaram laboratórios nos Estados Unidos para conhecer o modelo

adotado em instituições daquele país. Uma dessas facilities foi a de sequenciamento de DNA e RNA da Universidade da Carolina do Norte (UCN), coordenada por Piotr Mieczkowski.  Uma das missões da facility da UCN é estimular pesquisas que desenvolvam técnicas para ser implementa-das em seus serviços. Essa característica chamou a atenção da equipe do LaCTAD. “Queremos in-vestir nessa vocação de pesquisa, para melhorar o uso de algumas técnicas e criar outras”, diz Paulo Arruda. Na palestra que realizou em São Paulo, Mieczkowski ressaltou o ritmo “industrial” com que o laboratório opera: em 2013 foram realizados 6 mil sequenciamentos. “O desenvolvimento de uma facility deve estar associado a grandes e está-veis projetos de pesquisa”, conclui Mieczkowski.

Outra facility que se destaca no exterior é a da Escola de Medicina da Universidade Duke. Lá es-tão à disposição mais de 70 laboratórios multiusuá-rios espalhados pelo campus. Cada um tem um site próprio, no qual o usuário pode solicitar o serviço e consultar os preços cobrados. A Faculdade de Medicina da USP também segue um modelo des-centralizado, no qual os equipamentos estão dis-poníveis em diferentes lugares. Mas a coordenação está centralizada no programa Rede Premium de Equipamentos Multiusuários, que propicia acesso a pesquisadores da instituição e de fora dela a tec-nologias da pesquisa biomédica. Um dos serviços mais procurados é o de microscopia confocal, cujo equipamento, um LSM 510 Meta, da Carl Zeiss, foi obtido com financiamento da FAPESP.

Em alguns casos, a facility pode ser um ponto de encontro para estabelecer parcerias científicas. No Instituto de Química de São Carlos (IQSC), da USP, um dos equipamentos, um espectrômetro de mas-sas de alta resolução, foi o pivô na aproximação de dois grupos de pesquisa. O equipamento foi com-prado em 2013, com recursos da FAPESP, para o

grupo de Emanuel Carrilho, professor do IQSC que estuda biomarcadores para diagnóstico de câncer e de doenças como a malária. Dois professores da Faculdade de Medicina de Ribeirão Preto, da USP, Vitor Marcel Faça e José César Rosa, que também trabalham com pesquisas proteômicas em câncer, pediram abertura para usar o equipamento, já que não faziam parte da equipe original de usuários que submeteram o projeto à FAPESP. O que inicialmente era apenas prestação de serviço converteu-se em colaboração. “Vimos que tínhamos objetivos em comum”, diz Carrilho. O espectrômetro, um LTQ Orbitrap da marca Velos, custou US$ 700 mil e está acoplado a um cromatógrafo líquido de alto desempenho, usado para o isolamento de proteínas.

O equipamento foi importante numa pesquisa coordenada por Daniel Rodrigues Cardoso, do IQSC-USP, em parceria com a Embrapa e a Uni-versidade de Copenhagen, na Dinamarca. Por meio da adição de extrato de erva-mate na ração de gado, os pesquisadores chegaram a uma car-ne vermelha mais macia e com prazo de validade

1 técnico do LCe-uFSCar avalia imagens de nanotubos de carbono geradas por um microscópio de varredura

2 Funcionários do LaCtaD, na unicamp, observam células da flora intestinal em um microscópio confocal

maior, efeito atribuído à presença de antioxidantes no mate. O espectrômetro está sendo usado para compreender as alterações no metabolismo ani-mal. “Analisamos amostras de carne e de mate para identificar as variações metabólicas”, diz Cardoso.

O Laboratório de Caracterização Estrutural (LCE) da Universidade Federal de São Carlos (UFSCar) dedica-se ativamente à formação de mi-croscopistas, como forma de otimizar a utilização de seus equipamentos, além de prestar serviços. “Nosso modelo é baseado na formação de microscopistas, porque não temos como disponibilizar oito horas por dia de técnicos operando cada um de nossos oito microscópios eletrônicos e de sonda”, explica Walter Botta Filho, coordenador do LCE. “Quere-

1

Page 41: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 41

mos que os usuários regulares dependam minima-mente de auxílio para operar os equipamentos, o que flexibiliza os horários de uso”, diz. O conceito de facilities não é novo no Departamento de En-genharia de Materiais, onde o LCE é abrigado. A partir de 1976, o laboratório de microscopia e raio X da unidade passou a ser aberto a pesquisadores de outras instituições, o que serviu de base para, 10 anos depois, o LCE sistematizar o modelo para outros serviços. Entre 2012 e maio de 2014, 1.018 pesquisadores utilizaram a facility e 419 deles fo-ram habilitados a operar equipamentos sozinhos. Botta conta que no momento do agendamento pa-ra utilização de um equipamento o usuário pode optar por operá-lo, após passar pelo treinamento, ou solicitar o auxílio de um técnico. De todo modo, é cobrado o tempo de utilização do equipamento.

José Antonio Brum acredita que vários mode-los de facilities vão coexistir em São Paulo. “Cada laboratório tem suas próprias dificuldades e de-mandas, o que resulta numa variedade de mode-los. Isso não é necessariamente ruim”, diz. Outro desafio é aprender a gerenciar recursos. Segundo ele, muitos laboratórios não conseguem estimar corretamente os custos de manutenção e mão de obra e depreciação dos equipamentos, o que pre-judica a definição dos preços cobrados pelos ser-

viços.  O workshop realizado pela FAPESP discutiu as circunstâncias em que as facilities devem co-brar pelo uso de equipamentos. “O ideal é cobrar sempre”, defende Menck, do Cefap. “É uma forma de valorizar o serviço. O problema é que a cultu-ra da pesquisa brasileira não vai nessa direção”, completa. No Cefap, o preço para a utilização do microscópio confocal é de R$ 200 para projetos patrocinados por órgãos governamentais e de R$ 275 para os financiados por outras fontes. Menck diz que, em geral, o valor foi definido levando em conta principalmente os gastos com insumos. Os recursos obtidos pela cobrança dos usuários não são suficientes para pagar contratos de manutenção de algumas máquinas, que chegam a custar R$ 150 mil por ano cada uma. “Se incluíssemos outros gastos, o valor cobrado não seria competitivo”, diz Menck.

A situação é diferente no LNNano, onde os ser-viços não são cobrados de pesquisadores. O la-boratório é vinculado ao Ministério da Ciência, Tecnologia e Inovação, que todos os anos repassa recursos para cobrir gastos com manutenção de equipamentos, salários e insumos. “Cobramos ape-nas de empresas, que nos procuram em projetos de pesquisa e desenvolvimento (P&D) e presta-ção de serviços”, diz Fernando Galembeck. Nem sempre as facilities oferecem preços competitivos. “Quando o pesquisador brasileiro tem colaboração no exterior, ele consegue pagar o preço de usuá-rio interno na facility da universidade parceira, que costuma ser mais barato do que o daqui”, ex-plica Sandra Krauchenco, do LaCTAD. “Quando o usuário não tem colaboração internacional, aí conseguimos competir de igual para igual”, diz. n

“Há limitação de especialistas nos laboratórios. Uma solução é capacitar os usuários”, diz Carlos Menck

2

Page 42: Pesquisa FAPESP 221

42 z julho DE 2014

Projetos de alunos de

escolas públicas

despontam entre os

melhores apresentados

em feiras de ciência

educação y

Quando cursava o ensino técnico, o gaúcho Vi-nícius Guilherme Müller procurava um tema para seu projeto de conclusão do curso de eletrônica e decidiu resgatar uma pergunta

que fazia desde os sete anos de idade, época em que aprendeu a tocar piano: “Como fazer um surdo sentir a música?”. Decidiu investir em um tipo de dispositivo capaz de oferecer a pessoas com deficiência auditiva uma sensação parecida com a de ouvir música ou tocar um instrumento.

Ele, que na época era aluno da Fundação Escola Téc-nica Liberato Salzano Vieira da Cunha, em Novo Ham-burgo (RS), decidiu criar um equipamento capaz de in-terpretar notas musicais recebidas de um instrumento e transformá-las em vibrações transmitidas para a pele das pessoas. O dispositivo pode ser conectado em ins-trumentos musicais ou no computador e permitir aos surdos tanto a possibilidade de “ouvir” quanto de pro-duzir música. Em 2011, o projeto foi um dos destaques da Feira Brasileira de Ciências e Engenharia (Febrace),

Aprendizes de cientistas

Page 43: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 43

Movimentação de estudantes do ensino médio durante a Febrace, que neste ano reuniu 757 alunos de mais de 200 escolas públicas e particulares de todo o país

o que lhe rendeu uma indicação para participar da Feira Internacional de Ciências e Engenharia (Isef, na sigla em inglês), realizada desde 1950 nos Estados Unidos.

Em Los Angeles, Müller conquistou o terceiro lugar da premiação de engenharia elétrica, feito que o fez olhar para a pesquisa com outros olhos. “Tive contato com jovens de todos os cantos do mundo, apaixonados pela pesquisa, criando coisas espetaculares em todas as áreas do conhecimento”, diz Müller, hoje estudante de engenharia elétrica da Universidade Federal do Rio Grande do Sul, que no início de 2013 se mudou para a França, onde participa de um programa de dupla di-plomação da École Centrale Paris.

Na última década, o envolvimento de alunos de es-colas públicas com a iniciação científica alcançou um novo patamar, fenômeno observado principalmente pela presença de projetos que ganharam destaque em feiras de ciência no Brasil e no exterior. Um termôme-tro dessa evolução é a Isef, uma das principais feiras de ciência do mundo, que reúne mais de 1.500 alunos de 70 países. No ano passado, dos 10 estudantes brasilei-ros premiados na feira, cinco eram de escolas públicas regulares. “Isso mostra que a diferença entre os tra-balhos apresentados por alunos da rede pública e da particular está diminuindo”, diz Roseli de Deus Lopes, professora da Escola Politécnica da USP e coordena-dora da Febrace. Segundo ela, professores das escolas públicas perceberam que mesmo com poucos recursos é possível estimular a capacidade de investigação e ob-servação dos estudantes.

Um exemplo dessa mudança de percepção foi a segun-da edição da Mostra Paulista de Ciências e Engenharia (MOP), realizada em janeiro de 2013, que conseguiu atrair

Foto

S lé

o r

aM

os

Page 44: Pesquisa FAPESP 221

44 z julho DE 2014

mais estudantes e professores orientado-res de escolas públicas estaduais de São Paulo para o circuito das feiras de ciências investigativas – um público tradicional-mente distante dessas iniciativas. “Isso está mudando e a prova é que muitos dos alunos que se destacaram na Febrace vie-ram de escolas públicas e chegaram a ter reconhecimento no exterior”, diz Roseli.

O exemplo da estudante de biologia Nayrob Pereira, 18 anos, também espelha esse movimento. No ano passado, ela rece-beu um prêmio da Patent and Trademark

Office Society, organização norte-ameri-cana fundada em 1917 que atua na área de propriedade intelectual, e conquistou outro na Isef com uma pesquisa sobre uma substância antibacteriana presente no ve-neno do escorpião. O interesse de Nayrob pelo tema surgiu no ensino médio depois de uma visita ao Instituto Butantan, numa atividade da Semana Nacional de Ciência e Tecnologia em 2011, quando era aluna da Escola Estadual Alberto Torres. Ao depa-rar com aranhas e escorpiões, a estudante sofreu uma crise de pânico.

Após ser selecionada pela escola pa-ra concorrer a uma bolsa de iniciação científica jr. do Conselho Nacional de Desenvolvimento Científico e Tecno-lógico (CNPq) oferecida pelo Instituto Butantan, ela procurou Pedro Ismael da Silva Junior, pesquisador do Centro de Toxinas, Resposta Imune e Sinalização Celular do Instituto Butantan, que havia recebido o grupo de estudantes. “Decidi realizar o projeto no instituto como uma forma de enfrentar meu próprio medo”, diz Nayrob, que escolheu o escorpião Tytius serrulatus e seu veneno como ob-jeto de estudo. Após procedimentos em laboratório, identificou duas frações com atividade antimicrobiana.

Depois de apresentar seu trabalho na feira norte-americana em 2013, Nayrob resolveu dar continuidade ao projeto, agora como bolsista de iniciação cien-tífica na graduação – ela faz licenciatu-ra em biologia no Instituto Federal de Educação, Ciência e Tecnologia de São Paulo. O objetivo dela é identificar novas neurotoxinas com potencial antimicro-biano presentes no veneno do escorpião. “Espero em breve publicar um artigo dessa pesquisa e em seguida passar um tempo no exterior”, diz Nayrob.

O centenário Instituto Butantan tem tradição em despertar o fascínio pela ciência nos mais jovens. No caso de Ivan Lavander Cândido Ferreira, de 23 anos, estudante de biologia da USP, o interesse por aranhas nasceu dentro de casa, onde desde criança criava os animais em seu quarto. “Mas, embora eu tenha estudado em colégio particular, não houve muita

Gabriel Nascimento e o colega cleiton dos santos apresentaram o cão-guia robótico, que identifica obstáculos e avisa o dono

o ambiente de competição próprio de olimpíadas e feiras de ciência foi um dos fatores que levaram luis Fernando Machado Poletti Valle a decidir, aos 17 anos, que seguirá na carreira de pesquisador. “Tudo o que sei de ciência é porque estudei para olimpíadas no ensino médio”, diz Valle. No começo do ano, ele chamou atenção ao ser aprovado nos vestibulares mais concorridos do país, entre eles o do Instituto Tecnológico de

Das olimpíadas a Yaleaeronáutica (ITa), do Instituto Militar de engenharia (IMe) e o da escola Politécnica da usP, e ao ser aceito em duas das mais prestigiadas universidades do mundo, Yale e columbia. Valle escolheu a Poli-usP, mas em agosto muda-se para New Haven, estados unidos, onde está sediada a universidade Yale. “o curso de engenharia da usP é muito bom, mas muito técnico. eu gosto de ter contato com outras áreas,

principalmente filosofia”, diz Valle, que pretende cursar física. Na universidade norte-americana, terá dois anos para decidir qual curso irá fazer. Nesse período, poderá acompanhar disciplinas em diferentes áreas, como história e matemática. Valle não chegou a realizar um projeto de iniciação científica, mas destaca como um marco na sua vida a participação na IYPT, uma competição mundial de física

experimental. Foi após esse torneio, do qual participou da final brasileira, que confirmou seu gosto pela pesquisa básica e a necessidade de desenvolver sua carreira no exterior.

luis Fernando chegou a receber doações pela internet para cobrir custos na nova universidade

1

3

Page 45: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 45

atenção para minhas ideias, razão pela qual eu busquei apoio no Butantan”, ex-plica Ferreira, que em 2009 descobriu a presença de antibióticos em ovos de ara-nhas. Orientado também por Pedro Is-mael, no Butantan, Ferreira identificou quatro compostos com atividade antibió-tica contra algumas bactérias, entre elas o Staphylococcus aureus, responsável por vários tipos de infecção. O feito rendeu ao estudante a participação na Febrace, o quarto lugar num prêmio concedido pela American Society for Microbiology, o se-gundo lugar na categoria Microbiologia da Isef em 2009 e uma premiação do Massa-chusetts Institute of Technology (MIT).

A exposição internacional estimulou Ferreira a buscar novos horizontes. Em 2010, logo após passar no vestibular da USP, conseguiu uma vaga de estágio no Weizmann Institute of Sciences, em Is-rael. “O formato de algumas feiras e com-petições, pelas quais passei no ensino mé-dio, visa estimular a curiosidade e a criati-vidade do aluno participante, fazendo com que os estudantes sejam protagonistas e não somente espectadores na solução de problemas contemporâneos por meio da inovação. Foi isso que me impulsionou pa-ra a pesquisa básica", diz Ferreira.

InclUSãoNa avaliação de Roseli de Deus Lopes, as mais de 70 feiras de ciência, entre esta-duais, municipais e locais filiadas à Fe-brace, estão conseguindo incluir mais estudantes e professores da rede pública. Parte dessa conquista, diz ela, deve-se aos programas de iniciação científica no ensi-

Alguns dos 331 projetos expostos na Febrace deste ano mostram que as chances de sucesso em feiras nacionais e internacionais seguem palpáveis. Um deles, elaborado por alunos do ensino médio da Escola Estadual Clóvis Borges Miguel, no Espírito Santo, apresentou um cão-guia robótico que se locomove por comando de voz. “No Brasil exis-tem cerca de 2 milhões de pessoas com deficiência visual. Pensamos num equi-pamento que pudesse ajudá-las”, conta Gabriel Nascimento de Oliveira, um dos autores do projeto.

Além de exercer as funções de um cão-guia, o robô consegue identificar obstáculos e avisar o dono. O projeto foi desenvolvido em parceria com o Insti-tuto Braille e teve um custo de R$ 1.500. O protótipo apresentado na feira está em fase de testes e a ideia é que possa ser comercializado.

Outro projeto que ganhou destaque foi o chuveiro Ecoderme, desenvolvido pela aluna Stephani Marins Resende, da Escola Técnica Henrique Lage, do Rio de Janeiro. Trata-se de um dispositivo que, acoplado ao chuveiro elétrico, controla a temperatura e a duração do banho, aler-tando o usuário com uma luz vermelha quando o banho já passou dos cinco mi-nutos ou supera os 37ºC. “O banho ideal não pode passar de 10 minutos de duração nem deve ser muito quente”, diz Stepha-ni, que lembra que 15 minutos de banho consomem, em média, 130 litros d'água. Ela explica que o dispositivo serve para educar as pessoas, por isso não corta o fluxo da água. Além de evitar o desperdí-cio, busca evitar que a água muito quente prejudique a saúde da pele.

O trabalho de Francisco Daniel Adria-no e Francisco Mairton Lima, alunos da Escola Estadual de Educação Profissio-nal Júlio França, no Ceará, chamou a atenção dos avaliadores da Febrace pelo bom nível, comparável ao de um proje-to universitário. Eles verificaram que o croatá, um fruto da família do abaca-xi encontrado no Nordeste, tem em sua composição uma boa quantidade de uma substância chamada bromelina. “A bro-melina é uma enzima com propriedades antibacterianas e antifúngicas”, diz Lima. Os estudantes pretendem agora realizar espectrometria de massas e o teste de to-xidade para aferir se a bromelina pode ser uma alternativa no desenvolvimento de medicamentos. n Bruno de pierroFo

toS

1 E

2 l

éo r

aM

os

3 e

du

ar

do

ce

sar

“A diferença entre trabalhos da rede pública e da particular está diminuindo”, diz Roseli de Deus lopes

no médio, que têm conseguido impulsio-nar o intercâmbio entre colégios da rede pública e universidades. Nas principais universidades do estado de São Paulo, o número de alunos selecionados e de projetos aumentou significativamente. Em 2013, a Unicamp disponibilizou 300 vagas para adolescentes de escolas do en-sino médio de Campinas e região, um au-mento de 66% em relação a 2010. A USP, por sua vez, ofereceu no ano passado 512 vagas no seu Programa de Pré-iniciação Científica (Pré-IC), 97 a mais em com-paração a 2012 (ver Pesquisa FAPESP nº 207). Outro fator destacado por Roseli é o próprio empenho da Febrace em aumen-tar o número de escolas participantes. Na primeira edição da feira, em 2003, parti-ciparam 62 escolas; em 2008, o número havia aumentado para 164 e, em 2014, chegou a 212. “Quando uma região não tem bom desempenho, queremos saber a causa. Este ano, visitaremos o Acre, que na última edição da feira não teve projetos selecionados", diz Roseli.

2

a estudante stephani resende, do rio de Janeiro, e o chuveiro ecoderme: economia de água na temperatura certa

Page 46: Pesquisa FAPESP 221

46 z julho DE 2014

Estudo indica que o Twitter é a rede

social mais usada para divulgar artigos

científicos de revistas brasileiras

inTErnET y

Retuíte ou pereça

A biblioteca eletrônica SciELO, que reúne quase 300 revistas científicas brasileiras, foi alvo de um estudo pioneiro para

avaliar a repercussão de seus artigos em sites, blogs e redes sociais, entre outros meios eletrônicos. O estudo, apresentado no mês passado numa conferência sobre webscience pelo argentino Juan Pablo Alperin, pesquisador da Escola de Edu-cação da Universidade Stanford, chegou a duas conclusões importantes. A primeira: a disseminação da ciência na internet e nas redes sociais parece ter alcance ainda restrito no Brasil. A segunda: apesar da penetração limitada, o serviço de micro-blogs Twitter foi a rede social que mais registrou menções e recomendações aos artigos vinculados à SciELO.

Foram analisados 21.560 artigos pu-blicados pelas revistas da SciELO em 2013. Quase 1,3 mil papers, o equivalen-te a 6,03% do total, foram mencionados nos posts de 144 caracteres do Twitter. O Facebook, que tem cinco vezes mais usuários ativos que o Twitter, apareceu em segundo lugar no estudo de Alpe-rin, com menções a 2,81% dos artigos da SciELO. Segundo Alperin, é possível

que os números do Facebook sejam algo maiores, porque só foram computadas as mensagens em perfis públicos da rede social. “Links em grupos fechados, por exemplo, não puderam ser rastreados”, diz o pesquisador. Os dados foram ob-tidos por meio da empresa Altmetric, que oferece ferramentas para monitorar referências na internet a pessoas e cor-porações, e também a artigos científicos.

Outros sites e redes sociais tiveram de-sempenho insignificante. A rede social Google+, vinculada ao Google, e blogs cien-tíficos mencionaram menos de 0,1% dos papers. Na rede social LinkedIn, a mais importante do mundo corporativo, ou na enciclopédia Wikipedia, nenhuma men-ção aos artigos foi observada. O trabalho, porém, não avaliou o desempenho de uma ferramenta virtual bastante utilizada pelos pesquisadores. Trata-se da Mendeley, que surgiu como um software organizador de referências bibliográficas, mas se tornou uma relevante rede social de cientistas, por meio da qual compartilham artigos interessantes com colegas e alunos.

O estudo de Alperin pertence a um campo recente da bibliometria chamado “altmetria”, numa referência a métricas

alternativas ao uso exclusivo de citações. Proposta pela primeira vez em 2010, a altmetria busca medir a influência da produção científica por meio da análi-se de menções em sites e redes sociais, downloads ou retuítes. Estudos seme-lhantes feitos em bases de dados inter-nacionais sugerem que a repercussão dos documentos científicos de bases de dados de países desenvolvidos supera a observada pelo trabalho de Alperin. Um artigo publicado em 2013 no Journal of the Association for Information Science and Technology mostrou que foram tui-tados pelo menos uma vez 9,4% dos mais de 1,4 milhão de artigos da área de ciên-cias da vida disponíveis simultaneamen-te nas bases de dados PubMed, a mais importante da área biomédica, e Web of Science, da empresa Thomson Reuters, entre 2010 e 2012. Alperin enxerga al-gumas explicações para a diferença. A primeira é que, nos países desenvolvidos, há relativamente mais pessoas conecta-das à internet. “Em segundo lugar, estou realizando um estudo que sugere que cerca de 50% do uso da SciELO vem de estudantes. Talvez eles não sejam mui-to propensos a compartilhar artigos em

Page 47: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 47

Uma vantagem que pode ajudar a ex-plicar a preferência dos pesquisadores pelo Twitter, observa Iamarino, é que a rede de microblogs permite efetivamen-te divulgar uma informação para todos os seguidores, o que não acontece com o Facebook, que em geral divulga para um pequeno quinhão dos “amigos”. “Se eu publico algo no Twitter, sei que to-dos os meus contatos vão ter acesso ao meu post. No Facebook, não sei quan-tos vão receber”, afirma. É certo que a emergência das redes sociais ocupou um espaço na divulgação científica que an-teriormente pertencia aos blogs. “Hoje os blogs contêm textos mais profundos e elaborados, que são lidos e comentados por um público interessado. O grande público está mesmo no Facebook e no Twitter”, afirma Iamarino.

Mas até que ponto a repercussão em sites e redes sociais pode se comparar ao impacto tradicionalmente medido por citações? A resposta ainda está em cons-trução, mas indica que a altmetria, longe de substituir medidas como os fatores de impacto ou o índice h, desponta como um método complementar de mensurar a repercussão da produção científica e de

monitorar a forma como artigos científi-cos se disseminam e são discutidos por pesquisadores e o público leigo imediata-mente depois de sua divulgação. Em arti-go publicado em 2012 no Journal of Me-dical Internet Research, Gunther Eysen-bach, pesquisador do Centre for Global eHealth Innovation, do Canadá, mostrou uma correlação entre artigos científicos que tiveram uma grande quantidade de tuítes nos três primeiros dias após a sua publicação e aqueles altamente citados. O recorte da pesquisa, contudo, foi res-trito: a análise limitou-se a 286 artigos do próprio Journal of Medical Internet Research entre 2008 e 2011. “Há muitos artigos altamente citados que não reper-cutiram nas redes sociais, assim como existem artigos muito compartilhados, como os que tratam de temas políticos ou ideológicos de interesse dos pesqui-sadores, que não se convertem depois em citações”, afirma Iamarino. “Da mesma forma, existe uma variedade de com-portamento entre os vários campos do conhecimento e o que se vê claramente entre os pesquisadores das ciências da vida não se reproduz nos grupos de ou-tras disciplinas”, diz. n Fabrício Marques

redes. Por fim, tenho a impressão de que os pesquisadores latino-americanos ain-da não adotaram as redes sociais como ferramentas de trabalho como os colegas de outros países”, acredita.

plAtAFoRMA lAttESA emergência do Twitter como rede so-cial para a disseminação da produção científica é observada por blogueiros e pesquisadores familiarizados com esse universo. “Há cada vez mais cientistas, principalmente os mais jovens, com per-fis no Twitter e é comum que eles usem a rede social para se comunicar com co-legas e recomendar artigos”, diz o bió-logo Atila Iamarino, cocriador da rede de blogs científicos ScienceBlogs Brasil. Atualmente fazendo pós-doutorado em microbiologia na Universidade Yale, com bolsa da FAPESP, Iamarino observa que, nos Estados Unidos, muitos pesquisado-res utilizam a rede profissional LinkedIn para divulgar seus artigos, porque ela também se transformou numa platafor-ma de currículos. “No Brasil o LinkedIn parece não ser popular entre os pesqui-sadores porque os nossos currículos es-tão na Plataforma Lattes”, afirma. Il

USt

RA

çã

o z

é v

icEn

TE

Page 48: Pesquisa FAPESP 221

Teoria proposta por pesquisadores brasileiros

explica o tamanho do planeta vermelho

ciência ASTRONOMIA y

Por que Marte não cresceu

igor Zolnerkevic

cinturão de asteroides

Objetos com dimensões variadas,

de grãos de poeira a 0,00015

de 2,3 UA a 3,3 UA

= massa da Terra = 5,972 × 1024 kg ua = unidade astronômica = distância média entre o Sol e a Terra = 149.597.871 km

sol333

mil

Mercúrio

0,055

0,4 UA

Vênus

0,815

0,4 UA

terra1

1 UA

Marte0,107

1,5 UAJúpiter318

5,2 UA

pesos e medidasOs quatro planetas rochosos e mais próximos do Sol, além do cinturão de asteroides e do gigante Júpiter

Page 49: Pesquisa FAPESP 221

pesQuisa Fapesp 221 z 49pesQuisa Fapesp 221 z 49

inFo

gr

áFi

co

AN

A p

AU

lA

cA

Mp

OS

ilu

str

ão

gU

Ilh

eRM

e le

pc

A iM

ag

eM N

ASA

se os romanos antigos soubessem o tamanho real do planeta Marte, talvez não o tivessem batizado com o nome de seu deus da guerra. Pois Marte estaria mais para um guerreiro-anão do que para um gigante,

caso seu corpo guardasse uma proporção acurada com as dimensões do planeta de mesmo nome. Marte é o segundo menor planeta do sistema solar, com um décimo da massa da Terra. E o motivo de sua pequenez é uma das principais questões em aberto para os astrônomos e os geofísicos que estudam a formação dos planetas solares. Especialistas em mecânica celeste da Universidade Estadual Paulista (Unesp), entretanto, acreditam ter finalmente encontrado uma solução satisfatória para o problema.

Simulações em computador da formação do sistema solar já explicaram a posição e as propriedades físicas de muitos dos planetas e demais corpos celestes que giram em torno do Sol. Marte, no entanto, ainda está entre os corpos cuja origem é um mistério. De acordo com essas simulações, a massa do planeta vermelho deveria ser tão grande quanto a da Terra ou de Vênus, que são semelhantes. Alguns pesquisadores já propuseram teorias para resolver a disparidade. A principal delas, conhecida como cenário do grand tack, assume que uma série de eventos pouco prováveis durante a movimentação dos planetas no início do sistema solar, cerca de 4 bilhões de anos atrás, gerou condições favoráveis à formação de um planeta

peso leve: com nome do deus romano da guerra, Marte, diferentemente do esperado, tem 10% da massa da Terra

Page 50: Pesquisa FAPESP 221

50 z julho DE 2014

disco protoplanetário

Marte pequeno. “A beleza de nosso trabalho é explicar Marte de um jeito muito mais simples e provável”, diz o astrônomo Othon Winter, da Faculdade de Engenharia da Unesp em Guara-tinguetá, que faz parte da equipe que sugeriu um novo modelo para a formação de Marte em fevereiro deste ano no Astrophysical Journal.

O astrônomo André Izidoro, que concluiu seu doutorado na Unesp em 2013 sob a orientação de Winter, teve a ideia de testar se o tamanho reduzi-do de Marte poderia ser consequência da falta de “material de construção” na vizinhança marciana nos primórdios do sistema solar. Segundo esse novo cenário, há 4 bilhões de anos haveria uma grande lacuna de matéria-prima numa região do disco protoplanetário – composto por milhares de corpos semelhantes às luas e aos asteroides atuais que originaram os planetas rochosos por meio de colisões – próxima à órbita atual de Marte. Atual-mente fazendo pós-doutorado no Observatório da Costa Azul, da Universidade de Nice, na França, Izidoro construiu esse modelo com base em teo-rias recentes de que lacunas como essa podem ter surgido naturalmente no disco planetário.

As simulações em computador baseadas nesse novo cenário sugerem que Marte teria começado a se formar em uma das seguintes regiões: próximo à localização atual da Terra ou mais perto de onde hoje se encontra o cinturão de asteroides, entre a órbita de Marte e de Júpiter. Tanto em um caso como no outro, Marte teria migrado muito rapida-mente para a região carente em material de cons-trução planetária e ali permanecido, a uma distân-cia uma vez e meia maior que a que separa a Terra do Sol, segundo as simulações em computador realizadas por Izidoro e Winter em parceria com Nader Haghighipour, da Universidade do Havaí em Manoa, Estados Unidos, e Masayoshi Tsuchida, do Instituto de Biociências, Letras e Ciências Exatas da Unesp em São José do Rio Preto.

disco original Os astrônomos acreditam que já conhecem bem a história da origem do sistema solar, embora fal-tem detalhes a serem preenchidos. O Sol, como muitas outras estrelas, nasceu do gás e da poei-ra do meio interestelar que se condensaram em uma nuvem 4,6 bilhões de anos atrás. A maior parte desse material colapsou formando o Sol, enquanto o restante permaneceu na forma de um disco girando em torno da nova estrela. Nes-se disco, os grãos de poeira se aglomeraram ao longo de milhões de anos até formarem corpos rochosos com cerca de 100 quilômetros de diâ-metro semelhantes aos asteroides – são os cha-mados planetesimais.

A maioria dos planetesimais continuou a coli-dir entre si até formar os embriões planetários: corpos semelhantes a planetas, com massa en-

tre a da Lua (um centésimo da terrestre) e a de Marte. Alguns dos primeiros embriões cresce-ram o suficiente para a sua atração gravitacional começar a sugar o gás do disco protoplanetário, formando os atuais planetas gigantes gasosos: Júpiter, Saturno, Urano e Netuno.

Essa primeira fase de formação do sistema so-lar durou no máximo 10 milhões de anos e termi-nou quando todo o gás do disco se dissipou ou foi capturado pelos gigantes gasosos e pelo Sol. O sis-tema solar ainda era muito diferente do atual: os gigantes gasosos orbitavam mais próximos do Sol, imersos em um mar de planetesimais e embriões planetários. Colisões e chacoalhões gravitacionais ocorridos nos 500 milhões de anos seguintes acaba-ram por levar os gigantes gasosos até suas posições atuais, empurrando os corpos menores para faixas específicas e mais distantes do Sol, que formam o cinturão de Kuiper, onde está Plutão, e, mais além, a nuvem de Oort, de onde vêm muitos cometas.

Os astrônomos Hal Levison, Alessandro Mor-bidelli, Kleomentis Tsiganis e o brasileiro Rodney

Fase inicial de formação do sistema solar durou 10 milhões de anos e gerou os planetas gigantes gasosos

iMa

geM

NA

SA i

nFo

gr

áFi

co

AN

A p

AU

lA

cA

Mp

OS

ilu

str

ão

gU

Ilh

eRM

e le

pc

A

origem e evoluçãoem pouco mais de 1 bilhão de anos, uma nuvem de gás e poeira gerou o Sol e os planetas que gravitam ao seu redor

planetesimais

– quente, – viscoso

+ quente, + viscoso

Uma nuvem de gás e poeira

colapsa ao longo de 100 mil anos

e origina o Sol e um disco ao seu

redor. A ação dos raios cósmicos

e da radiação solar, somada ao

movimento do disco, divide-o

em duas faixas com propriedades

distintas, separadas por uma

região pobre em material

100 Mil anos depois do surgimento do sol

1

Page 51: Pesquisa FAPESP 221

pesQuisa Fapesp 221 z 51

Gomes, atualmente no Observatório Nacional, apresentaram esse modelo de formação inicial do sistema solar em 2005, em uma série de artigos publicados na revista Nature. Essa teoria ficou conhecida como modelo de Nice, por ter sido criada quando seus autores trabalhavam juntos no Observatório da Costa Azul.

Ao mesmo tempo que os gigantes gasosos se formavam, o choque de planetesimais e embriões planetários acumulados entre o Sol e Júpiter começou a originar os planetas rochosos atuais – Mercúrio, Vênus, Terra e Marte –, além do cin-turão de asteroides entre Marte e Júpiter. Foram necessários de 50 milhões a 150 milhões de anos para Mercúrio, Vênus e a Terra alcançarem sua forma atual, enquanto Marte se formou mui-to mais rapidamente, em menos de 10 milhões de anos. Izidoro dedicou seu doutorado justa-mente a simular esse período final de formação dos planetas. “Nossas simulações, assim como a maioria das feitas pelos outros pesquisado-res, costumavam falhar na produção de Marte”,

conta Izidoro. “Geravam de dois a três planetas parecidos com a Terra e Vênus, mas nunca algo parecido com Marte.”

Na mesma época em que Izidoro iniciou seu doutorado, a comunidade astronômica interna-cional começou a perceber qual era o principal problema das simulações. Elas assumiam que a quantidade de planetesimais e embriões plane-tários variava de maneira suave ao longo do disco protoplanetário. Na sequência, diversos estudos começaram a mostrar que um planeta menor po-deria surgir na vizinhança atual de Marte, se a distribuição de material variasse de modo mais abrupto, com uma faixa estreita contendo mais material próximo à órbita da Terra hoje, seguida de uma faixa com menos material na região on-de atualmente se encontra o planeta vermelho.

O cenário mais famoso para explicar essa dis-tribuição incomum de material é chamado de grand tack. De acordo com esse cenário, proposto em 2011 na Nature, no final da primeira fase de formação do sistema solar, quando os gigantes

Sem gás, os planetesimais e os embriões planetários continuam a colidir e geram os planetas rochosos. As novas simulações explicam a origem de Marte ao assumirem que havia uma faixa com menos material entre 1,5 UA e 2,5 UA

O sistema solar alcança configuração semelhante à atual

parte do gás começa a se agregar aos embriões planetários maiores e a formar os planetas gigantes gasosos

Fonte ANdRé IzIdORO / UNeSp

planetas rochosos

gigantes gasosos

sisteMa solar

situação inicial

1 Milhão de anos depois

10 Milhões de anos depois

1 bilhão de anos depois

Júpiter disco com planetesimais e embriões planetários

Terra

MercúrioNão foi

estudado

JúpiterQuase

na mesma posição atual

MarteMigra

cedo para a lacuna

Vênus e terracom massa e

posição parecidas com as atuais

asteroidescinturão

semelhante ao atual

2 4

0,5 UA 1,5 UA 2,5 UA 5 UA

JúpiterQuase na mesma

posição atual

lacunaRegião com 50% a 75%

menos material

resultados

noVo Modelo para a origeM de Marte

3

sol

sol

Page 52: Pesquisa FAPESP 221

52 z julho DE 2014

gasosos já haviam surgido, forças gravitacionais atuando entre o resto de gás que ainda permea-va o disco protoplanetário e os gigantes gasosos fizeram Júpiter e Saturno avançar em direção ao Sol. Nessa viagem, os gigantes gasosos saíram de suas órbitas originais a cerca de quatro unidades astronômicas – uma unidade astronômica é a dis-tância que separa a Terra do Sol – e migraram até a região onde hoje está Marte, a 1,5 unidade astro-nômica. Nesse momento, interações complexas das forças gravitacionais atuando sobre o gás e os gigantes gasosos fazem a migração dos planetas mudar de sentido, levando Júpiter e Saturno de volta a suas órbitas mais afastadas. Simulações mostraram que a movimentação abrupta desses dois planetas teria espalhado os corpos do disco protopla-netário, criando uma distribui-ção desigual de material que explicaria Marte. Esse cenário foi batizado de grand tack por um de seus autores, Alessandro Morbidelli, do Observatório da Costa Azul, em alusão à mano-bra de tacking, quando os bar-cos a vela revertem seu curso em relação à direção do vento.

a grande lacunaEmbora o cenário do grand tack seja possível, Izidoro nota que o modelo só funciona para uma combinação muito precisa das propriedades físicas do disco protoplanetário e dos gigantes gasosos. “É muito pouco prová-vel que a reversão de movimen-to de Júpiter tenha ocorrido exatamente na atual órbita de Marte”, ele explica. “Se as propriedades do disco e dos planetas forem um pouquinho di-ferentes, as simulações do modelo formam um sistema solar completamente diferente do real.”

Buscando uma alternativa ao grand tack, Izidoro resolveu explorar uma ideia proposta em 2008 pelo astrônomo Liping Jin, da Universidade de Jilin, na China. Jin e seus colegas propuseram que a distri-buição dos corpos rochosos no disco protoplane-tário poderia ter uma grande lacuna de densidade próxima à órbita de Marte. Mas a origem dessa lacuna seria mais antiga do que supõe o cenário do grand tack. Ela teria sido criada pelas propriedades do gás e da poeira na infância do disco protopla-netário, antes da formação dos gigantes gasosos. Ainda nessa época, os efeitos da radiação solar e dos raios cósmicos, combinados com o fato de o gás do disco planetário girar mais rapidamente mais próximo ao Sol, poderiam criar uma lacuna de densidade – uma faixa com menos gás e poeira que, milhões de anos mais tarde, poderia resultar

numa faixa com menos planetesimais e embriões planetários, justamente na órbita atual de Marte.

Inspirados nesse cenário, Izidoro e seus cole-gas realizaram simulações em computador que começavam assumindo um disco com quase mil planetesimais e cerca de 150 embriões planetá-rios entre o Sol e Júpiter, com uma lacuna de densidade próxima à posição atual de Marte. A equipe realizou 84 simulações usando o cluster de computadores do laboratório do Grupo de Dinâmica Orbital e Planetologia da Unesp de Guaratinguetá. Cada simulação começava as-sumindo condições iniciais diferentes, varian-do parâmetros tais como as órbitas de Júpiter e Saturno, a largura, posição e intensidade da

lacuna de densidade. O resultado de cada simu-

lação é uma espécie de filme em movimento acelerado, com um a três meses de duração, retratando 1 bilhão de anos de colisões e acrobacias interpla-netárias. O resultado de uma única simulação é como um fil-me de ficção científica, contan-do uma história alternativa do sistema solar, mas fiel às leis da física. Comparando os re-sultados de muitas simulações diferentes, porém, os pesqui-sadores podem ter uma ideia do que é mais provável que te-nha acontecido no passado do sistema solar.

As simulações em que um planeta com as dimensões e a posição atual de Marte perma-

necia orbitando o Sol de maneira estável eram aquelas que assumiam uma lacuna de densidade no disco protoplanetário entre 1,5 e 2,5 unidades astronômicas, com 50% a 75% de material a me-nos que a média do disco. As simulações também deixaram claro que, ao contrário do que se pen-sava, Marte não começa a se formar na região de pouco material. Em metade das simulações bem-sucedidas, Marte nasce próximo de onde a Terra e Vênus se formaram, enquanto no res-tante das simulações ele nasce mais afastado do Sol, do outro lado da lacuna. As forças gravitacio-nais entre o Sol, os gigantes gasosos e os planetas nascentes, porém, acabam por lançar Marte na lacuna, onde seu crescimento é interrompido. “A lacuna tem tão pouco material que quase não há colisões na região”, explica Winter. “Nem mes-mo um planeta pequeno poderia se formar ali.”

Além de Marte, simulações também conseguem formar planetas muito parecidos com a Terra e Vênus, além de um cinturão de asteroides com órbitas semelhantes às dos asteroides reais. As

características iniciais do disco protoplanetário podem ter levado à falta de material na região onde se formou Marte

iMa

geM

MA

RS

ex

plO

RA

TIO

N R

Ov

eR M

ISSI

ON

/ T

ex

AS

A&

M /

cO

RN

ell

/ Jp

l /

NA

SA

Page 53: Pesquisa FAPESP 221

pesQuisa Fapesp 221 z 53

projetodinâmica orbital de pequenos corpos (nº 2011/08171-3); Modalidade: projeto Temático; pesquisador responsável Othon cabo Winter (Faculdade de engenharia de guaratinguetá/Unesp); investimento R$ 560.886,80 (FApeSp).

Artigo científicoIzIdORO, A. et al, Terrestrial planet formation In a protoplanetary disk with a local mass depletion: a successful scenario for the formation of Mars. the astrophysical Journal. v. 782: 31. 10 fev. 2014.

simulações não conseguiram, porém, formar um análogo de Mercúrio. De fato, Mercúrio vem sendo relativamente ignorado pela maioria dos modelos até agora. “Mas alguns pesquisadores já estão traba-lhando em cima do nosso modelo para tratar disso”, diz Izidoro. “Agora, Mercúrio é a pedra da vez.”

O tempo que os planetas semelhantes à Terra e a Marte levam para se formar nas simulações também está de acordo com os tempos de for-mação que os geoquímicos estimam comparando a proporção de elementos químicos radioativos nas rochas terrestres e de meteoritos marcianos. Marte teria terminado de crescer prematuramen-te apenas 2 milhões de anos depois de começar a se formar. Já a fase de crescimento da Terra teria demorado em torno de 50 milhões de anos.

Winter faz questão de ressaltar que o estu-do tem aplicações que vão além da formação de Marte e do sistema solar. “Uma grande variedade de sistemas planetários extrassolares vem sendo descoberta, muito diferentes do nosso sistema solar e ainda sem explicação”, conta o astrôno-mo. “Os modelos para a origem deles ainda as-

sumem um disco protoplanetário de densidade uniforme, sem lacunas.”

“Esse déficit local de planetesimais e embriões que eles assumem, ainda que extremo, é espera-do”, diz o astrônomo brasileiro Wladimir Lyra, do Laboratório de Propulsão a Jato da Nasa. Em 2008, Lyra e colaboradores fizeram simulações para estudar o efeito do movimento turbulento do material do disco protoplanetário na forma-ção dos planetesimais. “A distribuição não ho-mogênea de gás e rochas que resulta de nossos modelos coincide razoavelmente bem com as que Izidoro e colegas necessitam no modelo deles.” n

pôr do sol em Marte, capturado pelo robô Spirit: planeta vermelho se formou em 2 milhões de anos, 25 vezes mais rápido do que a Terra

Page 54: Pesquisa FAPESP 221

Modelo tridimensional destaca irregularidades na nuvem

de gás e poeira que envolve a estrela Eta Carinae

Uma equipe internacional de pes-quisadores, com a participação de três brasileiros, produziu a mais detalhada radiografia em

três dimensões da nuvem de gás e poei-ra que impede a observação direta da misteriosa estrela gigante Eta Carinae, situada a 7.500 anos-luz de distância da Terra. Os dados pormenorizados sobre a estrutura de toda a nebulosa estão em um artigo previsto para ser publicado no início de julho na revista científica Mon-thly Notices of the Royal Astronomical Society. “Estamos disponibilizando até um arquivo que qualquer pessoa pode baixar do site da revista e usá-lo para produzir numa impressora 3D uma ré-plica da nuvem”, afirma Mairan Teodoro, um dos autores do trabalho, astrofísi-co formado pela Universidade de São Paulo (USP) que faz pós-doutorado no Nasa Goddard Space Flight, nos Esta-dos Unidos. O Centro de Tecnologia da Informação (CTI) Renato Archer, de Campinas, imprimiu, por exemplo, uma réplica de 15 centímetros do Homúnculo, cuja extensão total, de ponta a ponta, é da ordem de 3 trilhões de quilômetros.

O estudo revela detalhes de uma estru-tura que se formou em torno da estrela há pouco mais de 170 anos. No início

AstrofísiCA y

Nebulosa em 3D

dos anos 1840, a Eta Carinae, que a cada cinco anos e meio sofre uma espécie de apagão por cerca de três meses, passou a exibir uma feição particular: uma espes-sa nuvem de gás e poeira, com um forma-to semelhante a duas bexigas conecta-das por uma entrada comum, formou-se ao seu redor. Denominado Homúnculo, esse envelope de matéria em expansão encobre, na verdade, um sistema binário. Hoje há consenso de que a Eta Carinae é composta de duas estrelas, uma com 90 massas solares e outra com 30, em vez de uma só, como se pensava. A origem da nebulosa é atribuída a uma série de grandes erupções, a primeira ocorrida em 1843, que fez o sistema estelar ejetar enorme quantidade de matéria e aumen-tar temporariamente seu brilho.

Calombos e buRaCos O novo modelo tridimensional do Ho-múnculo confirma algumas caracterís-ticas da nuvem que já se insinuavam em outros trabalhos e destaca particulari-dades até agora ignoradas. As duas me-tades da nebulosa são muito parecidas, quase simétricas. O lóbulo denominado azul – cuja observação é mais fácil de ser obtida por se encontrar à frente na linha de visão da Terra – tem uma pro-

marcos Pivetta

tuberância em sua região central. Essa proeminência forma um ângulo de 55 graus em relação ao plano equatorial que divide a nebulosa (ver quadro ao lado). O lóbulo vermelho, que fica parcialmente escondido do ponto de vista de um ob-servador terrestre, também apresenta uma protuberância com a mesma angu-lação, só que na direção oposta.

Além desses calombos no coração do Homúnculo, o modelo em 3D aponta ir-regularidades nos polos, nas pontas, de cada metade da nuvem de gás e poeira. O lóbulo azul tem um buraco principal e uma espécie de vala ou depressão re-lativamente plana que ocupa uma região ao redor de seu polo. O vermelho tam-bém apresenta um grande buraco, mas ainda exibe furos menores e uma vala de formato mais variável. Os pesquisadores acreditam que a nebulosa tem essas ca-racterísticas anatômicas porque ela se formou em torno de um sistema binário. “A interação entre as duas Eta Carinae, a maior e a menor, e seus respectivos ventos estelares deve ter moldado esses traços no Homúnculo”, afirma Augusto Damineli, professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, um dos maiores estudiosos desse sistema e também autor do novo estudo.

54 z jUlho DE 2014

Page 55: Pesquisa FAPESP 221

Dentro da nebulosa, praticamente oca na parte interna e mais densa na porção externa, as duas Eta Carinae orbitam em torno do centro de massa comum a ambas. Cada estrela produz um forte vento estelar, um jato de partículas ino-nizadas que emana permanentemente de sua superfície. A dinâmica dos choques entre os ventos, uma espécie de cabo de força entre os dois fluxos de partícu-las carregadas eletricamente, se altera conforme as estrelas passam pelo ponto mais próximo de suas órbitas (periastro) e pelo mais distante (apoastro). Recente-mente, Damineli e Teodoro mostraram que o apagão períódico da Eta Carinae é prolongado pela interação dos ventos estelares (ver Pesquisa FAPESP nº 191). Agora, eles colheram evidências de que as irregularidades na forma de cada ló-bulo do Homúnculo, descrito como duas lanternas chinesas em expansão pela verve de Damineli, parecem ser uma “impressão digital” do sistema binário de alta massa oculto no interior do in-vólucro de gás e poeira.

Teodoro e seus colegas usaram uma nova técnica para modelar tridimensio-nalmente os contornos do Homúnculo. Com o auxílio do espectrógrafo XShoo-ter, instalado no Very Large Telescope (VLT), um dos equipamentos mantidos pelo Observatório Europeu do Sul (ESO), no Chile, mediram as emissões da nebu-losa em um comprimento de onda do infravermelho denominado hidrogênio molecular (H2). “Nesse comprimento, podemos ver a parte de trás do Homún-culo, que não é observada na luz visível”, diz o astrofísico alemão Wolfgang Stef-fen, da Universidade Nacional Autôno-ma do México (Unam). “Essa emissão fornece informação sobre a velocidade de expansão da nebulosa, que aumenta à medida que a poeira e o gás se distan-ciam do centro dessa formação quase simétrica.” Os dados sobre a velocidade em diferentes pontos da nuvem são colo-cados em um software desenvolvido por Steffen, chamado Shape, que gera uma estrutura em 3D de todo o Homúnculo. “Dessa forma, determinamos a geome-tria da nebulosa”, afirma Teodoro. n

foto

jo

n M

or

sE (

un

ivEr

sid

Ad

E d

o C

olo

rA

do

) E

nA

sA i

lust

Ra

çã

o M

od

ElA

gEM

EM

3d

po

r s

tEf

fEn

et

al.

Artigo científicostEffEn, W. et al. the three-dimensional structure of the Eta Carinae Homunculus. monthly Notices of the Royal astronomical society. no prelo.

os defeitos do HomúnculoEmbora quase simétricos, os dois lóbulos da nebulosa apresentam pequenas diferenças em suas formas geométricas

A nuvem de gás e

poeira que encobre

a Eta Carinae, vista

acima em imagem

do telescópio Hubble,

é composta por dois

lóbulos, o azul e o

vermelho. A modelagem

em 3d do Homúnculo

gerada pela equipe

de astrofísicos,

reproduzida ao lado

de acordo com dois

distintos ângulos

de visão, mostra

que o lóbulo vermelho

apresenta mais

deformidades (buracos

menores e depressões

tortuosas) que o azul.

lóbulo veRmelHo

lóbulo veRmelHo

lóbulo azul

lóbulo azul

Buraco principal

Buraco principal

depressões

depressões irregulares

protuberância

protuberância

protuberância

protuberância

Buracos menores

PesQuisa faPesP 221 z 55

Page 56: Pesquisa FAPESP 221

56 z julho DE 2014

Virulência do protozoário

Toxoplasma gondii fortaleceu defesas

de seu principal hospedeiro

ImunologIa y

Ganhos recíprocos

Rodrigo de Oliveira Andrade

Pesquisadores de Minas Gerais identificaram um possí-vel mecanismo de reação do organismo de roedores aos ataques do protozoário Toxoplasma gondii, causador da toxoplasmose. Sob a coordenação do imunologista

Ricardo Gazzinelli, eles verificaram que a resposta eficiente do sistema de defesa de camundongos à infecção por toxoplasma depende da ação orquestrada de quatro proteínas produzidas pelas células dendríticas, as primeiras células do sistema imune a entrar em contato com o parasita.

Essas quatro proteínas pertencem à família dos toll-like re-ceptors (TLRs), moléculas expressas pelas células de defesa que identificam pedaços de microrganismos invasores. Elas com-põem um mecanismo primordial de proteção bastante preser-vado do ponto de vista evolutivo — são encontradas em peixes, aves e mamíferos. “Esses receptores são muito específicos no reconhecimento de moléculas associadas a agentes infecciosos que ameaçam a sobrevivência dos organismos hospedeiros”, explica Gazzinelli, pesquisador do Centro de Pesquisas René Rachou da Fundação Oswaldo Cruz (Fiocruz), em Minas Gerais.

Duas dessas proteínas, a TLR-7 e a TLR-9, já eram bem co-nhecidas dos imunologistas. Elas detectam diferentes micror-ganismos ao reconhecer trechos de seu material genético. Em 2013, Gazzinelli e Warrison Andrade, então seu aluno de dou-

Exemplares do protozoário Toxoplasma gondii (magenta) em célula do fígado

Page 57: Pesquisa FAPESP 221

torado na Universidade Federal de Minas Gerais (UFMG), verificaram que essas proteínas agem em conjunto com outras duas mais seletivas do mesmo grupo: a TLR-11 e a TLR-12. Até hoje encontrados só em roedores, os principais hospedei-ros intermediários do toxoplasma, esses receptores detectam a profilina, proteína essencial para a motilidade do protozoário e sua capacidade de invadir as células do hospedeiro, em cujo interior se multiplica. Sempre que identificam a profilina, as toll--like receptors 11 e 12 iniciam uma reação em cadeia que termina com a produção das proteínas immunity-related GTPase, ou IRGs, que destroem as vesículas em que os protozoários se alojam.

A existência de proteínas especializa-das em identificar o toxoplasma é, para os pesquisadores, uma evidência de co-mo a exposição ao protozoário por milê-nios pode ter ajudado a moldar o sistema de defesa do hospedeiro, de modo que ambos vivam em relativa harmonia. Sur-gidos de mutações no material genético do hospedeiro, os genes que codificam as TLR-11 e 12 permitiram aos roedores sobreviver à infecção por toxoplasma ao eliminar a maior parte dos parasitas. E não foram de todo ruim para o protozoá-rio, que não é eliminado por completo.

“Esse equilíbrio evita que o toxoplas-ma mate seu hospedeiro intermediário, aumentando as chances do parasita de

alcançar o organismo de gatos e outros felinos, seus hospedeiros definitivos”, explica Gazzinelli. A evolução das pro-teínas TLR ocorreu em milhões de anos. Hoje cada proteína dessa família exerce função semelhante, mas com especifici-dade distinta. “Cada proteína da família TLR reconhece uma molécula específica e bem preservada dos microrganismos patogênicos”, conta o pesquisador. “Por desempenharem função importante no combate aos microrganismos invasores, elas se tornaram altamente conservadas.” No caso do toxoplasma, o reconhecimen-to da profilina pelas TLR-11 e 12 dos roe-dores gerou um equilíbrio estável entre o parasita e seu hospedeiro.

mAnipulAR e sObReviveRAo infectar os roedores, o toxoplasma é cercado por células de defesa, que eli-minam a maior parte dos parasitas. Os sobreviventes se instalam na forma de cistos, em geral nos músculos e no cére-bro do hospedeiro. Estudos recentes su-gerem que, no cérebro, o parasita altere o comportamento de roedores, fazendo--os perder o medo dos gatos. Segundo os pesquisadores, essa é uma espécie de manipulação por meio da qual o toxo-plasma aumenta suas chances de perpe-tuação, uma vez que só completa seu ci-clo reprodutivo no intestino dos felinos.

Já a evolução das proteínas IRGs se-gue um modelo distinto, baseado em um equilíbrio instável, no qual o hospedeiro desenvolve mecanismos de defesa mais eficientes contra o parasita ao mesmo tempo que o protozoário aprimora sua capacidade de escapar da resposta imune. Experimentos feitos por pesquisadores da Alemanha e de Portugal mostraram um exemplo dessa competição, que leva a um processo evolutivo mais rápido. Li-nhagens mais agressivas do toxoplasma neutralizam a ação das proteínas IRGs, que deveriam destruí-las. Mas, por razão ainda desconhecida, essa neutralização só ocorreu em camundongos criados em laboratório. As cepas mais agressivas do protozoário não interromperam a ação dessas proteínas em roedores silvestres, que têm maior diversidade de IRGs.

Não se sabe por que muitas espécies não têm os genes das IRGs. Uma hipó-tese é que manter um sistema de IRGs eficientes seria custoso para o hospedei-ro, razão por que teriam desaparecido de vários vertebrados.

O mais interessante, segundo Gazzi-nelli, é que essa evolução combinada de estratégias de ataque e defesa são funda-mentais para ambos os organismos se-rem bem-sucedidos na natureza. Esse fe-nômeno, a coevolução, se dá pela pressão de seleção à qual parasita e hospedeiro são submetidos. “Em termos práticos”, diz o pesquisador, “o toxoplasma evolui para infectar o hospedeiro, enquanto o hospedeiro evolui para neutralizar as adaptações do protozoário”. Esse pro-cesso é conhecido como coevolução rainha vermelha, em referência ao livro de Lewis Carrol Alice através do Espelho. Nele, a rainha diz a Alice: “Aqui é preci-so correr tanto quanto se pode para ficar no mesmo lugar”.

O protozoário pode chegar ao orga-nismo humano pelo consumo de água e alimentos (em geral carne crua ou mal-passada) contaminados com ovos do pa-rasita. Estima-se que metade da popula-ção brasileira — e um terço da mundial — esteja infectada. Disperso por fezes de animais domésticos, o protozoário assume sua forma ativa no organismo de pessoas com sistema imune debilitado e em grávidas, podendo contaminar o feto e até matá-lo. Apesar disso, o ser humano é considerado um hospedeiro acidental.

Até onde se sabe, as células de defesa dos seres humanos e de outros mamífe-ros não produzem os dois receptores que reforçam as barreiras dos roedores con-tra o toxoplasma. “Os seres humanos”, diz Gazzinelli, “podem ter desenvolvido outros receptores que favoreçam o con-trole do protozoário”. n

imA

Gem

l

at

Inst

oc

k /

mo

RE

Du

n a

nIm

al

HE

alt

H l

tD

/ s

cIE

nc

E P

Ho

to

lIB

Ra

RY

/ s

Pl

Dc artigos científicos

gaZZInEllI, R. t. et al. Innate sensing of Toxoplasma gondii: an evolutionary tale of mice, cats and men. Cell Host & microbe. v. 15, n. 2, p. 132-38. fev. 2014.anDRaDE, W. a. et al. combined action of nucleic acid--sensing toll-like Receptors and tlR11/tlR12 heterodi-mers Imparts resistance to Toxoplasma gondii in mice. Cell Host & microbe, v. 13, n. 1, p. 42-53. jan. 2013.

"O toxoplasma evolui para infectar o hospedeiro e o hospedeiro para neutralizar as adaptações do protozoário", diz Ricardo Gazzinelli

Page 58: Pesquisa FAPESP 221

Vermes marinhos revelam surpreendentes

estratégias adaptativas às águas frias

e escuras da costa brasileira

Trabalha-se com entusiasmo no labo-ratório do biólogo Paulo Sumida no Instituto Oceanográfico da Universi-dade de São Paulo. Na tarde de 1º de abril, diante de um computador em uma mesa entre estantes com livros e

organismos marinhos mantidos em potes plásticos com álcool, Olívia Soares Pereira, a mais nova inte-grante do grupo, ainda na graduação, empolgava-se como uma torcedora de futebol vendo um filme em alta definição sobre o fundo do mar em um dos computadores, com animais peculiares como um polvo com membranas entre os tentáculos, uma estrela-do-mar vermelha e corais alongados que crescem sobre morros cobertos de asfalto que vazou da terra. O filme, que lembrava os da National Geographic na TV, era um registro da viagem rea-lizada em abril de 2013 em um submarino japonês a regiões nunca antes exploradas a mais de 4 mil metros de profundidade do litoral do Espírito Santo ao Rio Grande do Sul.

OCEANOGRAFIA y

Seres das profundezas

Carlos Fioravanti

A todo momento ela e os colegas que come-çaram a ver os filmes – foram feitas quase 100 horas de filmagem – se perguntavam como os organismos se organizavam e, enfim, por que eram daquele jeito. Um dos organismos já exa-minados, que exemplifica as peculiaridades da vida no fundo do mar, é um verme marinho – um poliqueta – comedor de ossos do gênero Osedax. “As fêmeas têm um harém de machos anões, às vezes mais de 100 machos, grudados em seu corpo”, descreve Sumida, acrescentando uma curiosidade: es-ses poliquetas são também chama-dos de vermes-zumbi, por colonizar carcaças e viver entre animais mor-tos. O corpo das fêmeas consiste em um tentáculo vermelho com quatro a cinco centímetros de comprimen-to. Em uma das extremidades, a que fica para fora do osso que estão dige-rindo, estão os palpos, rugosidades

Verme comedor de ossos: Osedax fêmea,

abaixo, e ampliada, ao lado, com os

minúsculos machos aderidos ao seu corpo

58 z julho DE 2014

Page 59: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 59

Foto

S Y

Osh

IhIR

O F

ujIw

AR

A (

jAM

sTEC

)

Page 60: Pesquisa FAPESP 221

60 z julho DE 2014

2

1

que funcionam como brânquias, filtrando oxigênio da água. A outra extremidade se ramifica e se fixa sobre o interior dos ossos como a raiz de uma planta. Os ová-rios, junto a essa base, são bem grandes, e os machos, de poucos milímetros de comprimento, vivem no tubo gelatinoso da fêmea, muito próximo ao oviduto, ca-nal que serve para a passagem dos ovos.

As fêmeas se impõem desde cedo sobre o destino dos machos. Ao sair do ovo, a larva poderá crescer e formar outra fê-mea se aderir a um osso. Se encontrar à frente o corpo da fêmea, porém, não crescerá e será apenas um macho anão, como resultado provável da ação de subs-tâncias químicas liberadas pelo contato com o corpo da fêmea. “É uma adapta-ção evolutiva bastante interessante”, co-menta Sumida.

Se machos e fêmeas fossem do mes-mo tamanho, ele diz, a competição por alimento e a dificuldade de en-

contrar um parceiro sexual seriam maio-res. A situação atual, provavelmente a única que sobreviveu ao longo de mi-lhões de anos, permite que a fêmea possa produzir milhares de ovos e, ao mesmo tempo, evitar a competição por alimento com os pequeninos machos. “Os óvulos são maiores e não poderiam ser produ-zidos por fêmeas pequenas, enquanto o espermatozoide pode ser produzido em grande número por animais pequenos”, observa o biólogo. Segundo ele, outro exemplo desse fenômeno é o peixe-diabo, outro ser das profundezas marinhas. O macho é minúsculo e se prende ao cor-po da fêmea, muito maior. “Quando um macho encontra uma fêmea, gruda e não sai mais. Torna-se um parasita da fêmea, a ponto de o tecido do macho fundir-se com o da fêmea.”

Sumida pôde estudar esse verme – uma espécie ainda não descrita de poli-queta e a primeira do Atlântico – porque ele e os colegas do Japão, de São Pau-lo, Santa Catarina, Rio Grande do Sul, Rio de Janeiro e Espírito Santo, quando

passaram com o submarino na chamada Dorsal de São Paulo, a cerca de 700 qui-lômetros do litoral de São Paulo, tiveram a sorte de encontrar os ossos da cauda de uma baleia, depois identificada co-mo uma minke-antártica com cerca de oito metros de comprimento e morta no assoalho marinho provavelmente entre cinco e 10 anos. Era a primeira carcaça de baleia encontrada em mar profundo (a 4.200 metros de profundidade, neste caso) na costa da América do Sul. Co-letaram nove vértebras, já degradadas,

tomadas por esses poliquetas. “Já en-contramos três morfotipos [variações morfológicas] diferentes de Osedax, mas todos geneticamente idênticos”, diz Su-mida. “Associados aos ossos encontra-mos 25 espécies de organismos mari-nhos e vários outros dentro dos ossos, principalmente poliquetas, todos prova-velmente ainda não descritos.” Depois de dois anos de planejamento e auto-rizações, o submarino Shinkai 6.500, operado a partir do navio oceanográfico japonês Yokosuka, explorou as águas

O submarino shinkai, antes de mais uma expedição no fundo do mar, e os ossos da coluna vertebral de uma baleia encontrados a 4.200 metros de profundidade e coletados para análise

Page 61: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 61

Projeto

Biodiversidade e conectividade de comunidades bênticas em substratos orgânicos (ossos de baleia e parcelas de madeira) no Atlântico sudoeste profundo – BiosuOr (11/50185-1); Modalidade Progama Biota – Projeto Temá-tico; Pesquisador responsável Paulo Yukio Gomes sumida (IO-usP); Investimento R$ 1.443.516,15 (FAPEsP).

2

do estado de Washington por pesquisa-dores da Universidade do Havaí.

“Conhecemos pouco dos mares pro-fundos”, diz Sumida, que há 20 anos fez o mestrado sobre organismos de mar pro-fundo e depois desceu seis vezes no fundo do mar – seu recorde, antes do ano pas-sado, tinha sido em 1999, quando chegou a 1.200 metros na costa da Califórnia no submarino Alvin, dos Estados Unidos. Um dos levantamentos mais abrangen-tes da biodiversidade marinha nacional foi o Programa de Avaliação do Potencial Sustentável de Recursos Vivos na Zona Econômica Exclusiva (Revizee). Concluí-do em 2003, o Revizee reuniu 150 espe-cialistas de 40 instituições nacionais de pesquisa que dimensionaram os estoques de 50 espécies de peixes e crustáceos, incluindo os de águas profundas, a uma distância de até 350 quilômetros da costa (ver Pesquisa FAPESP nº 83). Em 2010, o

Brasil, um dos líderes em biodiversidade terrestre, com cerca de 20% das formas de vida encontradas no planeta, apareceu em uma posição modesta, com 9.101 espécies de organismos marinhos, o equivalente a 4% do total, no Censo de Vida Marinha, que reuniu 2.700 especialistas de 80 paí-ses durante 10 anos (ver Pesquisa FAPESP nº 176). Como indicação concreta de que ainda há muito por fazer, em caixas com potes com álcool mantidos em outra sala estão a estrela-do-mar vermelha, um ca-ranguejo e outros seres das profundezas esperando a vez de serem examinados. n

Foto

S 1

PAu

lO Y

. G. s

uM

IdA

(IO

/usP

) 2

jAPA

N A

GEN

CY

FO

R M

AR

INE-

EA

RT

h s

CIE

NC

E A

Nd

TEC

hN

OlO

GY

(jA

MsT

EC)

brasileiras como parte de uma viagem mundial. O submarino leva duas horas para descer até o fundo do mar a 4 mil metros e pode permanecer lá embaixo por até oito horas.

Em junho de 2013, dois meses depois da viagem ao fundo do mar, Sumida, des-ta vez a bordo do navio oceanográfico da USP, o Alpha-Crucis, participou de outra operação inusitada: o lançamento, em pontos predeterminados a 1.500 e 3.300 metros de profundidade, de estru-turas metálicas contendo ossos de baleia e placas de madeira e de plástico, com o propósito de saber que organismos as colonizam e assim conhecer melhor os processos de transformação da matéria orgânica que se passam nas águas frias e escuras do fundo do mar. Os materiais devem ser resgatados em outubro deste ano e os achados, comparados com os ossos e madeiras depositados na costa

Page 62: Pesquisa FAPESP 221

Genômica y

Page 63: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 63

Pesquisa desvenda origem e

diversidade genética de

tangerinas, laranjas e limões

para todos os

gostos

Maria Guimarães

Fotos Léo Ramos

Quem está acostumado a con-sumir laranjas, tangerinas e limões à venda nos supermer-cados pode ter uma surpresa

prazerosa no Centro de Citricultura Sylvio Moreira em Cordeirópolis, no interior paulista. Entre pequenas árvores man-tidas em estufas e um enorme pomar com plantas adultas, ali está uma coleção com mais de 1.700 tipos de frutas cítri-cas. Entre elas, quase 700 variedades de laranjas doces – aquelas adequadas para consumo em sucos ou in natura – e quase 300 de tangerinas. A degustação de fru-tos de árvores diferentes nesse centro de pesquisa ligado ao Instituto Agronô-mico de Campinas (IAC), da Secretaria de Agricultura, revela uma riqueza sur-preendente de sabores e texturas. “Todo material que a citricultura brasileira tem passou por aqui em algum momento”, resume o agrônomo Marcos Machado, pesquisador do Centro de Citricultura e coordenador do Instituto Nacional de Ciência e Tecnologia de Genômica para Melhoramento de Citros (INCT Citros).

Ao longo dos 85 anos de existência do centro, pesquisadores cruzaram varieda-des diferentes em busca, principalmente, de produzir plantas resistentes a doen-ças. Partindo de cruzamentos tradicio-nais, quase como os que deram origem aos cítricos que chegam ao público desde a domesticação dessas espécies, o centro foi enriquecendo seu arsenal de técnicas com a disponibilidade de informações genéticas. Até agora esse conhecimen-to se concentrou no uso de marcadores moleculares para caracterizar cruza-mentos, avaliando quais descendentes da mistura entre duas variedades (ou espé-cies) receberam o material genético de interesse dos pesquisadores. Mas agora a era genômica chegou ao Centro de Ci-tricultura, abrindo novas possibilidades.

O primeiro grande passo, que rendeu um artigo publicado em junho no site da Nature Biotechnology, trouxe revelações inesperadas sobre a origem das laranjas e tangerinas que hoje existem. Já se sa-bia que as frutas cítricas não são espé-cies naturais, mas híbridos aprimorados por cruzamentos naturais ao longo dos

Page 64: Pesquisa FAPESP 221

64 z julho DE 2014

últimos milhares de anos. Mas não há registros dessa história da domesticação do gênero Citrus, que começou no Sudes-te da Ásia. “Sabíamos que havia mistu-ras, mas não tínhamos detalhes”, conta o biólogo Marco Takita, um dos autores.

Uma surpresa foi descobrir que algu-mas tangerinas, que se precisava serem variações da espécie ancestral C. reticu-lata, na verdade contêm em seu genoma vários trechos de outra espécie, a toranja (C. maxima). Esta é como se fosse uma laranja enorme, com até um quilograma, explica Takita, que não é consumida por aqui. É usada como fonte de diversidade genética em programas de melhoramen-to e, agora se sabe, participou nos cru-zamentos que resultaram na tangerina poncã, que por seu sucesso comercial no Brasil foi sequenciada no Centro de Ci-tricultura, com recursos do INCT Citros, que tem financiamento da FAPESP e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). “É im-portante saber que a toranja serviu como fonte genética”, afirma o pesquisador.

O estudo encontrou também uma es-pécie inesperada. A tangerina chinesa conhecida como mangshan, que se consi-derava ter a mesma origem das outras tan-gerinas, é na verdade uma espécie distin-ta, C. mangshanensis, que parece ter um parentesco distante com a C. reticulata.

Outra surpresa para os consumido-res vem da laranja doce, que nas feiras brasileiras são vendidas como laranja--pera, baía ou lima, em suas variedades mais comuns. Uma mistura de C. reticu-lata e C. maxima, essas laranjas na ver-dade compartilham uma semelhança genética com tangerinas como a poncã em boa parte do genoma. Os resultados revelam uma diversidade genética mui-to pequena entre laranjas do tipo doce e tangerinas a partir de uma origem co-mum. “O desafio agora é entender por que elas são tão parecidas geneticamente e tão diferentes no paladar, por exem-plo”, diz Takita.

A laranja-azeda, usada, por exemplo, para fazer doces, é também um híbrido das espécies ancestrais da toranja e das tangerinas. As inferências que se podem fazer hoje a partir dos estudos genômi-cos, como se o filme fosse recriado do presente para o passado, indicam que o surgimento dessas frutas na natureza parece ter acontecido no Sudeste Asiáti-co há alguns milhares de anos, antes de serem distribuídas pelo mundo.

O consórcio de pesquisadores em bus-ca de genomas cítricos começou a ser formado em 2005, com participação ati-va dos pesquisadores do Centro de Ci-tricultura. Depois de quase 10 anos de trabalho, porém, em que se tinha avan-

çado com o sequenciamento de uma cle-mentina espanhola, um tipo de mexerica, um grupo chinês se adiantou e publicou o genoma da laranja doce na revista Na-ture. Com resultados semelhantes em mãos, o grupo internacional decidiu am-pliar o trabalho. “Sequenciamos mais seis genomas e produzimos uma discussão mais elaborada, que chega a contestar alguns pontos do trabalho chinês”, con-ta Machado.

Os resultados mostram por que, no caso dessas plantas, cada vez se sabe menos o que é uma espécie. “Há quem diga que existem 163 espécies de Citrus, outros distinguem somente 16”, exem-plifica o pesquisador. “Lineu classificou seis”, completa, referindo-se ao natura-lista sueco tido como pai da classificação dos seres vivos, por ter criado no século XVIII o sistema binomial de denomina-ção científica usado até hoje.

MELhoRAMEntoCom esse ponto de partida, Machado acredita que o enfoque genômico seja uma forma de “pensar alto sem tirar os pés do chão”. O grupo brasileiro já come-çou a estudar a ancestralidade do limão, que tem origem na espécie C. medica, com o sequenciamento do limão-cravo. A seleção não foi ao acaso: por sua ca-pacidade de crescer em condições mais áridas, esse tipo de limão é usado em 85% da citricultura paulista como porta--enxerto para laranjas e tangerinas. “O norte do estado tem as melhores carac-terísticas para a produção de laranja para suco, mas o clima mais seco exigiria uma

1 cicatriz do enxerto: limão-cravo serve de cavalo para laranjeiras

2 Banco de germoplasma abriga grande diversidade de cítricos

3 Germinação em laboratório: variações genéticas controladas

1 2

Page 65: Pesquisa FAPESP 221

Projetos1. Plataforma genômica aplicada ao melhoramento de citros (nº 08/57909-2); Modalidade Projeto temáti-co; Pesquisador responsável marcos antonio machado (iac); Investimento R$ 3.533.624,89 (FaPesP).2. obtenção e avaliação de novas variedades de copas e porta-enxertos para citricultura de mesa (nº 11/18605-0); Modalidade Projeto temático; Pesquisadora respon-sável mariângela cristofani-Yaly (iac); Investimento R$ 859.670,11

artigo científicoWU, G. a. et al. sequencing of diverse mandarin, pummelo and orange genomes reveals complex history of admix-ture during citrus domestication. Nature Biotechnology. On-line, 8 jun. 2014 (FaPesP).

3

irrigação inviável”, explica. O estudo ge-nômico pode ajudar a identificar a base genética para essa resistência, assim co-mo identificar genes associados a deter-minadas características para direcionar os cruzamentos e talvez até conseguir em laboratório a transferência de genes, chamada de cisgenia pelos especialistas (distinta da transgenia por envolver es-pécies de um mesmo grupo que podem gerar híbridos naturais).

Com a importância econômica dos cí-tricos, esses estudos são essenciais não só para atender a demandas do mercado e orientar a busca por novas variedades e aperfeiçoamento do sabor e outras qua-lidades das frutas, mas também para fa-zer frente a doenças. No caso das laranjas, desta-cam-se a clorose varie-gada dos citros (CVC), causada pela bactéria Xylella fastidiosa, e a huanglongbing, ou gree-ning, que entrou no Bra-sil há 10 anos e ameaça os pomares. As tange-rinas são resistentes à CVC, mas suscetíveis à huanglongbing, além de sofrerem com a mancha marrom de alternária, uma doença causada por fungo que provoca manchas nas folhas e frutos, e causa per-da de folhas. A homogeneidade genética destacada no estudo da Nature Biotech-nology deixa claro por que os cítricos são presas fáceis de microrganismos que ata-cam as plantações: quando uma árvore não consegue resistir a uma doença, as outras do mesmo tipo também não con-seguem, já que são muito parecidas. Por isso, uma grande parte das atividades do Centro de Citricultura envolve produzir variedades resistentes a essas doenças. “Alguns cruzamentos entre tangerinas, por exemplo, produzem frutas que não têm valor direto para consumo, mas ge-ram variabilidade genética importante”, explica a engenheira agrônoma Mariân-gela Cristofani-Yali. Publicações recen-tes do grupo do Centro de Citricultura, como na revista Journal of Agricultural Science em 2013 e deste ano na Bragan-tia, expõem resultados dos esforços pa-ra a criação de novas possibilidades de porta-enxerto e de variedades produto-ras de frutos.

“Primeiro introduzimos a resistência, e depois voltamos a buscar a qualida-

de da fruta”, conta a pesquisadora. Para avaliar as possibilidades dos cruzamen-tos para a produção de novas varieda-des para suco ou consumo direto, toda a população do Centro de Citricultura – pesquisadores, estudantes e funcio-nários – acaba servindo como cobaia em experimentos de avaliação sensorial, que levam em conta o julgamento de carac-terísticas como cor, sabor e facilidade de descascar, como mostra artigo de 2013 no Journal of Agricultural Science. Além disso, as plantas são também classifica-das quanto à sua produtividade, rendi-mento de suco e época de frutificação, entre outras características.

A produção acadêmica é uma faceta da personalidade desse centro de pesqui-sa no interior paulista. O outro lado de sua vocação é contribuir para o aprimo-ramento dessa cultura em que o Brasil tem destaque como o maior produtor de laranja do mundo e o terceiro em mexe-ricas, tangerinas e afins. A China ocupa o posto de maior produtor mundial de cítricos, mas se concentra sobretudo em tangerinas. “Com as novas técnicas po-demos juntar o básico com o aplicado, criar uma plataforma para coisas novas”, planeja Machado.

Mas o mercado bra-sileiro é também uma limitação. Grande parte das laranjas plantadas no país se destina aos sucos concentrados, de maneira que a indús-tria tem controle sobre a produção. O interesse principal é quanto suco há nas frutas, além de

um preço baixo, o que criou uma crise entre plantadores de laranjas. Nos cálculos de Machado, na última década cerca de 10 mil citricultores abandonaram a produção. Mas ele avalia que essa crise pode acabar por ter consequências positivas para o consumidor. Se os pesquisadores de Cor-deirópolis tiverem razão, nos próximos anos mais citricultores aceitarão experi-mentar o plantio de variedades produzi-das como resultado de seu trabalho, e os mercados e feiras podem passar a oferecer uma diversidade maior de cítricos para serem consumidos como frutas de mesa. Uma perspectiva que dá água na boca. n

os resultados revelam uma diversidade genética muito pequena entre laranjas e tangerinas

pESQUISA FApESp 221 z 65

Page 66: Pesquisa FAPESP 221

66 z julho DE 2014

ECOLOGIA y

Resquícios dos Andes na Amazônia

Porto Velho, capital de Rondônia, hoje é muito quente e abafada, mas há 30 mil anos seu território provavelmente foi frio como a

atual Porto Alegre, capital do Rio Gran-de do Sul, a 3.500 quilômetros (km) de distância. A temperatura média anual deve ter sido de no máximo 18º Celsius (C), seis abaixo da média atual. Não havia gelo, que cobria vastas áreas ao norte e ao sul do planeta, mas a tem-peratura nos invernos devia chegar a 10ºC, o suficiente para fazer os atuais moradores do sudoeste da Amazônia brasileira se sentirem enregelados. Por meio de análises de pólen e dos isótopos (variações) de carbono e nitrogênio de sedimentos retirados de até 20 metros de profundidade, pesquisadores do Pará e de São Paulo concluíram que a vege-tação também deve ter sido diferente. Além de espécies de árvores ainda hoje encontradas na região, a floresta abri-gava outras, típicas de clima frio, que desapareceram à medida que o clima se tornou mais quente.

O Alnus, um dos gêneros de árvores ho-je extintos, marca com clareza as mudan-ças de clima e vegetação na região entre o norte de Rondônia e sul do Amazonas. “O

Alnus só cresce em clima frio”, diz Marcelo Cohen, professor da Universidade Fede-ral do Pará. Nesse estudo, ele identificou grãos de pólen de 65 grupos de árvores e plantas herbáceas retirados das amostras de sedimentos e acredita ter encontrado o primeiro registro de árvores de Alnus na Amazônia brasileira. Na América do Sul, árvores desse gênero são encontra-das atualmente em regiões acima de 2 mil metros de altitude na cordilheira dos An-des, a pelo menos mil km de Porto Velho.

Por serem leves e minúsculos, com diâmetro variando de 10 a 40 micrôme-tros (1 micrômetro equivale à milésima parte do milímetro), os grãos de pólen podem ser transportados facilmente pelo vento ou pela água da chuva e dos rios. “Na região estudada”, diz Cohen, “o percentual de pólen de Alnus chegou a 11% do total encontrado, muito acima do esperado para a dispersão pelos rios ou vento”. Segundo ele, essa era uma indicação de que as populações de Al-nus, vindas provavelmente dos Andes, devem ter encontrado condições favo-ráveis para seu crescimento nas terras baixas do oeste da Amazônia entre 40 mil e 20 mil anos, e depois se extingui-do, à medida que o clima se tornou mais

Árvores de clima frio já foram

comuns na região Norte do Brasil

Pólen de Alnus

Pólen de Weinmannia

Page 67: Pesquisa FAPESP 221

PESQUISA FAPESP 221 z 67

quente. Cohen identificou também pólen de outros gêneros de árvores de clima frio, como Hedyosmum, Weinmannia, Podocarpus, Ilex e Drymis, já identifi-cados em outros pontos da Amazônia. Podocarpus, por exemplo, é um gênero de árvore do grupo das coníferas, como as araucárias, que ainda crescem no Su-deste e Sul do país.

Com base nesse trabalho, torna-se possível imaginar uma floresta contí-nua unindo os Andes à Amazônia, com as espécies de árvores de clima frio mais comuns a oeste e as de clima quente a leste, naquele período. “Havia uma mis-tura de espécies de árvores, formando uma floresta glacial, muito singular, co-mo não existe mais hoje”, diz Cohen. À medida que o clima se tornava quente, as plantas que crescem apenas sob tem-peraturas mais baixas desapareceram, permitindo a expansão das mais adap-tadas ao clima quente ou resistentes a variações climáticas intensas. Os pesqui-sadores encontraram também trechos de rios abandonados que formaram lagos, depois preenchidos por sedimentos e cobertos por vegetação herbácea, for-mando as savanas.

FloREStAS AvAnçAmA identificação de muitas espécies ar-bóreas e de clima frio é também uma indicação de que o clima entre 40 mil e 30 mil anos era frio e úmido, e não frio e seco, como outros especialistas haviam indicado, segundo Luiz Carlos Pessen-da, pesquisador no Centro de Energia Nuclear da Agricultura (Cena) da Uni-versidade de São Paulo (USP). Pessenda obteve em 2001 as primeiras indicações de que o clima no sudoeste da Amazô-nia era úmido, provavelmente com chu-vas regulares. Ele, com sua equipe, co-letou amostras de solo em uma linha de 250 km entre Humaitá, sul do estado do Amazonas, e Porto Velho, e verificou o predomínio de plantas adaptadas à umi-dade. Estudos recentes com rochas de cavernas, realizados por outros grupos de São Paulo e de Minas Gerais, refor-çam a hipótese de que o clima deve ter sido úmido e, portanto, chovido mais do que se pensava na região, principalmen-

te entre 30 mil e 20 mil anos, quando o nível do mar devia estar 100 metros abaixo do atual e o litoral, a 100 km da atual linha de costa e a América do Sul e a Antártida, unidas por um istmo de gelo. Além disso, capas de gelo com até 3,5 km de espessura cobriam boa parte da América do Norte, Europa e Oceania.

Para Pessenda, esses resultados refor-çam sua hipótese de que a umidade da floresta amazônica é que deve ter abas-tecido outra floresta híbrida, a da serra do Mar no estado de São Paulo, a quase 3 mil km de distância, cuja vegetação ele analisou em outros estudos. Há 30 mil anos, a serra do Mar era coberta por es-pécies de árvores de dois ecossistemas distintos, a mata atlântica e a mata de araucária. Depois, como na Amazônia, também ali sobreviveram apenas as re-sistentes a temperaturas mais elevadas e depois também desapareceram, cedendo espaço para os atuais campos (ver Pes-quisa FAPESP nº 160).

Nos últimos 15 anos, Pessenda tem examinado pólen e a proporção entre as formas (isótopos) de carbono e ni-trogênio de sedimentos de todo o país, além de ter formado uma coleção com cerca de 4.500 amostras de grãos de pó-len que fundamentam trabalhos como o de Cohen, que fez o pós-doutorado em seu laboratório em 2011. Seus estudos revelam a constante transformação das florestas e a retração dos campos, que já foram mais amplos por todo o país, desde aproximadamente 4 mil anos. Se-gundo Pessenda, a maior parte das áreas hoje ainda ocupadas por campos em São Paulo e Rondônia, por exemplo, tende a desaparecer, mesmo sem a expansão das cidades e da agropecuária, e ser na-turalmente ocupadas por florestas, em algumas dezenas de séculos, em resposta ao clima atual. n Carlos Fioravanti

Foto

S E

du

Ar

dO

CE

sAr

gR

ão

S d

E P

ólE

n C

OLE

çã

O d

O L

AB

Or

At

ór

IO C

-14

dO

CEN

A/u

sP

Artigo científico

COHEN, M.C.L. et al. Late Pleistocene glacial forest of Humaitá-Western Amazonia. Palaeogeography, Palaeo-climatology, Palaeoecology. dez. 2013.

Pólen de Podocarpus

Page 68: Pesquisa FAPESP 221

Alterações nos ciclos de compostos orgânicos

podem acentuar deterioração dos ecossistemas

Os elementos das florestas

especial biota educação XiV

Mata atlântica (acima): solo capaz de reter mais carbono que o da floresta amazônica (ao lado)

Ao lado, as biólogas Gabriela Nardoto e Simone Vieira e o agrônomo Plínio Camargo

Reduzida a cerca de 10% de sua área ori-ginal após 500 anos de desmatamento, a mata atlântica tem uma grande capaci-dade de armazenar carbono no solo e em

suas árvores. “Cada hectare de mata atlântica po-de estocar até 500 toneladas de carbono, enquan-to na Amazônia esse número não chega a 300 toneladas”, disse a agrônoma Simone Vieira, da Universidade Estadual de Campinas (Unicamp), em sua palestra do Ciclo de Conferências Biota--FAPESP Educação, no dia 25 de junho, em São Paulo. Apesar de estocar carbono de modo mais eficiente, a mata atlântica ocupa apenas 130 mil quilômetros quadrados, área quase quatro vezes menor que a da floresta amazônica.

Segundo Simone, o solo da mata atlântica es-toca proporcionalmente mais carbono que o da Amazônia possivelmente devido às temperatu-ras mais baixas do Sudeste do país. A variedade de paisagens da mata atlântica – com vegetações de dunas, restingas, mangues, matas de araucária e florestas úmidas densas – contribui para que a mata atlântica apresente variações no tipo de solo, na disponibilidade de água e na duração dos períodos de seca, fatores que influenciam a ca-pacidade do ecossistema de armazenar carbono.

Simone e seus colaboradores pretendem enten-der como as variações de temperatura previstas

para as próximas décadas podem influenciar a estocagem de carbono na mata atlântica. Em estu-dos do programa Biota-FAPESP, eles investigam esse efeito coletando amostras de solo a diferentes altitudes. Assim, tentam entender como a quan-tidade de carbono armazenada varia segundo a temperatura. “Resultados preliminares sugerem que, quanto mais alta a temperatura, menor é a capacidade de estocar carbono”, disse Simone. Se os resultados se confirmarem, o aumento de poucos graus na temperatura do planeta pode transformar a mata atlântica, hoje um sorvedou-ro de gás carbônico (CO2), em fonte emissora do composto, o principal gás do efeito estufa.

Mudanças no uso e no manejo do solo tam-bém afetam a emissão de gases na Amazônia. Um estudo recente publicado na Global Change Biology mostrou que perturbações ambientais como o corte seletivo de árvores e o uso de fogo para manter pastagens emitiram 54 milhões de toneladas de CO2 em 2010 (40% do carbono emi-tido pelo desmatamento na região naquele ano).

Outro trabalho deste ano, coordenado pela química Luciana Gatti, do Instituto de Pesqui-sas Energéticas e Nucleares, descreveu um ce-nário mais preocupante. Ela calculou o balanço de carbono da Amazônia em 2010 e 2011, os anos mais quentes em três décadas e com variação

68 z julhO DE 2014

Page 69: Pesquisa FAPESP 221

foto

s 1,

3 a

5 e

du

Ar

do

Ce

SAr

2 l

éo r

AM

oS

pode se tornar emissora de CO2, inten-sificando o aquecimento global.

As queimadas na Amazônia para a abertura de pastagens, exploração da madeira e agricultura estão alterando ainda o ciclo de nutrientes como o nitro-gênio, segundo a bióloga Gabriela Nar-doto, da Universidade de Brasília (UnB), que participou do ciclo de conferências.

A substituição de floresta por pasta-gens e outras atividades agrícolas tem

significativa no regime de chuvas. Em 2011, muito úmido, a floresta absorveu 250 milhões de toneladas de carbono, enquanto as queimadas lançaram 300 milhões de toneladas à atmosfera. Em 2010, bem mais seco, a floresta emitiu mais do que absorveu por causa da fal-ta de chuvas e do aumento das queima-das (ver Pesquisa FAPESP nº 217). Esses resultados sugerem que, se o aumento da temperatura se concretizar, a região

reduzido a absorção de nutrientes nes-ses ecossistemas tropicais. “A ciclagem de nutrientes é uma das funções mais importantes na regulação dos ecossis-temas”, disse Gabriela. É que a dispo-nibilidade de nutrientes determina a distribuição de plantas em diferentes ambientes.

A baixa disponibilidade de nitrogênio e fósforo também pode limitar o cresci-mento das florestas secundárias (áreas convertidas em pastagens e depois aban-donadas) na Amazônia. Ao mesmo tem-po, ela ressaltou, as queimadas alteram o ciclo do nitrogênio, essencial para o crescimento das plantas. “O nitrogênio, em estado gasoso, representa 78% da atmosfera”, disse. “Mas, para que seja aproveitado pelas plantas, é necessário que as bactérias em suas raízes o cap-turem e o transformem em outros com-postos, que serão então transformados no solo em amônio e nitrato.”

O nitrogênio armazenado na forma de amônio e nitrato é um dos parâmetros usados pelo agrônomo Plínio Barbosa de Camargo para avaliar a qualidade da água do município de Extrema, em Mi-nas Gerais. Camargo, que também esteve na última edição do Biota-FAPESP, bus-ca indicadores para avaliar a qualidade da água em áreas de reflorestamento na bacia do ribeirão das Posses. “A ideia é comparar áreas reflorestadas com dife-rentes idades de plantio e áreas agrícolas e ver se houve melhora nas condições de qualidade e quantidade de água.”

Esse foi o último encontro do Ciclo de Conferências Biota-FAPESP Educa-ção, iniciado em 2013. Segundo Carlos Joly, coordenador do Biota-FAPESP, o programa pretende lançar em 2015 uma chamada de projetos que contri-buam para melhorar a qualidade da educação científica e ambiental de pro-fessores e alunos do ensino médio. n

Rodrigo de oliveira andrade

+10

pesQuisa fapesp 221 z 69

1 2

3 4 5

Page 70: Pesquisa FAPESP 221

70 z julho DE 2014

Abelhas vigiadas

A população de abelhas registra um expressivo declínio em vá-rios países, inclusive no Brasil. Em agosto do ano passado, a

revista Time trazia na capa um alerta para o risco de desaparecimento das abelhas melíferas, com a chamada “O mundo sem abelhas” e o alerta: “O preço que pagaremos se não descobrirmos o que está matando as melíferas”. O de-saparecimento das fabricantes de mel preocupa não só pela ameaça à existên-cia desse produto, mas também porque as abelhas têm chamado a atenção prin-cipalmente pelo importante papel que representam na produção de alimentos. Não é para menos. Elas são responsá-veis por 70% da polinização dos vegetais consumidos no mundo ao transportar o pólen de uma flor para outra, que resulta na fecundação das flores. Algumas cul-turas, como as amêndoas produzidas e exportadas para o mundo inteiro pelos Estados Unidos, dependem exclusiva-mente desses insetos na polinização e produção de frutos. A maçã, o melão e a castanha-do-pará, para citar alguns exemplos, também são dependentes de polinizadores.

Entre as prováveis causas para o desa-parecimento das abelhas estão os com-ponentes químicos presentes nos neoni-

Zangão da espécie Apis mellifera africanizada com microssensor colado no tórax

Dinorah Ereno

cotinoides, classe de defensivos agrícolas amplamente utilizados no mundo. Além de pesticidas, outros fatores, como mu-danças climáticas com maior ocorrência de eventos extremos, infestação por um ácaro que se alimenta da hemolinfa (cor-respondente ao sangue de invertebrados) das abelhas, monoculturas que fornecem pouco pólen como milho e trigo e até téc-nicas para aumentar a produção de mel, podem ser responsáveis pelo fenômeno conhecido como distúrbio de colapso de colônias (CCD, na sigla em inglês), que provoca a desorientação espacial desses insetos e morte fora das colmeias. O dis-túrbio já provocou a morte de 35% das abelhas criadas em cativeiro nos Esta-dos Unidos.

Na busca por respostas que ajudem a combater o problema, o Instituto Tec-nológico Vale (ITV), em Belém, no Pa-rá, desenvolveu em colaboração com a Organização de Pesquisa da Comunida-de Científica e Industrial (CSIRO), na Austrália, microssensores – pequenos quadrados com 2,5 milímetros de cada lado e peso de 5,4 miligramas –, que são colados no tórax das abelhas da espé-cie Apis mellifera africanizada (abelhas com ferrão resultantes de variedades europeias e africanas) para avaliação do seu comportamento sob a influência de

tEcnologia Biofísica y

Microssensores ajudam a entender

comportamento de Apis mellifera exposta

a pesticidas e mudanças climáticas

Page 71: Pesquisa FAPESP 221

pESQUiSa FapESp 221 z 71

Foto

S v

ale

/csi

ro

pesticidas e de eventos climáticos. Uma parte do experimento está sendo con-duzida na Austrália e a outra no Brasil.

No estado australiano da Tasmânia, ilha ao sul do continente da Oceania, será feito um estudo comparativo com 10 mil abelhas para avaliar como elas reagem quando expostas a pesticidas. Para isso, duas colmeias foram colocadas em contato com pólen contaminado e outras duas não. “Se for notada qualquer alteração no comportamento dos insetos expostos ao pesticida, como incapacida-de de voltar para a colmeia, desorienta-ção ou mesmo morte precoce, o produ-to passará a ser o principal suspeito do distúrbio de colapso de colônias”, diz o físico Paulo de Souza, coordenador da pesquisa e professor visitante do ITV. O projeto foi iniciado em setembro do ano passado e seu término está previs-

to para abril de 2015, com a divulgação dos resultados no segundo semestre. “A principal razão para a escolha da Tas-mânia é que se trata de um ambiente distinto, onde não há poluição e metade do território é composta por florestas”, diz Souza, que também é professor da Universidade da Tasmânia.

Como as melíferas australianas pesam em torno de 105 miligramas, o sensor re-presenta cerca de 5% do seu peso. Já as abelhas da mesma espécie que vivem no Brasil pesam cerca de 70 miligramas – o que levou os pesquisadores a fazerem testes em túneis de vento para avaliar se o sensor poderia ter influência sobre a sua capacidade de voo. “Avaliamos a batida das asas e a inclinação do corpo em abelhas com o sensor e sem ele, e verificamos que não houve alteração na capacidade de voar”, diz Souza.

A parte do experimento que está sen-do feita no Brasil tem como foco inicial o monitoramento de 400 abelhas durante três meses para avaliar em que medida as mudanças do clima, principalmente a alteração do regime de chuvas na Ama-zônia, afetam os insetos. “Não sabemos como elas vão se comportar diante das projeções de aumento da temperatu-ra e de alterações no clima devido ao aquecimento global”, diz Souza. Os es-tudos estão sendo feitos em um apiário no município de Santa Bárbara do Pará, próximo a Belém.

“Cada sensor tem um código gravado, que funciona como se fosse uma iden-tidade de cada abelha”, diz Souza. Com ele é possível avaliar, em detalhes, todos os indivíduos da colmeia. Concluída essa etapa da pesquisa, um segundo estudo terá início, desta vez com abelhas nativas

Page 72: Pesquisa FAPESP 221

72 z julho DE 2014

de controle. Com os dados coletados no campo, os pesquisadores constroem um modelo tridimensional da movimen-tação dos insetos que permite saber se eles estão agindo naturalmente ou se, por algum motivo, estão desorientados e não conseguem retornar aos seus lo-cais de origem.

Cada antena custa cerca de US$ 300, o que torna a técnica mais aplicável em comparação com outros dispositivos si-milares, cujo preço varia em torno de US$ 10 mil. “O próprio chip, de US$ 0,30, é muito mais barato do que os que estão no mercado e são vendidos a US$ 6.” O físico ressalta que, desde o início, eles sempre buscaram um processo de manu-fatura que permitisse a produção em es-cala industrial ao menor preço possível.

A próxima geração de chips, em fase final de desenvolvimento, será capaz de gerar e armazenar a sua própria ener-gia e também de captar a temperatura, umidade e insolação do ambiente. Os planos não param por aqui. “Queremos desenvolver, em quatro anos, um chip do tamanho de um grão de areia para moni-toramento de mosquitos transmissores da dengue e malária”, diz Souza. Entre as várias estratégias estudadas para a aplicação desse diminuto equipamen-to, a mais promissora, na avaliação do pesquisador, é lançar um jato de spray sobre os insetos.

Ampliar o raio de ação dos sensores também é uma das metas do projeto. “Queremos chegar a centenas de metros para explorar a plataforma tecnológica futuramente em outras aplicações, co-mo fuselagem de aeronaves, roupas de funcionários em áreas de risco e óculos de monitoramento à exposição ultravio-leta”, ressalta. As duas instituições des-tinaram ao projeto – do qual participam 23 pesquisadores de diversas áreas do conhecimento – US$ 25 milhões para um período de cinco anos.

agrotóxicoS E abElhaSO comportamento das abelhas também é o foco de vários estudos conduzidos por um grupo de 20 pesquisadores, sob a coordenação do professor Osmar Ma-laspina, do Instituto de Biociências da Universidade Estadual Paulista (Unesp) de Rio Claro, no interior paulista. Além de Malaspina, o núcleo de pesquisa é composto pelas professoras Roberta No-celli e Elaine Cristina da Silva Zacarin,

sem ferrão do Pará, que parecem sofrer mais o impacto da alteração climática do que as europeias. Embora não sejam grandes produtoras de mel, elas são ex-celentes polinizadores. Como as abelhas têm um ciclo de vida relativamente cur-to, de cerca de dois meses, será possível acompanhar várias gerações.

Os sensores que estão sendo testados em campo fazem parte de uma primeira geração desenvolvida pelo ITV e CSIRO – e outros já estão a caminho. “Uma das inovações obtidas é a distância de co-municação que conseguimos alcançar, de até 30 centímetros”, ressalta o pes-quisador. Isso foi feito com a melhoria da qualidade da antena do chip, o que aumentou a sua capacidade de se co-municar a distância. “A CSIRO desen-volveu o sistema wi-fi (sem fio) e fez a modificação na antena.” Durante o seu doutorado, Souza trabalhou com um grupo de pesquisa dedicado a construir sensores para missões espaciais, como os que foram instalados no braço mecânico do jipe robó-tico Opportunity, enviado em

2004 a Marte. Essa missão de exploração geológica do planeta vermelho, que bus-ca sinais da presença passada de água, continua em atividade.

O microssensor é composto por um chip com memória de armazenamento de 500 mil bytes – suficiente para guar-dar dados a cada segundo por quase uma semana –, uma antena e uma bateria.

As informações sobre o mo-vimento das abelhas captadas pelo chip são retransmitidas para antenas instaladas no en-torno da colmeia e em esta-ções de alimentação, e depois transferidas para um centro

próxima geração de chips será capaz de captar dados ambientais como temperatura, umidade e insolação

1 Tamanho do microssensor comparado com moeda de r$ 1

2 físico Paulo de souza segura uma colmeia no Pará

1

2

Page 73: Pesquisa FAPESP 221

pESQUiSa FapESp 221 z 73

e em Minas Gerais. Cada colônia ou col-meia tem, em média, 50 mil indivíduos. “As informações sobre as perdas foram passadas por apicultores, mas não sabe-mos a causa da morte, porque as abelhas podem morrer por vários fatores além dos inseticidas, como doença, manejo, seca extrema, entre outras variáveis.” Em alguns casos, como a de um apicul-tor do município de Boa Esperança do Sul, no interior de São Paulo, a relação entre causa e efeito ficou comprovada. “Em 2008, em uma terça-feira ele tinha 400 colmeias, na quarta houve uma apli-cação aérea num local próximo e apenas um dia depois, na quinta, todas as abe-lhas estavam mortas”, diz Malaspina. O resultado de uma análise feita apontou que um inseticida neonicotinoide era o responsável pelas mortes.

Um dos estudos do seu grupo para ava-liar o efeito dos agrotóxicos no organismo das abelhas é feito dentro do laboratório

ambas da Universidade Federal de São Carlos (UFSCar), e do professor Stephan Malfitano de Carvalho, da Universidade Federal de Uberlândia (UFU).

“Somos o primeiro grupo de pesquisa no Brasil a estudar a relação entre agro-tóxicos e abelhas”, diz Malaspina. Ele pesquisa o tema desde o seu mestrado, na década de 1970, mas só a partir de 2000 voltou a se dedicar intensamente ao assunto em função de reclamações de apicultores que estavam perdendo abe-lhas após a aplicação aérea de inseticidas, principalmente para combater pragas que atacam os canaviais. “Essas perdas começaram a ser relatadas após a entrada de novos produtos no mercado”, relata.

Segundo Malaspina, 20 mil colônias de abelhas foram perdidas no estado de São Paulo entre 2008 e 2010; 100 mil em Santa Catarina apenas em 2011; e as esti-mativas apontam para perdas anuais de 40% de colmeias no Rio Grande do Sul

e em estufas que simulam as condições de colmeias. Resultados de testes fei-tos pelos pesquisadores apontam que os agrotóxicos atingem o sistema digestório e o cérebro das abelhas. Em casos mais graves, elas não conseguem se alimentar e morrem por inanição. Outros experimen-tos estão sendo feitos para avaliar de que forma esses insetos, quando conseguem sobreviver à intoxicação, são afetados. Esse conhecimento é importante para proteger a grande variedade de abelhas existente no Brasil, com cerca de 2 mil espécies descritas.

Além da preocupação com as perdas dos apicultores, existe o risco para as culturas que dependem delas para a po-linização. O maracujá, por exemplo, só produz se for visitado pela mamangava, assim como a berinjela, o pimentão e outras espécies vegetais que, por terem flores mais fechadas, precisam de poli-nizadores específicos. n

Projetos1. interação entre pesticidas e infecção por Nosema em Apis mellifera africanizada: efeitos biológicos e detec-ção de biomarcadores celulares (nº 2013/09419-4); Modalidade auxílio à Pesquisa – regular; Pesquisadora responsável elaine cristina da silva Zacarin (Ufscar); Investimento r$ 199.981,70 (faPesP).2. avaliação dos efeitos adversos da exposição aos pesticidas e patógenos em abelhas: estudo de biomar-cadores celulares em órgãos-alvo (nº 2008/51473-8); Modalidade auxílio à Pesquisa – regular; Pesquisadora responsável elaine cristina da silva Zacarin (Ufscar); Investimento r$ 99.150,00 (faPesP). Fo

toS

1 w

illi

aN

aB

reU

/va

le 2

va

le/c

sir

o i

nFo

gr

áFi

co

aN

a P

aU

la

ca

MP

os

ilU

Str

ão

Pe

dr

o h

aM

da

N

Movimento em detalhesMicrossensores são usados para monitorar o comportamento das abelhas no ambiente

com as informações captadas, é criado um modelo tridimensional da movimentação dos insetos, que permite avaliar seu comportamento

Quando as abelhas passam a uma distância de até 30 cm de antenas no entorno das colmeias, os dados são captados e enviados para uma central de controle

as informações sobre o movimento das abelhas ficam gravadas no chip, que tem memória suficiente para guardar dados a cada segundo por quase uma semana

Um código gravado no chip funciona como se fosse uma identidade de cada indivíduo da colmeia

antenas

caMpo abErto

cEntral DE controlEcolmeias

Memória 500 Kb

antena

2,5 mm

30 cm

5,4 mg

Chip

Modelo 3D

1 2

3

4

FontE vale/csiro

Page 74: Pesquisa FAPESP 221

74 z julho DE 2014

Software automatiza a avaliação de

queima de cana em imagens de satélite

Descobrir um endereço qualquer, ver o traçado e os arredores de um lugar de destino de uma viagem próxima são usos que tornaram populares as imagens

de satélite acessadas pela internet. No âmbito profissional, principalmente na agricultura, essas imagens já permitem monitorar grandes áreas e acompanhar e estimar a produção de uma plantação. Isso acontece por meio de técnicas de sensoriamento remoto usadas para processar e interpretar as fotos e dados obtidos por sen-sores a bordo de satélites. Recentemente, uma contribuição para esse tipo de monitoramento agrícola, relacionado à cultura da cana-de-açúcar, ganhou o primeiro lugar na categoria Trabalhos Acadêmicos na quinta edição do Prêmio Top Etanol, uma iniciativa da União da Indústria de Cana-de-Açúcar (Unica) em parceria com ou-tras associações de produtores de cana, além de indústrias como Dedini, Basf, Monsanto e Syn-genta. O grupo vencedor é do Instituto Nacional de Pesquisas Espaciais (Inpe), em São José dos Campos. À frente do estudo esteve o pesquisador Marcio Pupin Mello, que desenvolveu um softwa-re para automatizar o mapeamento por imagens de satélites de culturas de cana ao longo da safra.

O método, que foi publicado em 2013 na revista IEEE Transactions on Geoscience and Remote Sen-sing, começou a ser delineado na Inglaterra em 2000 pelo professor Carlos Vieira, atualmente na Universidade Federal de Santa Catarina (UFSC), que na época cursava o doutorado na Universidade de Nottingham. Em 2007, o método começou a ser

SenSoriamento remoto y

Análise remota

adaptado em aplicações dentro do Canasat, pro-grama do Inpe para monitorar via satélite o plantio de cana-de-açúcar na região Centro-Sul do país.

Iniciado em 2003, o Canasat, além de estimar e fazer o mapeamento do cultivado de cana, tam-bém tem a função de identificar se determinada colheita foi feita com ou sem a queima da palha na pré-colheita. A legislação agroambiental do estado de São Paulo prevê a gradual di-minuição da prática da queima e a completa eliminação desse ti-po de manejo agrícola em 2031. Para antecipar o estabelecido na legislação, a Secretaria do Meio Ambiente do Estado de São Pau-lo firmou em 2007 um protoco-lo com o setor sucroenergético para eliminar essa prática, em quase todo o estado, até 2014. Desde 2006, as imagens são uti-lizadas para avaliar a gradual redução da área queimada no estado de São Paulo. Entre 2006 e 2013, essa área foi reduzida de 65,8% para 16,3%, respectiva-mente. Essa análise é feita por técnicos que examinam imagem por imagem para obter as respostas sobre o tipo de colheita da cana-de-açúcar: com ou sem o uso do fogo. Apesar de atingir níveis muito altos de pre-cisão, esse trabalho de mapeamento baseado em interpretação visual é moroso, porque os técnicos precisam interpretar e mapear cada área de cana

Marcos de Oliveira

O novo sistema poderá ser usado para verificação de desmatamento em florestas ao longo do tempo

Page 75: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 75

imagens”, diz o professor Bernardo Rudorff, que se aposentou do Inpe, onde foi coordenador do Canasat, e agora é sócio da empresa Agrosatélite, em Florianópolis, Santa Catarina, especializada em sensoriamento remoto na agricultura.

MOnItOrAMEntO AMbIEntAlO novo sistema chamado de Stars, do inglês Spec-tral-Temporal Analysis by Response Surface, também poderá ser útil para análises de desma-tamentos. A avaliação automática poderá ser feita por meio da verificação de mudanças dos padrões espectrais das áreas de vegetação ao longo do tempo, no caso de florestas para solo exposto. “Acredito que esse método possa trazer benefícios aos órgãos de fiscalização, tanto para verificação de queima da cana como para mo-nitoramento ambiental de florestas”, diz Mello.

No momento o software ainda não está em uso profissional, mas os algoritmos podem ser acessa-dos no site do Inpe em www.dsr.inpe.br/~mello. Para melhorar o processamento das imagens e tornar o software operacional, além da possibili-dade de explorar outras aplicações, Mello diz que espera um próximo estudante de pós-graduação no Inpe, onde é coorientador, para continuar o trabalho. “Sou formado em engenharia e imple-mentei o software para minha pesquisa, mas se agora um especialista em programação de soft-wares assumisse o trabalho poderia torná-lo um produto”, diz Mello. Automatizar softwares para a área de sensoriamento remoto principalmente para análise temporal de imagens é uma exigên-cia do setor. “Existem cada vez mais satélites com ampla capacidade de obtenção de imagens da su-perfície terrestre, de dados do solo e de culturas agrícolas. Sendo assim, é preciso aumentar a au-tomatização das análises”, diz Rudorff. n

artigos científicosaguiar, D. a. et al. remote sensing images in support of environ-mental protocol: monitoring the sugarcane harvest in São Paulo state, Brazil. remote Sensing. v. 3, n. 12, p. 2682-703. 2011.mello, m.P. et al. Stars: a new method for multitemporal remote sensing. IEEE transactions on Geoscience and remote Sensing. v. 51, n. 4, p. 1897-913. abr. 2013.FO

tOS

léo

ra

mo

S e

Ca

na

Sat

/ in

Pe

colhida em várias imagens coletadas ao longo do tempo. O novo sistema permite que se faça esse mesmo trabalho, mas com análise automática. “Ele processa as imagens de satélites obtidas em datas diferentes ao longo da safra e permite identificar, de forma automática, se a colheita da cana-de--açúcar foi feita com ou sem a queima da palha”, diz Mello, que trabalhou no desenvolvimento do novo sistema durante seu mestrado e parte do doutorado no Programa de Pós-graduação em Sensoriamento Remoto do Inpe.

“A partir de imagens dos satélites norte-ame-ricanos Landsat-5 e Landsat-7, identificamos mu-danças na energia refletida nas áreas de cana”, explica Mello, que fez parte do seu doutorado no Instituto de Geoinformática da Universidade de Münster, na Alemanha, e atualmente é coordena-dor de pesquisa da área de sensoriamento remoto da Boeing no Brasil. “Identificamos a variação da energia refletida pela cana ao longo do tempo. Com essas informações podemos fazer a inter-pretação do que existe no campo, se palha, ou a planta em pé, por exemplo, e fazer a identificação de cada área colhida ao longo da safra sobre as

resultado ao longo do tempoimagens de satélite confrontadas com fotos do canavial

Cana queimada e com aplicação de calcário Cana colhida crua e depois queima da palha Área de cana com corte mecanizado

Page 76: Pesquisa FAPESP 221

IBM em São Paulo cria aplicativo que permite a

cegos “enxergar” conteúdo de placas e painéis

Olhar eletrônico

Parece mágica, mas a cena pode se tornar corriqueira dentro de alguns anos. Em um aeroporto qualquer do planeta, um defi-ciente visual aponta seu smart-

phone para o painel de voos e, imediata-mente, o dispositivo narra a relação de partidas e chegadas apresentada no dis-play. A cena se repete em estações fer-roviárias e pontos de ônibus dotados de mostruários com os horários das linhas e em ambientes corporativos – nesse caso, indivíduos cegos poderão saber quais são os produtos que estão expostos em má-quinas de venda automática de alimentos, como refrigerantes, sucos, batatas e sal-

gadinhos diversos. Isso será possível com uma tecnologia gestada no IBM Research Brasil, o laboratório de pesquisa da mul-tinacional norte-americana de informáti-ca localizado em São Paulo. Batizado de Reconhecimento de Conteúdo Dinâmico Assistido por Marcadores, o aplicativo tem recursos de visão computacional, in-teligência artificial e de processamento de imagens para fazer o reconhecimento de textos e objetos em ambientes públicos.

“A novidade em relação a aplicativos similares de reconhecimento de imagem é o uso de marcadores”, diz Andréa Mat-tos, a jovem cientista da IBM que liderou a criação do aplicativo. Os marcadores,

coMPutação y

Yuri Vasconcelos

um conjunto de quatro adesivos com diferentes imagens gráficas, são posi-cionados nos cantos superiores e infe-riores do objeto-alvo. “Eles são pontos de referência e facilitam que os objetos da cena sejam detectados e identificados pelo aplicativo”, diz Andréa, de 28 anos.

Num aeroporto, por exemplo, um indi-víduo cego só precisaria pedir ajuda para localizar o painel de voos delimitado pe-los marcadores. Depois, apontando seu smartphone ou tablet para ele, poderia checar se seu avião está ou não no horário. Caso tivesse dificuldade para fazer o per-feito enquadramento do painel – condição necessária para o programa funcionar e as

Como funciona o aplicativoteste com um dispositivo protótipo mostrou índice de eficiência de 90%

Marcadores são afixados nos cantos do

objeto-alvo que se pretende reconhecer

o deficiente visual deve apontar a câmera

de seu smartphone para a máquina

Page 77: Pesquisa FAPESP 221

z 77

Exemplos de marcadores afixados

nos objetos que se quer reconhecer

fOtO

léo

ra

Mo

S in

fOg

fiC

O a

na

Pa

ul

a c

aM

Po

S il

ust

ra

çã

O S

aM

uEl

ro

dr

Igu

ES

informações visuais serem lidas e trans-formadas em avisos sonoros –, escutaria instruções como “desloque a câmera para a direita” ou “levante um pouco a câmera”. “Cada marcador tem uma posição precisa em relação aos demais. A orientação para correção do enquadramento é possível desde que pelo menos um dos quatro mar-cadores tenha sido captado pela câmera do smartphone”, explica Andréa.

Para que o aplicativo funcione também é necessário que os objetos ou textos a serem reconhecidos sejam exibidos em um layout com posições fixas. As men-sagens no painel passam por alterações constantes da mesma forma que os pro-dutos nas máquinas de venda automá-tica. O indispensável é que as posições onde são mostrados os produtos ou as informações sejam imutáveis. Depois, ele automaticamente busca em sua memó-ria pelo template daquela cena, espécie de máscara com posições fixas no lugar em que estão posicionados os textos ou as imagens a serem reconhecidas. Numa máquina de venda automática, o tem-plate nada mais é do que um diagrama mostrando os nichos onde os produtos ficam enfileirados; num painel de voos, o template mostra o espaço, dentro do dis-play, em que as informações são exibidas.

Por fim, o programa parte para a iden-tificação e a leitura do conteúdo. No caso das máquinas, isso se dá por um método comparativo. O aplicativo tem guardado em sua memória um banco de imagens com a fotografia de todos os produtos

vendidos por ela – lata do refrigerante X, saco de batata frita Y, pacote de bis-coito Z etc. Ele compara os produtos captados pela câmera do usuário com as fotos armazenadas e verbaliza a oferta de mercadorias. Numa placa ou painel com informações escritas, o programa reconhece as letras e os números, e faz a leitura do que encontrou para o usuário.

A pesquisadora realizou uma bateria de testes com máquinas de venda au-tomática para provar a viabilidade da técnica. Para conferir a eficiência do aplicativo, foram feitas 60 fotografias, totalizando 240 marcadores, já que cada máquina possui quatro marcadores. O índice de detecção foi de 99,16%. O re-conhecimento dos produtos dentro das máquinas foi de 89,85%, o que, segundo Andréa, é uma taxa elevada, consideran-do os desafios do problema.

CegOs Ou COm VisãO reduzidaUma das vantagens da inovação, cujo desenvolvimento também contou com a participação dos pesquisadores Carlos Cardonha, Diego Gallo, Priscilla Aveglia-no, Ricardo Herrmann e Sérgio Borger, todos da IBM, é conferir mais autonomia a pessoas cegas ou com visão reduzida. O trabalho foi premiado na 11ª Confe-rência Web for All, que reconhece os melhores projetos mundiais voltados à acessibilidade e internet, realizada em abril deste ano na Coreia do Sul. A tec-nologia foi submetida ao United States Patent and Trademark Office (Uspto), o

escritório norte-americano de patentes. Esta foi uma das 19 patentes solicitadas pela IBM Brasil ao Uspto somente nos seis primeiros meses deste ano.

Essa não é a primeira nem a única tec-nologia de visão computacional para re-conhecimento de imagens existente no mundo. O uso de códigos de barras é uma técnica promissora. Afixados em produ-tos, eles podem ser lidos pelo escâner instalado em um smartphone. Mas são limitados quando o conteúdo é dinâmico – como é o caso de painéis de voos, onde as informações sempre mudam.

“Vários grupos no mundo tentam criar dispositivos capazes de reconhecer obje-tos, mas não encontramos na literatura que envolve visão computacional nenhuma tecnologia como a nossa, capaz de reco-nhecer produtos em ambientes não con-trolados, ou seja, sujeitos à variação de iluminação e a interferências visuais diver-sas”, afirma Sérgio Borger, gerente de pes-quisas da área de Sistemas de Engajamento da IBM. “Vamos fazer novos ensaios para avaliarmos questões ligadas à usabilidade da nossa aplicação”, diz Borger. n

o aplicativo orienta como corrigir o

dispositivo por meio dos marcadores

o programa busca em sua memória

a imagem daquele objeto-alvo

a imagem é identificada e o programa

verbaliza o produto para o deficiente visual

Page 78: Pesquisa FAPESP 221

78 z julho DE 2014

Reator Multipropósito Brasileiro deve suprir o país de

radiofármacos para diagnóstico e tratamento de doenças

Instrumento de radiação

Se tudo correr conforme o planejado e não faltarem os recursos orçamentários pre-vistos, em cinco anos o Brasil poderá se tornar autossuficiente na produção de

radioisótopos, substâncias radiativas que podem ser usadas no diagnóstico e tratamento de várias doenças, além de ter aplicações na indústria, na agricultura e no meio ambiente. O governo fede-ral deverá investir cerca de US$ 500 milhões, o equivalente a cerca de R$ 1,09 bilhão, na constru-ção do Reator Multipropósito Brasileiro (RMB), um grande centro de pesquisa que será erguido no município de Iperó, na região de Sorocaba, a 130 quilômetros de São Paulo.

A construção do empreendimento é uma das metas do Ministério da Ciência, Tecnologia e Inovação (MCTI) e está alinhado com o Progra-ma Nuclear Brasileiro (PNB). “Além de produzir radioisótopos para aplicações na saúde, na indús-tria e na agricultura, o reator realizará testes de combustíveis e materiais estruturais para cen-trais nucleares”, explica o coordenador técnico do projeto, José Augusto Perrotta, assessor da presidência da Comissão Nacional de Energia Nuclear (CNEN), órgão do MCTI responsável pela realização do RMB. “O reator também for-necerá feixes de nêutrons para estudos científicos e tecnológicos e formará e treinará profissionais para atender às necessidades do PNB.”

Entre os produtos mais importantes do novo reator de pesquisa brasileiro estará o radioisótopo molibdênio-99 (99Mo), que é produzido a partir da fissão do urânio-235 (235U). Com o 99Mo é construí-do um dispositivo denominado “gerador de tec-nécio”. O tecnécio-99m (99mTc, m de metaestável) é um radioisótopo que é a base de radiofármacos utilizados em cerca de 80% dos procedimentos de diagnósticos da medicina nuclear.

No Brasil, são realizados cerca de 2 milhões de procedimentos dessa área médica por ano. “O país precisa importar todo o molibdênio-99 de que necessita”, diz Perrotta. “Em 2013, foram importados em torno de 21 mil curies [curie (Ci) é a unidade de medida de atividade radioativa] de 99Mo, a um custo total de US$ 10,1 milhões.” Segundo ele, o RMB deverá produzir no mínimo mil curies por semana de molibdênio-99, o que corresponde a cerca de 50 mil curies por ano.

Hoje existem no mundo entre 240 e 250 reato-res nucleares de pesquisa em operação e alguns produzem radioisótopos para as mais diversas aplicações. Para a medicina nuclear, só o Canadá responde por 40% da produção mundial. Quan-do, em 2009, o principal reator canadense teve problemas e ficou inoperante temporariamente, houve uma grande queda da oferta, o que levou a uma crise nessa área da medicina. O problema pode se tornar mais grave em poucos anos por-

Medicina nucleaR y

Evanildo da Silveira

la

tin

sto

ck

/ s

iMo

n F

Ra

seR

/Me

dic

al

PH

Ysi

cs,

RV

i, n

eW

ca

stle

uP

on

-tY

ne

/ sc

ien

ce

PH

ot

o l

iBR

aR

Y/s

Pl

dc

Page 79: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 79

tomografia feita com aplicação

de tecnécio-99m no paciente mostra

câncer nos ossos superiores das pernas

Page 80: Pesquisa FAPESP 221

80 z julho DE 2014

tratada a empresa brasileira Intertechne.Para o projeto básico de engenharia

foram destinados R$ 50 milhões do Fun-do Nacional de Desenvolvimento Cientí-fico e Tecnológico (FNDCT), que é uma reserva de recursos para financiamento do setor de pesquisa, desenvolvimento e inovação, administrado pela Financiado-ra de Estudos e Projetos (Finep), ligada ao MCTI. Paralelamente ao projeto bá-sico, há uma série de estudos e relatórios de impactos ambientais e pedidos de licença para a construção do RMB, nos quais foram investidos R$ 2,7 milhões do orçamento da CNEN.

A produção do 99Mo no RMB inclui uma série de etapas inerentes ao ciclo do combustível nuclear. “O minério é re-tirado da mina e processado de forma a se obter um concentrado de urânio cha-mado yellowcake”, explica Perrotta. O processo a seguir, que tem tecnologia já dominada pelo país, é realizado em vá-rias fases e resulta em pequenas placas,

que a maioria dos reatores em atividade está perto do fim de sua vida útil e será desativada.

O RMB e seus laboratórios associados – de processamento de radioisótopos, de análise de materiais irradiados e de feixes de nêutrons – serão instalados numa área de 2 milhões de metros quadrados (m2), adjacente ao Centro Experimental de Ara-mar, da Marinha do Brasil, que cedeu para o RMB um terreno de 1,2 milhão de m2. Os outros 800 mil m2 serão desapropria-dos pelo governo do estado de São Paulo e também cedidos ao empreendimento.

Quanto ao reator propriamente dito, Perrotta explica que ele será do tipo de piscina aberta, no qual a água é usada co-mo moderadora de nêutrons, blindagem para radiação e refrigeração, na retirada do calor gerado nas reações nucleares. “A água mantém a temperatura do reator me-nor que 100ºC, o que dá maior segurança ao sistema”, diz Perrotta. “Esse tipo de reator é mais simples do que os das usinas

nucleares. O grau de segurança e confiabi-lidade é maior e por isso eles podem ficar em centros de pesquisa e universidades próximos de cidades.”

O novo reator terá uma potência tér-mica de até 30 MW, o que o situa entre os de tamanho intermediário no mundo. “O RMB tem como referência o projeto do reator Open Pool Australian Light-water (Opal), da Austrália, com potência de 20 MW, inaugurado em 2007”, conta Perrotta. “O projeto básico do nosso rea-tor foi desenvolvido em cooperação en-tre a CNEN e sua similar da Argentina, a Comisión Nacional de Energía Atómica (CNEA). Para isso, foi contratada a em-presa argentina Invap, a mesma que fez o da Austrália.” O CNEA também está cons-truindo um reator semelhante ao RMB, e a cooperação contribui para diminuir os custos dos dois. Para o projeto básico de engenharia e infraestrutura dos prédios do reator brasileiro e dos laboratórios e de todos os sistemas associados foi con-

Caminho do radiofármacoa partir do urânio chega-se ao gerador de tecnécio

urânio já processado é irradiado com feixes de nêutrons por uma semana em um reator nuclear

Processo químico que resulta na separação do molibdênio do urânio

solução de molibdênio-99 com alta pureza

na forma de cápsulas eles são enviados à radiofarmácia

na radiofarmácia as cápsulas de molibdênio são depositadas nos geradores de tecnécio que são encaminhados para os hospitais e clínicas

Médicos especialistas extraem do gerador solução de tecnécio usada como contraste em exames de tomografia

FontE cnen

1

2

3

4

5

6

MoliBdênio-99

geRadoR de tecnécio

Coração

uRânio-235

tireoide

ossos

Rins

Estômago

Page 81: Pesquisa FAPESP 221

pESQUISA FApESp 221 z 81

O médico Celso Dario Ramos, presiden-te da Sociedade Brasileira de Medicina Nuclear (SBMN), diz que radioisótopos, como o tecnécio-99m, são fundamentais para o diagnóstico de muitas doenças. Outros radioisótopos, como o iodo-131 e o lutécio-177, que também serão produ-zidos no RMB, possibilitam o tratamento de várias doenças, como o câncer de ti-róide e tumores neuroendócrinos. “Com o tecnécio-99m é possível fazer imagens que permitem enxergar o metabolismo celular em tecidos vivos”, explica. “Com os diversos radiofármacos é possível ver a distribuição de um determinado hor-mônio pelo corpo ou o consumo de gli-cose em uma região, o que pode revelar a presença e a agressividade de um tumor, por exemplo. Os radiofármacos possibi-litam ainda enxergar o funcionamento de órgãos internos, como ossos, pulmões, coração, cérebro, fígado e rins.”

No caso do tecnécio-99m, ele tem uma vantagem adicional: uma meia-vida cur-ta. Meia-vida é o tempo que leva para um elemento radiativo perder (emitir na for-ma de radiação) metade de seus átomos. “A do urânio-235, por exemplo, é de 700 milhões de anos e a do césio-137, 30,2 anos”, informa Perrotta. “A do iodo-131,

chamadas de alvo, que contêm urânio enri-quecido disperso em seu interior.

Os alvos são irradia-dos no reator por uma semana para produzir os elementos radiativos provenientes da fissão do urânio, dentre eles o 99Mo. Esses alvos depois são dissolvidos no laboratório de processamento, gerando uma solução de alta pureza de 99Mo, que é enviada para a radiofarmácia que produz radiofármacos. Lá, é produzido o disposi-tivo denominado “gerador de tecnécio”.

É esse gerador de tecnécio que é dis-tribuído aos hospitais e clínicas. “Por meio do gerador de tecnécio, o médico especialista extrai soluções calibradas contendo o tecnécio-99m e que, associa-das a moléculas orgânicas específicas, são utilizadas para diagnóstico de medicina nuclear”, explica Perrotta.

DIFEREnçAS Do USoPara isso, o médico injeta essa solução, que, de acordo com a fisiologia do organismo humano, por meio de afinidades e rejeições com os vários tipos de células, se dirige ao órgão ou região que se quer diagnosticar. A maneira de fazer o diagnóstico em me-dicina nuclear é diferente da que emprega raios X, em que a radiação atravessa a pes-soa sem deixar vestígios e sensibiliza um filme fotográfico. O tecnécio-99m é um emissor de radiação gama. Ao ser injeta-do no paciente, passa a emitir radiação de dentro do corpo da pessoa, que é captada exteriormente por detectores de radiação.

outro elemento usado na medicina nu-clear e que também será produzido no RMB, é de 8,02 dias e a do tecnécio-99m é de apenas seis horas. Quer dizer, a cada seis horas a intensidade da radiação no corpo da pessoa é reduzida à metade, em dois ou três dias não restará pratica-mente qualquer intensidade radioativa.”

O fluxo de nêutrons de grande intensi-dade gerado no RMB servirá para testar combustíveis e mate-riais usados nos reato-res de geração de ener-gia elétrica, como nas centrais nucleares de Angra dos Reis (RJ) e de propulsão, como a que será usada no pro-tótipo do submarino

nuclear que a Marinha está desenvolven-do. “O RMB propiciará segurança técnica a esses projetos, garantindo a continuida-de no desenvolvimento do conhecimento nuclear do país”, diz Perrotta. “Por fim, ele abrigará um laboratório de uso de feixes de nêutrons em pesquisas de materiais em complemento ao Laboratório Nacional de Luz Síncrotron (LNLS), de Campinas, no interior paulista. Se não avançarmos neste setor, acabaremos à margem do desenvol-vimento mundial e ficaremos à mercê do que existe no exterior.”

Por isso, Ramos, que também é di-retor do Serviço de Medicina Nuclear da Universidade Estadual de Campinas (Unicamp), considera “muitíssimo im-portante” para o Brasil a construção do RMB. “O impacto não se dará somente na medicina nuclear, mas também na física, química, engenharia e biologia e outras áreas de pesquisa”, diz. “O rea-tor não servirá apenas para produzir ra-dioisótopos. Ele será um grande centro de pesquisa, com uma importância tão grande quanto a do LNLS.”

Para Perrotta, o RMB vai contribuir para que a região onde será instalado se torne um polo de tecnologia nuclear no Brasil. nFo

to c

ust

oM

Me

dic

al

sto

ck

PH

ot

o /

sc

ien

ce

PH

ot

o l

iBR

aR

Y I

lUSt

RA

çã

o a

lex

an

dR

e a

FFo

nso

no diagnóstico, o tecnécio-99m é injetado no paciente. equipamentos de tomografia captam as imagens marcadas pelo radiofármaco

o uso de feixes de nêutrons do reator multipropósito servirá para estudos

de materiais usados na indústria

Page 82: Pesquisa FAPESP 221

82 z JULHO DE 2014

Estudo estima que 3,8 milhões de pessoas vivem

precariamente em favelas, loteamentos clandestinos

e loteamentos irregulares em 113 municípios paulistas

Macrometrópole movediça

humanidades sociologia y

Juliana sayuri

Page 83: Pesquisa FAPESP 221

pesQuisa Fapesp 221 z 83

Bairro Piratininga, em guarulhos:

pesquisa levou em conta variáveis como

habitação, infraestrutura e

aspectos demográficos

léo

ra

mo

s

Certas cidades podem ser “lidas” como um retrato e como um mapa. Como retrato, no processo de fave-lização visível nas últimas décadas, com barracos informais, construções irregulares e puxadinhos improvisados, onde vivem “invisíveis” milhares

de habitantes galgados nas fronteiras imaginárias das cidades brasileiras. Como mapa, nos levantamentos geográficos, com análise de estatísticas rigorosas e cruzamentos de informações de outras pesquisas, detalhando a localização e as condições dos “assentamentos precários” nos territórios. Essa foi a proposta do Diagnóstico dos assentamentos precários nos municípios da macrometrópole paulista, coordenado pelo pesquisador Eduar-do Marques, do Centro de Estudos da Metrópole (CEM), um dos Centros de Pesquisa, Inovação e Difusão (Cepid) apoiados pela FAPESP. Também participaram do estudo os geógrafos Daniel Waldvogel e Donizete Cazolato, o estatístico Edgard Fusaro e a cientista política Mariana Bittar.

“Os assentamentos precários incluem favelas, loteamentos clandestinos e loteamentos irregulares, três soluções habi-tacionais precárias”, define Marques, professor da Faculda-

Page 84: Pesquisa FAPESP 221

84 z JULHO DE 2014

de de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). “Há grande heterogeneidade de situações, mas áreas precárias costumam abrigar população pobre, com pouco acesso a infraestrutura e serviços, especialmente no que diz respeito a serviços de esgotamento sanitário.” A fim de identificar os assentamentos precários, o estudo contou com variáveis como habitação, infraestrutura e aspec-tos demográficos, como escolaridade e renda do responsável pelo domicílio.

Realizado a pedido da Empresa Paulista de Pla-nejamento Metropolitano (Emplasa) e da Com-panhia de Desenvolvimento Habitacional e Ur-bano (CDHU), esse estudo atualiza metodologia elaborada em um trabalho anterior, desenvolvido para o Ministério das Cidades. Em 2005, com ba-se nas informações do Censo de 2000, a popula-ção favelada da macrometrópole paulista girava em torno de 3,17 milhões. Em 2010, ano-base do novo estudo com dados do Censo de 2010, já eram 3,80 milhões de habitantes em condições

precárias nos 113 municípios da região, área de 31,5 mil quilômetros quadrados que abrange as regiões metropolitanas de São Paulo (RMSP), de Campinas (RMC), da Baixada Santista (RMBS) e do Vale do Paraíba e Litoral Norte (RMVP-LN), além da aglomeração urbana de Jundiaí (AUJ) (ver mapas). Houve, portanto, um crescimento considerável, de 13,5% para 14,3%. “Entretanto, esses números escondem uma grande variabilida-de entre regiões”, pondera Marques. “Na Região Metropolitana de São Paulo, a proporção caiu de 15% para 14,5%. Enquanto isso, na Baixada San-tista o número cresceu de 18,1% para 20,5%; na região de Campinas, saltou de 9,9% para 14,5% – isto é, uma mudança expressiva, sugerindo intensos processos de favelização. Houve cres-cimento absoluto em todas as regiões, mas na ca-pital esse percentual foi inferior ao crescimento do conjunto da população. Em certo sentido, há uma dispersão do problema”, indica.

Para Marques, diversos fatores contribuem pa-ra esse retrato. “O processo de favelização está em

Retrato da precariedademapa indica as regiões onde há concentração de habitações irregulares

região metropolitana

de campinas

região metropolitana

da Baixada santista

região metropolitana de são Paulo

MGSP RJ

região metropolitana

do Vale do Paraíba e

litoral Norte

aglomeração urbana de Jundiaí

macRometRópole paulistasetores censitários 2010

n Urbanos subnormaisn Urbanos precáriosn Urbanos não precáriosn Urbanos não contempladosn rurais e sem informação

limite municipal limite regional

Page 85: Pesquisa FAPESP 221

pesQuisa Fapesp 221 z 85

curso há décadas, causado pela pobreza e pela falta de políticas habitacionais à altura da demanda. Em termos gerais, é produto da forma pela qual se deu (e pela qual se continua dando, embora em menor ritmo) o processo de urbanização no Brasil”, diz. Ao longo do tempo, uma possível solução envol-veria a redução da pobreza e o aumento expres-sivo da oferta de habitação popular, mas, como as metrópoles foram se constituindo, a questão ficou mais complexa. “Muitas vezes, a disponibilidade de terras para a construção e o mercado fundiário podem representar obstáculos para a solução da precariedade. Esse é o caso da Região Metropoli-tana de São Paulo. A regulação sobre a terra urba-

na e a disponibilização de boas terras pelo planejamento passam a ser cruciais – e estatutos como as Zonas de Especial Interesse Social (Zeis), previstas no Plano Diretor atualmente discutido em São Paulo, trabalham nessa dire-ção”, analisa. Nessa cartografia paulista, as consequências são a baixa qualidade urbana e de vi-da para um conjunto expressivo da população e, na mesma linha, uma queda na situação ambiental e urbana nas cidades.

Não há uma regra para a lo-calização geográfica dos assen-tamentos precários. Na Região Metropolitana de São Paulo, muitos se concentram nas áreas periféricas. “Apenas algumas favelas de porte se situam na região mais central e mais rica. Isso é produto de um longo pro-

cesso de expulsão dos núcleos mais centrais, com a população procurando se instalar nos espaços ainda existentes – cada vez mais periféricos. Os loteamentos irregulares, por sua vez, já foram implantados em áreas mais distantes, sendo, na verdade, responsáveis por parte predominante da expansão periférica a partir dos anos 1960. A combinação desses dois processos intensificou os padrões de segregação social em São Paulo e em outras metrópoles”, critica.

FoRa do “noRmal”O Instituto Brasileiro de Geografia e Estatística (IBGE) privilegia a expressão “aglomeramentos subnormais” para se referir a setores urbanos em que a classificação do censo encontra cer-ta complexidade, como aterros, barracos, fave-las, invasões, mocambos, palafitas e loteamentos clandestinos. São consideradas “subnormais” as áreas com 50 habitações ou mais, marcadas por uma série de precariedades habitacionais, isto é, construções fora das regras do planejamento

urbano. Os demais setores urbanos são classifi-cados como “não especiais”.

“Essa definição, entretanto, é feita antes do censo, pois trata da organização do trabalho de coleta de dados. Assim, a informação fica desa-tualizada. Vale ressaltar, porém, que a definição ‘subnormal’ não advém de um erro do IBGE, pois a informação não pretende expressar a precarie-dade, mas sim organizar o trabalho do instituto. Os dados coletados são padronizados e, por isso, faz sentido aproveitá-los para outros estudos, mas contornando suas limitações”, diz Eduardo Mar-ques. Esse foi o alicerce do trabalho do CEM, que aproveitou informações do IBGE para identifi-car os assentamentos precários, abrigando tanto aglomerados “subnormais” quanto setores “não especiais” com características sociais e urbanas similares, a fim de acertar possíveis distorções.

Definições à parte, aglomerados subnormais e assentamentos precários retratam as frágeis formas de habitação que se espalham por áreas vulneráveis nas grandes cidades, à espera de po-líticas públicas eficazes. “A habitação tem gran-de importância não apenas pela centralidade na qualidade de vida das pessoas que dependem das políticas governamentais, mas por estruturar as cidades. Nesse sentido, é do interesse de todos os grupos sociais a construção de políticas habi-tacionais massivas e diversificadas e de políticas redistributivas de regulação da terra – e não só dos diretamente beneficiados”, diz o pesquisador.

O estudo do CEM também analisou instrumen-tos de gestão voltados à política habitacional. “O Brasil vem acumulando conhecimento para de-senvolver políticas habitacionais para os proble-mas existentes desde o início dos anos 1990, em processos de aprendizado de políticas que per-passaram diversos governos”, comenta Marques. Na precisão da teoria: “Certamente o caminho é o desenvolvimento de políticas diversificadas, que envolvam a produção massiva de habitações novas para as faixas de mais baixa renda, a regulariza-ção de loteamentos, a urbanização de favelas. Os conhecimentos técnicos estão sendo acumulados ao longo das décadas, mas essa política é cara e demorada”, diz o pesquisador. Na imprecisão da prática: enquanto tais políticas públicas não forem implementadas, as cidades brasileiras continuam crescendo aos tropeços, a torto e a direito, en-quanto as favelas, como diria Carlos Drummond de Andrade, “o tempo gasto em contá-las é tempo de outras surgirem” (Crônica das favelas nacionais, Jornal do Brasil, 6 de outubro de 1979). n

ma

pa c

ENt

ro

dE

Est

Ud

os

da

mE

tr

óP

olE

Projetocentro de Estudos da metrópole – cEm (nº 2013/07616-7); Modali-dade centros de Pesquisa, inovação e difusão (cepid); Pesquisadora responsável marta teresa da silva arretche (cEm); Investimento r$ 7.109.808,20 para todo o cepid (FaPEsP).

“Áreas precárias costumam abrigar população pobre,

com pouco acesso a infraestrutura e serviços”, diz

eduardo marques

Page 86: Pesquisa FAPESP 221

86 | julho DE 2014

Neldson Marcolin

Em 1910, Carlos Chagas

filmou pacientes em

Lassance, cidade onde

descobriu a doença

que leva seu nome

MeMória

A sessão solene realizada na Academia Nacional de Medicina (ANM) de 31 de outubro de 1910, no Rio de Janeiro, esteve repleta de novidades. E todas

entraram para a história da instituição de 185 anos. A primeira delas foi a admissão de Carlos Chagas, médico e pesquisador do Instituto Oswaldo Cruz (IOC), como membro da ANM, mesmo sem haver vagas disponíveis, fato sem precedentes. O convite partiu do presidente da agremiação, Miguel Pereira, que havia visitado com outros acadêmicos, meses antes, a região de Minas Gerais onde Chagas descobriu a doença que ficaria conhecida pelo seu nome. O segundo fato novo é que o pesquisador fez na academia sua primeira conferência sobre a doença para seus pares. No mesmo dia ocorreu a inauguração da iluminação elétrica no local. Por fim, o mais novo acadêmico exibiu um filme de nove minutos com imagens de doentes da cidade de Lassance (MG) para ilustrar sua preocupação com a degeneração da saúde humana provocada pelo parasita Tripanossoma cruzi. O hoje intitulado Chagas em Lassance é um dos primeiros documentários científicos realizados no Brasil.

Chagas ampara criança doente no filme feito por ele em 1910 e exibido na ANM e em Dresden

Cientista e documentarista

Page 87: Pesquisa FAPESP 221

PeSQUiSa FaPeSP 221 | 87

filme em que as crianças tentam ficar em pé e caem. “A ideia de que essa situação era produzida por doenças evitáveis introduziu uma perspectiva diferente no debate sobre a saúde da população: o Brasil pode ser curado, não estamos condenados ao atraso e é possível, por meio da ciência, superar essa situação”, disse Simone no filme de Stella e Thielen.

O filme de Chagas não foi uma extravagância. Era importante trazer as imagens dos doentes do interior do Brasil para serem vistas na capital federal. Oswaldo Cruz sabia disso e, aficionado por fotografia, mantinha um fotógrafo contratado no IOC, J. Pinto. O rico material iconográfico produzido desde os primeiros anos do instituto resultou no livro Vida, engenho e arte – O acervo histórico da Fundação Oswaldo Cruz (COC/

Fiocruz, 2014), organizado por Fábio Iglesias, Paulo Roberto Elian dos Santos e Ruth B. Martins. A obra tem imagens da construção do castelo de Manguinhos, cenários, personagens da história da

fundação, coleções e um fotograma de Chagas

em Lassance, raríssimo exemplo de um filme brasileiro científico antigo.

Os pesquisadores da Fundação Oswaldo Cruz (Fiocruz) Stella Oswaldo Cruz Penido e Eduardo Vilela Thielen, também diretores de cinema, começaram a procurar Chagas em Lassance no começo dos anos 1990. “Foi durante a realização de outro documentário, Chagas do Brasil, que tivemos conhecimento da existência dessas filmagens de Chagas”, conta Stella. “Iniciamos uma pesquisa nos arquivos disponíveis e nessa procura Carlos Chagas Filho nos trouxe uma cópia em 16 milímetros do filme feito pelo pai em 1910, que foi restaurada e depois digitalizada.”

Eles então produziram e dirigiram Cinematógrafo brasileiro em Dresden, de 21 minutos, em 2011, 100 anos depois da exibição de Chagas em Lassance na Exposição Internacional de Higiene em Dresden, na Alemanha. O documentário traz o depoimento de pesquisadores sobre as campanhas contra a febre amarela conduzidas por Oswaldo Cruz no Rio, mostra registros de um filme de autoria

americana”. “Na época, as duas doenças ocorriam no mesmo local: o mal de Chagas e o bócio, este decorrente da falta de iodo nas regiões afastadas do mar, que comprometia o sistema nervoso e a mente em formação das crianças”, explica José Rodrigues Coura, chefe do Laboratório de Doenças Parasitárias do IOC. “As duas doenças, mescladas, levaram o grande cientista a confundi-las.”

Simone Kropf, historiadora das ciências da Casa de Oswaldo Cruz/Fiocruz, conta que se sentiu impactada com as cenas do

Foto

S A

CEr

vo

DA

CA

sA D

E o

swA

LDo

Cr

uz

, DEp

Ar

tAM

ENt

o D

E A

rq

uiv

o E

Do

Cu

MEN

tAç

ão

1

1 o pesquisador caminhando em direção ao hospital de Lassance

2 posando para foto em seu laboratório, em 1929

desconhecida com essas atividades na década de 1900 e conta da repercussão de Chagas em Lassance, exibido várias vezes na exposição alemã para um público europeu variado.

“O filme deve ter sido feito com uma câmera de madeira, francesa ou alemã, a manivela, rodando 16 quadros por segundo com uma objetiva focal fixa e filme monocromático”, segundo análise de Hernani Heffner, conservador-chefe da Cinemateca do Museu de Arte Moderna do Rio, que fala no Cinematógrafo brasileiro em Dresden. “A apresentação dos doentes de forma crua e direta, que não esconde nada, é absolutamente franca com a plateia.”

Carlos Chagas aparece rapidamente na película, de terno branco e chapéu, amparando uma criança (foto na outra página). As imagens mostram crianças e jovens com distúrbios neurológicos e dificuldades motoras. Chagas chamava esses problemas de “forma nervosa da tripanossomíase 2

Page 88: Pesquisa FAPESP 221

88 | julho DE 2014

Exposição no MoMA

situa a artista brasileira

no centro do processo

de reflexão sobre

os desdobramentos,

limites e superações

da arte moderna

e contemporâneaVista da

instalação A casa é o corpo

(1968), parte da exposição

Lygia Clark: The Abandonment of Art, 1948-1988 ,

no MoMA, NY (10 de maio a 24 de agosto de 2014)

Depois de cinco anos de pesquisa, o Museu de Arte Moderna de Nova York (MoMA) inau-gurou no último mês de maio uma antológi-

ca exposição dedicada à obra de Lygia Clark. Com mais de 300 obras, além de um catálogo alentado e uma intensa programação paralela, a mostra Lygia Clark: o abandono da arte, 1948-1988, vem sendo apresentada como uma confirmação da enorme relevância de seu trabalho. É verdade que desde os anos 1990 a artista tem sido alvo de um crescente interesse, com mostras e retrospectivas importantes organizadas na Europa e no Brasil, acompanhadas de uma constante valorização de mercado, e que essa é sua primeira exposição em território norte--americano. Mas a mostra é bem mais do que um coroamento natural por parte de uma das mais prestigiosas instituições museológicas do mundo. Num claro esforço em aprofundar a reflexão so-bre esse legado, os curadores Luis Pérez-Oramas – responsável pelo núcleo de América Latina no MoMA e autor do projeto curatorial da 30a Bie-nal de São Paulo (2012) – e Connie Butler – atual-

Maria Hirszman

Arte

A relevância de Lygia Clark

1

Page 89: Pesquisa FAPESP 221

PeSQUISA FAPeSP 221 | 89

Lygia Clark vestindo Máscara abismo com tapa-olhos, 1968. Tecido, elásticos, bolsa de náilon e pedra

mente curadora-chefe do Hammer Museum (Los Angeles) – esmiuçaram a obra de Lygia, deixan-do evidente por que a artista é um caso raro na cena internacional da segunda metade do século XX. Afinal, ela estabelece a partir do interior da criação artística um profundo questionamento e ruptura dos limites da representação estética; desestabiliza os cânones, questiona a noção de arte e introduz aí uma dimensão humana, o que a coloca no centro do processo de reflexão sobre os desdobramentos, limites e superações da arte moderna e contemporânea.

A mostra segue uma ordem cronológica e se arti-cula em torno de três blocos principais: as pinturas iniciais e o abstracionismo; o envolvimento com o neoconcretismo; e as experimentações sensoriais e ligadas ao campo da psicoterapia. O primeiro grupo reúne os trabalhos do fim dos anos 1940, quando Lygia estuda sob a orientação de Burle Marx, e início dos 1950 – período em que mora em Paris, frequenta o ateliê de Fernand Léger e desenvolve um profundo vínculo com a obra de Piet Mondrian, influência central em sua trajetória. Trata-se ainda, nas palavras de Connie Butler, do “clássico treino do legado da influência europeia”.

A partir daí são apresentados vários momen-tos-chave em seu percurso, como a passagem do estudo do movimento centrífugo das escadas pa-ra a construção geométrica e abstrata da forma; a intensa e rápida participação em movimentos como o Grupo Frente e o Movimento Neocon-creto; a descoberta da linha orgânica, em meados dos anos 1950, quando expande radicalmente a pintura para além do limite da moldura; o intenso diálogo com a arquitetura e o estudo do espaço (“o que eu quero é compor um espaço e não com-por dentro dele”, dizia); o questionamento cada vez mais profundo do estatuto do objeto de arte, do artista e do espectador; até chegar ao que ela mesma define como “o estado de arte, sem arte”.

Apesar dessa sucessão temporal, não se trata de um modo meramente evolutivo de mostrar um percurso das pinturas ainda figurativas do final dos anos 1940 até os experimentos terapêuticos dos anos 1970 e 1980. Adotando como estratégia eliminar as divisões entre os espaços expositivos e promover um diálogo entre obras de diferentes mo-mentos de sua produção, os curadores enfatizaram os nexos internos – formais e conceituais – entre os diferentes grupos de obras. “Nossa proposta foi olhar para Lygia Clark simultaneamente de ma-neira progressiva e regressiva”, explica Oramas.

Um dos principais pontos de partida da dupla foi deixar claro que não compartilham da ideia – segundo eles canonizada pela interpretação corrente e baseada na leitura crítica de Ferreira Gullar – de que haveria dois momentos estan-ques na produção de Lygia, um artístico e outro simplesmente terapêutico. Seria portanto um

equívoco apresentar uma fratura, considerar sua trajetória como proveniente de duas pessoas es-téticas distintas. “Não importa quão radicalmente distinto seu trabalho possa ser do fenômeno que usualmente chamamos (ou chamávamos) de arte, ele permanece parte da arte”, escreve o curador.

Vista em termos museológicos, a crescente radi-calidade da artista, sobretudo no caso dos objetos transicionais e proposições relacionais desenvol-vidos em especial a partir de 1976, quando inicia seu trabalho terapêutico, é um desafio. Afinal, como apresentar dentro de um museu experiên-cias que claramente rompem com a noção de obra de arte como objeto final, único, a ser observa-do passivamente? Objetos de uma simplicidade impressionante, feitos de sacos plásticos, pedras ou elásticos e que foram pensados não como obra final, mas como ferramentas de transição que buscam estimular uma maior sensibilidade e li-bertação criativa, que servem para promover um mergulho na subjetividade, libertar o que Lygia chamava de “fantasmagorias do corpo”? Fo

toS

1 T

ho

MA

s g

riE

sEL

© 2

014

Th

E M

usE

uM

of

Mo

dEr

N A

rT

2 s

Erg

io g

ErA

rd

o z

ALi

s, 1

98

6 /

Co

rT

Esi

A A

sso

CiA

çã

o C

uLT

ur

AL

“o M

uN

do

dE

LYg

iA C

LA

rk

”, r

io d

E jA

NEi

ro

2

Page 90: Pesquisa FAPESP 221

90 | julho DE 2014

Um aspecto interessante dessa retrospectiva do MoMA é que ela parece ter sabiamente apro-veitado as experiências anteriores de mostrar a produção de Lygia. Nas duas últimas décadas sua obra tem sido objeto de retrospectivas e partici-pações especiais em eventos internacionais e o tema sobre a dificuldade de expor seu trabalho volta e meia vem à baila. Muitas críticas foram feitas à tendência em fetichizar as ações expe-rimentais, condenando os objetos de ativação à imobilidade das vitrines, ou em transformá-las em uma performance vazia, um jogo lúdico que esteriliza o caráter transformador pretendido pela artista. Desta vez a dificuldade é assumida e enfrentada a partir de diferentes estratégias, como o uso generoso de réplicas e facilitadores especialmente treinados no espaço expositivo, a realização de uma série de workshops, bem co-mo a criação de um programa dentro do proje-to MoMA Studio para que os visitantes possam explorar alguns objetos transicionais com maior tranquilidade e a concentração necessária.

reCePçãoSe obras como Bichos (ela fez mais de 70 deles) e as pequeninas maquetes feitas com caixas de fósforo (estruturas de caixas de fósforo) parecem ter encantado a crítica de maneira unânime, e as pinturas iniciais mereceram uma admiração distanciada, a reação aos objetos relacionais que Lygia cria a partir de meados da década de 1970 como forma de estabelecer um vínculo afeti-vo, libertário e terapêutico, com seus pacientes, parece trazer à tona reações mistas. Segundo o

curador, enquanto tais experiências parecem fascinar uma parcela do público interessada em arte-terapia e estética relacional e reafirmam a coerência e radicalidade de Lygia para um pú-blico já acostumado com as dinâmicas internas à arte latino-americana do período, um segmen-to do público ainda estreitamente vinculado à ideia de arte como espetáculo se espanta. Foi o caso, por exemplo, da crítica Ariella Budick, do Financial Times (FT), que resumiu de maneira rude a impressão que a mostra lhe causou: “A artista brasileira progrediu de uma abstração afetadamente modernista à improvisação con-fusamente hippie”. A censura foi respondida em tom sarcástico e direto por Simon Watson, do Huffington Post, para quem a colega do FT demonstrou “a pior sorte de provincianismo” e não compreendeu o enorme tour de force da exposição. Ou de forma indireta pela pesquisa-dora espanhola Estrella de Diego, que afirma em

1 Trepante, versão 1, 1965. Alumínio, dimensões variáveis (aproximadamente 263 x 146 cm)

2 Relógio de sol, 1960. Alumínio com pátina dourada, dimensões variáveis (aproximadamente 52,8 x 58,4 x 45,8 cm)

1

2

Foto

S 1

joN

Es

bEr

gA

MiN

/ C

or

TE

siA

Ass

oC

iAç

ão

Cu

LTu

rA

L o

Mu

Nd

o d

E LY

giA

CL

Ar

k, r

io d

E jA

NEi

ro

2 M

oM

A–N

oV

A Y

or

k. d

oA

çã

o d

E pA

Tr

iCiA

ph

ELp

s d

E C

isN

Ero

s EM

ho

MEN

Ag

EM A

rA

fAEL

ro

MEr

o /

Co

rT

Esi

A A

sso

CiA

çã

o C

uLT

ur

AL

o M

uN

do

dE

LYg

iA C

LA

rk

, rio

dE

jAN

Eir

o

Page 91: Pesquisa FAPESP 221

PeSQUISA FAPeSP 221 | 91

texto publicado no El País que a mostra alcança uma “coerência comovente”.

Tal embate serve como uma luva para ilus-trar a ideia muitas vezes expressa por Oramas da importância de uma revisão da historiografia hegemônica, em busca de uma maior incorpora-ção das experiências latino-americanas. Segundo ele, os brasileiros entenderam melhor a tradição construtiva europeia e apresentam “uma nova chave para o entendimento entre o pensamento geométrico e a arte conceitual, uma vez que a arte americana saiu do expressionismo abstrato diretamente para o minimalismo”. Essa maior abertura já se faz sentir na mostra permanente da coleção do museu e também em projetos pa-ralelos como o de tradução para o inglês da obra do crítico Mário Pedrosa, autor de uma das mais precisas definições da obra de Lygia Clark como um “exercício experimental da liberdade”.

CAMInHAndoComo explica Connie Butler em seu texto, tal construção parece sintetizar o caráter profun-damente revolucionário de obras como Cami-nhando, momento crucial na trajetória de Lygia e que adquire grande centralidade nessa retros-pectiva. Ao dar ao espectador uma simples fita de Moebius de papel e uma tesoura, propon-do que ele recorte essa fita transversalmente, transformando-a em linhas cada vez mais finas, ela promove uma mudança fundamental na sua relação com o objeto de arte, deslocando-o da função de espectador para a de agente. O ato de

cortar exige escolhas e transforma um gesto ne-gativo (corte) em produtor de matéria corpórea (os restos de papel que se acumulam desordena-damente, quase como uma escultura aleatória). Novamente a relação entre a linha e o espaço se impõe, da mesma forma que em outros núcleos importantes de trabalhos. A pessoa (não mais o “autor”) realiza uma operação de corte, “mas o resultado é aditivo, uma prodigiosa acumulação e multiplicação da diversidade material contida na unidade do plano”, acrescenta Oramas.

Caminhando se constitui assim como uma me-táfora desse traçado tênue e persistente de ques-tionamentos que costura os quase 40 anos de trabalho de Lygia. Pode-se pensar que a ênfase nos grandes momentos e fases poderia dar uma falsa impressão de genialidade, de lampejos cria-tivos que iluminam sem grande esforço. Talvez por isso um dos maiores méritos da exposição do MoMA seja exatamente o de demonstrar, por meio da grande quantidade de trabalhos e de um conjunto impressionante de estudos, maquetes e esquemas compositivos, que cada passo, ataque ou expansão dos limites decorre não apenas de um espírito radical, mas também do esforço de uma pesquisa incansável em torno daqueles que considerava seus temas: o espaço e o tempo. n

3 Lygia Clark em seu ateliê

trabalhando em Arquitetura

biológica II. Cité internationale des

Arts, paris, 1969

4 Vista da exposição Lygia

Clark: The Abandonment of

Art, 1948-1988

5 Ping-pong, 1966, em uso. bolas de

pingue-pongue e saco plástico

3

4

5

3 A

LéC

io d

E A

Nd

rA

dE

/ C

or

TE

siA

Ass

oC

iAç

ão

Cu

LTu

rA

L o

Mu

Nd

o d

E LY

giA

CL

Ar

k, r

io d

E jA

NEi

ro

4 T

ho

MA

s g

riE

sEL

© 2

014

Th

E M

usE

uM

of

Mo

dEr

N A

rT

5

Co

rT

Esi

A A

sso

CiA

çã

o C

uLT

ur

AL

o M

uN

do

dE

LYg

iA C

LA

rk

, rio

dE

jAN

Eir

o

Page 92: Pesquisa FAPESP 221

92 | julho DE 2014

Para Vladimir Safatle

Você pensa sobre o seu trabalho, sobre os artigos que não escreveu, sobre os artigos que escreveu, sobre o livro que não con-

tinuou lendo, sobre as duas horas de intervalo entre as duas reuniões. Sobre como os seus dias são iguais. Sobre como todos os dias talvez sejam apenas um. Um dia que não acaba. Você pensa so-bre como tudo isso parece natural. Sobre como a rotina produziu um calo que não te permite mais reconhecer o intolerável. Pensa cada vez mais rápido. Aquilo que vinha em frases inteiras – “o livro que não continuei lendo por ter encontrado uma pequena mancha de café sobre a frase ‘what Schlegel calls a philosophy for man’” – agora se apresenta em palavras soltas: lazer, modernida-de, automação, banalizing, nature, destination, humanity, tudo cada vez mais rápido. Palavras condensadas. Sobrepostas. Se embaralhando cada vez mais rápido, se embaralhando, até você estar perto do chão, em queda. Um corpo que sempre pareceu estar em queda, agora finalmente en-contrava o chão. Era um alívio. Finalmente, você tinha chegado a algum lugar: o chão. E as pala-vras eram: infinite, dialogue, hard-working. No chão. O espaço que o seu corpo ocupou no chão dividiu a multidão entre os que passavam pela esquerda do seu corpo e os que passavam pela direita do seu corpo. Ninguém parou. A multi-dão era como um fluido que precisava continuar escoando, independentemente do obstáculo. O obstáculo apenas representava uma bifurcação no caminho. Ninguém vai parar. A multidão precisa escoar. Escoar. Escoar. No momento, em que te restam algumas palavras em inglês e a visão dos sapatos gastos dos outros, você percebe que não sabe mais viver. Alguma coisa fraturou em você.

Alguma coisa fraturou em você antes mesmo da queda. A sensação de pertencer a alguma coisa e de estar no mundo está falhando. As portas do trem se fecham, as pessoas desembarcam e falam cada vez mais alto... Sobre trabalho, sobre dinhei-ro, sobre lazer, sobre outras pessoas. Os sons pare-cem cada vez mais distantes, ainda que cada vez mais próximos, ainda que perguntando: “Você está bem?”. Nenhum daqueles sons se referia mais a você. Sobretudo, quando se referiam a você. Você está no chão. Você não sente nenhuma dor. Você não teria nenhum problema para se levantar. Mas você não se sente mais capaz de seguir, de agir, de fazer tudo como antes. Você só quer esperar, até não ter mais o que esperar. Você não quer mais avançar como antes. Você não quer mais avançar. Você chegou. Os artigos que você não escreveu, os artigos que você escreveu, o livro que você não continuou lendo, as duas horas de intervalo, a queda. Esta sensação seria consequência de uma combinação inoportuna de acontecimentos? Se você tivesse terminado de ler o livro alguma coisa mudaria? Por que alguma coisa se quebra assim? Por que alguma coisa se altera? Por que alguma coisa se desfaz? É triste e ridículo como usar um chapéu de burro: você não sabe. Você não sabe e é absolutamente incapaz de formular respostas. Você rompeu com o seu conhecimento anterior. Você é capaz apenas de formular perguntas. Per-guntas que você não será capaz de responder. Se te perguntassem quem é você, antes da queda, vo-cê responderia automaticamente: sou professor. Mas agora você não faz mais nada, portanto você não é mais nada. Um grupo de homens te levan-ta do chão. Você não quer dar o próximo passo. Você chegou. Tenta balbuciar algumas palavras:

conto

Desaprendendo a ser humanoDaniela Lima

Page 93: Pesquisa FAPESP 221

PESQUISA FAPESP 221 | 93

Daniela Lima é escritora e jornalista, autora de Anatomia (Multifoco, 2012) e Sem importância coletiva (e-Galáxia, 2014).

também é obsceno, você também está escoando. Você também gagueja. Gagueja segurando um pacote. Um pacote que foi dado a você. Um pa-cote que vai explodir. Você caminha pelas ruas e tudo continua existindo demais, como se final-mente os prédios estivessem fixos no chão e as pessoas caminhassem com os pés nas calçadas. Tudo parece ligado a alguma coisa. Tudo parece ligado a você. Tudo é uma massa só. Uma massa visível. Escoando. Existindo. O sangue, as pes-soas, as nuvens, tudo continuava a escoar. Você é eles, agora que você não é mais como eles. No talent for science, but for philosophy. No talent for philosophy, but for poetry. No talent. Você se-guia. Você seguia porque o seu sangue escoava. Você seguia sabendo que toda a massa interliga-da a você estava escoando. Você seguia sabendo que estava sendo aniquilado a cada passo. Você seguia sabendo que poderia correr em direção à aniquilação. Você corria por não precisar mais prolongar a sua existência. Modernidade, auto-mação, banalizing, nature, destination, humanity. Agora que você fervilhava de existência, precisava correr em direção à aniquilação. Agora que você tinha visto as coisas nuas, precisava explodir. Seu sangue escoava. Seu sangue precisava parar de es-coar. Tudo precisa parar. Explodir. Tudo precisa ver, como se fosse possível, a partir da sua morte, fazer surgir um olho, que seria o olho dessa mas-sa interligada que escoava. Você pensa em tudo escoando. É repugnante. É repugnante demais. É intolerável. Você explodiria o pacote. Neste dia, como em todos os outros, seria o seu fim.

fuzilamento, insatisfação, poetry, historical. Você está caminhando sem caminhar. Você está sendo conduzido. Você está sendo conduzido de novo. Eles dizem e você entende: e os que saquearam o hotel? E os que mataram o dono daquela fábrica? E os que envenenaram cavalos? E os que entraram em greve? Você ouve. Você é uma bifurcação. Vo-cê não é reacionário. Você não é subversivo. Ou é? Você gagueja. Você não é mais formado. Você não é mais formador. Você não é mais ético. Você é a deformação irredutível de você mesmo. Vo-cê ouve. Você vê. Você vê e ouve as coisas nuas. É obsceno. É obsceno ver as coisas nuas. É obs-ceno ver aquilo que você foi treinado para não ver durante a sua vida inteira. Você se lembra da primeira comunhão, do primeiro cigarro, da primeira mulher, da primeira... Você se lembra. Tudo aquilo, que agora parecia outro, sempre foi você. Sempre esteve lá. Mas agora a camada que fazia de você um homem comum foi descolada. Você segue. Você segue enquanto tudo se amplia, se dilata, escoa. Você segue enquanto a rigidez da matemática, da gramática e da lógica desapare-ce. Enquanto as leis da física desaparecem. Todo aquele universo invisível que parecia claro, quan-do você desenhava um vetor numa folha de papel, desaparece. Homem, fragments, morte, ambiguity. Tudo aquilo passa a incomodar. Tudo aquilo que não incomodava passa a incomodar. As fábricas, os bancos, as empresas de cartão de crédito: tu-do incomoda. Tudo te atinge. Na cabeça. Tudo passa a existir demais. A existir absolutamente. Você, homem comum, treinado para não existir e para não notar a existência das coisas, agora existe. Existe demais. O seu novo modo de estar no mundo pode ser definido assim: demais. Você

pe

dr

o f

ra

nz

Page 94: Pesquisa FAPESP 221

94 | julho DE 2014

resenhas

ed

ua

rd

o c

esa

r

82) Entretanto, tomando de empréstimo a E. J. Mishan uma bela fábula (p. 89), Serra mais adian-te deixa claro que em sua visão não há um evento decisivo, mas a coincidência de múltiplos eventos na determinação dessa história: o golpe e a longa escuridão que a ele se segue.

Mas é preciso destacar que se trata de um livro de memórias, e, nesta condição, jamais rejeita, ao contrário, inclui fortemente sem nenhuma conces-são a tentações piegas todas as nuances afetivas que integram e recobrem suas lembranças e rememora-ções. O fio condutor da narrativa memorialística é a experiência vivida por Serra, do começo de 1964, ainda que haja necessárias incursões a tempos an-teriores para dar força à urdidura da história que vai tecendo, até maio de 1977 – quando finalmente retorna ao Brasil, depois do longo exílio em duas etapas e em diferentes países, com o entremeio do aterrador pesadelo vivido num segundo golpe, o do Chile, em setembro de 1973. Nove capítulos enfeixam todo esse percurso e as profundas trans-formações na vida do narrador/personagem com títulos inspirados: Cinquenta anos esta noite; Na UNE do Flamengo; Sem pátria vagando; O Brasil, desde longe; Clandestino no Brasil; A família chi-lena e a felicidade da formação; Socialismo sem empanadas e vinho; Tempos brutos, tempos sór-didos; Exilado ao quadrado e O regresso.

Ancoradas nesses marcos, as páginas de Cin-quenta anos esta noite fluem literariamente e de forma admirável das descrições mais gerais e das análises objetivas para as experiências particula-res mais sensíveis. Entrelaçam épocas e transitam à vontade por entre os anos, indo e voltando com elegância em favor da limpidez da história que contam. Apresentam e entrecruzam centenas de personagens, reconhecem em vários deles dimensões heroicas, mas, com frequência maior, oferecem exemplos de profunda solidariedade, amizade e coragem. Simetricamente, há também o outro lado das coisas: histórias de covardia e comportamentos torpes.

Para quem não viveu 1964, a narrativa de Serra recria com mestria a ambiência dos meses pré--golpe. Mostra uma grande importância política, hoje mal suspeitada, de instituições como a UNE, a União Nacional dos Estudantes, tão próxima do Executivo federal, financiada pelo governo

se o Serra político de um Brasil em processo de redemocratização é velho conhecido dos brasileiros, o José Serra que se revela neste

recém-lançado Cinquenta anos esta noite é um surpreendente e poderoso escritor-memorialista, além de notável personagem da trama dramática, às vezes macabra, que foi a ditadura brasileira dos anos 1964 a 1985. Trama, notemos para começar, que atravessa os limites territoriais do país, entra nos domínios dos vizinhos da América do Sul, tem lances decisivos jogados nas Américas Central e do Norte e peripécias que se espraiam longamente pela Europa e outras partes do mundo. Essa espa-cialidade tão ampla em que se desdobram os inu-meráveis dramas originados pelo golpe militar de 1º de abril de 1964 – data, aliás, enfaticamente mar-cada no livro – é apenas uma das características da ditadura para a qual Serra convoca o nosso olhar.

Na verdade, com um notável domínio narrativo, ele conduz a atenção do leitor para uma infinidade de dimensões e aspectos do objeto político e his-tórico que examina e reconstrói a partir principal-mente de sua inserção pessoal em acontecimentos que o compõem. Há lugar, assim, por exemplo, para uma avaliação das forças reacionárias que se mo-bilizaram para desferir o golpe, da sua base social de sustentação e para uma radiografia das fragili-dades intrínsecas e do espantoso amadorismo do esquema militar do governo de João Goulart no livro de Serra. Há espaço para a crítica incisiva aos diferentes grupos da esquerda em ação, com lugar especial para o Partido Comunista Brasileiro (PCB), o chamado Partidão, e às radicalizações inconse-quentes, tanto quanto para a autocrítica – Serra ressitua a Ação Popular (AP), partido que ajudou a fundar, no centro do debate político-ideológico do período. Há espaço para a denúncia contun-dente da impropriedade do pêndulo revolução/reforma que sempre orientou as opções históricas da esquerda dentro e além do país. Há até mesmo algumas linhas nas páginas de Cinquenta anos esta noite para interrogar até que ponto uma concilia-ção que num momento-chave não chegou a termo entre os dois mais poderosos partidos políticos da época pré-ditadura, o PSD e a UDN (Partido So-cial Democrata e União Democrática Nacional), o primeiro mais ao centro, o outro à direita, poderia ter mudado o rumo de nossa história recente. (p.

Primorosa reconstrução

Cinquenta anos esta noiteJosé serrarecord266 páginas, r$ 35,00

Mariluce Moura

Page 95: Pesquisa FAPESP 221

PesQUIsa FaPesP 221 | 95

e com recursos para sua sobrevivência, quando necessário, antecipados sem problema pelo Banco Nacional. Veja-se: “– Presidente, nós defendemos que o pedido do estado de sítio seja retirado (...) – Olha, jovem, não precisas te preocupar, porque antes de vir aqui já tomei providências para reti-rar o projeto do estado de sítio. Não deixem esta notícia circular, pois vou anunciar depois de ama-nhã (...) O presidente era João Goulart. O jovem, o presidente da União Nacional dos Estudantes (UNE), eu. Num domingo de outubro de 1963, num apartamento em Ipanema, estávamos uns oito dirigentes da Frente de Mobilização Popu-lar, a FMP. Ao abrir a reunião sigilosa, o deputa-do Leonel Brizola sugeriu que eu expusesse os motivos de nossa rejeição ao estado de sítio que Jango solicitara ao Congresso”. (p. 15)

Ele traz também à cena de forma intensa o clima tenso, sombrio, atravessado por pressá-gios e temores do dia do golpe e o desalento dos dias seguintes. E examina as esperanças e as su-cessivas derrotas de líderes civis do golpe e de outros políticos que a ele aderiram, acreditando que o calendário da eleição presidencial de 1965 seria mantido.

“CoMo voCês deIxaraM Isso aConteCer?” A embaixada da Bolívia foi o refúgio de Serra após o golpe e antes de conseguir o salvo-conduto para partir para o exílio. Ele relembra a partida: “Aquela quinta-feira, 2 de julho, foi estranha e melancólica (...) Revi meus pais, avós e tios num restaurante acanhado, feio e mal-iluminado, de comida insossa. Eram pessoas simples, marcadas pela imigração, que queriam se adaptar (...) Não compreendiam por que eu deveria deixar o Brasil às pressas, entre fugido e expulso”. (p. 101-2) La Paz foi a primei-ra parada. Depois de 80 dias e muitos esforços, conseguiu seguir para Paris. E uma das histórias curiosas que conta dos primeiros dias parisienses é a da cobrança estapafúrdia dos companheiros de partido. “Havia um grupo da AP em Paris – es-tudantes que estavam lá na época do golpe e me acolheram com afeto (...) Com o passar do tempo, as posições ficaram cada vez mais extremadas. Cresciam a indignação e a impaciência dos que estavam longe do Brasil durante o golpe. A co-brança tornou-se pessoal, como se pudéssemos

ter barrado a ditadura. Eu ouvia: ‘Como vocês deixaram isso acontecer?’”(p. 120-1)

O exílio de Serra tem um breve intervalo em 1965, mas ele é obrigado a sair outra vez. O Chile de Frei, mais adiante de Salvador Allende, é o destino e seu relato dá conta da formação de sua família, da re-de de novos contatos que vai estabelecendo, de sua formação como economista e dos estudos no campo das ciências sociais e da ciência política, que, nas memórias, lhe permitem discorrer sobre as ideias que vai amadurecendo, as teses que vai rejeitando, a visão de mundo que vai sofisticando. Ao relatar um trabalho desenvolvido com Maria da Conceição Ta-vares, por exemplo, Além da estagnação, ele observa: “Era difícil combater o determinismo esquerdista, envolvido sempre numa análise catastrofista das perspectivas da América Latina. Ele levava ao limite as contradições no processo de desenvolvimento, transformando-as em leis de bronze do capitalismo da periferia do sistema. A antiga polêmica entre Eduard Bernstein e Rosa Luxemburgo – reforma ou revolução – retornava sub-repticiamente”. (p. 196-7) Serra já se referira algumas vezes antes a esse dilema, a exemplo de quando relata (p. 122) um debate entre Vargas Llosa, Josué de Castro (Geografia da fome) e o jornalista francês Claude Julien, do Le Monde, em 1965. “A tese dominante na mesa era de que a Amé-rica Latina vivia uma situação pré-revolucionária, e que o caminho cubano da luta armada era a opção mais plausível – inclusive no Brasil, dizia Julien em seu estilo moderado e didático. Retomava-se o dilema que a esquerda criara no Brasil: reforma ou revolução.” (p. 122)

Uma das páginas mais dramáticas entre tantas em Cinquenta anos esta noite conta o momento em que Serra é solto, pode deixar o estádio nacional do Chile, pede uma ficha de telefone ao soldado que o acompanha e liga para um amigo dizendo que temia naquele instante ser vítima de uma armadilha. “A caminhada da porta do estádio até a primeira rua foi a mais tensa da minha vida. Enquanto andava, morbidamente me perguntava se a bala do fuzil, além de derrubar-me, doeria.” (p. 218-9) Depois é a breve estada na Itália, os anos de estudos e trabalho nos Estados Unidos, nas universidades de Cornell e Princeton e o retorno ao Brasil. A última frase do livro, não sem duas estocadas no PT: “Continuo na luta. Não sei viver de outro jeito”.

Page 96: Pesquisa FAPESP 221

96 | julho DE 2014

resenhas

dificações profundas na composição do impé-rio luso ainda é merecedora de investimentos qualificados como estes, sobretudo quando os mesmos resultam de enfoques interdisciplina-res, e que desgraçadamente são pouco usuais na academia brasileira e estrangeira. No entanto, em outros aspectos, este é um livro menos pujante. Em primeiro lugar, porque o seu conjunto é ex-cessivamente fragmentado, sendo sua unidade temática, em muitos cantos, apenas sugerida. Assim, há textos que não se relacionam com o dom João VI ao qual o título se esforça por con-ferir o caráter de elemento aglutinador, ou que o mencionam de modo muito residual e artificial; também há poucos esforços de fazer com que os textos dialoguem entre si. Em segundo lugar, tais textos são curtos, em geral introdutórios e indi-cativos, muitas vezes pouco mais do que papers acrescidos de algumas referências bibliográfi-cas. Finalmente, pode-se lamentar certa falta de zelo editorial da obra, que não fornece maiores informações sobre seus colaboradores ou mes-mo sobre o evento que a originou (mencionado apenas de passagem na Apresentação de Raquel Madanelo Souza).

De todas essas formas, positivas e negativas, o livro surge como paradigmático de mobilizações intelectuais e acadêmicas em torno de efemérides como a que dos dois lados do Atlântico evocou o ano de 1808. Por vezes, tais mobilizações convi-dam não especialistas em determinado tema a vi-sitarem-no e com ele efetivamente contribuírem, inovando campos do saber bem estabelecidos; em outras, dão maior visibilidade a pesquisas já em curso ou atualizam aquelas realizadas anterior-mente; finalmente, pode-se despender esforços efêmeros e pouco produtivos a comprometerem a unidade e convergência de diálogos intelectuais imprescindíveis. Para todos os efeitos, porém, Travessias é um convite, um roteiro e uma fonte importante para uma agenda de estudos que não apenas está longe de esgotar-se, como ainda pa-rece capaz de aproveitar-se da sazonalidade das efemérides. Que os 200 anos da Independência do Brasil, que se aproximam, o digam.

Comemorados em 2008 com um grande número de eventos, publicações e veicu-lações midiáticas, os 200 anos da chega-

da da família real portuguesa ao Brasil foram o pretexto para a reunião de especialistas brasi-leiros e portugueses de diversas universidades em um colóquio cujas comunicações se encon-tram agora reunidas em Travessias – D. João VI e o mundo lusófono, organizado por Paulo Motta Oliveira, professor do Departamento de Letras Clássicas e Vernáculas da Universidade de São Paulo. Divididas em cinco partes (sendo a última delas em homenagem a Maria Aparecida Santilli, com textos de Rosângela Sarteschi e Benjamin Abdala Júnior), as 23 contribuições que com-põem este volume são firmadas por acadêmicos de alto nível, a maioria da área de estudos literá-rios, que na interface entre literatura e história buscam um diálogo com temas e problemas que envolvem Brasil e Portugal no século XIX e, de alguma forma, dizem respeito à referida efemé-ride. São eles: Jorge Fernandes da Silveira, Rosa Maria Sequeira, Patrícia da Silva Cardoso, Tere-sa Martins Marques, Renata Soares Junqueira, Jorge Valentim, José Cândido Martins, Ernesto Rodrigues, Amílcar Torrão Filho, Anamaria Fi-lizola, Ida Ferreira Alves, Luís Bueno, Hélder Garmes, António de Andrade Moniz, Eduardo Vieira Martins, Mirhiane Mendes de Abreu, Si-mone Caputo Gomes, José Maurício Alvarez, Maria Lúcia Dias e Sérgio Nazar David, além dos supramencionados Oliveira, Sarteschi e Abdala.

Para além de suas próprias qualidades, tais au-tores apresentam focos específicos, uns mais, ou-tros menos originais, embora todos bastante rele-vantes: as imagens e representações construídas na historiografia e no romance em torno de dom João, sua corte e os acontecimentos de sua época, muitas delas ainda bastante atuais; a imprensa periódica, a literatura de viagem e científica, as cidades oitocentistas e os tratamentos que rece-beram de e/ou dispensaram a sujeitos históricos coevos; finalmente, diálogos literários entre Por-tugal, Brasil, África e Índia, de amplitudes geo-gráficas e temporais a atestarem sua importância.

Não há dúvida do quanto a história de Brasil e Portugal daquele conturbado e fundacional contexto de guerras contra a França e de mo-

A efeméride continua a render frutos

travessias – d. João vI e o mundo lusófonoPaulo Motta oliveira (org.)ateliê editorial336 páginas, r$ 53,00

João Paulo Pimenta

João Paulo Pimenta é professor livre-docente do departamento de História da FFLcH-usP. e

du

ar

do

ce

sar

Page 97: Pesquisa FAPESP 221

carreiras

PESQUISA FAPESP 221 | 97

perfil

Empreendedorismo precocepara Hélio rotenberg, do grupo positivo, investir em inovação é a fórmula do sucesso

O empreendedorismo entrou bem cedo na vida de Hélio Rotenberg, de 52 anos, presidente da Positivo Informática desde 1989 e do grupo Positivo, que atua no segmento de educação, desde 2012. “Aos 14 anos já dava aulas particulares e aos 18 abri o meu primeiro empreendimento, a Pattin, uma pista de patinação em Curitiba”, diz Rotenberg, formado em engenharia civil pela Universidade Federal do Paraná (UFPR) e com mestrado em informática pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-RJ). Quando terminou o mestrado, em 1987, voltou para a capital paranaense com uma dúvida: não sabia se faria doutorado

ou se começaria um negócio. Na dúvida, deu aulas no Departamento de Informática do Centro Federal de Educação Tecnológica do Paraná (Cefet-PR).

Uma propaganda na TV sobre o curso de informática das Faculdades Positivo – atualmente, Universidade Positivo – ajudou

na tomada de decisão. “Meu pai conhecia um dos professores, que me colocou para conversar com o professor Oriovisto Guimarães, um dos fundadores do grupo Positivo”, relata. “Em nossa primeira conversa expliquei o que era informática sem usar chavões ou termos técnicos e fui contratado.” Em 1988 começou a dar aulas e tornou-se o diretor do curso de informática. “Foi quando identifiquei uma oportunidade de vender computadores para as escolas que já compravam o nosso material didático”, diz. Após pesquisar o mercado, deu-se conta de que a criação de uma fábrica de computadores era viável e levou o projeto para os sócios.

rotenberg: da educação para o desenvolvimento de uma indústria de computadoresFo

to g

ru

po

po

sit

ivo

IlU

Str

ão

da

nie

l b

uen

o

Page 98: Pesquisa FAPESP 221

carreiras

98 | julho DE 2014

inovação

oportunidades no Paranáedital do senai sesi abre perspectiva para doutores em empresas

O estado do Paraná lançou, em parceria com a Fundação Araucária, instituição de fomento à pesquisa estadual, uma chamada para seleção de 13 pesquisadores com doutorado, que serão contratados por um período de 20 meses para trabalhar no desenvolvimento de projetos em indústrias. Esses projetos foram aprovados no Edital Senai Sesi de Inovação em 2013, em nível nacional, dirigido a empresas que pretendiam desenvolver e implementar inovação em produtos, processos, serviços ou tecnologias sociais. Os pesquisadores selecionados atuarão nas áreas de biotecnologia, celulose e papel, ciências biológicas, ciências exatas, design, engenharia elétrica, eletrônica ou de software, estilismo em moda, física, madeira e mobiliário, química, sensores eletroquímicos, tintas e revestimentos.

“A paranaense foi a primeira fundação de amparo à pesquisa a apoiar projetos do Senai com indústrias”, diz Sonia Regina Hierro Parolin, gerente de Serviços Tecnológicos e Inovação do Senai no Paraná. Os contemplados com bolsas de R$ 4.100 mensais começarão a trabalhar em 15 de julho. No processo de seleção foram avaliados o perfil acadêmico e profissional dos candidatos, suas produções técnico-científicas e experiência no desenvolvimento de projetos de pesquisa ou inovação em parceria com indústrias. Os prazos para avaliação dos currículos terminaram no dia 23 de junho, mas uma nova chamada foi lançada porque, dos 24 candidatos inscritos, muitos deles davam aulas em universidades em regime de dedicação exclusiva. As informações podem ser acessadas no site www.senaipr.org.br.

“Os candidatos devem estar comprometidos com, no máximo, 40 horas em sala de aula por mês”, ressalta Sonia Regina. Diferentemente das outras edições, o cronograma do edital 2014 terá fluxo contínuo no período que vai de 31 de março de 2014 a 23 de março de 2015, contemplando quatro avaliações. Esse novo formato pretende estimular a contratação de novos pesquisadores por empresas no Paraná. “A Fundação Araucária já se comprometeu a manter a iniciativa de dar bolsas para os novos projetos que forem aprovados.”

Dessa maneira, a empresa, um conhecido grupo educacional, partiu para uma área nova, que na época começava a dar os seus primeiros passos. Em maio de 1989 a Positivo Informática foi fundada e Rotenberg, aos 27 anos, assumiu o cargo de principal executivo da companhia.

O projeto de criação da empresa, segundo o seu relato, começou com uma reflexão simples: as mais de mil escolas conveniadas da metodologia Positivo podiam ensinar informática a seus alunos e os materiais didáticos mais adequados para isso eram os computadores. Então eles poderiam ser fabricados e vendidos para as escolas junto com a metodologia. “Conversei com um dos nossos professores e ele me garantiu que era simples montar computador”, diz. Ele aprendeu como fabricá-lo e fez um plano de negócios para vender 30 computadores por mês a um preço equivalente hoje a R$ 15 mil. “Atualmente, vendemos mais de 200 mil equipamentos em um mês”, diz Rotenberg, que quando tem tempo livre gosta de dedicá-lo à leitura, a bons filmes, à família e a amigos. Para o executivo, a sua formação acadêmica foi fundamental: “A academia me deu a base e a segurança necessárias para que eu empreendesse”.

Na sua visão, o grande desafio de todo líder empresarial atual é poder contar com os melhores talentos do mercado: identificá-los, atraí-los e retê-los. “A disputa pelos bons tende a ficar cada vez mais acirrada”, diz. Especialmente em uma empresa de tecnologia, outro desafio é não ficar obsoleto em meio a um cenário com cada vez mais produtos tecnológicos. “Pesquisar e investir em inovação é a fórmula do sucesso”, afirma. Il

USt

rA

çã

o d

an

iel

bu

eno

Page 99: Pesquisa FAPESP 221

_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.brclassificados

ciência em tempo real

Na edição on-line você encontrará vídeos, podcasts e mais notícias. Afinal, o conhecimento não espera o começo do mês para avançar.

o conteúdo de pesquisa fapesp não termina aqui.

Visite www.revistapesquisa.fapesp.br e se cadastre para receber o boletim.

Acompanhe também: @ pesquisafapesp no twitter e a nossa página no facebook.

para quem anuncia

pesquisa fapesp proporciona falar

com um leitor

qualificado, formador

de opinião

e que decide.

para quem lê e assina

pesquisa fapesp traz, todo mês, as

mais atualizadas notícias

sobre pesquisa científica

e tecnológica nos vários

campos do conhecimento.

para assinar 11 3087-4237 [email protected]

para anunciar 11 3087-4212 [email protected]

www.revistapesquisa.fapesp.br

Page 100: Pesquisa FAPESP 221

Uniscience do Brasil30 anos de confiança e seriedade

www.uniscience.com.brCurta nossa páginano facebook

Siga-nos no [email protected]

T. +55 11 3622.2320F. +55 11 3622.2323

Conheça também nossa Loja Virtual

Fique por dentro das promoções incríveis quepreparamos e encontre os melhores produtos eequipamentos para o seu laboratório!

www.uniscience-shop.com.br

Novid

ades

Equipamentos coma marca Uniscience

Visite agora nosso site

e conheça outros

e q u i p a m e n t o s e

produtos que seu

laboratório necessita.

Leves e ergonômicas, garantemamostragem exata e precisa nadistribuição de volumes de líquidos

PIPETADORES E MICROPIPETAS

BANHO SECO

BANHO SECO

HOMOGENEIZADOR

SHAKERS DIGITAIS E ANALÓGICOSCompactos e com agitação suave

VORTEX E AGITADOR DE PLACASIdeais para homogeneização de amostras em microtubos ou placas

CENTRÍFUGASModelos para centrifugaçõesde baixa e alta rotação

0 à 100°C

Ambiente à 100°C