Polyteck | Edição 14

24
combustíveis mais Um novo polímero que forma megasupramoléculas espontaneamente consegue reduzir o risco de explosões ao aumentar o tamanho das gotículas de combustível formadas durante um impacto. Leia na página 11 DIAGNÓSTICO dispositivos que levam tecnologia de ponta para fora dos laboratórios página 3 INTERNET DAS COISAS um mundo com bilhões de máquinas online está mudando a internet página 17 META-ANALYSIS combining different studies gives a new grasp on what is really going on page 8 Distribuição Gratuita - nº 14 | Out / Nov 2015 seguros

description

Leia nesta edição da Polyteck sobre como um novo polímero que forma megasupramoléculas espontaneamente consegue reduzir o risco de explosões ao aumentar o tamanho das gotículas de combustível formadas durante um impacto. Veja também uma série de artigos onde explicamos como bilhões de máquinas conectadas estão modificando a infraestrutura da internet, coletando dados detalhados sobre nossas ações diárias e fornecendo informações que nos possibilitam adquirir conhecimento sobre o mundo e nós mesmos. Aproveite também para ler sobre tecnologias para diagnóstico no ponto de atendimento e a técnica estatística de meta-análise.

Transcript of Polyteck | Edição 14

Page 1: Polyteck | Edição 14

combustíveis maisUm novo polímero que forma megasupramoléculas espontaneamente consegue reduzir o risco de explosões ao aumentar o tamanho das gotículas de combustível formadas durante um impacto.Leia na página 11

DIAGNÓSTICOdispositivos que levam tecnologia de

ponta para fora dos laboratóriospágina 3

INTERNET DAS COISASum mundo com bilhões de máquinas

online está mudando a internet página 17

META-ANALYSIScombining different studies gives a

new grasp on what is really going onpage 8

Dist

ribui

ção

Gra

tuita

- nº

14

| Out

/ No

v 20

15

seguros

Page 2: Polyteck | Edição 14

Comece a construir sua carreira internacional

3° melhor ensino superior do mundo

Aulas ministradas em inglês

Bolsas de estudo para brasileiros

www.nesobrazil.org

ad_21x29,7cm.indd 1 2/8/15 19:59

Page 3: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 3

Tecnologia para diagnóstico no ponto de atendimento

Uma das tendências no cam-po da tecnologia para equi-pamentos eletromédicos é

o desenvolvimento de aparelhos que permitam realizar testes de análises clínicas de forma rápida e descentra-lizada. São aparelhos feitos para rea-lização de testes in vitro no ponto de atendimento ao paciente (PoC, abre-viado do inglês point of care), como consultórios médicos, postos de saú-de ou até mesmo em ambulâncias, residências ou locais atendidos por agentes comunitários de saúde. Este tipo de tecnologia evita que o pacien-te tenha que se deslocar até um la-boratório de análises clínicas ou que amostras biológicas coletadas pre-cisem ser enviadas a um laboratório para a realização do exame.

Como é realizado no próprio local e o resultado sai em questão de minutos, o teste PoC apresenta uma extensa lista de benefícios: o médico pode completar o diagnóstico e pres-crever o tratamento durante a consul-ta, ou o agente comunitário de saúde pode realizar prontamente a tria-gem e o encaminhamento de pacien-tes para tratamento. Em certos casos, o próprio paciente pode controlar de forma mais precisa seu tratamen-to, como no caso de diabéticos que precisam controlar o nível de glicose no sangue. Os testes PoC podem ser muito úteis até no cenário hospitalar,

Testes e aparelhos eletromédicos possibilitam a realização de análises clínicas de forma rápida e descentralizada e levam

tecnologia de ponta para fora dos laboratórios

Por Daniel Cobra e Alexandre Dias Tavares Costa

pois mesmo havendo a disponibili-dade de um laboratório de análises clínicas, a obtenção mais rápida do resultado na própria UTI ou sala de emergência pode ser decisiva em si-tuações críticas. No caso do diagnós-tico de choque séptico, por exemplo, a taxa de mortalidade aumenta sig-nificativamente a cada hora de atra-so no início do tratamento. Assim, a rápida identificação do agente infec-cioso pode ser decisiva para a sobre-vivência do paciente.

Os materiais biológicos mais co-muns para o teste são sangue ou uri-na, mas saliva ou outros materiais também podem ser utilizados confor-me o ensaio. O alvo bioanalítico, que é o objeto da análise, pode ser uma

Funcionamento de um teste rápido de fluxo lateral

A amostra é colocada no poço e, em seguida, é adicionada a solução tam-pão. Os anticorpos da amostra fluem lateralmente pela fita de teste e ligam--se ao conjugado.

Se a amostra do paciente for reagen-te os anticorpos ligados ao conjugado vão se ligar aos antígenos imobilizados na área de teste, resultando no apa-recimento de uma linha colorida. As frações do conjugado que não se liga-ram na área de teste serão reveladas na área de controle, produzindo uma li-nha vermelha. Essa linha sempre deve estar presente, pois indica que houve perfeita migração da amostra na tira de reação.

Ilustração: BioManguinhos/FIOCRUZ – Instruções de Uso testes rápidos para sífilis

Page 4: Polyteck | Edição 14

4 | Revista Polyteck | polyteck.com.br

proteína (enzimas, anticorpos e cer-tos hormônios), metabólitos (glico-se, colesterol, triglicerídeos, creatini-na, amônia, ureia), ácidos nucleicos (DNA ou RNA), células (anticorpos, hemácias normais ou falciformes, cé-lulas tumorais circulantes), micro or-ganismos patogênicos (vírus, bacté-rias, parasitas, fungos) e outros.

Evolução dos tEstEs PoCA evolução dos testes PoC pode

ser dividida em três gerações. A pri-meira consistiu dos chamados testes rápidos para diagnóstico (em inglês Rapid Diagnostic Tests – RDTs), ba-seados principalmente em imuno-cromatografia em tiras reagentes de fluxo lateral (em inglês, lateral flow), sem o uso de um equipamento adi-cional. O exemplo mais conhecido deste método é o teste para diagnósti-co de gravidez vendido em farmácias.

Já a segunda geração de testes PoC passou a empregar também apa-relhos eletromédicos, que precisam ser baratos, transportáveis, robustos e de fácil uso. Neste caso as tiras rea-gentes continuam a ser usadas, nor-malmente integradas a cartuchos descartáveis. Eles são então inseridos em uma leitora dotada de módulo de câmera embarcada e sistema de pro-cessamento digital de imagens. Ou seja, é possível realizar uma análi-se quantitativa das bandas reagentes, fornecendo rapidamente um resulta-do objetivo para o teste – diferente da análise visual subjetiva feita nos testes de primeira geração.

A segunda geração de testes PoC inclui também aqueles basea-dos na análise de ácidos nucleicos (em inglês nucleic acid tests – NATs). Tipicamente, em um NAT a amostra biológica é aplicada a um cartucho

descartável e este é inserido no apa-relho que controla as etapas de exe-cução do teste e mensura as reações, apresentando ao operador o resulta-do final. O cartucho é dotado de rea-gentes e elementos microssistêmicos, como biossensores e estruturas mi-crofluídicas, para a realização de uma complexa sequência de operações que pode incluir a mistura da amos-tra com reagentes, ciclagens térmicas, controle do tempo de reação, depura-ções e separação de alvos de análise.

Os sensores para detecção dos alvos podem estar integrados no car-tucho ou no aparelho, sendo mais comuns os sensores eletroquímicos (amperometria, potenciometria e im-pedanciometria) e ópticos (fluores-cência, luminescência, colorimetria de absorbância, ressonância plasmô-nica de superfície e espalhamento de luz). Há ainda sensores de tecnologia

4 | Revista Polyteck | polyteck.com.br

Tabela: ACOM/Fundação CERTI, adaptado de Pai et al., 2012

Page 5: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 5

Ponto de NecessidadeOutro conceito, menos utilizado, porém mais abrangente, é o de ponto de necessidade (em inglês, point of need), que inclui cenários que não são propriamente o local de atendimento do paciente, mas estão mais próximos deste do que um laboratório central, como é o caso, por exemplo, de laboratórios periféricos.

menos madura, como os magnéticos, os de ondas acústicas de superfície, os baseados em sistemas microeletrome-cânicos (MEMS) e outros. Exemplos de equipamentos já no mercado que fazem uso destas tecnologias incluem medidores de glicose e monitores de oxigenação sanguínea.

tErCEira gEração E dEsafiosRecentemente está surgindo

uma terceira geração de testes PoC que, no lugar de aparelhos eletromé-dicos, utiliza equipamentos eletrô-nicos presentes no dia a dia das pes-soas. Os telefones celulares são os preferidos nesta geração, pois podem ser acoplados a acessórios plug-in (aqueles que são conectados ao apa-relho) que permitem a realização do teste de forma rápida e precisa.

Os testes são tipicamente base-ados em detecção óptica, utilizando a câmera do celular para captura da imagem. Já o processador do apare-lho se encarrega da análise. No en-tanto, apesar de algumas provas de conceito já terem sido apresentadas, a validade clínica destes dispositi-vos PoC ainda não está claramente demonstrada.

Para alguns tipos de teste, a pre-paração automatizada da amostra no cartucho, dispensando a manipula-ção em tubos de ensaio, representa um desafio praticamente tão grande quanto a realização do teste em si. No diagnóstico molecular, por exemplo, o processo de preparação da amostra compreende as etapas de lise (ruptu-ra de células patogênicas para libe-ração do DNA), captura dos alvos de DNA, purificação para remoção de contaminantes que possam prejudi-car a detecção e, finalmente, a eluição

do DNA na solução que será utiliza-da para a realização do teste.

Um dos objetivos mais impor-tantes da pesquisa e desenvolvimen-to atualmente realizados na área é a execução de todas estas etapas em um cartucho microfluídico de manei-ra que a sensibilidade e especificida-de do teste não sejam comprometidas significativamente. Em poucas pala-vras, a sensibilidade de um teste está relacionada à capacidade do mesmo em detectar uma amostra positiva e a especificidade está relacionada à capacidade de identificação de uma amostra negativa. Ou seja, alta sensi-bilidade significa detectar concentra-ções mínimas do alvo (se a amostra é positiva, o teste irá detectá-la), en-quanto que alta especificidade signi-fica inexistência de reações cruzadas (se a amostra é negativa, o teste não mostrará um resultado falso positi-vo). Na área de diagnóstico em saú-de humana, um passo con-siderável foi dado pela empresa Cepheid, com sua pla-taforma para detecção de tuberculo-se GeneXpert. Esta platafor-ma utiliza um cartucho que realiza todas as etapas de prepa-ração da amos-tra e amplificação molecular do alvo genômico de forma au-tomatizada, identificando a presença da bactéria causadora da tuberculose e também uma pos-sível resistência a antibióticos.

PoC E doEnça dE ChagasPelo seu custo reduzido e pos-

sibilidade de uso em campo, os tes-tes e aparelhos PoC são particular-mente atraentes para uso em cenários de recursos limitados, como é o caso dos países em desenvolvimen-to. Por este motivo, o progresso nes-ta área vem sendo incentivado tanto pela Organização Mundial da Saúde como por órgãos governamentais de fomento e por entidades priva-das, como a Fundação Bill e Melinda Gates - por meio de seu programa Grand Challenges - e a Fundação XPRIZE - através de desafios como o Sensing XChallenge e o Tricorder XPrize.

Um exemplo recente de projeto nesta área é o PodiTrodi (Technology Platform for Point-of- Care

Protótipo do aparelho e cartucho desenvolvidos no Projeto PodiTrodi.Foto: poditrodi.org

Page 6: Polyteck | Edição 14

6 | Revista Polyteck | polyteck.com.br

Diagnostics for Tropical Diseases, em tradução livre Plataforma Tecnológica para Diagnóstico de Doenças Tropicais no Ponto de Atendimento), cofinanciado pelo Governo Brasileiro e pela Comissão Europeia. Este projeto consistiu em desenvolver o protótipo de um apa-relho e um cartucho microfluídico descartável para o diagnóstico da do-ença de Chagas. Esta doença tropical parasitária foi escolhida pela Fiocruz como alvo para o projeto por ser uma doença negligenciada que afeta de sete a oito milhões de pessoas, sobre-tudo na América Latina, e cujo ma-nejo clínico será facilitado pela dispo-nibilidade de um teste PoC.

O protótipo foi desenvolvido de maneira conjunta por pesquisadores da Unicamp, do CTI Renato Archer, da Fundação Oswaldo Cruz (através do Instituto de Biologia Molecular do Paraná, IBMP), da UFPR e da Fundação CERTI, juntamente com o Instituto Fraunhofer ENAS e ou-tras sete instituições e empresas europeias.

O teste desenvolvido no proje-to PodiTrodi combina, em um mesmo cartucho, um imunoensaio croma-tográfico e um teste NAT por reação em cadeia de polimerase (em inglês, polimerase chain reaction – PCR) em tempo real, a fim de detectar a pre-sença do parasita T. cruzi tanto na fase de infecção aguda inicial quan-to na fase de infecção crônica. Os re-sultados alcançados com o protótipo integrado mostraram o mesmo nível de especificidade e sensibilidade dos testes realizados separadamente, de-monstrando a viabilidade da prova de conceito com amostras reais. Embora se trate de um projeto de pesquisa es-pera-se que, num futuro próximo, um produto que possa ser efetivamente usado na erradicação desta impor-tante doença venha como resultado deste esforço de cooperação científica e tecnológica internacional. Os próxi-mos passos antes de este produto che-gar às prateleiras incluem validações laboratoriais com milhares de amos-tras e em diferentes ambientes de uti-lização (por exemplo, diferentes ní-veis de infraestrutura ou de instrução dos usuários).

Para saber mais

• Paul Yager, Gonzalo J. Domingo e John Gerdes. “Point-of-care diagnostics for global health.” Annu. Rev. Biomed. Eng. 10 (2008): 107-144.

• Gubala, Vladimir, et al. “Point of care diagnostics: status and future.” Analytical chemistry 84.2 (2011): 487-515.

• Pai, Nitika Pant, et al. “Point-of-care testing for infectious diseases: diversity, complexity, and barriers in low-and middle-income countries.” PLoS medicine 9.9 (2012): e1001306.

• Gessner, Thomas, et al. “Smart Systems Integration – trends in the field of smart medtech systems.” Smart Systems Integration, Amsterdam, 13 e 14 de março de 2013.

• Poditrodi, 2014. http://www.poditrodi.org

Alexandre Dias Tavares Costa é pesquisador especialista na Fundação Oswaldo Cruz (Fiocruz) e gerente técnico de projetos de P&D no Instituto de Biologia Molecular do Paraná (IBMP). É graduado em Biologia pela Unicamp, mestre em Biologia Molecular pela Unifesp e Ph.D. em Ciências Médicas pela Unicamp. Sua área de especialização é biologia molecular e nanotecnologia, e suas aplicações em testes diagnósticos e saúde pública.

Daniel Cobra é coordenador da área de Sistemas no Centro de Mecatrônica da Fundação CERTI. É graduado em Engenharia Elétrica pela Universidade de Brasília e Ph.D. em Engenharia Elétrica pelo MIT e em Engenharia Oceanográfica pela Woods Hole Oceanographic Institution (em co-tutela). Sua área de especialização é o Processamento Digital de Sinais e suas aplicações em medicina, telecomunicações, oceanografia, sistemas de áudio e vídeo, transmissão de energia e sensoriamento remoto.

Projeto CNPq Nº 590032/2011-9 e FP7 Nº 287770.

Fundação Centros de Referência em Tecnologias Inovadoras – Unidade EMBRAPII para Sistemas Inteligentes para Produtos Eletrônicos de Consumo e Produtos Eletromédicos. Os autores agradecem a contribuição de Camila Chiodi Braga Penha e Greice Keli Silva na revisão e ilustração do artigo.

Agradecimentos

Um mesmo cartucho combina um imunoensaio cromatográfico e um teste NAT por reação em cadeia de polimerase em tempo real, a fim de detectar a presença do parasita T. cruzi tanto na fase de infecção aguda inicial quanto na fase de infecção crônica.Foto: poditrodi.org

Page 7: Polyteck | Edição 14
Page 8: Polyteck | Edição 14

8 | Revista Polyteck | polyteck.com.br

Strength in Numbersthe power of meta-analysisMeta-analysis offers the research community and decision makers a

bird’s eye view of research in many domains.

By Avraham N. Kluger

The media often reports ‘inconsistent’ scientific findings in fields as different as climate control, medicine, and psychology, just to name a few. Exposure to these in-

consistencies could misguide people to disregard research when making decisions that may affect the wellbeing of so-cieties and the individual. However, they often are just reflec-tions of random fluctuations in results that are more likely to occur the smaller the sample size in the study is.

Let us consider a fictitious example. Five researchers used a sample of 100 employees each. Researcher 1 found that han-dwriting analysis has a small correlation, r = .10, with actual performance, and that this correlations is not statistically diffe-rent from zero (it is not significant, or the confidence interval placed around the result of .10 includes zero—the better way to consider this result). Would you use handwriting analysis to predict the performance of your workforce? Now suppose that Researcher 2 also did the same research and reported a simi-lar result of r = .07 (not significant).What would you do now? But Researcher 3 reported a significant correlation of r = .20, and Researcher 4 found a correlation of r = .00. Furthermore, Researcher 5 reported r = .13. In concert, would you conclude that the research is inconclusive?

This kind of inconsistencies can sometimes be modeled to improve understanding of a complex phenomenon. The best procedure available today to model the random fluctuation, to assess true inconsistency and to try to model the inconsis-tency is called meta-analysis.

Prior to the first step, the meta-analyst determines the metric for comparing all the studies. In our fictitious exam-ple, the metric is the correlation coefficient, r. Yet, it could be

a standardized difference between a mean of an experimental group and a mean of a control group on a variable of interest or an odd-ratio (e.g., of dying or not dying as a function of number of cigarettes smoked). It can also be in raw units (e.g., centimeters), percentages, or other quantities.

Meta-analysis has three basic steps. First of all, one de-termines the (weighted) average metric of all reported studies and estimate its confidence interval (its significance). Second, one estimates the true inconsistency (variance between studies) that cannot be attributed to study-to-study fluctuations resul-ting from sampling error (small-sample sizes). Third, if there are true study-to-study fluctuations, one tries to offer explana-tory variables and test their ability to explain the fluctuation.

Let us demonstrate meta-analysis with the fictitious exam-ple. Figure 1 presents the results of the five fictitious resear-chers. It shows the sample size for each researcher (100), the size of the reported correlation (at the cross of the horizontal line and the vertical line), and the confidence interval (shown by the width of the horizontal line). The size of the squares show the relative weight of each study (in our case they are identical). Figure 1 shows that for each of these studies, the confidence interval includes zero, except for Researcher 3. The results of the meta-analysis are presented with the diamond at the bottom. That is, the weighted average of all studies is .10 and the confidence interval does not include zero. Moreover, the results suggest that all the inconsistencies stem only from a small sample size in the original studies (test not shown here), and that the best estimate of the “real” relationship between handwriting analysis and performance is .10. The only thing that a decision maker now has to do is to decide whether a

Study

Fixed effect model

Resarcher 1Resarcher 2Resarcher 3Resarcher 4Resarcher 5

Total

500

100100100100100

−0.3 −0.1 0 0.1 0.2 0.3

Correlation

COR

0.10

0.100.070.200.000.13

95%−CI

[ 0.01; 0.19]

[−0.10; 0.29][−0.13; 0.26][ 0.00; 0.38]

[−0.20; 0.20][−0.07; 0.32]

W(fixed)

100%

20%20%20%20%20%

Figure 1. A forest plot of five fictitious studies where each researcher reported the same sample size (100), a correlation and the 95% confidence interval. The results of the meta-analysis are presented with the diamond at the bottom. That is, the weighted average of all studies is .10 and the confidence interval does not include zero.

Page 9: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 9

true positive correlation of .10 +/- .09 is meaningful enough to use it. That is, is .10 useful? If yes, is the lower bound of the confidence interval (.01) useful? The upper bound (.19)?

These questions must be answered with an expertise of subject matter. In some cases, correlation of .10 could be use-ful, in others not. If I would plan to use handwriting analysis for selecting employees, I would want to know what are the alternatives (which may have much better predictive power). Suppose a correlation of .10 is useful. Then I have to consider the fact that .10 is the best estimate of the correlation, but that the 95% confidence interval includes .01 which will not be useful. In this case, I will learn that more research is needed to increase the confidence in the mean (to reduce the confi-dence interval around the estimate of the mean).

Let me bring in a true decision I had to reach. My doc-tor told me to reduce salt intake because I have hypertension. Therefore, I searched in the internet “salt reduction hyper-tension meta-analysis.” I found a meta-analysis [1] of 24 ex-periments in which participants in the experimental group reduced their salt intake while the control group continued their normal diet. In some of the studies, there was no appa-rent effect of salt reduction on hypertension while, in others, there was an apparent effect. However, the combination of all studies, aggregating data over more than 3,000 patients, cleary shows that reducing salt intake lowers hypertension. Next I looked at the magnitude of the effect. Unfortunately, for me, reducing salt intake only reduces blood pressure on average by about 4 mm/Hg - not enough for me to bring back my blood pressure to normal levels. Thus, now I know that reducing salt intake may slightly help me, but will not be enough to solve my problem completely. This first step of the meta-analysis is the very least that every educated citizen needs to know to improve decision-making.

The second step involves estimating the existence of true variance, that is, the possibility that study-to-study fluctuations stem from both sampling errors and real, but unknown, diffe-rences among the studies. The differences among the studies could be in types of sample, procedures, measures and more. Going back to the meta-analysis of the salt reduction effect on hypertension, it was found that not all the variation among studies could be attributed to sampling errors. In such cases, the meta-analyst moves to the third stage and tries to explain the causes for the true variation.

In this step, the meta analyst tests hypotheses about

reasons for the study-to-study fluctuations. For example, in the meta-analysis on the effect of salt reduction on hyper-tension, the meta-analysts tested whether the results from tests with people with pre-existing hypertension were different from studies that sampled people with normal blood pressu-re. Indeed, the results suggest that the sample characteristics (with or without pre-existing hypertension) explained some of the study-to-study fluctuation. Specifically, in samples of participants with pre-existing hypertension who reduced the salt intake the blood pressure decreased by about 5 mm/Hg (95% confidence interval about 4 to 6) relative to their control groups. However, sample participants with normal blood pres-sure showed only 2 mm/Hg (95% confidence interval of about 1 to 4) of such a decrease, albeit, even the later was statistically significant (the lower bound of the confidence interval is about 1, not including zero). This part of the meta-analysis suggest that the more serious the hypertension is, the greater is the benefit of reducing salt intake, but even healthy individuals can gain some minor reduction in blood pressure. Therefore, such reduction levels in blood pressure of each individual are minor, but changing diet habit of the population may save lives.

Finally, let us consider other possible outcomes of me-ta-analysis. In one meta-analysis I have shown that althou-gh feedback improves performance on average, the between study variance was real and large, such that in 38% of the 607 experiments I reviewed feedback reduced performance. This changed the belief of many researchers that feedback is always beneficial. Moreover, in that meta-analysis I showed feedba-ck sign does not explain the study-to-study fluctuation, that is, both positive and negative feedback could damage per-formance. The later result led me to search for explanations in future experiment. That is, meta-analysis can expose new scientific questions.

Second, I meta analyzed studies linking a certain gene to personality. Initial reports created a lot of excitement about the possibility of finding such links. Yet, the meta-analysis showed that the average of 20 studies converges on zero and that there are no real study-to-study variation. That is, meta-analysis can help weed out some initially interesting results that could stem only from random fluctuation in small samples.

Finally, these days I am meta analyzing studies linking listening with any variable I can find. To my surprise, the links are extremely strong. For example, employees who report that their boss listens well tend to report that the boss is a people

A meta-analysis of 24 experiments on reduced salt intake, aggregating data over more than 3,000 patients, cleary shows that reducing salt intake lowers hypertension. However the results suggests that there are fluctuations due to the sample characteristics (people with pre-existing hypertension vs people with normal blood pressure).

Salt intake meta-analysis

Page 10: Polyteck | Edição 14

10 | Revista Polyteck | polyteck.com.br

C

M

Y

CM

MY

CY

CMY

K

Anuncio Meia Página.pdf 1 11/3/15 4:57 PM

leader (the average of 13 studies was r = .73) that their job satisfaction is high (11 studies and r = .55) and more. Thus, in such a case, a meta-analysis cannot only inform us about the average effect, but the size of the average effect can also inform us about extremely powerful consequences (of liste-ning, in this case).

In summary, meta-analysis offers the research commu-nity and decision makers a bird’s eye view of research in many domains. This view is less biased than the view that could stem from any single study and thus is recommended for every de-cision makers. I hope that you too will consult meta-analyses when you are about to reach important decisions, and perhaps consider using meta-analysis in your own field of study.

To replicate Figure 1, download the freely available R (programming language) and R Studio. Copy the following code to the upper left window of R Studio, press ctrl-A, and then Run.

install.packages(“meta”)

library(meta)

r <- c(.1,.07,.2,.00,.13)

N <- c(100,100,100,100,100)

Study <- c(“Researcher 1”, “Researcher 2”,”Researcher

3”,”Researcher 4”, “Researcher 5”)

metacor(r,N,studlab=Study,comb.random=False)

f<- metacor(r,N,studlab=Study,comb.fixed=TRUE, comb.

random=FALSE)

f

forest(f,hetstat=F)

To learn more

• He, F.J., J. Li, and G.A. Macgregor, “Effect of longer term modest salt reduction on blood pressure: Cochrane systematic review and meta-analysis of randomised trials.” BMJ, 346, pp 1325 (2013)

• Dina V. Dijk and Avraham N. Kluger, “Task type as a moderator of positive/negative feedback effects on motivation and performance: A regulatory focus perspective”, Journal of Organizational Behavior, J. Organiz. Behav. 32, 1084–1105 (2011)

• Avraham N. Kluger, “Are Listeners Perceived as Leaders?”, International Journal of Listening, 27(2), pp 73-84 (2013)

Avraham N. Kluger is a faculty member at the Organizational Behavior unit of the School of Business Administration at the Hebrew University of Jerusalem, Israel. His research demonstrated that feedback, even positive feedback, can be detrimental to performance. He has developed several listening tools including “Feedforward” (with Dina Nir), and now pursues questions about effective listening both academically and as a trainer, teaching people from diverse cultures to listen to one another.

Page 11: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 11

Combustíveismais seguros

O atentado terrorista de 11 de setembro de 2001 serviu de inspiração para um grupo de pesquisadores do Caltech desenvolver aditivos que evitam

que combustíveis entrem em ignição após uma colisão, reduzindo mortes e danos. A equipe criou um aditivo polimérico que forma megasupramoléculas espontaneamente e é capaz de evitar a formação de névoa inflamável durante

colisões, evitando assim a ignição espontânea ou forçada do combustível.

Por Raisa Jakubiak

Page 12: Polyteck | Edição 14

12 | Revista Polyteck | polyteck.com.br

Roger Williamson foi um piloto inglês de Fórmula 1 que morreu durante o Grande Prêmio da Holanda de 1973. As circunstâncias do acidente que vitimou

Williamson são terríveis: o pneu estourou e, devido à alta velocidade, o carro se arrastou por cerca de 275 metros até parar de ponta cabeça num muro de contenção. Devido ao atrito do tanque de combustível com o asfalto, a névoa de gasolina formada na colisão entrou em ignição e o carro se incendiou. Outro piloto, David Purley, desceu de seu carro e tentou virar o carro do amigo enquanto os organizadores e equipes de emergência apenas assistiam. A corrida conti-nuou normalmente. O acidente é até hoje lembrado como um dos piores da história da Fórmula 1.

Em 17 de julho de 2007, o Airbus A320 da TAM ope-rando o voo JJ3054, vindo de Porto Alegre, passou da pista do aeroporto de Congonhas durante o pouso em um dia chuvoso e colidiu com um depósito da mesma companhia do outro lado da rua. Todos os passageiros e tripulação morreram, além de 11 funcionários do depósito e um ta-xista que estava no posto de gasolina ao lado.

Na manhã do dia 11 de setembro de 2001, quatro avi-ões comerciais foram sequestrados nos Estados Unidos. Os dois Boeing 747 Jumbo que atingiram as Torres Gêmeas, em Nova Iorque, saíam de Boston com destino a Los Angeles. O voo 11 da American Airlines colidiu com a Torre Norte do World Trade Center às 8:46 da manhã en-quanto o voo 175 da United Airlines colidiu contra a Torre Sul às 9:03. Ambos os edifícios desmoronaram cerca de duas horas após as colisões. Apenas o colapso das torres fez 2606 vítimas, sendo 2195 funcionários do WTC, 343 bombeiros, 60 policiais e 8 membros de equipes médicas.

O que todos estes incidentes têm em comum é: a maioria das vítimas não sofreu ferimentos sérios devido ao impacto, mas morreu em decorrência do fogo. Williamson morreu asfixiado. Segundo investigações, o impacto da colisão do Airbus da TAM não foi grave, porém a maior parte das vítimas morreu carbonizada. As investiga-ções realizadas pelo National Institute of Standards and Technology sobre a queda das Torres Gêmeas chegaram à conclusão de que os prédios desabaram em consequência de danos estruturais nas vigas de aço, causados pelas altas

temperaturas decorrentes da ignição do combustível dos aviões. A energia liberada pela bola de fogo de cada Jumbo foi calculada em aproximadamente 50.000 MJ por andar por prédio – aproximadamente dez vezes a energia ciné-tica dos impactos, que foi estimada entre 4300-6300 MJ. A pressão gerada pela névoa queimando dentro do prédio era tão grande que deslocou blocos de concreto e explodiu janelas, arremessando escombros a altas velocidades que arrancaram o isolamento das colunas de aço da estrutura das torres. Isto resultou em incêndios simultâneos em vá-rios andares incidindo diretamente sobre as vigas de aço, com suprimento virtualmente ilimitado de oxigênio para alimentar a combustão. Centenas de pessoas morreram com o impacto direto das aeronaves contra os edifícios, porém o maior número de vítimas ficou presa e morreu com o colapso ou asfixiada. Em termos gerais, estima-se que o fogo seja responsável por 40% das mortes em aci-dentes aéreos.

Quem viveu o 11 de setembro sabe o quão chocan-te foi. O evento, porém, serviu de inspiração para um grupo de pesquisadores do Caltech (Californa Institute of Technology), em Passadena, Califórnia, desenvolver aditi-vos para combustíveis de aviação que não entrem em ig-nição após uma colisão. Segundo a professora do Caltech, Julie A. Kornfield, líder do Kornfield Lab, o episódio mar-cou tanto que fez com que o grupo aceitasse de imediato o pedido da Aeronáutica dos EUA para pesquisar e testar tal material.

O Kornfield Lab trabalha no desenvolvimento de po-límeros para soluções em diversas áreas, inclusive trata-mento de doenças oftalmológicas. Ao aceitar o desafio, eles precisaram estudar e desenvolver um aditivo que evitasse a ignição sem, no entanto, prejudicar os motores dos veícu-los ou a performance dos combustíveis. Tentativas seme-lhantes já haviam sido realizadas na década de 70, mas os polímeros desenvolvidos na época, apesar diminuírem os efeitos da ignição em névoa de combustíveis, não se mos-traram viáveis comercialmente. As pesquisas foram então abandonadas na década de 80, mas serviram de inspiração para Kornfield e sua equipe: e se outros tipos de polímeros pudessem cumprir este papel?

Local da queda do voo JJ3054 - Milton Mansilha, Agência Brasil

Destroços dos aviões envolvidos no acidente de Tenerife - APAtaque de 11 de setembro de 2001 - Roberto Robanne, AP

Acidente fatal do piloto Roger Willianson

Page 13: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 13

atomização Em CombustívEis líquidosCombustíveis fósseis líquidos como a gasolina, diesel

e querosene são a maior força motriz de veículos no mun-do, representando 34% do consumo mundial de energia. Porém, esta dependência representa um risco maior de ex-plosão quando ocorrem acidentes. Uma poça de combustível não explode facilmente devido às altas energias necessárias para manter o calor até atingir o ponto de autoignição. No entanto, um efeito que ao mesmo tempo é fundamental para o funcionamento dos motores de combustão pode se tornar o principal vilão de uma colisão: a atomização.

A atomização é um processo de transformação de um jato de líquido em pequenas gotículas em suspensão – como um spray. A maioria dos sistemas de criação de “sprays” con-siste na formação de gotículas diretamente vindas de um jato em regime turbulento (como quando você aperta o dedo na saída da mangueira). Dentro destas condições, as gotículas podem se formar de quatro maneiras diferentes, dependendo de fatores como a velocidade do jato e seu diâmetro. No caso da atomização, o líquido se “desintegra” longe da saída da fonte em pequenas gotículas com diâmetro muito menor do que o da saída, transformando-se em uma espécie de névoa.

No caso de motores de combustão interna, este proces-so é fundamental para a mistura entre o combustível e o ar. Apesar da importância da atomização, os mecanismos de que-bra ainda não são bem compreendidos, mas alguns detalhes já são conhecidos. Quando se trata de atomizadores comer-ciais, a maneira como o jato se desintegra pode ser contro-lada por pressão, forças centrífugas, entre outros. Mas o que acontece quando centenas de litros de combustível de aviação são transformadas em pequenas partículas dispersas no ar?

Durante um impacto, pode-se imaginar que os meca-nismos dominantes no caso de uma colisão são as forças me-cânicas externas. Porém, a assimetria do sistema (uma forma técnica de dizer “coisas voando para todos os lados”) faz com que uma série de outros fatores também possa contribuir para a formação de névoa de combustível: a tensão superficial entre o jato em movimento e o ar em repouso (que desestabiliza o jato causando sua desintegração), forças centrífugas em ja-tos “com redemoinhos”, forças eletrostáticas externas, entre outras. Os fatores dominantes para a análise do processo de

formação das gotículas são o número de Reynolds e o nú-mero de Ohnesorge.

O número de Reynolds (Re) é uma grandeza adimen-sional utilizada para prever padrões de fluxo similares em diferentes situações em mecânica dos fluidos; também é útil para caracterizar o tipo escoamento para diferentes sistemas. Ele é definido pela razão entre as forças inerciais e as forças de viscosidade, quantificando a importância de cada uma em determinado sistema para a caracterização do regime de fluxo, dependendo das condições iniciais. Sistemas com baixos Re são dominados principalmente pelas forças de viscosidade e são caracterizados por movimento constante do fluido (fluxo laminar). Já sistemas com altos Re são dominados pelas forças inerciais e tendem a produzir vórtices, pontos caóticos e ou-tras instabilidades (fluxo turbulento). No caso de uma colisão com formação de névoa de combustível, pode-se esperar Res altíssimos, com sistemas altamente caóticos.

Já o número de Ohnesorge (Oh), também uma grande-za adimensional, relaciona as forças de viscosidade com as forças inerciais e a tensão superficial. Ele é normalmente é utilizado para entender a distribuição das gotículas na névoa.

Relacionando-se Re com Oh, é possível entender que os mecanismos responsáveis pela formação das gotículas num spray ou névoa dependem fortemente da viscosidade do lí-quido. E foi neste fator que a equipe do Caltech se concen-trou na hora de desenvolver um polímero que pudesse evitar a autoignição de combustíveis líquidos.

Onde:ρ: massa específica do fluido ϑ: velocidade média do fluidoµ: viscosidade dinâmica do fluidoσ: tensão superficialD: longitude característica do fluxo (ex: diâmetro para fluxo no cano)L: comprimento característico (no caso de gotas, o diâmetro)

A atomização acontece constan-temente nos motores de combus-tão interna, incluindo a maioria dos motores de propulsão a jato – no caso de aviões. Carros de pas-seio e motocicletas utilizam o ci-clo Otto e veículos pesados como caminhões, trens e navios utilizam o ciclo ideal do Diesel (que não se refere necessariamente ao com-bustível utilizado, mas sim ao ciclo termodinâmico em que o motor opera). Para que um combustível

seja queimado, em geral, é necessá-rio que três coisas ocorram: a ato-mização, emulsificação (mistura das gotículas de combustível com o ar comprimido) e a vaporização (transformado as gotículas em uma forma rarefeita). No caso de moto-res, a atomização é função do bico injetor. Ao contrário do que acon-tece em acidentes, não ocorrem “explosões” dentro dos motores, mas sim a combustão controlada.

ReD

forças de viscosidadeforças inerciais

= =nty

forçasOh

de viscosidadeL

= =tv

n

forças inerciais tensão superficial#

Page 14: Polyteck | Edição 14

14 | Revista Polyteck | polyteck.com.br

o ProblEma - ignição a baixas EnErgiasA criação destes sprays ou névoas resulta em gotícu-

las de diferentes tamanhos, e normalmente métodos estatís-ticos são utilizados para descrever a distribuição de tama-nhos. O problema encontrado pelos pesquisadores nos anos 70, e que também inspirou o time de Kornfield, é simples:

Tomando a razão Área de Superfície / Volume (A/V) de uma esfera - gotículas menores que 2 mm são aproxima-damente esféricas - temos que A/V = 3/r. Isso quer dizer que quanto menor for o raio das esferas, maior será a su-perfície de combustível em contato com o ar para um mes-mo volume inicial de combustível. Como a superfície de contato de um reagente é diretamente proporcional à velo-cidade de reação, quanto menor for o tamanho das gotícu-las de combustível, mais rapidamente ele oxidará e liberará energia. Em poucas palavras: quanto mais fina a névoa de combustível, mais violenta a explosão.

Além disso, a taxa de transferência de calor convec-tiva para uma gotícula suspensa em ar, descrita pela lei do resfriamento de Newton, é proporcional à diferença de temperatura (∆T) entre o ar e a gotícula, o coeficiente de transferência de calor e o quadrado do raio da gotícula, ou seja: uma partícula com um diâmetro de 0,4 mm precisa de quatro vezes mais energia do que uma partícula de 0,2 mm para atingir a mesma temperatura. Desta maneira, é muito mais difícil atingir o ponto de ignição em uma gotícula de 0,4 mm do que em uma partícula de diâmetro 0,2 mm.

Finalmente, o aumento no diâmetro médio das gotí-culas também faz com que a névoa disperse mais rápido. Isso ocorre por que partículas muito pequenas ficam mais tempo em suspensão devido a colisões com os átomos em movimento presentes no fluído (Movimento Browniano). Um aumento de 10 vezes no diâmetro das gotículas acarre-ta num aumento de 1000 vezes na sua massa, fazendo com que as partículas deixem de exibir Movimento Browniano e a névoa decante mais rapidamente.

Assim, o grande desafio da equipe foi desenvolver um polímero capaz de aumentar a viscosidade do combustível, dificultando a formação de gotículas pequenas, porém sem prejudicar seu desempenho em motores ou turbinas.

Onde:Q: energia térmica em joulesh: coeficiente de transferência de calor∆T(t) = T(t) - T: gradiente térmico dependente do tempo entre a gotícula e o ar.A: área de superfícieV: volumer: raio da esfera

A/V 4 rr r

34 3

2

3= =rr

Quanto maior o raio médio das gotículas de combustível formadas em um impacto, menor é o risco de explosão. Isso por que (1) a área superfície de combustível em con-tato com o ar é inversamente proporcional ao raio; (2) a energia necessária para aquecer a gotícula aumenta com o quadrado do raio; e (3) partículas maiores em suspen-são decantam mais rápido que as menores.

T (t). ( ) .dtdQ

h A T t h r4 2= DrD- = -

Construindo soluçõEsNa década de 70, pesquisadores se empenharam em des-

cobrir um aditivo que pudesse solucionar este problema, prin-cipalmente após o terrível acidente aéreo de Tenerife - dois aviões Jumbo Boeing 747 se chocaram na pista do aeroporto e explodiram, deixando 583 mortos e 61 feridos. Na época, tes-tes com polímeros de cadeia ultralongas como o FM-09 (peso molecular > 3000 kg/mol de copolímero, 5 mol% de unidades de carboxila) indicaram um aumento no diâmetro das gotícu-las na névoa de combustível após o impacto, resultando num fogo a temperaturas relativamente baixas e de curta duração.

A característica especial que permite que os polímeros aju-dem a controlar a formação da névoa e diminuir o arrasto nos combustíveis é a sua capacidade de armazenar energia à medi-da que suas cadeias “esticam” – assim, o fluido como um todo resiste ao alongamento, tornando sua separação em porções menores mais difícil. Os polímeros ultralongos são potenciais candidatos para esta tarefa graças a como as suas cadeias se comportam tanto ao começar a ser alongadas quanto ao máxi-mo de extensão que suportam. O artigo da equipe do Caltech, publicado na revista Science, dá um exemplo: aumentando o peso molecular de 50 kg/mol para 5000 kg/mol, a taxa crítica de alongamento diminui em mais de três ordens de grandeza e o alongamento máximo molecular aumenta em duas ordens de grandeza.

No entanto os polímeros desenvolvidos para este fim da década de 70, como o FM-09, deveriam ser adicionados ao combustível momentos antes do abastecimento das aeronaves, dificultando a logística nos pátios dos aeroportos. Tudo isso porque as cadeias ultralongas se degradam durante os proces-sos de transporte, bombeamento e filtragem do combustível. Ao passar pelas tubulações, tensão hidrodinâmica se acumula ao longo da cadeia principal até quebrar as ligações covalentes, como se o polímero fosse “raspado”. Essa “raspagem” continua até que as cadeias encurtem e tenham peso molecular menor do que 1000 kg/mol. Caso o aditivo fosse adotado, seria neces-sário também realizar alterações nos motores das aeronaves, pois o polímero interferia no seu funcionamento. É claro que

Page 15: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 15

os fabricantes do setor de aviação não concordaram, tornando a comercialização do aditivo inviável.

Conhecendo as vantagens e desvantagens dos polímeros de cadeia ultralonga, a equipe decidiu utilizar cadeias não tão longas, mas que possuíssem terminações “grudentas” ou “ade-sivas”, semelhante a um Velcro. Estes polímeros menores se associariam entre si para criar o que os pesquisadores chamam de megasupramoléculas: polímeros gigantescos que teriam o mesmo comportamento dos polímeros ultralongos, exibindo as mesmas características como alta conformidade em repou-so e alta capacidade de alongamento durante o fluxo. Para isso, a associação deve ocorrer nas extremidades das cadeias e em pares. Além disso, a existência das duas extremidades adesivas permitiria que a megasupramolécula se quebrasse em partes menores durante o manejo do combustível, voltando poste-riormente à sua configuração original e recuperando as suas propriedades mecânicas. A este tipo de polímero dá-se o nome de “telequélico” (telechelic).

Os pesquisadores optaram por utilizar hidrocarbonetos insaturados devido à sua solubilidade e resistência. Além disso, eles não têm efeitos reológicos significativos (o que é interessante para manter o fluxo de combustível semelhante ao fluxo sem adição de polímeros) e se mantém em solução mesmo abaixo do ponto de congelamento do combustível. A equipe também buscou grupos terminais que tendem a fazer ligações de hidro-gênio, ligações resultantes de fortes atrações eletrostáticas entre o hidrogênio e outro átomo devido a cargas localizadas em cada átomo (não confundir com ponte de hidrogênio). Estudos re-centes que indicam que este tipo de ligação é forte o suficiente para conseguir uma associação consistente entre pares de ca-deias curtas (peso molecular ≤ 50 kg/mol).

No entanto, estudos anteriores indicavam que estes po-límeros telequélicos não seriam capazes de se associar para a formarem megasupramoléculas. Logo, a equipe desenvolveu es-tudos utilizando mecânica estatística para estimar se isso poderia

ocorrer sob condições específicas. Eles investigaram polímeros a concentrações abaixo de 1% para guiar a seleção das melhores estruturas moleculares para o trabalho. O modelo usa o peso molecular para mapear possíveis locais de rede, onde cada local tem o mesmo volume de um segmento de Kuhn: basicamen-te, segundo o tratamento teórico proposto por Werner Kuhn, cada cadeia polimérica real é considerada como uma coleção de N segmentos. Cada segmento pode ser interpretado como se estivesse livremente associado ao outro, podendo estar orien-tado de forma randômica ou em qualquer direção, sem sofrer a influência de forças, independente das direções tomadas por outros segmentos. Ou seja, ao invés de considerar uma cadeia real com n ligações e com ângulos de ligação, torção e compri-mento fixos, Kuhn considerou uma cadeia equivalente ideal com N segmentos conectados que podem se orientar em qualquer direção. A estes segmentos dá-se o nome de segmento de Kuhn, que possibilitam a investigação das mais diversas formas com que polímeros podem se estruturar.

Assim, a equipe de Kornfield chegou à conclusão de que estas associações entre polímeros telequélicos funcionam satisfa-toriamente sob duas condições: se o peso molecular estiver entre 400 – 1000 kg/mol e seus grupos funcionais das extremidades se associarem com energia de 16-18 kT. Se a energia de ligação é muito baixa, a formação de supramoléculas é inadequada. Se a energia de ligação é muito alta, extremidades “penduradas” são muito penalizadas e poucas espécies lineares se formam.

Já com as informações necessárias em mãos, os pesquisa-dores projetaram e sintetizaram polímeros com cadeia principal de cerca de 50.000 átomos de carbono. As moléculas tinham ou aminas di-terciárias ou ácidos isoftálicos como grupos ter-minais, que formam ligações de hidrogênio intermoleculares. Elas são três vezes mais fortes do que pontes de hidrogênio. “Nós escolhemos moléculas e grupos terminais muito simples”, disse Kornfield em sua palestra na Conferência de Inovação e Tecnologia da Braskem, “você não espera que uma molécula tão simples seja milagrosa. Grupos terminais simples podem fazer coisas muito poderosas”.

a Extinção do fogoO polímero desenvolvido pela equipe de Kornfield foi

então adicionado a combustível de aviação utilizando concen-trações muito baixas - em torno de 0,3%. Nestas condições, o polímero não afetou nenhuma propriedade fundamental do combustível como densidade, energia e tensão superficial. A formação de megasupramoléculas se mostrou evidente pela viscosidade da solução e pelas medidas de espalhamento de luz

Síntese de polímeros telequélicos longos não associativos (com terminais R1) e conversão pós-polimerização para telequélicos associativos (com terminais R2). Estes polímeros ligam-se uns aos outros para formar megasupramoléculas. Fonte: Ming-Hsin Wei et al.,

Science 350, 6256, 72-75 (2015)

Page 16: Polyteck | Edição 14

16 | Revista Polyteck | polyteck.com.br

laser multiângulo (MALLS, na sigla em inglês). O esforço cor-tante observado também indica que os polímeros telequélicos se associaram em megasupermoléculas.

Agora vem a parte divertida: os testes com fogo. Para testar a eficiência do aditivo no controle de ignição do combustível, um projétil foi atirado (para simular o efeito de um impacto) em contêineres com combustível de aviação comum ou com combustível de aviação tratado com o aditivo. Além disso, eles colocaram três maçaricos de propano ao longo do caminho da propagação da névoa. No caso do combustível comum, as con-dições de impacto geram uma névoa extremamente fina pela qual o fogo se propaga rapidamente. Dentro de 60 milisegundos, a névoa se transforma numa grande bola de fogo.

Já o combustível com o aditivo polimérico foi testado de duas formas. Na primeira, foi utilizado combustível recém mis-turado com o aditivo. Na segunda, o combustível passou por tubulações por aproximadamente 60 segundos antes de ser in-jetado no contêiner. Os resultados são impressionantes: a névoa formada em ambos os casos é visivelmente mais controlada e espessa, mesmo após passar repetidamente por uma bomba de combustível. Segundo Kornfield, quando as supermoléculas estão em equilíbrio elas se mantém em uma forma enrolada. Quando as gotículas de combustível se alongam após o impac-to, as megasupermoléculas se esticam, mas apenas até certa extensão e, ao invés de quebrarem, apenas desgrudam umas das outras, se recombinando rapidamente – o que evita que as gotículas se dividam e se transformem na névoa altamen-te inflamável. Quando os maçaricos são acionados, apesar de pequenos focos de ignição aparecerem, o fogo não se propaga pela névoa e se extingue rapidamente. Veja a entrevista com a professora Julie Kornfield no YouTube da Polyteck.

“Nós mesmos não acreditávamos no que estávamos vendo. A primeira coisa que fomos verificar é se os maçaricos estavam funcionando, pois se não houvesse fogo, o experimento não va-leria”, comenta Kornfield. “Mas ao assistir o vídeo com cuidado notamos que o fogo realmente estava lá, mas se autoextinguia numa velocidade impressionante”.

Além disso, testes simultâneos com diesel foram realizados utilizando o Protocolo Federal para Teste em Motores a Diesel dos EUA. Os resultados iniciais mostram que não há mudan-ças significativas nos níveis de consumo de combustível, além de pouca diferença nos níveis de emissão de gases. O resultado mais significativo encontrado foi a redução da formação de fuligem em 11,7%, o que indica que os combustíveis tratados com o polímero são tão eficientes como o diesel comum, po-rém mais limpos.

A equipe agora está construindo um sintetizador em escala piloto que poderia produzir 1 kg do aditivo por hora e já rece-beu atenção de empresas do ramo de combustíveis de aviação e transporte de líquidos inflamáveis. Este é um exemplo claro de trabalho interdisciplinar focado diretamente em soluções para pessoas – a aplicação de teoria de polímeros para resolver problemas práticos maiores. E esta é a maneira mais eficien-te de desenvolver novos materiais. Em entrevista à Polyteck, Kornfield finaliza: “Tudo o que eu quero é poder ajudar a salvar vidas. Quem sabe, se os bombeiros tivessem mais 40 minutos para evacuar os prédios no 11 de setembro, muitas mortes po-deriam ser evitadas”.

Para saber mais

• Ming-Hsin Wei et al., “Megasupramolecules for safer, cleaner fuel by end association of long telechelic polymers”, Science 350, 72 (2015)

• Bjarne P. Husted, Gören Holmstedt e Tommy Herzberg, “The Physics behind water mist systems”, IWMA Conference (2004)

• William A. Sirignano, “Recent theoretical advances for liquid-fuel atomization and burning”, Seventh International Symposium on Special Topics in Chemical Propulsion

• Prachi Patel, “Telechelic polymers suppress jet fuel explosions”, Materials Research Society (2015)

• Rolf D. Reitz, “Reciprocating Internal Combustion Engines”, Engine Research Center, University of Wisconsin-Madison (2012)

• Edson J. J. de Souza, “Concepção e desenvolvimento de correlações experimentais para a simulação, controle e otimização de sprays gerados em atomizadores mecânicos-centrífugos”, Tese de Doutorado pelo Curso de Pós-Graduação em Engenharia na ênfase Energia e Ciências Térmicas da Universidade Federal do Paraná

• Ray T. Bohacz, “Understanding Gasoline Atomization - Breaking Up Is Hard To Do”, Hot Rods (2014)

• Caltech Kornfield Lab, https://kornfield.caltech.edu/

• “Atomization Of Liquid Fuels”, Curso Combustion and Fuels, Departamento de Engenharia Mecânica e de Energia da Universidade Politécnica de Wrocław

Raisa Jakubiak é diretora de redação da Revista Polyteck. Bacharela em Física pela Universidade Federal do Paraná, foi bolsista de iniciação científica no Group of Optoloectronic Organic Devices (GOOD), na UFPR, onde trabalhou no desenvolvimento de memórias orgânicas voláteis e aprendeu sobre a construção de transístores. Também trabalhou no LITS, na

caracterização de um protótipo de lab-on-a-chip capaz de diagnosticar várias doenças com poucas gotas de sangue. Apaixonada por ciência desde o berço, acha que o segredo para quem quer mudar o mundo é nunca parar de aprender. Trabalha na Polyteck para continuar aprendendo, e porque acha que faltam meios de comunicação feitos por quem vive a ciência no seu dia a dia.

Teste de impacto na presença de fontes de ignição após 60 ms do impacto. Na figura de cima combustível sem tratamento, abaixo combustível tratado com 0,3% em peso do polímero (430 kg/mol) produzido no Kornfield lab.Fonte: Ming-Hsin Wei et

al., Science 350, 6256, 72-75

(2015)

Page 17: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 17

A Revolução da Internet

Nesta sequência de três artigos explicaremos como bilhões de máquinas conectadas estão modificando a infraestrutura da internet, coletando dados detalhados sobre nossas ações diárias e fornecendo informações que nos possibilitam adquirir conhecimento sobre o mundo e nós mesmos. A internet está mudando a maneira como vivemos, aprendemos, treinamos, investimos, empreendemos e até como fazemos compras no supermercado.

Por André Sionek e Leonardo Rodrigues da Silva

Um número finito de endereços na internet

A partir de quantos dispositivos você acessa a inter-net diariamente? Provavelmente um notebook, um computador no trabalho ou faculdade, um smar-

tphone e talvez um tablet ou algum vestível (um smartwatch, por exemplo). A Cisco estima que em 2015 existam cerca de 25 bilhões de aparelhos online, sendo que 7 bilhões são dispositivos móveis - quase um para cada pessoa na Terra. E esse número não para de aumentar. Segundo um estudo de Guo-Qing Zhang, da Academia Chinesa de Ciências, o tamanho da internet cresce exponencialmente seguindo a famosa lei de Moore. De acordo com o estudo, a previsão é que a internet dobre de tamanho a cada 5,32 anos. Dessa maneira, em 2020 serão cerca de 50 bilhões de equipamentos solicitando um endereço IP para se conectar à internet.

O Protocolo de Internet (IP, na sigla em inglês), é o principal protocolo de comunicação da internet. Um ende-reço IP é atribuído a cada dispositivo que se conecta à rede; esse endereço funciona de maneira semelhante a um número de telefone, podendo ser identificado por quem está rece-bendo a ligação. Quando o cliente (qualquer computador utilizado por um usuário para se conectar a uma rede e en-viar solicitações a um servidor) envia uma solicitação, ela é

marcada com o seu endereço IP, garantindo que o servidor saiba para onde enviar a resposta. Um novo endereço pode ser atribuído a cada máquina tanto no momento da iniciali-zação (endereço IP dinâmico), quanto de forma permanente através de uma configuração fixa de hardware ou software (endereço IP estático). Geralmente o endereço IP também está associado a uma localização geográfica, podendo ser utilizado pelo servidor para enviar conteúdos personaliza-dos ao cliente e exibir resultados locais - como a previsão do tempo para a cidade em que você está.

A versão 4 do IP (IPv4) se popularizou no começo da década de 80 e continua em uso até hoje. Um endereço IPV4 consiste em um código de 32 bits dividido em quatro octetos representados por números de 0 a 255. Parece com-plicado, mas um endereço IPv4 é simplesmente um número com a forma 200.195.190.113 (tente acessar este endereço no seu navegador). Com 256 possibilidades diferentes para cada octeto (256 = 28 = 8 bits, por isso que cada conjunto de números é chamado de octeto), temos que o número total de endereços diferentes é igual a 28 × 28 × 28 × 28 = 232, ou cerca de 4,3 bilhões.

O problema é que, assim como os números de telefone

Page 18: Polyteck | Edição 14

18 | Revista Polyteck | polyteck.com.br

começaram a se esgotar e foi necessário adicionar mais um dígito, 4 bilhões de endereços IP não são suficientes nem para atender toda a população mundial atual. Agora ima-gine se formos considerar todos os bilhões de dispositivos que já estão online ou estarão no futuro.

Essa preocupação com o crescimento da internet e com a exaustão dos endereços IPv4 surgiu na década de 90, quando a Internet Engineering Task Force (IETF), entidade responsável por desenvolver e promover padrões na internet, começou a explorar novas tecnologias para aumentar a capa-cidade de endereçamento da rede. A solução permanente foi redesenhar o Protocolo de Internet. Essa nova geração, bati-zada IPv6 em 1995, começou a ser implementada no começo dos anos 2000; nela, o tamanho dos endereços aumentou de 32 para 128 bits. Desta maneira, o número de endere-ços IPv6 disponíveis passará a ser de 2128, um número tão grande que fica até difícil de escrever: são cerca de 3,4 × 1038

(340.000.000.000.000.000.000.000.000.000.000.000.000) en-dereços diferentes. Isso representa 6,5 × 1023 combinações diferentes por metro quadrado de superfície terrestre.

Além desse número de endereços não se esgotar tão cedo, o IPv6 também torna o gerenciamento de redes mais fácil devido às suas capacidades de autoconfiguração e por oferecer melhor segurança que a versão anterior. Essa ver-são utiliza um Flow Label (etiqueta de controle de fluxo)

para priorizar a entrega de pacotes. Isso permite que os hosts se comuniquem utilizando o conceito de QoS (Quality of Service) para entrega dos pacotes, melhorando a sua navegabilidade.

A Campus Party de 2011, realizada em São Paulo e que contou com a presença de grandes nomes como Steve Wozniak (co-fundador da Apple), trouxe a público a primei-ra utilização do protocolo IPv6 no Brasil. Mas o lançamento mundial do IPv6 ocorreu somente em 6 de junho de 2012, num evento organizado pela Internet Society que marcou o início da transição do protocolo antigo para o novo pelos maiores websites e provedores de equipamentos e serviços para internet.

Segundo a Cisco, 27% dos dispositivos móveis já ti-nham capacidade de utilizar IPv6 em 2014. O Google tem uma ferramenta que mede a quantidade de usuários que acessam os seus seviços utilizando IPv6. Em setembro de 2008 somente 0,14% dos usuários utilizavam o protocolo, e na data do lançamento mundial o índice subiu ligeiramente para 0,65%. Hoje cerca de 8% dos usuários utilizam a nova versão de IP. Trocar toda a infraestrutura da internet do IPv4 para o IPv6 vai levar algum tempo ainda, mas a mu-dança vai possibilitar que todos os dispositivos “conversem” diretamente uns com os outros - fator essencial para o sur-gimento de serviços e produtos inovadores.

Page 19: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 19

Internet das Coisas tudo conectado

Com quase 25 bilhões de má-quinas online, é de se imagi-nar o enorme volume de dados

que trafega entre todos estes compu-tadores. Segundo a Cisco, a estimativa é que em 2016 o tráfego IP global vai atingir 1,1 zettabytes por ano, ou um bilhão de gigabytes por mês. Já em 2019 estima-se que haverá tráfego IP maior que 2 zettabytes por ano, sendo que cerca de 67% desse tráfego será origina-do por dispositivos “não-PC” (tablets, smartphones, etc).

Nos dispositivos móveis, o trá-fego global de dados (desconsideran-do dispositivos conectados a uma rede wireless) atingiu quase 30 exabytes em 2014 - 30 vezes o tráfego de dados de toda a internet no ano 2000. Os dispo-sitivos inteligentes - conexões móveis com capacidades multimídia e no míni-mo conectividade 3G - representaram 26% do total de dispositivos móveis e

conexões em 2014, mas foram respon-sáveis por 88% do tráfego de dados. Em média cada smartphone no mundo é responsável pelo tráfego de 819 Mb de dados por mês. Já o tráfego via wireless e redes móveis vai exceder o tráfego de dispositivos com fio em 2019; as redes com fio, que foram responsáveis por 54% do tráfego IP em 2014, serão res-ponsáveis por somente 33% em 2019.

Entretanto esses números não significam somente que mais pessoas estão acessando a internet. Eles mos-tram que uma nova classe de disposi-tivos com conexão à internet está sur-gindo: são refrigeradores, relógios, carros, televisões e até mesmo roupas. De olho nesta tendência, diversas em-presas vêm investindo em maneiras de conectar objetos e tarefas do dia a dia para melhorar a experiência dos usuá-rios, simplificar atividades que exijam muitas etapas, coletar dados sobre as

pessoas (peso, padrões de sono, ativi-dades diárias, etc), ou melhorar a segu-rança (monitorar sua casa a distância, por exemplo).

Considerando o impacto que a in-ternet causou nas comunicações, ne-gócios, educação, ciência e governo podemos afirmar ela é uma das mais importantes e poderosas criações da história da humanidade. A próxima evolução da internet promete coletar, organizar, analisar e distribuir inúme-ras informações que poderemos en-tão transformar em conhecimento. Estamos nos primeiros dias da chama-da Internet das Coisas (IoT, na sigla em inglês), onde objetos físicos, muitas vezes do nosso cotidiano, passaram a possuir sistemas eletrônicos com sen-sores e conectividade à internet. Cada “coisa” é unicamente identificada e seu sistema computacional embarcado é ca-paz de coletar dados e tomar decisões interoperando com a infraestrutura de internet existente.

De acordo com a Cisco Internet Business Solutions Group (IBSG), IoT é simplesmente o ponto no tempo em que há mais “coisas ou objetos” online do que pessoas no mundo. Esse nasci-mento da IoT aconteceu entre 2008 e 2009, quando o número de dispositivos conectados à internet superou a popu-lação mundial.

A web passou por vários estágios de evolução enquanto a infraestrutu-ra da internet manteve um caminho de desenvolvimento e melhoramen-tos constantes, mas não mudou muita coisa. A priori, a web nasceu para uso estritamente acadêmico para, em se-guida, assumir a forma de uma rede de páginas corporativas. No final da dé-cada de 90, agregou novos elementos e passou a se comportar como uma pla-taforma para compra e venda de pro-dutos e serviços. Hoje, com a popula-rização do acesso e das plataformas de interação pessoal, podemos dizer que a web também acumulou a função de compartilhar de informações pesso-ais entre amigos, família e conhecidos. Já a infraestrutura da internet funcio-na hoje essencialmente da mesma ma-neira que funcionava na época em que fora criada. Por exemplo, nos seus pri-meiros anos de vida haviam vários pro-tocolos de comunicação (AppleTalk,

Page 20: Polyteck | Edição 14

20 | Revista Polyteck | polyteck.com.br

Token Ring, e IP), hoje ela é padroniza-da em IP.

A IoT pode ser considerada a pri-meira evolução real da internet, um sal-to que vai melhorar a maneira como as pessoas vivem, aprendem, trabalham e se divertem. Sistemas que conseguem antecipar as necessidades das pesso-as são o ponto chave da IoT, a exemplo de vários sensores (de pressão, vibra-ção, temperatura, luz, umidade) que já se tornaram mais proativos do que re-ativos nos últimos anos. A ideia é, por exemplo, conectar o GPS do carro com a porta da garagem, que abre automati-camente e interage com outro dispositi-vo para destrancar as portas, enviando em seguida informações ao termostato e ao sistema de iluminação para ajustar a temperatura da casa e acender deter-minadas luzes. Para isso o usuário não precisará digitar em um tablet a tempe-ratura ideal de cada cômodo ou especi-ficar quais luzes deverão acender, tudo será definido automaticamente de acor-do com informações coletadas a partir dos hábitos do usuário.

No mundo da IoT até as vacas estarão online. Um sensor implanta-do na orelha ou sob a pele dos animais (ou em qualquer outro lugar) permi-tirá que os pecuaristas monitorem a saúde do gado e acompanhem a sua movimentação, vacinas tomadas e até mesmo sua genética, garantindo um suprimento de carne mais saúdavel e abundante para consumo humano. A BovControl é uma startup brasileira que tem se destacado exatamente nesse mercado. Pensando em como inserir a indústria de gado dentro da IoT, a em-presa criou a Internet of Cows (Internet das Vacas, na tradução). A ideia é reu-nir empresas de hardware capazes de

identificar as tecnologias mais promis-soras para a próxima geração de dispo-sitivos vestíveis para gado. O objetivo é criar um sensor que será capaz de co-letar dados do gado em campo e entre-gar essa informação diretamente para o pecuarista.

O sensor deverá conseguir medir dados biométricos do gado como tem-peratura, hidratação, respiração e quali-dade da carne, assim como a sua locali-zação. A bateria deverá durar de acordo com o tipo de tecnologia utilizada e da habilidade do sensor de coletar ener-gia do sol ou de outras fontes. A startup inclusive está patrocinando a ida de um estudante de engenharia até Boston, nos EUA, para “hackear” o seu projeto de sensor em conjunto com líderes da indústria do gado. Para se inscrever é só visitar: www.internetofcows.org.

Sensores também poderão ser uti-lizados para melhorar a saúde das pes-soas. Esse é o caso do MovSmart, um produto da BioSmart (outra startup brasileira) que conecta todos os equi-pamentos existentes em academias à internet. A plataforma busca na inter-net o treino definido pelo instrutor, aju-da o atleta (amador ou profissional) a executar o treino corretamente e ainda coleta, armazena e disponibiliza as in-formações de cada movimento concên-trico, excêntrico e os intervalos execu-tados para um acompanhamento mais preciso do atleta pelo treinador. Com a expansão da IoT, a tendência é que cada máquina colete seus dados e já saiba dar o tratamento adequado a eles.

As 50 bilhões de “coisas” conec-tadas à internet em 2020 representam um mercado de 7,1 trilhões de dóla-res, e é por isso que muita gente está de olho nessa tendência. Algumas

dessas “coisas” já fazem parte da nos-sa vida e nós nem percebemos, pois o objetivo é justamente este: que a tecnologia ajude a melhorar a nossa vida e forneça uma quantidade mui-to maior de informações, sem causar trabalho para quem a está utilizan-do. Em um artigo na Harvard Business Review, H. James Wilson, diretor de Tecnologia da Informação e Pesquisa em Negócios da Accenture Institute for High Performance, afirma que os dispo-sitivos e programas de IoT mais usados são os que deixam a vida mais fácil, dis-tintiva e prazerosa. Segundo Wilson, as pessoas preferem coisas mais naturais e menos visíveis do que telas. Elas de-monstram resistência a dispositivos que exijam ações que escapem de suas roti-nas. Ninguém quer digitar as instruções em um tablet, interagir com um dispo-sitivo ou ajustar as preferências em um smartphone para conseguir o que quer. As tecnologias de IoT deverão anteci-par as necessidades dos usuários e tra-balhar sobre elas.

Entretanto várias barreiras ainda podem atrasar o desenvolvimento da Internet das Coisas, sendo a principal justamente a implementação do IPv6. Uma demora na implementação pode reduzir o progresso da IoT, pois bilhões de novos sensores irão requerer um en-dereço IP único. Outra grande questão é como fornecer energia aos bilhões de sensores espalhados por aí. Eles obriga-toriamente terão que ser autossustentá-veis (imagine ter que trocar as baterias dos sensores instalados em todo um re-banho de gado, é impossível). É preci-so encontrar uma forma eficiente para que os sensores produzam energia a partir do ambiente onde estão inseridos (como vibrações, luz, calor, fluxo de ar).

Um sensor implantado no gado permitirá que os pecuaristas monitorem a saúde do rebanho e acompanhem a sua movimentação, vaca por vaca. O sistema permite o controle das vacinas tomadas e até mesmo a descendência genética dos animais. O sistema de monitoramento vai garantir que o suprimento de carne para consumo humano seja mais saúdavel e abundante.

Até as vacas estarão conectadas

Page 21: Polyteck | Edição 14

polyteck.com.br | Revista Polyteck | 21

transformandoBIG DATA em conhecimento

A comunicação é uma das habilidades mais importantes do ser humano. Uma vez que uma descoberta é reali-zada, ela não precisa ser repetida: basta comunicar.

Ernest Rutherford por exemplo, realizou aquele famoso experi-mento do bombardeamento de uma folha de ouro com partículas alfa. A partir do conjunto de dados coletados ele concluiu que, embora os átomos consistam basicamente em espaços vazios, a maior parte da sua massa está concentrada numa pequena região positivamente carregada chamada de núcleo. A partir desse mo-mento, outros cientistas não precisaram mais redescobrir este fato. Bastou que Rutherford comunicasse a descoberta na forma de um artigo científico.

Dados são o material bruto que coletamos através de diversos sensores, sejam eles eletrônicos ou biológicos - os cones e bastone-tes da retina dos nossos olhos, por exemplo, são células sensíveis à luz. Mas um dado não carrega por si só nenhuma informação importante. É preciso um conjunto de dados para que possamos identificar padrões e tendências. Essas e outras informações se unem para virar conhecimento, que é basicamente o conjunto de informações que conhecemos e entendemos. Ultimamente com-binamos o conhecimento com a experiência para criar sabedoria. Existe uma correlação direta entre a entrada (dados) e a saída (sa-bedoria); quanto mais dados forem coletados, mais conhecimento e sabedoria podem ser criados e comunicados.

A Internet das Coisas vai aumentar drasticamente a quan-tidade de dados que estão disponíveis para processamento. Isso, combinado com a habilidade da internet em comunicar, vai fazer com que a “...” (coloque a palavra que preferir aqui: ciência, hu-manidade, produção agrícola, marketing, etc) chegue ainda mais longe - e mais rápido. As 50 bilhões de “coisas” que estarão online em 2020 irão coletar e compartilhar uma imensidão de dados, tanto que a previsão feita pela Cisco Internet Business Solutions Group é de que o tráfego IP será maior que 2 zettabytes por ano em 2019. Ok, os vídeos são responsáveis por boa parte desse volume. Eles

já foram responsáveis por 64% do tráfego em 2014 e somarão 80% dos dados transferidos em 2019. É tanto conteúdo que uma pessoa demoraria mais de 5 milhões de anos para assistir todos os vídeos que vão cruzar as redes IP a cada mês em 2019. Porém, mesmo descontando o tráfego de vídeos, ainda teremos 400 bilhões de gigabytes de dados cruzando a rede por ano.

Essa enorme quantidade de informação deu origem a ou-tro conceito: Big Data, um termo utilizado para se referir a con-juntos de dados muito grandes ou complexos que aplicativos de processamento de dados tradicionais não são capazes de tratar ou extrair informações. Esses dados são normalmente trabalhados utilizando um conjunto de técnicas computacionais conhecidas como mineração de dados (data mining) na busca por padrões consistentes e/ou relações sistemáticas entre as variáveis. Para validar as descobertas, os padrões descobertos são aplicados a no-vos conjuntos de dados na tentativa de prever os resultados. Leia a nossa reportagem sobre Redes Neurais na edição 04 da Polyteck para saber mais a respeito.

Uma história famosa envolvendo Big Data aconteceu com a rede varejista americana Target, que conseguiu descobrir que adolescentes estavam grávidas antes mesmo que seus pais. Um número de identificação está associado ao cartão de crédito, nome ou email de cada cliente; dessa forma a Target coleta dados so-bre cada compra e as combina com informações demográficas que foram coletadas ou compradas de outras fontes. O estatístico Andrew Pole, que trabalha na Target, explicou em uma entrevista para a New York Times Magazine como identificou que adolescen-tes estavam grávidas muito antes que elas precisassem começar a comprar fraldas.

Pole rodou vários testes para analisar o histórico de compras das clientes e alguns padrões começaram a surgir. Ao analisar o padrão de compras de mulheres que tiveram filhos recentemente, um dos colegas de Pole descobriu que elas compravam grandes quantidades de loções sem cheiro no começo do segundo trimestre da gravidez. Um outro analista notou que as mulheres grávidas compravam muitos suplementos como cálcio, magnésio e zinco nas primeiras 20 semanas de gestação. Os computadores da equipe do estatístico trabalharam na base de dados da Target e consegui-ram identificar cerca de 25 produtos que, quando analisados em conjunto, permitiam que eles atribuíssem uma “probabilidade de gravidez” para cada cliente. E mais importante do que isso, eles ainda conseguiam estimar a data do parto, dessa forma a Target podia enviar cupons de desconto de produtos específicos para cada estágio da gestação.

Sem prever em detalhe as possíveis consequências, a empre-sa enviou cupons de desconto para todas as clientes que tinham uma alta probabilidade de gravidez. Pole contou para o repórter Charles Duhigg, da NYT Magazyne, o caso de um homem que entrou em uma loja da Target na região de Minneapolis, nos EUA, e exigiu falar com o gerente. Ele tinha alguns cupons nas mãos, que foram enviados para a sua filha, e estava muito bravo: “Minha filha recebeu isso pelos Correios!” Ele disse. “Ela ainda está no en-sino médio, e vocês estão enviando cupons de berços e roupas de bebês pra ela? Vocês estão tentando encorajá-la a engravidar?”. O homem ligou algumas semanas depois para a loja pedindo des-culpas pela confusão. Teve uma conversa com a filha e descobriu que ela realmente estava grávida. O pai ainda não tinha percebido as mudanças na filha, mas os padrões de compra da jovem permi-tiram que um grupo de estatísticos descobrissem o seu segredo.

As aplicações de Big Data também podem ser encontra-das dentro dos laboratórios. Um exemplo é no desenvolvimen-to de inovações em poliolefinas (polietileno, polipropileno e

Page 22: Polyteck | Edição 14

Este trabalho é licenciado sob Creative Commons Attribution-NonCommercial 4.0 International License. Os pontos de vista expressos nos artigos não refletem necessariamente a posição da Editora Polyteck.

Editora Polyteck Ltda - ME 41 3011-6080 / 9269-4372 / 9622-3369

Patrocínio

Revista Polyteck - Edição 14 | Outubro / Novembro 2015

A Polyteck é uma plataforma de educação e divulgação científica que complementa a formação dos estudantes brasileiros. Motivamos e inspiramos o universitário a ir além da sala de aula.

Informações sobre anúncios e parcerias estão disponíveis em: www.polyteck.com.br/anuncie

Envie sua crítica, elogio ou sugestão para: [email protected]

Distribuição gratuita em mais de 80 universidades de todo o Brasil. Saiba mais em: www.polyteck.com.br/distribuicao

Diretor Executivo: André Sionek Diretora de Redação: Raisa Requi Jakubiak Diretor Comercial: Fábio A. S. RahalRevisão: Rudolf Eckelberg Imagens: Shutterstock Impressão: Gráfica Capital

Para saber mais

• Guo-Qing Zhang et al., “Evolution of the Internet and its Cores”, New Journal of Physics, 10, 123027 (2008)

• Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update 2014–2019 White Paper

• Mike Leber, “Global IPv6 Deployment Progress Report”, Hurricane Electric (2010)

• World IPv6 Launch, http://www.worldipv6launch.org/

• Google IPv6, https://www.google.com/intl/en/ipv6/

• H. J. Wilson, Baiju Shah e Brian Whipple, “How People Are Actually Using the Internet of Things”, Harvard Business Review, 28/10/2015

• Dave Evans, “How the Next Evolution of the Internet Is Changing Everything”, IBSG, White Paper (2011)

• Charles Duhigg, “How Companies Learn Your Secrets”, The New York Times Magazine (2012)

• Amber Mueller, “Global Polyolefin Industry Development”, ECI 04/06/2015

André Sionek é estudante de administração na Universidade Federal do Paraná. Foi bolsista de iniciação científica no Laboratório de Inovação e Tecnologia em Sensores (LITS), na UFPR, no desenvolvimento de um teste lab-on-a-chip para diagnóstico pré-natal. Cursou graduação sanduíche na University of Pennsylvania, nos EUA, pelo programa Ciência Sem Fronteiras.

copolímeros), plásticos e elastômeros resultantes da precisa liga-ção de milhares de unidades de etileno e propileno. Somente em 2014 foram produzidas 171 milhões de toneladas de poliolefinas em todo o mundo. Então mesmo que você não seja um químico, você certamente usa uma variedade de produtos feitos com po-liolefinas no seu dia a dia, desde sacos plásticos de polipropile-no até cisternas feitas de polietileno de alta densidade. Essa alta demanda fez com que a ciência de poliolefinas se desenvolvesse muito rápido. O resultado é que para inovar nesse cenário, os cientistas precisam encontrar as poucas pequenas áreas que ainda podem ser melhoradas. E tempo é um fator crucial.

Apesar de ser uma área madura, a polimerização catalítica de poliolefinas continua a produzir inovações em uma velocidade surpreendente. Para acelerar ainda mais esse processo de inovação, o professor Vincenzo Busico utiliza o método de Experimentação de Alto Rendimento (High Throughput Experimentation, HTE, em inglês) no seu Laboratório de Polimerizações Estereosseletivas na Universidade de Nápoles Federico II, na Itália. A ideia é criar bases de dados com informações sobre muitos experimentos li-geiramente diferentes em um curto período de tempo. Para isso o pesquisador conta com o auxílio de robôs de alta precisão que são capazes de rodar 50 reações diferentes, todas juntas em um mes-mo dia. Com o uso de HTE, informações que usualmente seriam coletadas em 3 meses de pesquisa são produzidas e armazenadas na base de dados em um único dia. Os pesquisadores utilizam técnicas computacionais de mineração de dados para identificar padrões e relações entre as variáveis, que ultimamente levam ao desenvolvimento de novos catalisadores para poliolefinas. O pro-fessor Vincenzo Busico concedeu uma entrevista em vídeo durante a Conferência de Inovação e Tecnologia da Braskem que está dis-ponível no YouTube da Polyteck.

Estas são apenas algumas partes da nova revolução da in-ternet e da era do Big Data. A era em que zettabytes de dados serão coletados e analisados; desde experimentos de laboratório, histórico de compras em supermercados, até ações corriqueiras do nosso dia a dia. Bilhões de dispositivos estarão conectados à internet coletando e compartilhando informações sobre cada pequena parte da nossa vida, cuidando das pessoas e fornecendo mais informações sobre nós mesmos e sobre tudo o que nos cer-ca. Ao mesmo tempo, pouca coisa é mais desconfortável do que receber um cartão de um supermercado com a frase “Parabéns pelo seu primeiro filho!”, sendo que você nunca contou para eles que iria ser pai ou mãe. A verdade é que a internet será o Big Brother observando você.

Leonardo Rodrigues da Silva é mestre em Engenharia Biomédica com formação em Informática e aperfeiçoamento em empreendedorismo e inovação. No mestrado desenvolveu um sistema usando Inteligência Artificial para controlar eletroestimuladores e colocar paraplégicos andando. Após isso, fundou a BioSmart para inovar em qualidade de vida, facilidade e informação para reabilitação física e treinamento esportivo.

Page 23: Polyteck | Edição 14

DO MODELO

PARA O APP

Product Suite

› COMSOL Multiphysics®› COMSOL Server™

ELECTRICAL› AC/DC Module› RF Module› Wave Optics Module› Ray Optics Module› MEMS Module› Plasma Module› Semiconductor Module

MECHANICAL› Heat Transfer Module› Structural Mechanics Module› Nonlinear Structural Materials Module› Geomechanics Module› Fatigue Module› Multibody Dynamics Module› Acoustics Module

FLUID› CFD Module› Mixer Module› Microfl uidics Module› Subsurface Flow Module› Pipe Flow Module› Molecular Flow Module

CHEMICAL› Chemical Reaction Engineering Module› Batteries & Fuel Cells Module› Electrodeposition Module› Corrosion Module› Electrochemistry Module

MULTIPURPOSE› Optimization Module› Material Library› Particle Tracing Module

INTERFACING› LiveLink™ for MATLAB®

› LiveLink™ for Excel®

› CAD Import Module› Design Module› ECAD Import Module› LiveLink™ for SOLIDWORKS®

› LiveLink™ for Inventor®

› LiveLink™ for AutoCAD®

› LiveLink™ for Revit®

› LiveLink™ for PTC® Creo® Parametric™› LiveLink™ for PTC® Pro/ENGINEER®

› LiveLink™ for Solid Edge®

› File Import for CATIA® V5

© Copyright 2015 COMSOL. COMSOL, COMSOL Multiphysics, Capture the Concept, COMSOL Desktop, COMSOL Server, and LiveLink are either registered trademarks or trademarks of COMSOL AB. All other trademarks are the property of their respective owners, and COMSOL AB and its subsidiaries and products are not affi liated with, endorsed by, sponsored by, or supported by those trademark owners. For a list of such trademark owners, see www.comsol.com/trademarks

Confira e Otimize seus Projetos com o COMSOL Multiphysics®

O Application Builder fornece ferramentas para facilmente criar uma interface customizada para seus modelos multifísicos. Use o COMSOL Server™ para distribuir seus aplicativos para colegas e clientes ao redor do mundo.

Acesse br.comsol.comAPRESENTANDO AGORA O APPLICATION BUILDER E COMSOL SERVER™

Avenida Comendador Franco, 1341, Sala Fone: (41) 3156 9100Incubadora, Curitiba, PR, CEP 80215-090

COMSOL Conference Curitiba 201505–06 de Novembro de 2015br.comsol.com/conference

Page 24: Polyteck | Edição 14

REALIZE SEU DOUTORADO EM UMA UNIVERSIDADE DA AUSTRÁLIA!

A Latino Australia Education é representante oficialde todas as universidades australianas no Brasil.

Oferecemos assessoria gratuita durante todo o processo de candidatura para o seu curso.

phd.latinoaustralia.com.br

Aqui você encontrará informações atualizadas sobre instituições classificadas entre as melhores do mundo e ainda terá suporte na busca do orientador ou supervisor para realização da sua pesquisa acadêmica.Converse conosco e conheça todos os serviços que oferecemos para você realizar seu projeto de estudos no exterior.