Dissertacao Edneia Aparecida de Paula 20160702 Dissertacao Edneia Aparecida de Paula 20160702
Dissertacao de Materiais
-
Upload
carlos-alberto-albuquerque -
Category
Documents
-
view
126 -
download
2
Transcript of Dissertacao de Materiais
1
INTRODUÇÃO
O universo da nanotecnologia se expande em ritmo crescente, com um
fluxo de investimentos intenso. Países como os EUA têm destinado a esse ramo de
pesquisa mais dinheiro do que aplicaram em qualquer outra iniciativa desde o
programa Apollo, na década de 60, que levou o homem à Lua[1]. Em 2007 estima-
se que os Estados Unidos terão um gasto de 1,2 bilhões de dólares em pesquisa
de desenvolvimento de nanomateriais. O Japão tem investido em proporção quase
equivalente. Os pesquisadores chineses aderiram de tal forma a essa nova
dimensão da ciência que, no ano passado, a China assumiu a liderança na
publicação de artigos científicos sobre o tema. A fundação Nacional de Ciência dos
Estados Unidos estima que em 2015 o mercado mundial de nanotecnologia
movimentará 1 trilhão de dólares[1].
Todas as nações desenvolvidas ou em desenvolvimento têm programas
de desenvolvimento e pesquisa em nanotecnologia, com orçamentos crescentes
(Figuras 1.1 e 1.2) e do mesmo nível que a biotecnologia, tecnologia da informação
e meio ambiente[1]. O resultado destes investimentos para a sociedade vem em
forma de melhoria na qualidade de vida, e principalmente na geração de novos e
melhores empregos. Embora ainda não haja a prevalência dos setores
tecnologicamente mais avançados na geração de empregos e no dinamismo
regional, a sinalização nos segmentos mais dinâmicos é justamente no sentido de
que estes irão adquirir papel cada vez mais relevante nas próximas décadas. Os
países mais desenvolvidos estão se preparando ativamente para isso[2].
A nanotecnologia já vem sendo empregada em muitas indústrias[3]. A
indústria de tecidos, através de alterações na estrutura molecular de fibras,
consegue produzir tecidos, que dificilmente se molham, pois repelem a água.
A indústria de eletro-eletrônico (celulares, câmeras, etc.) usa visores mais
econômicos, e com propriedades mais brilhantes graças à nanotecnologia. Um
1
exemplo é o nanocristal, um nanodispositivo que funciona como lâmpada
fluorescente, potencialmente muito eficiente. Este dispositivo, desenvolvido por um
projeto conjunto entre dois laboratórios norte-americanos, o Los Alamos e o
Sandia[4], se usado em substituição às lâmpadas fluorescentes convencionais
reduzirá significativamente o impacto ambiental evitando a contaminação por
mercúrio do descarte das lâmpadas atuais.
0500
1000150020002500
30003500
1997 1998 1999 2000 2001 2002 2003
Em
mil
hõ
es d
e d
óla
res
Europa Japão EUA Outros Total
Figura 1.1: Recursos governamentais para pesquisa e desenvolvimento em Nanotecnologia.
Fonte: Roco, M. M., Conference to feature progress and plans from government agencies and nanotechnology
research centers (2003) – NSF
Indústrias automobilísticas como a Mercedes Benz usam a técnica em
diversos componentes, quer em espelhos retrovisores que escurecem ao receber a
luz de outro veículo, quer em pinturas resistentes a pequenos riscos. A lista de
pesquisas inclui ainda gigantes como HP, Xerox, Kodak, General Electric e 3M.1
Com todos estes argumentos fica claro que o Brasil não pode repetir os
mesmos erros do passado, atuando como mero exportador de matéria prima e
importador de manufaturados. É função da universidade, atualizar
tecnologicamente a indústria nacional com a finalidade de gerar mais empregos e
bem estar para sua população. Uma área estratégica é a tecnologia de fármacos,
não apenas pelo montante de recursos envolvidos, como também pelo forte
impacto na saúde pública do país.
2
O custo de desenvolvimento de uma nova droga envolve o
investimento de Cerca de U$ 350 milhões e requer de 10 a 15 anos de
pesquisas até a sua introdução no mercado[5].
116190
255 270
465
697774
0100200300400500600700800900
1997 1998 1999 2000 2001 2002 2003
Em
mil
hõ
es d
e d
óla
res
120 135 157245
465
720800
0100200300400500600700800900
1997 1998 1999 2000 2001 2002 2003
Em
mil
hõ
es d
e d
óla
res
(A) (B)
126 151 179 200 225
400
650
0
100
200
300
400
500
600
700
1997 1998 1999 2000 2001 2002 2003
Em
mil
hõ
es d
e d
óla
res
70 83 96 110
380
550
800
0100200300400500600700800900
1997 1998 1999 2000 2001 2002 2003
Em
mil
hõ
es d
e d
óla
res
(B) (D)
423 559 687 825
1535
2367
3024
0
500
1000
1500
2000
2500
3000
3500
1997 1998 1999 2000 2001 2002 2003
Em
mil
hõ
es d
e d
óla
res
(E)
Figura 1.2: Crescimento do investimento governamental em nanotecnologia nos (A) Estados Unidos, (B) Japão, (C)
Europa, (D) Outros e (E) Total
Fonte: Roco, M. M., Conference to feature progress and plans from government agencies and
nanotechnology research centers (2003) – NSF
O Brasil vem se firmando como um dos maiores produtores de pesquisas
no ramo da bioquímica. A indústria farmacêutica brasileira vem investindo cerca de
3
1,3 bilhões de dólares na modernização, ampliação e implantação de novas
unidades de produção de fármacos e medicamentos desde 1997[6].
Fatores como o tamanho do mercado interno brasileiro, localização
geográfica privilegiada para a exportação para a Europa, qualificação da mão-de-
obra, abundância de matérias primas e a existência de um parque manufatureiro
moderno e competitivo para o fornecimento de insumos, fazem com que o Brasil
tenha destaque, no grupo dos países emergentes, no desenvolvimento de
pesquisas em biotecnologia voltada para a área de fármacos e medicamentos.
Mas para ser realmente competitivo, é necessário aumentar a eficiência da
pesquisa e ao mesmo tempo diminuir seus custos. Felizmente, a rápida evolução
dos sistemas computacionais, permite atualmente, o desenvolvimento de técnicas
de modelagem capazes de analisar sistemas moleculares com centenas de átomos
e prever assim suas propriedades, agilizando a criação de novos produtos
farmacêuticos para um mercado cada vez mais exigente e competitivo.
O estudo de relações entre a estrutura e a atividade biológica é de grande
importância na química e na bioquímica modernas. A analise QSAR (Relação
Quantitativa entre Estrutura Química e Atividade Biológica) permite a busca por
compostos com determinadas características bioativas usando a química sintética
e a química quântica para o projeto de compostos bioativos com propriedades
específicas. Uma vez determinada a relação entre uma estrutura ou propriedade
com a atividade biológica desejada, selecionam-se os compostos mais promissores
e inicia-se a síntese laboratorial, resultando em economia de divisas e tempo.
Para obter boas correlações entre uma propriedade ou estrutura e a sua
atividade biológica é fundamental que se utilizem descritores apropriados,
indiferentemente se eles têm de origem teórica, empírica ou derivada de medidas
experimentais obtidas a partir das estruturas moleculares. Muitos destes
descritores refletem propriedades moleculares simples, e podem ajudar na
compreensão da natureza físico-química da relação atividade/propriedade em
consideração.
A mecânica quântica, considerada uma das maiores realizações
intelectuais do século XX, tem sido a base conceitual que permitiu o entendimento
da química de maneira mais completa com implicações práticas em ramos diversos
como espectroscopia, microscopia eletrônica, modelagem molecular, entre outras.9
4
Especialmente no caso que se refere a modelos moleculares, o papel
desempenhado pela mecânica quântica é, juntamente com a termodinâmica
estatística, de integração da linguagem e de conceitos químicos, permitindo a
interpretação e a racionalização de propriedades macroscópicas com fundamentos
em nível atômico-molecular.8
O desenvolvimento de algoritmos eficientes, ou seja, que tenham um bom
nível de exatidão em relação aos experimentos e não utilizem muito tempo e
memória de computador, tem ajudado nas rotinas de cálculos mecânicos-
quânticos. Novos métodos semi-empíricos resultam valores realísticos de
grandezas moleculares obtidos por métodos de mecânica quântica em tempos
razoáveis de computação. Assim, a química quântica é uma atrativa fonte de
descritores que pode, a princípio, expressar todas as propriedades eletrônicas e
geométricas de uma molécula, e suas interações com o ambiente, fornecendo uma
visão mais detalhada dos efeitos eletrônicos que os métodos empíricos.9
1.1 – Modelagem molecular no projeto de nanomateriais
A fabricação de nanomateriais é um desafio para as áreas acadêmica e
industrial devido ao estágio em que se encontram as ferramentas que podem ser
utilizadas no processo de fabricação.
Contudo, o projeto e a modelagem desses nanomateriais podem ser
facilmente realizados com a tecnologia atual, sendo uma maneira fácil e barata de
explorar verdadeiramente a ampla escala de sistemas moleculares possíveis de
serem implementados, permitindo uma rápida avaliação e eliminação de sistemas
não funcionais e definindo o foco de investigação em sistemas promissores.
Um dos princípios básicos dos pesquisadores em Nanotecnologia é
inspirado na frase do matemático Paul Dirac:10 “As leis fundamentais necessárias
para o tratamento matemático de uma grande parte da física e de todas as partes
da química são completamente conhecidas. A dificuldade está somente no fato de
que as aplicações dessas leis levam a equações muito complexas de serem
resolvidas”
Com o avanço da tecnologia, a possibilidade de se desenvolver softwares
de modelagem molecular que incluem pacotes computacionais na área de química,
isto é, mecânica molecular e programas semi-empíricos e ab initio, vêm sendo
5
desenvolvidos e, juntamente com ferramentas correlatas, podem permitir aos
pesquisadores um planejamento de fabricação de sistemas moleculares.
Como um dos grandes desafios da nanotecnologia é construir micro-
dispositivos com precisão em nível atômico, a utilização de softwares que permitam
a visualização dos sistemas moleculares que compõem um determinado objeto
seria extremamente útil. Estes softwares são desenvolvidos com base em algumas
técnicas como, por exemplo, a mecânica molecular e cálculos ab inítio de ordem
mais elevada.
A mecânica molecular permite a modelagem computacional das posições
e das trajetórias dos núcleos de átomos individuais sem uma carga computacional
desnecessária, ou seja, sem realizar cálculos que o resultado pouco ou quase
nada interfere no comportamento da molécula. Os pacotes atuais disponíveis em
computadores pessoais podem prontamente fazer minimizações de energia em
sistemas com milhares de átomos, enquanto que supercomputadores podem
resolver sistemas com centenas de milhares de átomos ou mais.10 Análises mais
complexas, particularmente as que envolvem busca em grandes espaços de
configurações podem limitar o tamanho do sistema que pode ser efetivamente
resolvido.
Enquanto campos de força, obtidos empiricamente, devem ser
suficientemente exatos para modelar o comportamento das estruturas
quimicamente estáveis que interagem com outras estruturas quimicamente
estáveis, a mecânica molecular não garante a exatidão suficiente para tratar as
reações químicas.
As técnicas de modelagem molecular impõem restrições no número de
átomos que podem ser modelados (dependendo do hardware, do software e do
tipo específico de modelagem), mas podem fornecer uma exatidão suficiente para
analisar as reações químicas que devem necessariamente ocorrer durante a
síntese de macro-estruturas, atomicamente precisas.
1.2 – Desenvolvimento racional de novos materiais utilizando modelagem
molecular
Atualmente a modelagem molecular vem sendo intensivamente aplicada
na interpretação de resultados experimentais e no desenvolvimento de novos
materiais com propriedades específicas.11
6
O objetivo da modelagem molecular é relacionar todas as propriedades
moleculares importantes, ou seja, estabilidade, reatividade e propriedades
eletrônicas com a estrutura molecular. Desta forma é possível desenvolver
algoritmos capazes de calcular uma estrutura molecular com uma estéreo-química
específica e correlacioná-la com as propriedades moleculares apresentadas pela
substância.
O aumento significativo no uso dos computadores tem contribuído
significativamente para o desenvolvimento racional de novos materiais, através da
modelagem molecular e da química computacional, que constituem uma nova
forma de fazer química. O êxito alcançado nesta área tem, sem dúvida, servido de
base para o desenvolvimento das técnicas aplicadas ao desenvolvimento de novos
materiais. A modelagem molecular tem por objetivo a racionalização do
desenvolvimento de novos materiais, resultando em um trabalho mais preciso e em
uma redução substancial dos custos no desenvolvimento dos mesmos.
O recente desenvolvimento dos métodos de simulação molecular e
programas computacionais têm criado oportunidades para investigar novos
materiais, descrevê-los a nível molecular e, ainda prever suas propriedades.
Simulação de materiais envolvendo centenas de átomos já pode ser realizada
dentro de um tempo computacional razoável em uma estação de trabalho.12
A simulação computacional nos habilita a compreender as estruturas e o
movimento das moléculas. O fato de analisar o comportamento de moléculas em
diferentes fases da matéria permite uma avaliação muito mais detalhada das
propriedades estáticas e dinâmicas do sistema, do que aquelas que poderiam ser
fornecidas por medidas experimentais. Conformações e movimento moleculares
são fundamentais para o entendimento de muitos processos físicos em muitos
materiais, como os poliméricos, por exemplo. A relação entre propriedades
macroscópicas da matéria e a natureza microscópica do movimento em um nível
atômico-molecular é uma questão importante para o desenvolvimento de novos
materiais e uma melhor compreensão sobre aqueles já existentes. Enquanto a
estrutura atômica em cristais, em uma escala nanométrica, é bem estabelecida por
técnicas experimentais, à dinâmica detalhada é ainda pobremente entendida.
Técnicas de simulação computacional têm oferecido um caminho para o
progresso neste campo, fornecendo uma representação extremamente lenta do
movimento, necessária para a descrição do movimento atômico (tempo real).13
7
Apesar de sua inerente limitação em uma amostragem vigorosa do espaço
configuracional para sistemas densos, a técnica da Dinâmica Molecular (MD) é um
método que continua sendo extensivamente empregado. Isto se deve não somente
à simplicidade do método, mas por ser o único capaz de fornecer informações
diretas na evolução temporal do sistema, uma característica que outras técnicas de
simulação molecular, como aquelas do tipo Monte Carlo14 (MC) e Mecânica
Molecular15 (MM) não apresentam. Portanto, são limitadas em suas aplicações
para uma representação realística do movimento molecular.16
A técnica MD foi desenvolvida no final dos anos 50, por Alder e
Wainwright, para estudar a transição de fase em líquidos representados por
esferas rígidas.17 Desde então, a aplicação da simulação em Dinâmica Molecular
tem se expandido para muitos outros processos.18 No campo das ciências dos
materiais, as aplicações incluem investigações da transição vítrea,19 interações de
longo e curto alcance, e correlação de orientação,20 superfície em polímeros
vítreos,21 dinâmica de cadeia local,22 espectro vibracional,23 difusão de pequenas
moléculas.24
A simulação computacional é uma das fortes ferramentas para investigar
os mecanismos da formação estrutural em nível molecular.25 Vários estudos têm
sido realizados com o intuito de compreender a dinâmica de sistemas poliméricos,
por exemplo, ordenados ou parcialmente ordenados. Esselink utilizou a Dinâmica
Molecular para conhecer a nucleação e fusão de n-alcanos e, assim, determinar as
temperaturas de cristalização e fusão e a velocidade de cristalização dos núcleos.26
Yamamoto estudou a dinâmica dos defeitos conformacionais, onde uma cadeia de
polietileno era confinada em um potencial cilíndrico.27 Kavassalis estudou o
processo de folding de uma cadeia de polietileno abaixo da temperatura de fusão.28
Sumpter investigou importantes aspectos em polímeros cristalinos, como o efeito
do folding da cadeia do polietileno na velocidade de fusão.29
A literatura tem mostrado diversos estudos no qual a modelagem
molecular desempenha um importante papel no desenvolvimento de materiais na
escala nano. A evolução das ferramentas computacionais tornou mais acessível à
utilização dos métodos mecânicos-quânticos para o desenvolvimento “in silício” de
nano materiais. Entretanto a utilização de tais métodos requer, não somente um
conhecimento básico dos métodos da química quântica ao nível molecular, mas
também o conhecimento preciso do potencial de tais métodos. Uma revisão dos
8
conceitos básicos abordados na mecânica molecular será o enfoque do próximo
capitulo.
2
CONCEITOS BÁSICOS EM MODELAGEM MOLECULAR
2.1 – Os métodos teóricos
A simulação computacional usando métodos semiclássicos tem tido um
papel importante no desenvolvimento das mais diversas áreas de conhecimento.30
Podemos observar, na literatura especializada que a criação e a proposição de
novos materiais têm crescido vertiginosamente após o aparecimento das técnicas
computacionais em modelagem molecular (MM). Em particular o uso destas
técnicas têm promovido o aparecimento de novas ligas metálicas, novos fármacos
assim como novas estruturas em sistemas biomoleculares.
Um motivo importante para este desenvolvimento é a limitação
computacional, nos tempos atuais, em resolver problemas envolvendo um grande
número de átomos e moléculas a partir das equações básicas da mecânica
quântica. Os tempos computacionais envolvidos em uma abordagem puramente
quântica destes problemas são absolutamente proibitivos.11 A alta velocidade de
crescimento desta área de pesquisa tem sido possível devido ao fato de que as
9
simulações computacionais permitem diminuir a interface entre a teoria e o
experimento.
A exemplo da biofísica, o estudo e caracterização de materiais complexos
e problemas deparam com um número imenso de graus de liberdade, nas
coordenadas eletrônicas e nucleares, que inviabiliza o efetivo tratamento destes
sistemas usando puramente cálculos computacionais. Técnicas alternativas
envolvendo métodos híbridos clássico-quântico têm sido usadas como uma
poderosa ferramenta na análise de estruturas moleculares, ligações químicas e no
estudo de propriedades mecânicas, termodinâmicas, elétricas e espectroscópicas.
As metodologias para o procedimento de simulação são oriundas
dos princípios gerais das dinâmicas clássica e quântica e dos princípios de
extremos envolvendo grandezas físicas. Isto dá origem aos métodos
Gradientes, Dinâmica Molecular (DM), os métodos híbridos clássico-quântico e aos
métodos Estocásticos.
As técnicas envolvidas em dinâmica clássica utilizam os campos de forças
devidamente parametrizados, a partir de informações experimentais diversas
acerca do sistema. Cálculos quânticos utilizam métodos ab-initio e semi-empíricos
para a determinação dos campos de forças com seus parâmetros. Os cálculos ab-
initio e semi-empíricos determinam as funções potenciais a serem utilizadas nos
sistemas estocásticos.11
É importante ressaltar que apesar das dificuldades na implementação e
utilização dos métodos quânticos em cálculos de propriedades moleculares, eles
são fundamentais na parametrização dos campos de força clássicos. Esta
parametrização é feita aplicando os métodos quânticos em pequenos sistemas
moleculares no sentido de caracterizar propriedades moleculares, as quais serão
estendidas aos sistemas macroscópicos. Neste caso, algumas técnicas quânticas
mais utilizadas atualmente são: teoria do funcional da densidade (DFT), método
Hartree-Fock e diversas aproximações semi-empíricas destas técnicas, tais como
as aproximações MNDO, AM1 E PM3.
2.1.1 – Métodos ab initio e Semi-empíricos
O método ab initio está baseado no Hamiltoniano fundamental,
sem muitas simplificações.31 Além disso, os cálculos só usam as quantidades bem
estabelecidas, como, por exemplo, constantes fundamentais e números atômicos
10
dos núcleos.31 A maior vantagem deste método é o alto nível de confiabilidade dos
resultados obtidos. Infelizmente, existe também a seguinte desvantagem: os
cálculos numéricos baseados neste método quase sempre levam muito tempo e
consomem muita memória dos computadores. Por isso o uso do método ab initio
torna-se, computacionalmente, muito custoso para estudo de moléculas acima de
20 átomos. Geralmente emprega-se o método ab initio para conferir os resultados
obtidos dentro de outras abordagens (métodos semi-empíricos) ou para estruturas
moleculares mais simples, nos casos em que há uma possibilidade computacional.
Na determinação da energia e da função de onda do estado fundamental
de um sistema através do método ab initio, ou de primeiros princípios é envolvido
um grande número de integrais de dois corpos (elétrons de átomos
diferentes), que trazem um alto custo computacional, para sistemas moleculares
grandes, ou seja, acima de 20 átomos. Para contornar essas dificuldades, foram
feitas várias aproximações e parametrizações subseqüentes, que determinam os
elementos da matriz de Fock. Assim introduziu-se a teoria de orbital molecular aos
métodos Semi-empíricos cuja importância está relacionada à capacidade de prever
as propriedades físicas e químicas de um sistema, respondendo satisfatoriamente
aos parâmetros experimentais a serem avaliados. São mais rápidos se
comparados aos métodos ab initio, e são mais viáveis se aplicados a sistemas
constituídos por muitos átomos.
Os métodos semi-empíricos representam uma abordagem à solução das
equações de Schrödinger para o sistema de muitos corpos (átomos, moléculas ou
sólidos) usando a simulação numérica e computacional. Considerando a equação
como:
(2.1)
sendo o operador Hamiltoniano do sistema e a função de onda.
é o operador que representa a energia total do sistema sendo dado por:
(2.2)
11
onde ZA é a carga do átomo A e RAB é a distância entre os núcleos dos átomos A e
B. Para simplificar as equações nós usamos as notações . Os primeiros
dois termos em (2.2) representam, respectivamente, a energia cinética dos elétrons
e dos núcleos. O terceiro termo é a energia da interação (atrativa) entre os núcleos
e os elétrons. Os últimos dois termos correspondem a energias repulsivas das
interações entre os núcleos e entre os elétrons.
A equação de Schrödinger pode ser simplificada, se levarmos em conta a
grande diferença entre as massas dos elétrons e dos núcleos. Na teoria clássica as
velocidades de movimento dos núcleos são muito menores do que as velocidades
dos elétrons (isso é uma conseqüência do teorema da eqüipartição de energia). No
nível quântico podemos esperar que a incerteza nas posições dos núcleos seja
muito menor e usamos este efeito para construir uma aproximação adiabática. A
simplificação é alcançada na conhecida aproximação de Born-Oppenheimer. Nesta
aproximação as posições espaciais de todos os núcleos são fixas, segue-se daí
que a energia cinética dos núcleos é zero e a energia potencial de repulsão núcleo-
núcleo é constante. Então, em vez do Hamiltoniano completo (2.2) podemos utilizar
Hamiltoniano eletrônico:
(2.3)
sendo a energia cinética eletrônica, a energia de Interação atrativa entre o
núcleo e o elétron e a energia de interação repulsiva entre os elétrons e
a equação de Schrödinger correspondente:
(2.4)
onde as funções de onda dependem somente das coordenadas dos elétrons.
As energias formam o espectro da nova equação e as coordenadas
dos núcleos entram como parâmetros externos. A energia total do sistema é dada
por:
(2.5)
12
sendo a energia de interação nuclear dada por:
Para obter a solução aproximada da equação (2.4) podemos aplicar o método
variacional. Neste caso aproximaremos a função da onda pela função de onda
num estado fundamental com energia mínima . O critério para escolha da
energia é o princípio variacional:
(2.6)
o termo indica que é a função de onda de N elétrons. Esta função deve ser
escolhida entre as funções aceitáveis do ponto de vista físico.
Obviamente, as soluções e vão depender de N e da escolha de
potencial . Levando em conta o fato que e são funções de onda de
sistemas eletrônicos, a solução para a função como um produto anti-simétrico
de N ondas de um elétron é dada pelo diferencial de Slater :
(2.7)
Cada função de onda de um elétron se chama spin-orbital e consiste
de uma parte orbital e de função de spin que pode assumir dois valores
e :
, onde
As funções , são ortogonais entre si:
13
Utilizando o princípio variacional (Eq. 2.6) o “melhor” determinante de
Slater , para o qual a energia do sistema chegue a seu mínimo pode ser
encontrada:
,
sendo a energia de Hartree-Fock dado por:
A energia de Hartree-Fock representa um funcional de orbitais de spin
. Para escolher estas funções usualmente se utilizam os operadores de
Fock:
(2.8)
sendo o spin-orbital e autovalores do operador , podendo ser interpretados
como energias de orbitais eletrônicos. se denomina operador de Fock e é o
operador de um elétron e pode ser definido por:
. (2.9)
Na equação 2.9 o índice i indica as coordenadas de elétron i. A equação (2.8) se
chama equação de Hartree-Fock e determina os “melhores” orbitais de spins, que
correspondem ao valor mais baixo de .
A equação para o orbital de cada elétron inclui as coordenadas de outros
elétrons como parâmetros. Na equação (2.8) as quantidades (autovalores de
operador ) podem ser interpretadas como energias de orbitais eletrônicos. Os
primeiros dois termos na equação (2.9) representam a energia cinética e o
potencial atrativo de interação elétron-núcleo. é o potencial efetivo de Hartree-
14
Fock. Este potencial representa a medida de potencial repulsivo que existe entre i-
ésimo elétron e outros (N – 1) elétrons:
, (2.10)
sendo o potencial de Coulomb de um elétron na posição
gerado pela distribuição média de carga de outro elétron de orbital de spin . O
termo representa a probabilidade de encontrar o elétron no elemento
de volume . Portanto o potencial de Coulomb , , pode ser reescrito como:
(2.11)
O segundo temo da Equação 2.10 inclui o operador denominado operador de
troca. O operador não possui nenhum análogo clássico e representa a parte da
energia potencial ligada à correlação dos spins. Este termo pode ser definido
como:
. (2.12)
O determinante de Slater não é a solução exata de problema de N corpos, mas, em
vez disso, representa uma solução aproximada. É difícil ver que o determinante na
Equação 2.7 com orbitais da base definidos na Equação 2.8 é uma solução de
problema de autofunções. Logo:
. (2.13)
Portanto, o operador de Hartree-Fock descreve o sistema de N elétrons que não
interagem entre si, mas estão sob influência do potencial efetivo . Em outras
15
palavras, o determinante de Slater é uma função de onda exata de N elétrons não
acoplados num campo de potencial efetivo .
Na prática, a aplicação de método de Hartree-Fock a sistemas
complicados, como por exemplo, às moléculas grandes (acima de 20 átomos),
encontra dificuldades. Uma das abordagens existentes para simplificar a solução
do problema se chama método de Hartree-Fock-Roothaan. Neste método as
equações são transformadas num problema matricial, com representação dos
orbitais de spins como uma combinação linear de funções já conhecidas . Estas
funções formam uma base com a qual podemos escrever a função de onda de um
elétron como:
. (2.14)
N representa o número de elétrons da base e os coeficientes cij formam uma matriz
não degenerada. Desta maneira obtém-se N funções linearmente independente
e o único problema que resta é calcular os coeficientes . Como primeiro passo, a
Equação 2.8 é reescrita para o elétron 1 e função espacial ocupada por este
elétron:
. (2.15)
Substituindo a Equação 2.14 pela Equação 2.15, obtém-se:
. (2.16)
Se multiplicarmos ambos os lados da equação de Hartree-Fock (Equação 2.16)
pelas funções da base após integração obtém-se:
.
16
Logo,
, (2.17)
sendo
(2.18)
Representando os elementos da matriz S (denominado matriz de sobreposição)
tem-se:
(2.19)
são elementos da matriz de Fock F. A Equação 2.17 pode ser escrita numa forma
matricial, chamada equação de Roothaan-Hall:
. (2.20)
c é uma matriz N por N com elementos , é uma matriz diagonal, onde os
elementos são energias dos orbitais .
A Equação 2.20 tem solução trivial quando o seguinte critério é satisfeito:
. (2.21)
O procedimento usualmente utilizado para realização dos cálculos numéricos de
obtenção dos coeficientes é o método de campo auto-consistente SCF (Self-
Consistent Field). Este método consiste em incluir os efeitos das repulsões
intereletrônicas no modelo orbital como um valor médio (energia média de
interação de repulsão).32 Desta forma, não considera-se a posição instantânea dos
elétrons, que movimentam-se mantendo a maior distância possível entre si. Tais
movimentos não são independentes um do outro, estando correlacionados, e por
isso diz-se que o modelo de Hartree-Fock não considera a correlação eletrônica.32
17
No caso de simulações numéricas de sistemas de muitos corpos,
podemos afirmar que o método de Hartree-Fock pode ser uma base para
diferentes abordagens. Sua eficiência depende, principalmente, da complexidade
do sistema sob investigação e do nível das aproximações utilizadas.
Os métodos semi-empíricos estão baseados na utilização de informação
adicional sobre as moléculas de interesse, com objetivo de simplificar os cálculos.
Esta informação pode vir de dados experimentais ou ser resultado de cálculos
numéricos alternativos. Os parâmetros obtidos desta maneira podem ser vistos
como valores aproximados de algumas integrais. Essa metodologia permite tratar
vários sistemas com uma precisão razoável.
O método de Hückel, um dos primeiros métodos semi-empíricos, ignora
completamente a repulsão entre elétrons. Este método foi desenvolvido na década
de 30 com o objetivo de estudar moléculas orgânicas, para as quais a informação
química está ligada, particularmente, os elétrons valência. No método de Hückel, o
Hamiltoniano da molécula é escrito como:
(2.22)
Na Equação 2.22 o Hamiltoniano do sistema é a soma dos Hamiltonianos dos
elétrons Hückel e o Hamiltoniano do caroço (núcleo e os outros elétrons do
sistema). No método Hückel o Hamiltoniano dos elétrons se escreve
aproximadamente como a soma dos Hamiltonianos de um elétron num campo
efetivo dos núcleos e dos elétrons. Logo:
. (2.23)
Assumem-se neste caso que as integrais de sobreposição são , os
elementos diagonais e os elementos fora da diagonal são quando
os átomos r e s são vizinhos ligados, e nulos em caso contrário. De modo geral, os
métodos semi-empíricos onde elementos de matriz de sobreposição fora de
diagonal são nulos para os átomos não-vizinhos chama-se de método de
sobreposição diferencial nula (ZDO – zero differential overlap).
18
A outra versão de teoria elétrons se chama o método Pariser-Parr-Pople.
Nesta abordagem muitas integrais de repulsão entre elétrons (mas não todas) são
ignoradas. Este método produz melhores resultados para moléculas não planares.
Integrais de dois centros (os elétrons pertencendo a átomos vizinhos) são
parametrizadas e obtidas através de dados experimentais. As integrais de três e
quatro centros são consideradas identicamente nulas. Em outras aproximações
denominadas CNDO (complect neglect of differential overlap)33,34, INDO
(intermediate neglect of differential overlap)33,35 e NDDO (neglect of diatomic
differential overlap) consideram-se apenas os elétrons de valência, os quais se
movimentam no campo de um núcleo fixo (núcleo mais elétrons interiores em
camadas fechadas).
A base do método CNDO é formada pelo uso de orbitais atômicos de
Slater para elétrons de valência e também na aproximação ZDO. As integrais
são substituídas por parâmetros experimentais ou teóricos, de acordo com
a abordagem geral dos métodos semi-empíricos. No método INDO as
sobreposições entre orbitais atômicas do mesmo átomo são calculadas, ao mesmo
tempo em que as integrais de dois centros são consideradas como nulas. No
método NDDO as integrais de sobreposição são nulas entre orbitais atômicos
centrados em átomos diferentes. Como exemplos de modificação destes métodos,
podemos mencionar os métodos MINDO, MNDO, AM1 e PM3.
Na aproximação MNDO (Negligência Modificada da sobreposição
Diferencial) as contribuições de elétrons do mesmo átomo (constituinte de uma
molécula) são obtidas através de valores experimentais oriundos de átomos
isolados, enquanto as integrais de dois centros são consideradas como parâmetros
ajustáveis do método. Para determinação destes parâmetros são usados os
valores calculados para as moléculas cuja geometria, calor de formação, potencial
de ionização e momento dipolar são experimentalmente conhecidos.
Em 1985 foi publicada uma nova versão do método MNDO – AM1 (Austin
Model 1). Neste método foram parametrizadas as integrais dos seguintes átomos:
H, B, C Si, N, O S, F, Cl, Br, I, Hg e Zn. Se comparar com MNDO, o método AM1
calcula melhor a repulsão entre núcleos e proporciona melhores resultados de
moléculas envolvidas em processos biológicos.
Em 1989 foi apresentada outra versão do MNDO – PM3 (Modelo
Parametrizado 3), onde foram parametrizados os seguintes átomos: H, C, Si, Ge,
19
Sn, Pl, N, P , As, Br, O, S, Se, Te, F, Cl, Bi, I, Al, Be, Mg, Zn, Cd e Hg. É fácil
verificar que a lista dos átomos parametrizados neste caso é mais ampla do que no
caso do método AM1. Em vários casos o método PM3 proporciona melhores
resultados, especialmente para o estudo da geometria molecular e da energia de
ionização, do que o método AM1, mas em outros casos a situação é oposta (por
exemplo, para o cálculo das ligações de hidrogênio).
Atualmente os métodos AM1 e PM3 são os mais usados entre todos os
métodos semi-empíricos. Existe um grande número de publicações onde estes
métodos são comparados. O critério mais utilizado é a capacidade de estabelecer
as geometrias de moléculas e o espectro de energia molecular. Os resultados
variam dependendo do tipo de moléculas em investigação.
Entre os mais populares pacotes de programas que usam os métodos
semi-empíricos podemos mencionar os HyperChem, Spartan, GAMESS e Cachê
5.0.
2.1.2 – Dinâmica Molecular (MD)[24]
Os métodos comumente usados para analisar o comportamento de
sistemas de escala molecular são denominados de dinâmica molecular. Uma
análise destes métodos inicia-se com a equação de Schrödinger não-relatívistica e
independente do tempo, Neste caso, os vetores R e r devem conter informações a
respeito do sistema todo, ou seja, todos os vetores posição . Portanto, R pode ser
tratado matematicamente como uma matriz. O mesmo vale para r. Logo:
(2.24)
Na Equação 2.24, H representa o operador Hamiltoniano para este
sistema, é a função de onda e E é a energia (autovalor da autofunção ).
As coordenadas relevantes para o problema incluem R, as posições dos núcleos
atômicos e r, as posições dos elétrons associados.
Resolver a Equação 2.24 ainda é um procedimento muito trabalhoso para
ser prático. Em 1927 Born e Oppenheimer sugeriram que seria possível desacoplar
o movimento dos elétrons dos movimentos dos núcleos em duas equações
20
diferenciais separadas e considerando que o núcleo dos átomos é, pelo menos três
ordens de grandeza mais pesado do que os elétrons, ou seja:
(2.25)
(2.26)
Na Equação 2.25, a posição nuclear R é apenas um parâmetro constante.
A Equação 2.25 define uma energia E(R), em função apenas das coordenadas
nucleares. A esta energia damos o nome de superfície de energia potencial. Neste
caso, a Equação 2.26 definirá o movimento dos núcleos nesta superfície e o termo
“superfície” não implica dimensionalidade neste caso. O movimento dos núcleos só
pode ser calculado depois de determinada a função E(R).
O procedimento comum para determinar E(R) pela Equação 2.25 seria o
mais indicado. Conhecendo E(R), poderia-se resolver então a Equação 2.26. De
fato, alguns pacotes computacionais seguem este procedimento a exemplo do
Dmol, Turbomole, GAMESS, Hondo, CADPAC e Gaussian, mas a grandes custos
computacionais. Outros métodos, menos custosos matematicamente, aproximam
várias das integrais a serem resolvidas no processo de resolução da Equação 2.25
por valores empíricos a exemplo do ZINDO, MNDO, MINDO, MOPAC e AMPAC.
Os métodos mais convenientes são aqueles que avaliam E(R) praticamente
independentemente da Equação 2.25, e apenas com termos empíricos adequados
a dadas situações.
As funções E(R) determinadas empiricamente são chamadas comumente de
campos de força.
Considerando apenas o movimento dos núcleos atômicos, a equação de
Schrödinger pode ser reduzida à equação padrão de Newton, Equação 2.27, dado
que os efeitos quânticos terão pouco efeito sobre os núcleos, relativamente
pesados:
(2.27)
21
Portanto, o termo dinâmica molecular está associado à resolução da
Equação 2.27. Um outro tratamento molecular interessante é a Mecânica
Molecular, que ignora a evolução do sistema com o tempo e lida com problemas
Associados à geometria molecular, energias associadas e outras propriedades
estáticas do sistema.
As Ferramentas de simulação utilizando a dinâmica molecular calculam de
forma iterativa o movimento de átomos em moléculas, o que é fundamental na
determinação da estrutura tridimensional de proteínas e ácidos nucléicos.36
Existem vários sistemas disponíveis para simulação da dinâmica molecular. Alguns
exemplos são CHARMM [BROOKS83], desenvolvido na Universidade de Harvard,
o Namd, Universidade de Illinois e o Thor, Universidade Federal do Rio de Janeiro.
2.1.2.1 – O campo de Força37
Para encontrar a superfície de energia potencial através de cálculos da
dinâmica molecular, precisamos expressar a energia total do sistema em função
das coordenadas dos átomos envolvidos. Felizmente vários pacotes
computacionais, como os CHARMM [BROOKS83], Namd e o Thor, fornecem
maneiras convenientes de definir o campo de força de um sistema. Em especial, a
cada átomo de um sistema deve ser atribuído um tipo de campo de força, dado que
diferentes elementos – ou até mesmo os mesmos elementos em diferentes
situações – podem se comportar de maneiras diferentes. A cada um destes tipos
de campo de força estão associadas várias formas funcionais de potenciais, como
torção, comprimento de ligações químicas, superfície Van der Waals, etc.
Os parâmetros e coeficientes das formas funcionais podem ser
determinados empiricamente e já contêm informações quânticas de maneira
experimental, embora de maneira muito limitada e genérica, já que os parâmetros
foram encontrados de maneira tal que o campo de força explicasse fenômenos
observáveis.
É importante lembrar, nesse ponto, que o objetivo do campo de força que
é “modelar” um grande número de situações, com baixos custos computacionais.
Alguns outros tipos de campo de força são mais adequados a um menor leque de
situações e têm como objetivo uma grande precisão em sua modelagem e em suas
previsões.
22
Os métodos associados à campos de força têm suas imitações intrínsecas.
A investigação de situações relacionadas a fenômenos como transições
eletrônicas, transporte eletrônico e transferência de prótons (reações ácida-base)
estão além do alcance da maioria dos métodos de campos de força.
Apesar destas limitações, os campos de forças são muito úteis em
sistemas complexos, já que nestes, os métodos quânticos teriam um custo
computacional elevado. Embora o uso de campos de força não permita a
investigação de propriedades quânticas, existem várias situações nas quais as
propriedades de interesse não são quânticas. Exemplos destes sistemas incluem
os sistemas macromoleculares orgânicos ou inorgânicos.
Os métodos de campos de força proporcionam um grande nível de
controle sobre as energias que regem o sistema. Pode-se decompor o termo E(R)
em potenciais conhecidos de torção, ligações químicas, e assim por diante. É
possível aplicar restrições e modificações nestes termos; em particular, é possível
restringir alguma espécie de movimento e limitar alguns efeitos para a minimização
dos custos computacionais associados à dinâmica molecular.
Para um conjunto de átomos, poderíamos restringir os efeitos de torção,
por exemplo, devido a alguma peculiaridade do sistema em questão – este tipo de
artifício recebe o nome de restrição. Uma maneira mais drástica e
computacionalmente econômica é restringir o movimento de um conjunto de
átomos completamente, método este comumente chamado de confinamento.
2.1.2.2 – O significado físico do Campo de Força
A função E(R) para um sistema específico, pode ser encontrado utilizando-
se as informações empíricas de um campo de força e as coordenadas de um dado
sistema. Assim uma expressão para a energia de um sistema em uma dada
situação, pode ser determinada.
A energia potencial para um dado sistema pode ser expressa como a
soma dos termos associados às ligações (os termos de valência), os termos
cruzados (forças que associam diretamente deformações e ângulos de ligações),
que representam a interação entre ligações atômicas próximas e cuja
implementação é razoavelmente nova e, os termos restantes, que não estão
associados às ligações e retratam a interação de átomos quimicamente separados.
Atribuindo a estes termos as palavras inglesas valence, crossterm e
23
nonbond, respectivamente, temos a seguinte relação:
(2.28)
De acordo com a Tabela 2.1 poderia-se utilizar a Equação 2.29 para o
cálculo de um campo de força exemplificado. Para que a Equação 2.29 seja de
alguma utilidade, é necessário algum conhecimento a respeito dos coeficientes
para uma dada situação. Na verdade, mesmo a forma matemática funcional de um
campo de força sofre modificações, de acordo com a sua utilização. Neste sentido,
a Equação 2.29 é apenas um exemplo geral de campo de força. Note que os
coeficientes variam não só de acordo com o elemento atômico, mas de acordo com
a sua posição, simetria de ligações químicas, etc. Cada uma destas situações deve
admitir coeficientes diferentes.
O campo de força que segue a Equação 2.29 trata-se de um campo
genérico que acompanha o programa de simulação Cerius2 versão 4.2, e é
chamado Universal Forcefield, ou UFF no qual os parâmetros são gerados com
base em regras fisicamente realistas. Amplos testes indicam que simulações de
dinâmica molecular usando o Cerius2 têm resultados aceitáveis em um grande
intervalo de situações.
(2.29)
As formas funcionais utilizadas no UFF incluem um termo
harmônico para o estiramento de ligações. Além deste, este campo descreve as
energias associadas a variações de ângulo com três termos de uma expansão de
Fourier, e expressa torções e inversões com termos co-seno de expansões Fourier.
24
As interações de Van der Waals são descritas por um típico potencial, o de
Lennard-Jones, que tem uma forma Ar. As interações eletrostáticas
são descritas por monopolos atômicos e um termo coulômbico empiricamente
ajustado.
Tabela 2.1: Descrição dos Potenciais de alguns sistemas moleculares
25
26
27
2.1.2.3 – Integração da equação de Newton
Vários métodos numéricos integram a Equação 2.27, mas deve-se
escolher o mais adequado a cada sistema em particular. A idéia geral é bastante
simples e segue o método das diferenças finitas, no qual as posições e velocidades
em um dado instante t são conhecidas, e deve-se calcular as posições e
velocidades um momento depois, através de uma fórmula de recorrência,
, ou semelhante.
Os critérios que qualquer algoritmo deve satisfazer incluem baixo uso de
memória em computadores e pequeno número de avaliações da superfície de
energia (estas avaliações requerem grande esforço matemático). Além disso, o
algoritmo deve permitir o uso de um intervalo grande, ou o número de
interações necessárias será enorme. Finalmente, o algoritmo também deve ser
estável do ponto de vista da conservação de energia, pois a energia pode ser
transformada de uma forma noutra, mas a energia total do sistema isolado
conserva-se. Então o algoritmo tem que detectar esse princípio e não ficar
realizando cálculos desnecessários que só vão desperdiçar tempo e chegar ao
mesmo resultado.
Dois métodos muito comuns quanto à sua utilização na integração da
Equação de Newton são os integradores de Verlet Leapfrog Integrator e Verlet
Velocity Integrator
Estes dois métodos e suas variantes são muito amplamente utilizados na
investigação da estrutura e dinâmica de moléculas. Os integradores propostos por
Verlet em 1967 têm as vantagens de só precisarem de uma pequena quantidade
de memória, avaliar a energia uma vez a cada intervalo de integração e possibilita
o uso de um intervalo de quantização de tempo razoavelmente grande sem
problemas, ou seja, sem distorcer o resultado dos cálculos. O algoritmo associado
ao integrador Verlet Leapfrog segue a fórmula de recursão apresentada na
Equação 2.31 e utiliza como entrada as grandezas posição, velocidade e
aceleração nos instantes e t, respectivamente, como mostrada na
Equação 2.30.
Entrada de dados: (2.30)
28
(2.31)
O principal problema do algoritmo é evidente nas suas fórmulas de
recursão: as velocidades e as posições estão sempre fora de fase por meio do
intervalo . Desta forma, só conhece r(t) e e nunca ou mesmo
v(t). De qualquer forma, é intuitivo que seja uma expressão mais
adequada para o intervalo do que v(t) ou mesmo .
O algoritmo associado ao integrador Verlet de velocidade não sofre da
mesma limitação. Suas fórmulas de recursão podem ser vistas na Equação 2.33, e
utiliza a posição, velocidade e aceleração em um instante para calcular as mesmas
variáveis em certo depois do tempo inicial:
(2.32)
(2.33)
Existem ainda outros métodos numéricos de integração tais como ABM4,
de “Adams-Bashforth-Moulton” de quarta ordem, ou o bastante robusto, mas
computacionalmente exigente Runge-Kutta de quarta ordem. Este último é um dos
métodos mais antigos de resolução de equações diferenciais. Para escolher o
intervalo , deve-se ter em mente que um intervalo pequeno implicaria num
número demasiadamente grande de interações e também grandes imprecisões.
Para evitar estas últimas, certamente deve-se considerar um intervalo menor do
que o movimento de maior freqüência em um dado sistema. Na maioria dos
modelos orgânicos, a maior freqüência vibracional é a da oscilação da ligação C –
H, cujo período é da ordem de (10fs). Note que os algoritmos de integração
29
por diferenças finitas geralmente assumem que r e v são aproximadamente
constantes durante o intervalo . Para que isto seja uma suposição razoável, é
recomendável dividir um período vibracional em 8 a 10 partes. Desta forma, um
aceitável para a maioria dos modelos orgânicos estaria na faixa de 0,5 a 1,0 fs.
2.1.2.4 – Os Ensembles estatísticos
A resolução da equação de Newton (Equação 2.27), conforme a descrição
da seção 2.1.2.3, permite a exploração da superfície de energia constante do
sistema. Porém, a maioria dos sistemas reais não está totalmente isolada. Alguns
processos ocorrem de maneira adiabática; outros, de maneira isotérmica ou
isobárica, dependendo do material analisado. As diferentes considerações de
grandezas constantes recebem o nome de Ensembles Estatísticos microcanônicos
e/ou os canônicos.
O ensemble microcanônico considera a energia total do sistema uma
constante, assim como seu volume. A resolução direta da Equação 2.28 sem mais
correções de variáveis está de acordo com o ensemble microcanônico. Porém, o
uso do Integrador Verlet Leapfrog causa algumas flutuações no sistema devido à
sua falta de fase. Neste caso a energia cinética e a energia potencial estão
também fora de fase. Para manter as flutuações dentro de níveis aceitáveis, é
interessante considerar um nível de controle sobre a temperatura. Tendo isso em
mente, o programa Cerius2 possibilita ao usuário a entrada de um intervalo no qual
a temperatura deve ser mantida através de multiplicadores aplicados
periodicamente às velocidades do sistema. O ensemble microcanônico é o mais
adequado à investigação da superfície de energia constante quando não se deseja
a perturbação causada pelos outros ensembles.
O ensemble canônico considera a temperatura e o volume do sistema
como sendo constantes. Obviamente, as medidas e o ajuste da temperatura são
ainda mais importantes para o ensemble canônico do que o microcanônico. O
controle direto da temperatura durante simulações de dinâmica molecular que
seguem o ensemble canônico também acontece periodicamente através da
aplicação de multiplicadores à velocidade, mas em geral, um outro método de
controle, mais sutil é empregado continuamente durante a fase da simulação. O
ensemble canônico é o mais adequado em sistemas nos quais se deseja saber a
conformação de estruturas no vácuo.
30
Outros ensembles, que consideram pressão constante, tensão estrutural
constante ou entalpia constante, também existem, mas as suas aplicações em
geral limitam-se a sistemas periódicos (i.e., estruturas cristalinas). Evidentemente,
para a dinâmica molecular em tais sistemas, seria necessário desenvolver uma
metodologia para a medida e o controle das variáveis pressão, entalpia e tensão
estrutural.
A temperatura é uma variável de estado tipicamente macroscópica cuja
relação com o microscópico se dá através da energia cinética das partículas de um
sistema. De fato, a temperatura e a distribuição de velocidades atômicas são
relacionadas através da conhecida fórmula de Maxwell-Bolstzmann;
(2.34)
sendo k a constante de Boltzmann e m a massa atômica.
Para iniciar uma simulação de dinâmica molecular, precisamos das
condições iniciais para a Equação 2.27, ou seja, posições e velocidades iniciais.
Geralmente, é conveniente determinar apenas as posições, e distribuir as
velocidades aleatoriamente de acordo com a Equação 2.34 e, uma dada
temperatura inicial. Na verdade, enquanto a distribuição dos módulos das
velocidades é adequadamente descrita pela Equação 2.34, seria mais apropriado
utilizar uma distribuição gaussiana, como na Equação 2.35 para distribuir as
velocidades nas diferentes coordenadas cartesianas (x, y, z):
(2.35)
A solução de fica:
31
Então se , temos .
Esta distribuição gaussiana entra como um parâmetro importante na
modelagem molecular, dando a evolução temporal do sistema.
A relação entre a temperatura e a energia cinética das partículas de um
sistema pode ser descrita através do princípio de eqüipartição da energia, que nos
diz que a cada grau de liberdade pode ser associada uma energia média de .
Escrevendo esta relação, chega-se à Equação 2.36, escrita para cada uma das
partículas, de , e considerando o momento associado a cada uma delas
como sendo . Na Equação 2.36, representa o número de graus de liberdade
do sistema considerado.
(2.36)
Para continuar esta análise, é conveniente definir-se uma temperatura
cinética instantânea segundo a Equação 2.37. Considerando então a Equação
2.36, tem-se a relação imediata de que a média da temperatura instantânea é
automaticamente a temperatura termodinâmica do sistema:
(2.37)
Com as informações apresentadas, pode-se calcular a temperatura de um
dado sistema de N partículas através da Equação 2.38:
(2.38)
Note que considerou-se 3N-6 graus de liberdade, pois ignoramos a
translação e a rotação ao redor do centro de massa do sistema.
Com relação ao controle de temperatura, existem dois métodos: o
primeiro, denominado de Multiplicador de Temperaturas, é bastante drástico e
32
simplesmente multiplica todas as velocidades do sistema por um fator de ajuste.
Obviamente, a temperatura pode ser controlada de forma bastante precisa, mas
este método suprime as flutuações naturais do sistema e não é
termodinamicamente realista. O multiplicador das velocidades utilizado pelo
programa Cerius2 é dado pela Equação 2.39. Nesta equação, representa a
temperatura desejada, representa a temperatura instantânea da Equação
2.37, e representa a média de temperaturas.
Evidentemente, o uso da Equação 2.39 afeta a energia total do sistema de
maneira imediata. Para o ensemble canônico, no qual a temperatura é constante, o
uso deste multiplicador é inadequado. Uma abordagem mais realista é a do método
de Berendsen para o acoplamento do sistema com um reservatório térmico, de
acordo com o qual o multiplicador λ pode ser expresso na equação 2.40. Nesta
equação, representa a diferença finita de tempo para a integração numérica, um
tempo de relaxamento característico ( ), a temperatura instantânea (T) e a
temperatura desejada :
(2.39)
(2.40)
Em boa aproximação, o uso da Equação 2.40 representa a utilização de
um ensemble canônico, no qual a temperatura é mantida constante em .
2.2 – Propriedades eletrônicas
As propriedades dos materiais são formadas em boa parte pelo
arranjo eletrônico que por sua vez dita as propriedades do sistema eletrônico após
interação com campos externos, (elétrico, magnético, ou com a própria luz). O
conhecimento dessas propriedades é fundamental no projeto de novos materiais e
dispositivos como a construção de dispositivos microeletrônicos variados, de
diodos e transistores a lasers, de diodos emissores de luz a sensores de gases
33
entre outros. Por isso é fundamental a investigação das propriedades eletrônicas
na caracterização e investigação de qualquer material.
2.2.1 – Momento de dipolo elétrico38
Para as moléculas homonucleares como H2, N2 e O2, não há dúvida que o
par de elétrons no orbital molecular (OM) de ligação está igualmente distribuído
entre os dois núcleos. Já que os dois átomos que constituem a molécula são
iguais, ambos atraem igualmente os elétrons de ligação. Mas para átomos
heteronucleares, isto não é verdade. Certos átomos são particularmente ávidos por
elétrons (têm alta eletronegatividade) e, quando envolvidos numa ligação, tendem
a tirar o par de elétrons envolvido na ligação química. O átomo mais ávido por
elétron é o flúor; em seguida temo-se o O, N e Cl. Em uma primeira aproximação, a
eletronegatividade diminui ao logo da tabela periódica da direita para a esquerda, e
descendo, dentro de uma mesma família. À medida que aumenta a diferença entre
a avidez por elétrons de dois átomos numa ligação heteronuclear, a nuvem OM do
par de ligações se desloca para o átomo mais eletronegativo e o caráter da ligação
se distancia cada vez mais de uma covalência pura. No caso extremo de um
compartilhamento pequeno ou de um não-compartilhamento dos elétrons entre os
dois átomos, temos uma ligação iônica, isto é, um sistema formado de um íon
positivo e um íon negativo, mantidos juntos por forças eletrostáticas.
Entre estes extremos, o compartilhamento igual e não o compartilhamento,
pode-se descrever as ligações como sendo parcialmente iônicas ou parcialmente
covalentes; um meio particularmente adequado para descrever quantitativamente
estes sistemas é a propriedade molecular mensurável, chamada momento de
dipolo elétrico.
O momento de dipolo elétrico pode ser ilustrado considerando inicialmente
uma molécula que não o possua, por exemplo, o H2. Num átomo de hidrogênio
isolado, o elétron no seu estado fundamental está distribuído numa esfera
envolvendo o núcleo, como mostra a Figura 2.1. O centro da carga positiva é o
centro do núcleo e, semelhantemente, o centro da carga negativa (a posição média
do elétron) é o centro do núcleo. Isto pode ser considerado independentemente do
orbital que descreve o elétron ter o formato s, p ou d. Neste caso, os centros das
cargas positivas e negativas no átomo coincidem.
34
Figura 2.1: Orbital de cada átomo de hidrogênio (A) e o orbital molecular da molécula de H2. (B)
À medida que dois átomos de H se aproximam, a carga positiva do
sistema está no centro da distância internuclear, coincidindo com o centro da carga
negativa, já que o par eletrônico está igualmente distribuído. Uma molécula deste
tipo não tem momento de dipolo elétrico.
Para uma molécula heteronuclear, como HF, os átomos isolados
ainda
possuem os centros da carga positiva e da carga negativa coincidentes. À medida
que se aproximam o centro da carga positiva está num ponto entre eles, mais
próximo do átomo mais pesado e, até que os pares de ligação se recubram, o
centro da carga negativa está no mesmo ponto. Se, entretanto, quando ocorrer o
recobrimento, o átomo mais ávido por elétrons puxar o par de ligações na sua
direção, o centro de carga negativa se moverá junto e não mais coincidirá com o
centro da carga positiva. Moléculas cujos centros de carga positiva e negativa não
coincidem, possuem um momento de dipolo elétrico, freqüentemente representado
por um vetor com ponto de aplicação no centro de carga positiva e apontando para
o centro de carga negativa. O comprimento do vetor representa o valor do
momento de dipolo elétrico.
35
Figura 2.2: Os átomos de hidrogênio e flúor isolados (A) e o orbital molecular de HF (B).
Quantitativamente, o momento de dipolo elétrico é medido em termos de
uma unidade, chamada Debye (D), definida de tal modo que uma carga positiva e
uma carga negativa (cada uma equivalente à carga do elétron) separada por uma
distância de 1 Å, têm um momento de dipolo elétrico de 4,8 D. Em geral, o
momento de dipolo elétrico μ é dado por
(2.41)
sendo z o valor das cargas separadas pela distância .
O momento de dipolo elétrico de uma molécula pode ser medido colocan-
do-se a substância entre as placas de um capacitor. Na presença de um campo
elétrico entre as placas do capacitor, os pequenos dipolos tendem a se alinhar (na
medida em que seu movimento, determinado pela temperatura, permita) com as
extremidades positivas apontando para a placa negativa e as extremidades
negativas apontando para a placa positiva. Esta orientação resulta numa
diminuição da intensidade do campo elétrico entre as placas e num aumento da
capacitância do capacitor. As capacitâncias de um capacitor, cujas placas estejam
separadas pelo vácuo e de um capacitor, cujas placas estejam separadas por
uma substância S , estão relacionadas por um fator chamado constante
dielétrica da substância S.
36
(2.42)
Medidas destas capacitâncias e, conseqüentemente, da constante
dielétrica, permitem calcular o momento de dipolo elétrico.39,40
Pauling41 sugeriu que os momentos de dipolos elétricos medidos fossem
usados para avaliar a percentagem de caráter de uma ligação. Consideremos a
molécula HF; a sua distância internuclear medida é 0,9171 Å. Se ela fosse
completamente iônica, isto é, se ela consistisse em dois íons vizinhos H+ e F-
distintos, seu momento de dipolo elétrico seria de 4,4 D (0,9171 vezes 4,8). O seu
momento de dipolo elétrico medido é 1,91 D, logo ela não é cem por cento iônica,
mas apenas 1,91/4,4 vezes cem, isto é, 43% iônica. Note que, de acordo com esta
definição, as moléculas HCl, HBr e HI têm caráter iônico decrescente e, portanto,
caráter covalente crescente.
Na molécula de água (Figura 2.3a), cada ligação tem seu momento de
dipolos elétrico próprio, em virtude da avidez do átomo de oxigênio por elétrons, e
estes momentos adicionam-se vetorialmente, fornecendo um momento de dipolo
elétrico resultante para a molécula, representado pelo vetor bissetriz do ângulo de
ligação H – O – H.
O fato da molécula de CO2 ter igual à zero, muito embora C e O tenham
eletronegatividade diferentes, indica que, de algum modo, os vetores que
representam os momentos de dipolos elétricos das ligações C – O anulam-se. Isto
só pode ser verdade se eles são iguais e opostos (Figura 2.3b). Portanto, a
molécula CO2 deve ser linear com o átomo de carbono no centro. Portanto, o
momento de dipolo está intrinsecamente ligado à geometria da molécula.
b) Resultante
a) Resultante O
H
C
c) Resultante
37
S
Figura 2.3: Adição dos vetores momentos de dipolos elétricos para. a) H2O; b) CO2; c) SO2.
2.2.2 – Orbitais de Fronteira
A estrutura eletrônica de uma molécula pode ser estudada através da
utilização do modelo de combinação linear de orbitais (“Linear Combination of
Atomic Orbitals” – LCAO), o qual parte do princípio que os orbitais eletrônicos de
uma dada molécula são combinações lineares dos orbitais atômicos que circulam
cada um dos núcleos da molécula e, além disso, que esses orbitais devem possuir
quantidades de energia próximas para que possam interagir de maneira
significativa.42
Por exemplo, assume-se um modelo no qual dois orbitais atômicos 1s
sobrepõem-se de duas maneiras extremas para formar dois orbitais moleculares.
Uma das maneiras pelas quais os orbitais atômicos interagem é construtivamente e
resultante da soma das energias desses orbitais. No local em que há sobreposição
dos orbitais, ocorre o aumento de intensidade da carga negativa, aumentando
também a atração entre os elétrons e o núcleo dos átomos envolvidos na ligação,
resultando na diminuição da energia potencial nesse local. Dessa forma, os
elétrons dos orbitais moleculares, envolvidos na formação da ligação química,
estão em uma região de energia potencial menor que aquela dos orbitais atômicos
originais, sendo necessário acrescentar energia para fazê-los retornar aos orbitais
1s dos átomos separados. Esse fenômeno é responsável por manter os átomos
unidos e, por isso, esses orbitais são chamados orbitais ligantes. Nesse exemplo, o
orbital molecular formado é simétrico ao eixo da ligação e recebe a denominação
sigma, , e o símbolo é usado para descrever o orbital ligante formado nesse
caso particular.
A segunda maneira pela qual dois orbitais interagem é na qual leva a uma
diminuição da intensidade da carga negativa, diminuindo, também, a atração entre
os núcleos atômicos e os elétrons envolvidos na ligação química, aumentando a
energia potencial local. Como os elétrons são mais estáveis nos orbitais atômicos
1s dos átomos separados, sua presença, nesse tipo de orbital, desestabiliza a
ligação entre os átomos, sendo, por isso, chamado de orbital antiligante. Como o
orbital formado é igualmente simétrico ao eixo da ligação, sua denominação é ,
onde o * simboliza o orbital anti-ligante.
38
Figura 2.4: Diagrama ilustrativo da formação dos orbitais moleculares e , a partir da interação dos orbitais
atômicos 1s, da molécula H2.
No diagrama da Figura 2.4, são mostrados os orbitais moleculares ligantes
e antiligantes, da molécula de H2, formados a partir da interação de dois orbitais
atômicos 1s.
Os orbitais de um sólido estão fortemente sob influência uns dos outros e
também das moléculas adjacentes, de forma que os níveis de energia não são
observados para cada um, isoladamente, mas sim, sob a forma conjunta de
bandas de energia. Tais bandas são distintas e dependem das distâncias entre os
átomos envolvidos e da sua natureza química. Conseqüentemente, a banda
constituída dos níveis mais baixos de energia é denominada banda de valência,
enquanto que aquela contendo os níveis mais altos de energia é a de condução.
Na banda de valência, o nível eletrônico mais energético
ocupado é chamado de HOMO (Orbital Molecular mais Alto Ocupado) e, na banda
de condução, o nível eletrônico menos energético desocupada é chamado LUMO
(Orbital Molecular mais Baixo Desocupado). O valor energético que existe entre
esses níveis, chamados “gap” ou lacuna, define a banda proibida e indica a
natureza do material (Figura 2.5).
39
Figura 2.5: Representação esquemática da natureza dos materiais em função do gap energético.
Quando o tamanho do gap (ou lacuna) é superior a 4 eV, o sólido é
considerado um isolante, menor que 4 eV é considerado semicondutor e, quando
existe a sobreposição das duas bandas, isto é, não havendo clara distinção entre a
banda de valência e a banda de condução, tem-se um sólido condutor, como
mostra a Figura 2.6.
Para os semicondutores orgânicos (polímeros) a faixa de energia do gap é
de 1,4 a 3,3 eV, que corresponde aos comprimentos de onda da luz emitida entre
890 a 370 nm. Assim a cor da luz emitida por estruturas moleculares emissoras de
luz visível pode ser controlada pela energia do gap.
(A) (B) (C)
Figura 2.6: Gap > 4eV (a), sobreposição das bandas (b) e gap < 4eV (c)
Fica claro que as energias de HOMO e LUMO são descritores muito
eficientes na descrição das propriedades eletrônicas de um material. Estes orbitais
têm também papel fundamental na explicação da reatividade dos compostos e na
determinação das lacunas das bandas eletrônicas nos materiais. Estes orbitais
também são responsáveis pela formação de muitos complexos de transferência de
carga. De acordo com a teoria dos orbitais de fronteira a formação dos estados de
transições em reações se deve a interação entre os orbitais de fronteira HOMO e
LUMO das espécies reagentes. Portanto o tratamento diferenciado para estes
40
orbitais moleculares é baseado em princípios gerais que governam a natureza das
reações químicas.
A energia de HOMO é diretamente relacionada ao Potencial de Ionização,
e caracteriza a suscetibilidade da molécula ao ataque de eletrófilos. A energia de
LUMO é relacionada à afinidade eletrônica, e caracteriza a suscetibilidade ao
ataque por nucleófilos. A energia de HOMO e LUMO são importantes no caso de
reações radicalares. O conceito de “dureza” e “moleza” para nucleófilos e eletrófilos
também está diretamente ligado à energia relativa de HOMO/LUMO. Nucleófilos
duros têm a energia para HOMO baixa, e nucleófilos moles têm a energia para
LUMO alta. Eletrófilos duros têm alta energia para LUMO, e eletrófilos moles têm
baixa energia para LUMO.
A lacuna entre HOMO e LUMO é um importante índice de estabilidade
química. Uma grande diferença entre o HOMO e LUMO significa que a molécula
tem alta estabilidade, ou baixa reatividade em reações químicas. A diferença entre
HOMO e LUMO também é usada para aproximar a energia da primeira excitação
eletrônica da molécula. Porém esta idéia não leva em conta que um novo estado
eletrônico é formado no momento da excitação. E pode levar a resultados
conceitualmente equivocados.
O conceito de dureza de ativação também é derivado da diferença de
energia entre HOMO e LUMO.43 A dureza de ativação distingue a reatividade da
molécula em diferentes sítios de reação, e portanto é útil na previsão do efeito da
orientação dos reagentes.
A definição qualitativa da dureza é relacionada à polarizabilidade, já que
geralmente a diminuição na diferença de energia entre HOMO e LUMO facilita a
polarização da molécula submetida a um campo eletromagnético orientado. As
densidades eletrônicas nos orbitais de fronteira sobre os átomos são uma maneira
de caracterização detalhada das possíveis interações entre doadores e receptores
de elétrons. De acordo com a teoria dos orbitais de fronteira para a reatividade, a
maioria das reações químicas acontece na posição em que HOMO e LUMO dos
respectivos reagentes podem ter a maior sobreposição. No caso de uma molécula
doadora de elétrons, a densidade de HOMO é crítica para a transferência de carga.
O descritor utilizado para este caráter da molécula no átomo “a” , , é definido
por:
41
(2.43)
Figura 2.7: Ilustração dos orbitais moleculares HOMO (A) e LUMO (B) e a sobreposição (C) para
a molécula BF3.
sendo e n os coeficientes das “n” orbitais atômicos da camada de valência
do átomo “a” no HOMO. Analogamente para um receptor de elétrons, a densidade
em LUMO é importante. Para o orbital LUMO o descritor usado é definido por:
(2.44)
sendo e n os coeficientes das n orbitais atômicas da camada de valência do
átomo “a” no orbital LUMO.
Os mapas dos orbitais moleculares são muito úteis para fornecer
informações sobre os mesmos. O mais importante e mais popular é o mapa do
orbital LUMO. Através deste mapa é traçada uma superfície, onde se tem o valor
42
absoluto do LUMO. O mapa mostra as regiões de uma molécula onde a população
de elétrons é menor. Já o mapa do HOMO mostra as regiões onde a população de
elétrons é maior. A Figura 2.7 ilustra os orbitais HOMO – LUMO para a molécula de
BF3.
2.2.3 – Calor de formação
A temperatura é uma propriedade ou grandeza que independe da massa
ou extensão do sistema e esta relacionada com o grau de agitação (energia
cinética) molecular.60
(2.45)
O calor e o trabalho, por sua vez relacionam-se pelo primeiro princípio da
termodinâmica: calor é a quantidade de energia que se transmite de um corpo para
outro, devido unicamente à diferença de temperatura entre ambos e é dado por:
(2.46)
sendo C a capacidade calorífica do sistema.
Algebricamente considera-se o calor trocado como sendo positivo quando
o sistema recebe energia do meio externo e negativo quando o sistema perde
energia para o meio externo.
Um processo no qual o sistema recebe calor do meio externo chama-se
Endotérmico e aquele em que o sistema perde calor para o meio externo chama-se
Exotérmico.
Trabalho é a energia trocada como conseqüência de uma força que atua
entre o sistema e o meio externo ou energia que se transmite por qualquer outro
modo que não seja a diferença de temperatura entre eles.
A maior parte das transformações termodinâmicas são aquelas as quais o
trabalho provém de uma variação de volume do sistema ao qual denominamos de
termelásticas, sendo que as demais formas de trabalho (elétrico, magnético,etc...)
não são consideradas em tais transformações.
43
Quando um gás expande num cilindro, à temperatura constante, contra
uma pressão (P) que se opõe, a energia trocada com o meio externo produz o
trabalho de expansão, que pode ser calculado através da equação:
(2.47)
Como P = F/A, temos que F = P.A e a Equação 2.47 pode ser escrita
como:
(2.48)
Para que seja realizado trabalho é necessário ocorrer variação de volume,
como no exemplo da Figura 2.28, na qual o gás contido no interior do pistão sofre
um deslocamento (d) em relação à posição inicial, contra uma pressão oposta
externa (atmosférica), ocorrendo uma variação de volume ocupado pelo referido
gás.
Figura 2.8:60 Cilindro dotado com um êmbolo móvel
Quando um gás, contido no interior de um cilindro dotado com um êmbolo
móvel, como na Figura2.8, há troca de calor com o meio externo, a energia se
distribuirá da seguinte forma: uma parcela irá provocar aumento na temperatura do
gás ( ), fazendo variar o grau de agitação das moléculas ou Energia Interna (
), a qual corresponde ao somatório de todas as formas de energia associadas ao
movimento das moléculas; outra parcela irá provocar a expansão do gás, ou seja,
irá realizar um Trabalho ( W ).
44
A relação entre essas duas grandezas conduz à 1a Lei ou 1o Princípio da
Termodinâmica e é dada pela equação:
(2.49)
Como a variação da Energia Interna corresponde ao calor trocado, à
mesma pode ser calculada através da equação:
(2.50)
sendo C a capacidade calorífica da substância.
Figura 2.9:60 Classificação das reações químicas em relação à entalpia.
A Termoquímica tem por objetivo o estudo das variações de energia que
acompanham as reações químicas. Esta energia, em geral, manifesta-se sob a
forma de calor, embora a luz (energia eletromagnética) também esteja presente em
alguns processos (combustão e fotossíntese).60 A energia envolvida nas reações
químicas é decorrente de um rearranjo das ligações químicas quando reagentes
transformam-se em produtos. Esta energia “armazenada”, principalmente sob
forma de ligações, denomina-se de ENTALPIA (do grego, enthalpein = calor) e
simboliza-se por H (Heat = calor). Numa reação química, portanto, ocorre uma
variação de entalpia ( ), sendo as reações classificadas em dois tipos, segundo
o calor liberado ou absorvido (Figura 2.9).
A variação da entalpia de uma reação química pode ser medida pelo calor
liberado ou absorvido durante o processo. Esta medida experimental (calorimétrica)
45
é feita utilizando-se Calorímetros ou Bombas Calorimétricas (para reações de
combustão), e emprega-se a equação:
(2.51)
O número de reações cuja entalpia (calor de reação) pode ser
determinada diretamente em bombas calorimétricas (Figura 2.10) e calorímetros é
muito reduzido. A maior parte das reações tem a sua entalpia calculada, valendo-
se das leis da Termoquímica, principalmente a LEI DE HESS.
Figura 2.10:61A bomba calorimétrica é um equipamento próprio para determinar a energia (calor) das reações
de combustão e algumas reações de formação.
Uma equação termoquímica deve conter: (a) a equação química
devidamente ajustada; (b) os estados físicos de cada componente, sendo esta
referência importante porque as mudanças de estado físico envolvem variações
de energia (entalpia): (c) os estados alotrópicos, quando for o caso: (d) as
condições de medida da variação de entalpia pois a variação de entalpia ( )
depende da temperatura e da pressão em que foi feita a medida. A maior parte das
variações de entalpia que constam em tabelas foram medidas nas chamadas
Condições Padrão ou Standard (1 atm e 250C). A indicação de que uma entalpia foi
medida em Condições Padrão é feita através do expoente “0” junto ao valor da
mesma.
46
A seguir é mostrado um exemplo de uma equação termoquímica. Neste
caso a transformação da grafite em diamante:
Cgrafite(s) + O2(g) --> CO2(g) 1 = - 394 kJ
CO2(g) --> Cdiamante(s) + O2(g) 2 = + 396 kJ
_____________________________________________________
Cgrafite(s) --> Cdiamante(s) total = 1 + 2 = 2 kJ.
Entalpia de Formação ( ) corresponde ao calor envolvido na formação
de 1,0 mol de substância a partir de seus elementos formadores (substâncias
simples).
Figura 2.11:60 Esquema da Lei de Hess.
Algumas entalpias de formação podem ser medidas diretamente em
bombas calorimétricas enquanto outras somente são possíveis através de
determinações algébricas aplicando-se a Lei de Hess.
A Lei de Hess, também denominada Lei da soma dos calores de reação,
permite prever a Entalpia mesmo daquelas reações de difícil execução
experimental. Segundo Hess a Entalpia de uma reação não depende do modo
como à mesma é executada, mas somente do estado inicial (reagentes) e do
estado final (produtos) que pode ser esquematizado como na Figura 2.11:
Pela Lei de Hess temos:
(2.52)
47
A Lei de Hess pode ser considerada como a Lei da Conservação da
Energia aplicada às reações químicas.60
A Entalpia é a grandeza termodinâmica relacionada com o calor envolvido
nas reações químicas. A Entropia é a grandeza termodinâmica relacionada com o
Grau de Desordem Molecular dos sistemas. Não há processo termodinâmico (físico
ou químico) que ocorra sem variação de Entalpia e de Entropia.
A Entropia Padrão corresponde à variação de Entropia de uma substância
pura desde o zero absoluto (Entropia nula) até a temperatura de 250C (298 K).
Figura 2.12: Diagrama de fase do carbono
J. Willard Gibbs, propôs uma grandeza termodinâmica (Energia de Gibbs
), também denominada Energia Livre, que, combinando a variação de Entalpia,
de Entropia e a temperatura absoluta na qual ocorre o processo, permite prever a
espontaneidade ou não do referido processo através da equação:
(2.53)
A Energia de Gibbs sinaliza o tipo de processo que deve ocorrer em uma
reação química. Para um processo espontâneo, temos <0, para um processo
induzido, >0 e quando =0 significa que o sistema encontra-se em estado de
equilíbrio.
48
Figura 2.13:62 Energia Livre X Pressão
Figura 2.14:62 Energia livre X Temperatura
O calor de formação, através da Energia de Gibbs é responsável pelas
principais características de um composto ou material.62 Na análise do diagrama de
fase do carbono (Figura 2.12) mostra que a uma temperatura constante, a fase
sólida diamante do carbono é estável a alta temperatura, porém é a fase grafite
que é estável a baixa pressão, como mostra a Figura 2.13. Sabendo que o estado
estável é aquele que tem a energia livre mínima e que a variação da energia livre
com a pressão é o volume molar da fase, o diagrama indica que o volume molar do
diamante é menor que o volume molar da grafite, quer dizer o diamante é mais
denso, mais compacto que a grafite (Figura 2.15).
49
Figura 2.15: (A) estrutura da grafite e (B) estrutura do diamante.
A uma pressão constante, o diamante é mais estável a baixa temperatura,
enquanto é a grafite que é estável a alta temperatura, como mostra a Figura 2.14.
Como o estado estável é aquele de energia livre mínimo e que a variação da
energia livre com a temperatura é a entropia molar da fase, o diagrama indica que
a entropia do diamante é menor que a entropia da grafite, quer dizer que o
diamante é mais ordenado que a grafite (Figura 2.15).
O calor de formação determinado pelo método semiempírico MNDO/d, que
é o método que foi utilizado neste trabalho, é obtido pela equação:63
(2.54)
sendo e a energia de repulsão eletrônica e nuclear, respectivamente, e
, a energia eletrônica e o calor de formação experimental para o átomo A
isoladamente.
2.2.4 – Potencial eletrostático
O mapa de potencial eletrostático é muito importante, pois fornece a
densidade eletrônica em cada ponto da molécula. O potencial eletrostático de uma
molécula pode ser definido por:
(2.55)
50
(A) (B)
sendo o primeiro somatório a energia de sobreposição do núcleo A, Z é o número
atômico e a distância entre o núcleo de A e a carga p. O segundo par de
somatórios são as somas das sobreposições das funções de base . P é a matriz
de densidade e as integrais refletem as interações Coulombianas entre os elétrons
e a carga no ponto, onde rp é a distância entre o elétron e a carga.
Figura 2.16: Mapa do potencial eletrostático do benzeno. O azul indica carga
negativa e o vermelho carga positiva.44
No mapa que mostra a superfície de um potencial eletrostático o potencial
negativo indica a região da molécula que está sujeita a ataques eletrofílicos. As
superfícies de potencial eletrostático negativo também são utilizadas para esboçar
a posição dos elétrons de energia mais elevada. O mapa de potencial eletrostático
também fornece a densidade eletrônica da molécula. Por tanto, o mapa fornece o
“tamanho” total da molécula, como mostra o exemplo da Figura 2.16. Nesta figura
quanto mais próxima a cor esta do vermelho mais negativo é o potencial
eletrostático da molécula e ao contrário, quanto mais próximo da cor azul, mais
positivo é o potencial. As cores intermediárias representam valores intermediários.
Também mostra que o sistema π é vermelho, consistente com a superfície
potencial eletrostática negativa.
Os mapas do potencial eletrostático têm muitas utilidades, entre elas,
servem para caracterizar rapidamente várias regiões em uma molécula como rica
ou pobre em elétrons,
2.2.5 Volume molecular
51
O volume molecular determina várias características das moléculas,
principalmente as que são de interesse na medicina, tais como a
absorção/adsorção ou processos de tranferência de carga farmaco e receptor.45
Conseqüentemente, o volume molecular é muito utilizado em estudos de QSAR .
O volume molecular também tem papel importante na realização e
interpretração de vários testes clínicos. Um deles é o teste da velocidade de
sedimentação das hemácias (VHS).66 Este teste foi idealizado para auxiliar no
diagnóstico da gravidez, sendo posteriormente empregado como indicador de
doenças inflamatórias ou infecciosas e até mesmo da condição geral de saúde ou
doença.66 Neste teste a velocidade com que as hemácias sedimeam no tubo
depende do volume e da forma dos eritrócitos e das proteínas do plasma.66
Um dos métodos utilizado para calcular o volume molecular é o método de
cálculo por quadrantes e é baseado no métodos de Higo e Go, 65 onde a molécula
é colocada em uma caixa retangular, sendo os lados desta caixa escolhidos como
múltiplos de 2Ǻ. Cada lado é dividido de 2 em 2 Ǻ, formando então cubos, isso é
chamado nível 1. Cada cubo é analisado e classificado em três categorias: interno,
externo ou superficial à molécula. Se o cubo é interno ou externo ele é descartado.
Se ele é superficial, então é novamente dividido em oito cubos de 1Ǻ, o que é
chamado de nível 2. Este processo pode ser repetido até o nível 8, com cubos de
0,015625Ǻ. Desta forma, pode-se ter uma relação linear entre a área da esfera que
está contida no cubo e o lado do cubo:
(2.56)
sendo um fator de proporcionalidade que é determinado por:
(2.57)
sendo r o raio da esfera, Nc o número de cubos que interceptam a superfície
molecular e l o lado do cubo. Assim, pode-se calcular a superfície de van der
Waals. Já o volume de van der Waals é determinado pelo somatório dos cubos
contidos na molécula.
52
3
O DENDRÍMERO DE POLI(AMIDO AMINA) (PAMAM)
3.1 – Topologia de dendrímeros
53
Recentemente uma nova classe estrutural de macromoléculas tem atraído
à atenção da comunidade cientifica, os dendrímeros. Estes polímeros são
caracterizados por estruturas quase esféricas, tamanhos nanométricos, grande
número de subgrupos funcionais reativos e cavidades que conferem ao polímero
elevada área superficial. Esta combinação única de propriedades torna os
dendrímeros os sistemas perfeitos para aplicações em diferentes áreas da química
e medicina.
Embora os dendrímeros, também conhecidos como macromoléculas,
tenham sido descobertos em 1978, durante alguns anos foram olhados como
sendo apenas curiosidades químicas. A partir da década de 90 observa-se um
crescimento significativo nesta área com relação ao número de patentes relativas
às aplicações de dendrímeros em biotecnologia.
Figura 3.1 – Esquematização do crescimento em gerações num dendrímero PAMAM
O termo dendrímero deriva do grego, dendron = arvore e mero = parte,
que descreve bem o que são estas moléculas. Estas moléculas crescem a partir de
um núcleo (designado Geração 0) e cada conjunto de unidades monoméricas
adicionadas é designado por Geração (Figura 3.1). Esta adição torna cada geração
mais ramificada que a anterior até se obter uma estrutura globular e densa que
não pode crescer mais devido a efeitos estéricos entre os diferentes ramos.
Na química sintética os dendrímeros são considerados “intermediários”
entre moléculas comuns ou convencionais e a tradicional química de polímeros. A
54
“química dendrimérica” (cascatas, arboróis e dendrímeros) está expandindo esses
limites sintéticos.
Os dendrímeros são altamente ramificados. Essas macromoléculas
tridimensionais possuem pontos de ramificação em cada unidade monomérica que
é capaz de conduzir a estruturas com definidos números de geração e grupos
funcionais terminais.
Figura 3.2: Representação esquemática do crescimento de um dendrímero PAMAM através da rota de síntese
divergente.
Os dendrímeros são preparados através de uma rota de síntese
tridimensional repetitiva. Como resultado desse procedimento controlado, os
dendrímeros têm sido comparados a polímeros esféricos monodispersos.47 Os
polímeros com estrutura dendrimérico diferem dos polímeros clássicos em quatro
áreas distintas: (i) simetria; (ii) grau de ramificação; (iii) funcionalização terminal e
(iv) monodispersão.
As sínteses dendriméricas envolvem um núcleo a partir do qual gerações
ramificadas estendem-se concentricamente. Esta ramificação dá-se através de
uma progressão geométrica bem definida (Figura 3.2).
A arquitetura molecular pode adquirir o espaço tridimensional, com uma
ramificação radial regular e, conduzir a uma molécula altamente simétrica.
A síntese 3D envolve o uso de núcleos poli funcionais que acumulam
unidades monoméricas repetitivas de modo radial e exponencial capaz de construir
55
“braço-sobre-braço” até que uma topologia semelhante a uma árvore seja
estabelecida. Veja Figura 3.4.
Os grupos terminais na síntese dendrítica são usados no próximo estágio
do “crescimento” molecular e, para cada nova geração que é formada o número de
grupos terminais irá, pelo menos, dobrar. Através de um planejamento sintético
cuidadoso, a natureza e o número de grupos terminais podem ser controlados
precisamente. Esta característica é importante na arquitetura dendrimérica, já que
muitas aplicações potenciais podem e utilizam esta propriedade.
Figura 3.3: Exemplos de alguns núcleos dendriméricos
A arquitetura dendrimérica é composta de três importantes elementos.
Primeiramente, existe um núcleo central que, no caso mais simples, determina a
extensão inicial, a orientação e a ramificação. Por exemplo, o núcleo rígido de
adamantano (1, Figura 3.3) usado por Newkome.47 Mais recentemente,
entretanto, a importância do núcleo tem sido ressaltada. Fréchet47 e Inoue49
propuseram, independentemente, o uso de porfirina como núcleo central (2, Figura
3.3), enquanto que Diederich50 propôs o uso de ciclofanos, (3, Figura 3.3).
Com o “crescimento” para fora do núcleo, unidades repetitivas são
adicionadas sucessivamente. A formação de camadas interiores dá-se pela adição
dessas unidades repetitivas. No primeiro estágio, a adição de uma unidade de
repetição ao núcleo central, produz a primeira camada interior, ou geração, neste
56
caso G1. O ciclo sucessivo de reações (adição de mais unidades de repetição) cria
gerações maiores de dendrímeros. No final do ciclo, uma nova camada externa é
formada, que contém os grupos funcionais terminais. O número de grupos
terminais e a massa molar relativa (RMM) podem ser facilmente obtidos através
das equações:
(3.1)
(3.2)
sendo, n = número de grupos terminais, Nb = multiplicidade das ramificações
(pontos de ramificação da unidade de repetição), Nc = multiplicidade do núcleo
central (pontos de ramificação da unidade central), G = geração e Mc, Mb, Mt =
representam a Massa Molar Relativa do núcleo, da unidade de repetição e dos
grupos terminais respectivamente.
3.1.1 – Síntese de dendrímeros
Os dendrímeros são sintetizados através de etapas bem controladas
denominadas de métodos divergentes e, convergentes.
O princípio do método divergente é o crescimento de um núcleo central,
onde as ramificações são justapostas através de etapas sintéticas repetitivas.51,52
Este método é caracterizado por reações que ocorrem por um aumento do número
de sítios reativos na molécula como se o dendrímero estivesse sendo construído
“de dentro para fora”. O procedimento geral é mostrado na Figura 3.2.
As camadas externas passam a constituir sucessivamente a estrutura
interna do dendrímero. Uma característica do método divergente é que há um
rápido aumento do número de grupos terminais reativos. Não obstante, quanto
mais a molécula cresce, maiores imperfeições e falhas ocorrem. Isto se deve ao
fato de existirem reações incompletas dos grupos terminais na periferia do
dendrímero.
Tomalia sintetizou acidentalmente pela primeira vez os dendrímeros de
poliam ido amina53 quando sintetizava, através de um processo padrão, polímeros
de cadeias lineares chamados poliamidoaminas. Ao adicionar metanol aos
57
reagentes iniciais com o objetivo de facilitar a agitação da mistura observou que o
metanol alterava a reação química de obtenção do polímero linear. Ao invés disso
obteve uma poliamidamina (PAMAM) com estrutura dendrítica.
Normalmente os dois monômeros utilizados formam cadeias longas,
ligando-se entre eles na razão de um para um, mas a molécula formada naquele
dia, não era linear e consistia na ligação de dois grupos acrilato de metilo a um de
etileno diamina. Neste caso o metanol afetou a reação. Aparentemente facilitou a
remoção do hidrogênio dos átomos de azoto no etileno diamina e permitiu ao
acrilato de metilo se ligar aos átomos de azoto.
Tomalia imaginou então um sistema molecular que crescia em grandes
estruturas simétricas construídas em etapas. Ou seja, o dendrímero era construído
por um núcleo iniciador, e que se juntava a uma segunda molécula linear,
produzindo assim os ramos do dendrímero.
A partir desta primeira síntese acidental, Tomalia ajustou as propriedades
de síntese, usando duas operações repetidamente, utilizando como núcleo
iniciador uma molécula de amônia. A esta molécula de amônia foi adicionado
metanol suficiente para facilitar a substituição do hidrogênio da amônia pelo acrilato
de metilo, e assim criar um dendrímero de geração zero. Em seguida adicionou-se
o segundo monômero, o etileno diamina, que ataca livremente as três moléculas do
monômero adicionado anteriormente, obtendo-se assim o dendrímero de primeira
geração. Depois os dois átomos de hidrogênio do azoto do etileno diamina são
substituídos novamente pelo acrilato de metilo, obtendo-se um dendrímero de
segunda geração. E assim sucessivamente até se obter o dendrímero pretendido
ou, de geração pretendida (Figura 3.4).
58
Figura 3.4: Rota de síntese divergente do dendrímero PAMAM de Tomalia
A síntese divergente de dendrímeros pode ser resumida através dos
seguintes passos:
a) A escolha de um núcleo iniciador que deve possuir vários centros reativos, como
por exemplo, a amônia que possui três centros reativos.
b) Escolha de uma seqüência de reações em que aos centros reativos do núcleo
iniciador seja adicionado um monômero que possua mais do que um centro reativo.
c) Usando uma estratégia de proteção e desproteção de grupos reativos, para que
o monômero adicionado só reaja uma vez e com o núcleo iniciador, se for à
primeira adição de monômero, ou com o dendrímero formado pelas sucessivas
adições de monômero. Podem ser utilizados vários monômeros, mas o mais usual
é a utilização de apenas um ou dois monômeros diferentes.
Mas o processo divergente tem alguns problemas, porque os dendrímeros
sintetizados por este método não tem todos os mesmo peso molecular, ou seja,
existe uma polidispersividade, isto devido a reações incompletas e problemas de
purificação que dão resultados a imperfeições na cadeia macromolecular. Na
tentativa de resolver os problemas resultantes da síntese divergente de
dendrímeros Fréchet idealizou a rota de síntese convergente.54
59
Figura 3.5: Representação esquemática de uma síntese dendrimérica convergente.
A síntese através do método convergente começa pelo que se tornará a
“periferia” do dendrímero.54,55 O princípio básico do método envolve a construção
de pequenos fragmentos que são chamados dendrons. Esses dendrons são então,
unidos para a constituição do núcleo central e, conseqüentemente, para a
formação final do dendrímero como ilustrado na Figura 3.5.
O material de partida contém um grupo reativo (RG1) de um lado da
subunidade estrutural e um grupo terminal (TG) na outra extremidade, que
constituirá, na geração final, a camada externa do dendrímero. Esse fragmento
pode, então, reagir com grupos reativos (RG2) da unidade de repetição, que
também contém sítios protegidos (PG). Depois da conversão para um novo grupo
reativo (RG2) a síntese pode ser continuada por reação com uma segunda unidade
de repetição. A repetição do ciclo de desproteção/reação leva à construção de
grandes dendrons. A reação dos dendrons desprotegidos com grupos reativos
(RG) de um núcleo terminal constitui o dendrímero final.
Fréchet mostrou56 como a aproximação convergente pode ser utilizada no
controle das funcionalidades de superfície e interna. Pela reação de uma parte do
monômero e com uma estratégia de proteção/desproteção de grupos funcionais,
60
uma unidade ramificada metade-reagida pode ser gerada. Uma outra parte pode
ser unida à outra parte ou ao próximo monômero, em uma etapa posterior, dando
uma unidade ramificada com funcionalidade diferente da etapa anterior (Figura
3.6).
Figura 3.6: A incorporação seletiva das unidades na estrutura dendrítica.
Esta técnica foi utilizada com sucesso na síntese de funcionalização da
superfície e do interior de dendrímeros.
Na Figura 3.8 é ilustrado a da estrutura de cada ramo do dendrímero de
poly(amido amina) e a correlação matemática, e mostra o aumento progressivo na
ramificação que ocorre em cada geração. Na Figura 3.9 é mostrada a diferença
entre dendrímeros sintetizado usando NH3 e Etileno diamina (EDA) como núcleos
iniciadores. O que usa NH3 como iniciador, resulta em três ramos na geração 0, já
o que usa o EDA como iniciador gera quatro ramos na mesma geração. A
combinação das Figuras 3.9a e 3.9b podem ser úteis para a concepção da
estrutura molecular do PAMAM.
61
Figura 3.7: Núcleos e ramificações de monômeros.
62
Figura 3.8: Estrutura e correlação matemática para o dendrímero poly(amidoamine)
Figura 3.9: Esquema de um dendrímero com três (3.27a) e quatro (3.27b) ramos a partir do núcleo.
63
A Tabela 3.1 mostra a evolução no diâmetro molecular e grupos de
superfície em função do número de gerações do dendrímero PAMAM.
Tabela 3.1: Propriedades do PAMAM por gerações.
Geração Peso Molecular Diâmetro medido (Å) Grupos de superfície
0 517 15 4 1 1,430 22 8 2 3,256 29 16 3 6,909 36 32 4 14,215 45 64 5 28,826 54 128 6 58,048 67 256 7 116,493 81 512 8 233,383 97 1024 9 467,162 114 2048
10 934,720 135 4096
Com os dados da Tabela 3.1 é possível verificar que a relação entre a
geração do PAMAM e o seu número de grupos funcionais é exponencial, como
mostra a Figura 3.10 e como foi previsto na correlação matemática mostrada na
Figura 3.8.
Relação entre a geração e o número de Grupos de superfície
0
500
1000
1500
2000
2500
3000
3500
4000
4500
1 2 3 4 5 6 7 8 9 10 11
Gerações
Gru
po
s d
e s
up
erf
ície
64
Figura 3.10: Relação entre a geração e o número de grupos funcionais do dendrímero PAMAM.
Também com dados obtidos da Tabela 3.1 verifica-se que a relação entre
a geração do PAMAM e o seu peso molecular, mostrada na Figura 3.11, também é
uma relação exponencial.
Relacao entre geração e peso molecular do PAMAM
0
100000
200000
300000
400000
500000
600000
700000
800000
900000
1000000
1 2 3 4 5 6 7 8 9 10 11
Geração
Pes
o m
ole
cula
r em
Dal
ton
s
Figura 3.11: Relação entre a geração e o peso molecular do PAMAM.
Relacao entre geração e diâmetro do PAMAM
0
20
40
60
80
100
120
140
160
1 2 3 4 5 6 7 8 9 10 11
Geração
Diâ
met
ro m
edid
o
Figura 3.12: Relação entre a geração e o diâmetro (em Ǻ) do PAMAM.
65
Já em relação ao diâmetro molecular isso não acontece. A relação
existente entre a geração do PAMAM e o seu respectivo diâmetro é praticamente
linear, sendo exatamente linear entre as gerações zero e quatro.
66
4
MATERIAIS E MÉTODOS
4.1 – Síntese e caracterização do dendrímero PAMAM
Neste trabalho, o dendrímero poli(amido amina) (PAMAM) foi sintetizado
pelo grupo de polímeros biomiméticos e bioativos da Unifei, utilizando via rota
divergente utilizando como precursor um monômero tipo AB2 resultante da
condensação de Michael entre o acrilato de metila e o ácido 4-amino-benzóico de
acordo com os trabalhos recentes deste grupo73. A reação de polimerização foi
efetuada a 160 ºC por 30h em atmosfera de argônio. Neste trabalho foram
sintetizados os dendrímeros PAMAM de geração 0 e 1. Os dendrímeros obtidos
foram purificados por diálise. Para controle do índice de polidispersão e peso
molecular, o dendrímero PAMAM foi purificado por cromatografia de permeação
em gel (GPC).
Figura 4.1: Espectrômetro UV/Vis Varian Serie 643 (A) e Biospectro SP-22 (B) utilizados para obtenção do
espectro UV/Vis.
67
Figura 4.2: Sintetização, via rota divergente, do PAMAM partindo do núcleo de EDA (a), formando o PAMAM
G0 (b) e finalmente o PAMAM G1 (c).
A espectroscopia UV/Vis (Varian 634) foi utilizada para investigação das
propriedades eletroóticas do polímero obtido. Na região espectral do ultravioleta-
visível (1500 a 7000 Å), a radiação promove a transição de elétrons do estado
fundamental para estados eletrônicos excitados. Ocorre absorção de radiação
quando a energia da mesma for igual à diferença de energia entre dois estados
eletrônicos. A espectroscopia de absorção no UV-visível compara a intensidade de
um feixe de luz transmitido através de uma amostra, com a intensidade incidente e
os dados experimentais são expressos em termos da intensidade absorvida em
função do comprimento de onda da radiação. Em muitas moléculas orgânicas e
sintéticas que apresentam ligações duplas envolvendo átomos de carbono,
nitrogênio e oxigênio, o arranjo eletrônico é tal que as diferenças de energia entre o
estado fundamental e os primeiros estados excitados corresponde à região do UV-
visível e, assim, elas podem ser estudadas pela espectroscopia de absorção
óptica.
68
A Figura 4.2 ilustra os espectrofotômetros utilizados na caracterização
UV/Vis do PAMAM obtido neste trabalho.
O dendrímero PAMAM também foi caracterizado por espectroscopia na
região do infravermelho com transformada de Fourier (FTIR) para identificação dos
grupos funcionais presentes na macromolécula e confirmação da estrutura
dendrítica do polímero. A Espectroscopia no Infravermelho por Transformada de
Fourier (FTIR) baseia-se nas freqüências fundamentais das ligações químicas
existentes em macromoléculas orgânicas e inorgânicas. Quando a radiação na
região espectral do infravermelho interage com moléculas contidas na amostra
produz um tipo de alteração no comportamento vibracional e rotacional da mesma.
Este tipo de alteração é devido às ligações químicas das moléculas possuírem
freqüências vibracionais específicas (“impressão digital”) dentro da região espectral
do infravermelho. Neste sentido, as vibrações moleculares são aproximadas pelo
modelo do Oscilador Harmônico Simples (OHS) e a freqüência fundamental da
ligação pode ser dada pela Lei de Hooke de acordo com a Equação (4.1):
, (4.1)
sendo v a freqüência de vibração fundamental, c é a constante da velocidade da
luz, k é a constante de força da ligação química é a massa reduzida do sistema.
69
Figura 4.3: Diagrama representativo do sistema ótico de um espectrofotômetro de infravermelho com
transformada de Fourier.
O sistema ótico utilizado para quantificar os espectros vibracionais de
moléculas é denominado por espectrofotômetro FTIR. Ele é baseado no
interferômetro de Michelson conforme ilustrado na Figura 4.3. O interferômetro
consiste em uma fonte de radiação na região espectral do infravermelho, divisor de
feixe, espelhos e fotodetectores. A luz proveniente da fonte de radiação, depois de
colimada por um espelho incide no divisor de feixes e é separada em dois feixes
que são novamente refletidos (um deles pelo espelho fixo e o outro pelo espelho
móvel) em direção ao divisor de feixes. Desta forma, quando estas duas partes se
recombinam ocorre um processo de interferência. O resultado desta interferência
dependerá da diferença entre os caminhos ópticos percorridos por cada feixe (que
é determinada pela distância dos espelhos móvel e fixo ao divisor de feixe). À
medida que o caminho óptico varia (devido ao movimento do espelho), a
intensidade da interferência também varia. Dessa forma, após a radiação passar
pelo sistema ótico é direcionada para a amostra e a luz transmitida pelo material é
focalizada sobre um detector, onde é convertida em um sinal digital. Um diagrama
70
da intensidade da radiação em função da diferença de caminho óptico (entre os
espelhos móvel e fixo) é chamado de interferograma. Finalmente, o espectro
infravermelho pode ser obtido a partir da transformada de Fourier do
interferograma.
4.2 – O método MNDO/d no cálculo das propriedades moleculares de um
sistema
O método MNDO/d foi desenvolvido por W. Thiel e A. A. Voityuk em 1992.
A grande vantagem deste método em relação aos demais métodos semiempíricos
é que no MNDO/d o orbital d foi adicionado ao conjunto convencional da base s-p.
Daí vem o d no MNDO/d. 62
Com a inclusão do orbital d o método MNDO/d passou a ser o método
mais exato do que os outros métodos semiempíricos mais utilizados.62
O método MNDO/d também tem uma grande vantagem, principalmente
em relação ao método PM3, que é a realização de cálculos Hamiltoniano também
para as interações nucleares.63
Tabela 4.1:63 Calor de formação experimental (exptl) e calculados pelos principais métodos semiempíricos.
O calor de formação é muito importante para estimar a afinidade por
prótons e principalmente para definir a energia necessária para as reações, e o
método MNDO/d é o que apresenta o menor erro, entre os principais métodos
semiempíricos, para o cálculo do calor de formação como pode ser visto na Tabela
4.1. 63
71
Erro médio nos ângulos de ligações (graus) para alguns elementos
2.25 2.28 2.74.32
7.166.2
14.78
9.8911.1
0
2
4
6
8
10
12
14
16
MNDO AM1 PM3
C N O
Figura 4.4: Erro médio nos ângulos de ligações
Erro médio nos comprimentos de ligações (Ǻ) para alguns elementos
0.053
0.031 0.0330.033 0.034 0.032
0.108
0.095
0.138
0.0740.068
0.053
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
MNDO AM1 PM3
H C N O
Figura 4.5: Erro médio nos comprimentos de ligações (Ǻ)
O MNDO/d também tem um ótimo desempenho no que diz respeito à
transferência de prótons e ponte de hidrogênio.63 Outra propriedade em que o
método MNDO/d mostrou ser mais eficiente é o cálculo do momento de dipolo
elétrico para moléculas isoladas. O método MNDO/d tem o menor erro para este
tipo de cálculo.
72
Erro médio no momento de dipolo
0.56
0.39
0.50.52
0.390.43
0.77
0.54 0.54
0.76
0.64
0.71
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
MNDO AM1 PM3
H C N O
Figura 4.6: Erros médios no momento de dipolo (Debye)
Embora em outras propriedades, como as mostradas nas Figuras 4.4, 4.5
e 4.6, o método MNDO/d não teve o melhor desempenho em relação à margem de
erro, a diferença entre o erro do MNDO/d e os demais métodos semiempíricos não
chega a ser significativo, principalmente levando-se em consideração que o
método MNDO/d é muito mais rápido do que os outros métodos analisados,
chegando a ser de 3 a 4 vezes mais rápido do que o DFT por exemplo.62 ;
Considerando todas as vantagens descritas aqui em relação ao método
MNDO/d, neste trabalho foram investigadas as propriedades do PAMAM G0 e G1,
utilizando o método MNDO/d visto que o mesmo obtém bons resultados no cálculo
do calor de formação. O calor de formação é uma propriedade fundamental no
nosso trabalho.58 É através do calor de formação que determinamos à geometria
da molécula e as reações químicas que ela participa.
Em uma comparação com os outros métodos, principalmente em relação
aos elementos H, C, O e N, que são os de interesse do nosso trabalho, as
vantagens que outros métodos apresentam numa aproximação maior com os
resultados experimentais, como mostram as Figuras 4.4, 4.5 e 4.6, não são
suficientes para eliminar a vantagem que o método MNDO/d tem em relação
rapidez na realização dos cálculos.
73
4.3 – Cálculos teóricos
Para análise dos orbitais de fronteira (HOMO-LUMO) bem como da
distribuição de cargas na molécula do dendrímero, simulações computacionais por
modelagem molecular foram realizadas nas duas primeiras gerações do PAMAM
(G0 e G1).
É sabido que dos orbitais moleculares os de fronteiras (HOMO e LUMO)
são de fundamental importância na interpretação das propriedades de um sistema.
O orbital HOMO, ( Highest Occupied Molecular Orbital) ou Orbital Molecular
Ocupado mais Alto é o último orbital que se encontra duplamente ocupado. Este
orbital indica onde se encontra o par de elétrons que pode ser removido mais
facilmente da molécula. Por sua vez o orbital LUMO (Lowest Unoccupied Molecular
Orbital) ou Orbital Molecular Vazio mais baixo, é o primeiro orbital que se encontra
vazio e indica o lugar onde a molécula poderia aceitar elétrons mais facilmente.
De forma geral a reatividade das moléculas é controlada pelos orbitais de
fronteira e pela densidade líquida de elétrons ao redor de cada átomo. As reações
controladas por orbitais de fronteira, são representadas pela densidade eletrônica
das camadas mais externas da molécula.
As energias do HOMO e LUMO são descritores muito utilizados sendo
demonstrado que estes orbitais têm um papel fundamental na reatividade dos
compostos em muitos tipos de reações químicas bem como na determinação das
lacunas das bandas eletrônicas nos sólidos. Estes orbitais também são
responsáveis pela formação de muitos complexos de transferência de carga. De
acordo com a teoria dos orbitais de fronteiras em reações químicas, a formação do
estado de transição se deve a interação entre os orbitais de fronteira (LUMO e
HOMO) das espécies reagentes. Portanto, o tratamento diferenciado para estes
orbitais moleculares é baseado em princípios gerais que governam a natureza das
reações químicas.
A energia de HOMO é diretamente relacionada ao potencial de ionização
e caracteriza a suscetibilidade da molécula ao ataque de eletrófilos enquanto a
energia de LUMO é relacionada à afinidade eletrônica e caracteriza a
suscetibilidade ao ataque por nucleófilos.
A lacuna entre HOMO e LUMO, ou seja, a diferença de energia entre estes
orbitais é importante índice de estabilidade química e uma grande diferença entre
HOMO e LUMO significa que a molécula tem alta estabilidade, ou baixa reatividade
74
em reações químicas. Assim, de acordo com a teoria dos orbitais de fronteira para
a reatividade, a maioria das reações químicas acontece na posição em que HOMO
e LUMO dos respectivos reagentes podem ter a maior sobreposição. Neste caso,
se a molécula é doadora de elétrons, a densidade de HOMO é critica para a
transferência de carga.
A polarizabilidade é uma medida da facilidade com que a nuvem eletrônica
de um átomo pode ser distorcida, em função do efeito de dipolo de um campo
elétrico externo, tendo desta forma uma maior dispersão de elétrons (maior
deslocalização). Esta medida pode ser obtida através da diferença de energia
. Neste caso, quanto maior for a diferença de energia
menor será a polarizabilidade do monômero.59
Outra das propriedades moleculares relevantes para a análise é a
determinação da população de Mulliken, que fornece a carga em cada átomo,
indicando se os átomos que compõe uma molécula apresentam um excesso ou
deficiência de carga. Neste sentido a análise da população de Mulliken é uma
forma quantitativa de identificar as regiões na molécula onde se acumula a carga
eletrônica (suscetíveis a ataques eletrófilos) e as regiões que se encontram
despopuladas de carga (suscetíveis a ataques nucleofílicos).
A distribuição total de elétrons de uma molécula é uma boa aproximação
para determinar muitas propriedades moleculares, químicas e físicas. O
procedimento consiste em usar cargas parciais atômicas as quais podem ser
determinadas por procedimentos semi-empíricos. Neste trabalho, analisamos as
cargas atômicas derivadas de populações Mulliken de orbitais atômicas o qual tem
dado uma boa descrição da distribuição eletrônica.
A análise populacional de Mulliken é um método amplamente difundido na
química molecular e baseia-se na teoria de orbitais moleculares já descritas.
Lembrando que a função de onda é definida por uma combinação linear de k
orbitais moleculares, também chamados de funções de base ,
(4.2)
75
considerando como reais e apenas uma função de base sobre cada átomo
na molécula, a densidade de probabilidade associada a um elétron em é dada
por:
(4.3)
Integrando a expressão anterior sobre todo o espaço tridimensional e
normalizando , a seguinte expressão é obtida:
(4.4)
sendo as integrais de superposição definidas como:
(4.5)
Definido como o produto da população líquida do elétron na orbital
molecular pela contribuição do orbital atômico e como a população
eletrônica de recobrimento entre os orbitais atômicos e obtém-se as
seguintes expressões:
(4.6)
(4.7)
No caso em que tem-se uma orbital antiligante, se tem-
se uma orbital ligante e caso tem-se uma orbital não ligante.
Somando-se as contribuições e a população líquida de Mulliken é
dada por:
(4.8)
76
Fatores como a facilidade de cálculo e a possibilidade de obtenção da
análise populacional de forma direta a um baixo custo computacional levaram à
ampla difusão do método populacional de Mulliken em química quântica.
Em vez de observar a magnitude de cargas atômicas, procuram-se efeitos
da distribuição de cargas devido a pequenas, mas claramente distinguíveis
mudanças conformacionais.
O potencial eletrostático de uma molécula pode ser determinado
selecionando-se um determinado número de pontos ao redor da molécula e em
seguida desprezando-se os pontos que caem dentro do raio de van der Waals da
molécula devido às distorções da proximidade do núcleo. Neste sentido, o
potencial eletrostático (Ei) é dado por:
(4.9)
sendo A o núcleo, Z o número atômico, RAp a distância entre o núcleo e uma carga
pontual, P a matriz de densidade e rp é à distância de separação entre o elétron e a
carga pontual.
4.4 – Fundamentos das técnicas de caracterização utilizadas neste trabalho
4.4.1– Caracterização espectroscópica: UV-Vis, FTIR .
O uso da interação de radiações eletromagnéticas com a matéria é uma
elegante fonte de informação para a física e química experimental molecular. O
levantamento de dados acerca das propriedades de absorção, transmissão, ou
reflexão por parte de materiais utilizando-se de tal técnica, denomina-se
espectroscopia.
A espectroscopia UV/Vis utilizada energia dos fótons na região do visível e
ultravioleta do espectro eletromagnético. Nesta faixa de energia, as moléculas
sofrem transições eletrônicas e moleculares. Através do máximo de absorção
(lmax), se é possível determinar a diferença de energia entre os orbitais moleculares
de fronteira HOMO e LUMO do material a ser analisado bem como a concentração
de substâncias.
A espectroscopia no infravermelho é um outro tipo de espectroscopia de
absorção. Como as demais técnicas de absorção, ela serve para identificar
77
composição de um material. Esse tipo de espectroscopia baseia-se no fato de
que as ligações químicas das substâncias possuem freqüências de vibração que
são específicas. Dessa forma cada ligação presente na molécula absorve em um
comprimento de onda. Correspondente às vibrações fundamentais da molécula.
Uma técnica de análise mais rápida e eficaz para se colher informações de
absorção no infravermelho, é a espectroscopia no infravermelho usando
transformada de Fourier (FTIR). Em vez de se coletar os dados variando-se a
freqüência da radiação infravermelha (IR), a radiação IR com todos os
comprimentos de onda da faixa usada é guiada através de um interferômetro tipo
Michelson. Depois de passar pela amostra o sinal medido gera um interferograma.
Realizando-se uma transformada de Fourier no sinal resulta-se em um espectro
idêntico ao da espectroscopia IR dispersiva convencional.
4.5 – Estudos das propriedades biocompativeis do dendrímero PAMAM
O estudo da adsorção das proteínas albumina de soro humano (HSA) e
fibrinogênio humano (HFb) foi efetuado utilizando a técnica de ressonância
plasmônica de superfície (RPS). O sistema RPS utilizado para o estudo da
interação entre as proteínas do plasma sanguíneo e o dendrímero PAMAM baseia-
se na configuração de refletância total atenuada desenvolvida por Kretschmann.
Figura 4.7: Diagrama representativo do sistema ótico utilizado no laboratório de Biomateriais da Universidade
Federal de Itajubá (UNIFEI) para análise da adsorção protéica pela técnica SPR [1].
As técnicas de preparo dos eletrodos e o ensaio de adsorção estão descritos na
referência [73]. A Figura 4.7 apresenta o diagrama representativo do aparato
experimental utilizado para a análise da adsorção protéica por SPR. Inicialmente, o
78
feixe de luz proveniente da fonte de laser (1) atravessa o polarizador (2) e logo em
seguida passa pela íris polarizado (3) no plano óptico do conjunto prisma/eletrodo
(4). Posteriormente, o feixe de luz polarizado é dividido em duas componentes pelo
beam splitter (divisor de feixe), uma em direção do eixo de rotação (5) e outra para
o fotodetector de referência (6). A parte da fonte de luz transmitida incide na
interface prisma/eletrodo e é coletada pelo fotodetector de referência. O eixo de
rotação é varrido de 30 a 70 graus e então os dados dos fotodetectores de sinal e
de referência são coletados pelo software de aquisição dos dados. Finalmente, os
dados coletados são quantificados através do programa computacional
desenvolvido em ambiente MATLAB 7.073.
4.5.1 – Adsorção protéica
As proteínas albumina de soro humano (HSA) e fibrinogênio humano
(HFb) foram marcadas com 125I segundo o método de Hunter-Greenwood
modificado por Biscayart.76-78 Empregou-se 0,5-0,7 mCi (18,5-25,9 MBq) de
radioisótopo, 20 g de proteína em 30 L de tampão fosfato (PBS) 0,05 M, pH 7,4.
A reação procedeu-se à temperatura ambiente por 5 minutos adicionando-se em
seguida 5 g de metabissulfito de sódio em 5 L do mesmo tampão PBS 0,05M. A
purificação da proteína marcada foi feita por filtração em gel Sephadex G-100 para
o BSA e G-250 para o fibrinogênio. Para um cálculo preciso dos coeficientes de
distribuição dos picos radioativos (KD). O coeficiente de distribuição permitiu a
comprovação da pureza e identidade do marcado.
O estudo da adsorção de proteínas ocorreu após o contato das superfícies
sintéticas com as proteínas marcadas radioisotopicamente em cubetas de PTFE.
As superfícies sintéticas foram incubadas com as proteínas marcadas (2,0 .1080
cpm.mL-1) em solução PBS pH 7,4 equilibradas termicamente a 37 oC. Após
incubação por um período de 2 horas a adsorção protéica foi avaliada após
lavagem das superfícies sintéticas com PBS pH 7,4 a 37 oC. A radioatividade das
superfícies PAMAM G0 e PAMAM G1 foram avaliadas em um contador gama
(Beckman) para a determinação da concentração das proteínas adsorvidas em
função do tempo.
79
4.5.2- Adesão plaquetária
O ensaio de adesão plaquetária foi efetuado após contato da superfície de
placas de Elisa revestidaso com PAMAM com plaquetas marcadas com 51Cr.79
Sangue humano foi coletado em solução de ACD (citrato de sódio 3,8%) e o
plasma rico em plaquetas (PRP) foi preparado após centrifugação a 700g por 5
minutos. Após adição de prostaglandina sódica (PGI2, 50 g.mL-1) e nova
centrifugação do PRP a 900g por 10 minutos as plaquetas foram resuspensas em
solução de ACD pH 6,00 (6,85 mM citrato de sódio, 130 mM NaCL, 4 mM KCL
e 5,5 mM de glicose). As plaquetas foram peletizadas novamente e em seguida
resuspensas em solução de Hepes-Tyrode (136 mM NaCl, 2,7 mM KCl, 0,42 mM
NaH2PO4, 12 mM NaHCO3, 5,5 mM glicose, 2% BSA e 5 mM ácido 4,2-hidroxietil-1-
piperazina etanosulfônico). A concentração de plaquetas foi ajustada para cerca
de 2.109 células.mL-1 e em seguidas foram marcadas com 51Cr pela adição de
Na251CrO4 (Ci.mL-1) e incubação por 40 minutos a 20 oC. As plaquetas marcadas
com 51Cr foram lavadas duas vezes com o tampão de Hepes-Tyrode, centrifugadas
e resuspensas novamente no tampão. Após ajuste para uma concentração de
2.108 células.mL-1, as plaquetas foram utilizadas no ensaio de adesão plaquetária.
Para o ensaio de adesão plaquetária os poços das placas de Elisa não
revestidas e, revestidas com o dendrímero PAMAM (G0 e 1) foram preenchidas
(300 L) com tampão de Hepes-Tyrode por 1 hora a 37 oC. Após remoção do
tampão, o PRP contendo as plaquetas marcadas com 51Cr foram adicionadas
através de uma bomba peristáltica e mantidas em condições de fluxo por até 4
horas. Os poços da placa de Elisa foram em seguida lavados com a solução
tampão de Hepes-Tyrode contendo solução de MgCl2 1 mM. A radioatividade das
placas foi medida em um contador gama. Os resultados foram expressos como a
média de 5 experimentos.
Para observação do processo de adesão e agregação plaquetária nas
superfícies das placas de Elisa, revestidas e não revestidas com o dendrímero
PAMAM (G0, G1), após contato com o PRP os tubos foram desidratados em
etanol, secos em atmosfera de CO2 (ponto crítico) e após revestimento com ouro
foram observadas ao microscópio eletrônico de varredura (SEM Phillips XL 30).
4.5.3 – Adesão de trombos
80
A formação de trombos nas superfícies de placas de Elisa revestidas com
o dendrímero PAMAM foi estudado por microscopia de epifluorescência após o
contato das superfícies sintéticas com sangue humano. Sangue humano foi
coletado em solução de ACD (citrato-dextrose) para impedir a hemólise dos
glóbulos vermelhos. As placas de Elisa revestidas com o dendrímero PAMAM
foram inicialmente hidratadas com solução PBS pH 7,4 a 37 oC por 15 minutos. Em
seguida as superfícies foram colocadas em contato com o sangue humano
previamente preparado com a solução de ACD e em seguida a reações de
coagulação foi iniciada pela adição de 20 L de CaCl2 a 3,8%. Após um
determinado intervalo de tempo a reação de formação de trombos foi interrompida
pela adição de solução fisiológica (NaCl a 0,9%). As superfícies testadas foram
mantidas por 5 minutos em solução de glutaraldeído a 25% para a fixação dos
trombos e em seguida coradas com alaranjado de acridina para observação por
microscopia de epifluorescência. O princípio da técnica de epifluorescência
baseia-se na incorporação de alaranjado de acridina ao DNA mitocondrial. A
localização de plaquetas ou seus agregados é feito então por excitação do corante
com luz UV.80
5
81
RESULTADOS E DISCUSSÃO
5.1 – Caracterizações do dos Dendrímeros PAMAM G0 e G1
5.1.1 – Caracterização por Espectroscopia Eletrônica (UV/vis) e por
Espectroscopia `Vibracional (FTIR)
As observações ópticas estão relacionadas à transição eletrônica que ocorre
por absorção de fótons por parte do material. Um espectro de absorção será,
portanto, formado por um conjunto de bandas associadas às diversas transições
hhhhhhhhhhhhhhhhhhhhhhhhhhhhh Figura 5.1: Espectro UV-vis experimental
do PAMAM G0. O espectro
contém duas bandas de absorção em 240 e
2 290 nm.
ntém duas bandas de absorção em 240 e 290 nm.
vibracionais e rotacionais possíveis dos dois estados eletrônicos envolvidos na
transição e dependerá das regras de seleção espectroscópicas válidas para cada
caso. Na Figura 5.1 é mostrado o espectro de absorção na região UV-Vis
característico de dendrímero PAMAM G0. O espectro exibiu dois máximos de
absorção em 240 nm e 290 nm. A absorção máxima em 240 nm está associada a
transições π-π*, separação entre a diferença de energia entre os orbitais
moleculares de fronteira HOMO (orbital molecular mais alto ocupado) e LUMO
(orbital molecular mais baixo desocupado) da molécula de PAMAM. A banda de
82
(A) (B1)
(B2) (B3)
Figura 5.2: Espectros FTIR do dendrímero PAMAM G0. As bandas de absorção em 3210 cm-1 e 1647 cm-1
caracterizam as freqüências características vibracionais das aminas primárias existentes na periferia do
dendrímero PAMAM. Em (A) é observado o espectro experimental e em (B1), (B2) E (B3) o espectro teórico.
absorção em 290 nm corresponde à absorção por parte de grupos carbonila (grupo
funcional constituído de um átomo de carbono e um átomo de oxigênio)
provenientes dos grupamentos amida da molécula de PAMAM [2].
83
(A)
(B) (C)
Figura 5.3: Espectros FTIR do teóricos do dendrímero PAMAM G1. As bandas de absorção em 3201 cm-1 (C)
e 2079cm-1 (B) caracterizam as freqüências características vibracionais das aminas primárias existentes na
periferia do dendrímero PAMAM.
A Figura 5.2 apresenta os espectro FTIR teórico e experimental para o
dendrímero PAMAM G0 entre 3500 e 500 cm-1. As bandas de absorção em 3210
cm-1 e 1647 cm-1 caracterizam as freqüências vibracionais características das
aminas primárias existentes na periferia do dendrímero. No FTIR teórico as bandas
que caracterizam as aminas primárias estão nas freqüências 3265 e 1675 cm -1.
Estes valores estão em boa concordância com os valores obtidos
experimentalmente, ou seja, são bem próximo. Também é possível afirmar que as
demais bandas obtidas experimentalmente (entre 1000 e 1500 cm-1) parecem
concordar com os valores obtidos teoricamente através da modelagem. Esta
proximidade do resultado teórico com o experimental é esperada, visto que o
84
método utilizado neste trabalho (MNDO/d) é o método que apresenta o menor erro
no comprimento e ângulo de ligação para o átomo de carbono. Assim podemos
verificar que esta é melhor conformação para a molécula, ou seja, a conformação
está no mínimo global.
5.2 – Modelagem Molecular
5.2.1 – Orbitais de Fronteira HOMO-LUMO
As Figuras 5.4 e 5.5 representam a distribuição espacial
dos orbitais de fronteira (HOMO-LUMO) e suas energias para uma dendrímero
PAMAM G0 e G1, respectivamente. Em azul, está representado a parte negativa
da função de onda e em vermelho a parte positiva. A diferença de energia entre os
orbitais de fronteira (HOMO-LUMO) pode contribuir para a compreensão das
propriedades elétricas de um material. Em uma primeira aproximação, esta
diferença de energia representa para moléculas orgânicas, o que o band gap
representa para semicondutores inorgânicos, correspondendo o HOMO à banda de
valência e o orbital LUMO à banda de condução.
O band gap para o dendrímero de geração 0 é menor que o gap do
dendrímero de geração 1, 7,772 eV e 7,981 eV, respectivamente. Este resultado
teórico está em boa concordância com os resultados experimentais obtidos neste
trabalho, evidenciando que dendrímeros de baixas gerações possuem um baixo
band gap relativamente a dendrímeros de gerações mais altas, como observado a
partir da espectroscopia UV/Vis (Figura 5.2).
85
HOMO - 9,695 eV
(b)
(a)
Figura 5.4: Distribuição espacial dos orbitais de fronteira do PAMAM G0 : HOMO (a) e LUMO (b).
86
LUMO - 1,923 eV
HOMO -9,555 eV
LUMO 1,574 eV
Figura 5.5: Distribuição espacial dos orbitais de fronteira do PAMAM G1: HOMO (a) e LUMO (b).
5.2.2 – Potencial Eletrostático
O potencial eletrostático exprime a medida do nível de energia potencial
associada a partículas carregadas. Os potenciais eletrostáticos, para o dendrímero
PAMAM G0 e G1 são mostrados nas Figuras 5.6 e 5.7, respectivamente. Existe
uma maior concentração de cargas na região do núcleo do dendrímero. A
87
concentração de carga no núcleo do dendrímero aumenta com o número de
geração do dendrímero, o que evidencia que há uma barreira potencial elevada
para a transferência eletrônica do núcleo à superfície do dendrímero, sendo esta
barreira tanto maior quanto maior for a geração do dendrímero PAMAM. Esta
observação está de acordo com a diferença de energia entre os orbitais de
fronteira HOMO-LUMO como explicado anteriormente e com os resultados
experimentais referentes à espectroscopia UV/Vis observados na Figura 5.2.
Foi, também, determinado a polarizabilidade que é uma medida da
facilidade com que a nuvem eletrônica de um átomo pode ser distorcida em função
do efeito de dipolo de um campo elétrico externo, tendo desta forma uma maior
dispersão de elétrons (maior deslocalização). Esta medida pode ser obtida através
da diferença de energia . Neste caso, quanto maior for a diferença de
energia menor será a polarizabilidade do monômero.59 Neste
trabalho, seguindo a Tabela 5.1, observaram-se os valores de -11.02
eV e -10,65 eV para o PAMAM G0 e G1, respectivamente. Esta observação
sugere que o PAMAM G1 possui uma menor polarizabilidade.
Figura 5.6: Potencial eletrostático para o PAMAM G0.
88
Figura 5.8: Potencial eletrostático para o PAMAM G1.
Figura 5.7: Potencial eletrostático para o PAMAM G1
5.2.3 – Distribuição das cargas de Mulliken
Neste trabalho, analisamos as cargas atômicas derivadas de populações
Mulliken de orbitais atômicos o qual tem dado uma boa descrição da distribuição
eletrônica (Figura 5.8). Como era esperado, o carga total do PAMAM G1 é maior
do que a carga total do PAMAM G0.
89
Figura 5.8: Distribuição de cargas (MNDO/d) do PAMAM G0 (A) e G1 (B)
90
Tabela 5.1: Valores encontrados para o PAMAM G0 e G1
G Volume Molecular (cm3/mol)
Momento dipolar (D)
HOMOEv
LUMOeV
GapTeor. (eV)
GagExp.(eV)
Calor de Formaçãokcal/mol
0 1705.94 Ǻ3 3.453 - 9.695 1.923 7,772 5,165 - 135.22868351 4468.80 Ǻ3 8.207 - 9.555 1.574 7,981 - 394.2615356
Da Tabela 5.2 também podemos verificar que o volume molecular,
momento dipolar e o calor de formação alteram de uma geração para outra nas
proporções de 2,6; 2,4 e 2,9 respectivamente, ou seja, existe uma correlação
quase proporcional. Isto não acontece com os orbitais de fronteira, pois
e .
Também da Tabela 5.2 pode-se verificar que os valores encontrados para
o band gap do PAMAM G0 e G1 estão em concordância com os valores
experimentais, visto que no cálculo teórico o band gap aumenta do PAMAM G0
para o PAMAM G1, igualmente como acontece com os valores encontrados
através dos experimentos. A diferença entre os valores do band gap experimental e
teórico se deve, possivelmente, a interferência do solvente, pois o cálculo teórico
foi realizado no vácuo e o experimental foi realizado no metanol. Além disso, a
diferença apurada entre os dois métodos (teóricos e experimental) está o fato de
que o método MNDO/d utiliza parâmetros de átomos isolados.
5.3 – Estudos das Propriedades Biocompatíveis do Dendrímero PAMAM
A perda de um órgão ou de uma parte do corpo gera, além da perda da
função biológica, transtornos sociais e psicológicos. Os avanços alcançados na
medicina e odontologia modernas, com o conseqüente aumento da expectativa de
vida, têm possibilitado o desenvolvimento de materiais sintéticos com propriedades
que mimetizam o tecido biológico, visando à reposição do órgão perdido
proporcionando uma melhor qualidade de vida para o paciente.
Os materiais sintéticos desenvolvidos especialmente para a utilização em
implantes permanentes ou temporários na medicina são chamados de biomateriais.
Um biomaterial pode ser definido como um material sintético ou de origem natural
utilizado em contato com o organismo humano, substituindo desta maneira o tecido
biológico, órgão ou mesmo uma função do corpo humano.
91
Por sua vez, a propriedade de um biomaterial ou seja, sua
biocompatibilidade pode ser definida como a habilidade de um material em
desempenhar uma função específica de um tecido biológico ou órgão em produzir
qualquer resposta biológica adversa local ou sistêmica, o material deve ser não-
tóxico, não-carcinogênico, não antigênico e não-mutagênico.
As complicações oriundas dos dispositivos implantados irão variar de
acordo com a sua aplicação. Por exemplo, infecções e biodegradação irão afetar
dispositivos que têm aplicações de longa duração como próteses permanentes e
válvulas cardíacas. Em aplicações cardiovasculares, os biomateriais devem ser
não trombogênicos ou seja, não poderá haver a formação de trombos na superfície
do material sintético quando este está em contato com o sangue.
O organismo humano tem um modelo de funcionamento que pode ser
afetado por agressões de diversas naturezas. Qualquer situação, não identificada
pelo organismo como normal ou fisiológica, pode despertar um conjunto de
reações relacionadas aos mecanismos de defesa ou de compensação. O agente
que desencadeia a reação é considerado o “agente agressor” e a reação do
organismo à sua presença, é a resposta ao agente agressor.
A introdução no sistema biológico de um polímero sintético é identificado
pelo organismo humano como um agente agressor, e como tal, suscita uma série
de reações que leva a alterações significativas no equilíbrio fisiológico do
organismo constituindo um agente agressor complexo e multifatorial.
As alterações induzidas pelo uso de materiais sintéticos na área
cardiovascular são de natureza hemodinâmica, física, e química. A introdução de
stents por exemplo, é uma condição anormal, em que o sangue está,
continuamente, em contato com superfícies estranhas, não endoteliais. O
aparecimento de um conjunto de alterações no sistema hemodinâmico é,
provavelmente, devido a uma resposta ou reação inflamatória, desencadeada pela
ativação dos sistemas do complemento e da coagulação, da cascata fibrinolítica
bem como dos sistemas das cininas ou calicreina. Essa ativação dos sistemas
humorais específicos, ocorre imediatamente após a introdução do dispositivo
sintético e tem relação com a duração do implante.O primeiro evento resultante da
interação entre uma superfície sintética e o sangue é a adsorção protéica, que
92
pode influenciar nos demais eventos como adesão plaquetária e a formação de
trombos.
A adsorção de fibrinogênio tem grande importância no fenômeno da
hemocompatibilidade dos materiais poliméricos uma vez que por ser um dos
fatores da coagulação, facilita a adesão de plaquetas, participando de reações de
troca com outras proteínas, importantes no mecanismo de coagulação sangüínea.81
Diversos estudos tem relacionado a absorção preferencial de albumina ao
caráter não trombogênico das superfícies sintéticas orgânicas. A Figura 5.9 mostra
a adsorção de HSA e HFb sobre as superfícies revestidas por PAMAM. Observa-se
que a quantidade de HSA adsorvida nas superfícies sintéticas é significativamente
maior no PAMAM de maior geração, enquanto que a adsorção de HFb é
relativamente menor.
Figura 5.9: Adsorção de HSA (A) e HFb (B) nas superfícies dos dendrímeros PAMAM de geração 0 e 1.
No caso especificamente da área cardiovascular, o sangue pode circular
através de tubos ou câmaras de material plástico sintético, rígido, apenas
razoavelmente biocompatível aos quais faltam, obviamente; um revestimento
interno com as propriedades do endotélio vascular.
Durante o contato com a superfície sintética, as células sanguíneas estão
sujeitas à ação de diversas forças que diferem das forças que atuam na circulação
93
7,70 7,75 7,80 7,85 7,90 7,95 8,00 8,05 8,100,0
0,2
0,4
0,6
0,8
1,0
10
Adso
rção d
e H
SA
(.c
m-2)
PAMAM (Geração)
(A)
0
5
10
15
20
25
30
10
Ad
sorç
ão
de
HF
b (
.cm
-2)
PAMAM (Geração)
(B)
normal. As hemácias, os leucócitos e as plaquetas podem ser profundamente
afetados pelo contato com as superfícies da prótese sintética. Fenômenos como a
adesão e agregação plaquetária são desencadeados, deprimindo
significativamente a função das células sanguíneas.
O primeiro evento decorrente da exposição de uma superfície sintética ao
sangue é a adsorção de proteínas séricas seguido da adesão plaquetária na forma
de monocamadas ou agregados. Estudos indicam que o processo de adesão de
plaquetas envolve a interação física ou química dos receptores de membrana desta
célula com a superfície do polímero sintético.
A interação entre a superfície sintética e o sangue envolve uma
fenomenologia ainda não totalmente esclarecida pela literatura. Entretanto, sabe-
se que após exposição ao sangue uma série de eventos dominantemente de
adsorção dos elementos presentes no fluído vital iniciam-se na interfase
macromolécula-tecido biológico. Desta maneira as propriedades físico-químicas da
macromolécula tais como presença de microdomínios hidrofílico/hidrofóbico,
topologia e presença de cristálitos são fatores que podem influenciar nas
interações entre a superfície sintética e o sistema cardiovascular.82
De uma maneira geral, a série de fatores que determinam a formação de
uma interfase por deposição plaquetária sobre a superfície de um biomaterial são
influenciadas pela termodinâmica do sistema que através de variações entálpicas e
entrópicas dirigem o potencial termodinâmico de Gibbs para o processo de adesão
e agregação da célula sanguínea na superfície sintética.83 Entretanto, deve-se
recordar que o caráter não temporal da termodinâmica impede o estabelecimento
de uma avaliação mais criteriosa da dinâmica da interação célula
sangüínea/superfície sintética.
A adesão de plaquetas na superfície sintética é mediada pelo fator VII da
coagulação sangüínea, podendo ser liberados alguns constituintes do agregado
plaquetário dentro do plasma. Estas transformações estão sob o controle das
prostaglandinas, íons Ca+2, AMP e ADP. As proteínas específicas e fosfolipídeos
da membrana plaquetária são de importância primordial para a aceleração e
controle do processo de coagulação. Por sua vez, as plaquetas aderidas sobre a
superfície sintética podem ser ativadas levando ao início de um conjunto de
reações complexas que conduzem à formação de trombos.
94
Embora mais de três décadas tenham se passado na tentativa de se
estabelecer um mecanismo preciso da interação entre a plaqueta sangüínea e a
superfície dos polímeros sintéticos, semelhantemente à física contemporânea, falta
uma teoria unificada que seja capaz de prever tanto os processos de adesão
quanto os de ativação plaquetária, independente da estrutura da macromolécula
sintética em estudo.
A Figura 5.10 mostra as micrografias MEV para as superfícies do
dendrímero PAMAM G0 e G1, respectivamente após exposição ao plasma rico em
plaquetas. As superfícies de PAMAM G0 apresentaram menos plaquetas aderidas
comparativamente ao PAMAM G1, evidenciando uma tendência bastante
significativa na melhora das características hemocompatíveis do dendrímero de
geração um (G1). Entretanto, deve ser observado que este dendrímero não é o
ideal ainda para sua aplicação na área cardiovascular uma vez que se notam
plaquetas ativadas e com membranas desestruturadas pela interação com o
dendrímero.
Figura 5.10: Micrografia MEV das superfícies do dendrímero PAMAM G0 (A) e G1 (B).
Os resultados para a formação de trombos são apresentados na Figura
5.11. Observa-se na microscopia de epi-fluorescência que o número de agregados
é significativamente maior nas superfícies do PAMAM G0, o que parece estar em
boa concordância com os resultados de adesão plaquetária e adsorção protéica.
95
(A) (B)
Entretanto, ainda podem ser observados trombos formados na superfície do
PAMAM G1, que o desqualifica como material para aplicações cardiovasculares.
Figura 5.11: Microscopia de epi-fluorescência dos dendrímeros PAMAM de geração G0 (A) e G1(B) após
exposição ao sangue humano.
6
96
(A)(B)
CONCLUSÕES E PERSPECTIVAS
Considerando-se a investigação da estrutura eletrônica do dendrímero
PAMAM G0 e G1 utilizou-se métodos computacionais aplicados na mecânica
quântica. Foram feitas otimizações geométricas para estas moléculas com o intuito
de obter a estrutura com a mínima energia, ou seja, em eu estado fundamental.
A diferença básica entre as estruturas de PAMAM G0 e G1 parece estar
no fato de que a densidade eletrônica se concentra no núcleo do dendrímero,
observação esta comprovada pelo Mapa do Potencial Eletrostático. A diferença de
energia dos orbitais HOMO-LUMO parece estar ligada aos processos de adsorção
das proteínas HSA e HFb e indicam que a análise da biocompatibilidade do
PAMAM pode ser feita via métodos in silício, minimizando assim a experimentação
animal. Contudo, a análise da biocompatibilidade do dendrímero PAMAM deve ser
analisada de forma mais segura e rigorosa, utilizando-se outros métodos da
mecânica quântica e ampliando-se o número de gerações da macromolécula.
Uma vez que o processo de coagulação do sangue envolve um processo
de oxi-redução, havendo transferência de elétrons do fibrinogênio para a fibrina,
parece razoável assumir a diferença de energia dos orbitais HOMO-LUMO como
um possível descritor para o estudo da hemocompatibilidade do dendrímero
PAMAM.
Da mesma forma, encontrou-se entre as transições eletrônicas uma
variedade de possíveis transições correspondendo as mais importantes e que são
as responsáveis por gerarem o espectro eletrônico UV-VIS e vibracional (FTIR) do
PAMAM..
Além dos resultados já apresentados, este trabalho permite idealizar as
seguintes perspectivas:
a) Investigar a mudança conformacional e eletrônica para os
primeiros estados excitados (singleto e tripleto) com o intuito de descobrir a
forma como age o PAMAM de diferentes gerações sob excitação que faz
parte do processo de interação com outras moléculas biológicas como
proteínas e enzimas;
97
b) Investigar a mudança conformacional e eletrônica para os
dendrímeros protonados e desprotonados quando os átomos de hidrogênio
evoluem do/para o sistema. Este também pode vir a ser outro mecanismo do
processo de interação com outras moléculas biológicas;
c) Investigar, via métodos de dinâmica molecular, a interação
formal (formal no aspecto físico) entre os dendrímeros e as proteínas HSA e
HFb;
d) Comparar com resultados experimentais que podem vir a ser
obtidos dentro do grupo de biomateriais e biomiméticos visando um melhor
entendimento do processo de excitação e interação entre sistemas
biológicos.
98
7
REFERÊNCIAS BIBLIOGRÁFICAS
[1] Schimizu H., O mergulho num mundo invisível, Veja on-line Edição
Especial Tecnologia, Jul. 2006, em 09/05/2007
[2] Galembeck F.; Rippel Márcia Maria,Nanotecnologia: Estratégias
institucionais e de empresas, Relatório Final do Contrato de Prestação de
Serviços CGEE-Funcamp, p.4, outubro de 2004, Campinas – SP.
[3] Políticas Tecnológicas e de Inovação: O que Há de Novo no Globo?, Carta
IEDI n. 153, Instituto de Estudos para o Desenvolvimento Industrial,
2904/2005.
[4] http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo, em 25 de
julho de 2007.
[5] http://cbme.if.sc.usp.br/inovacao/panorama.php, em 26 de julho de 2007.
[6] http://www.bndes.gov.br/conhecimento/bnset/set2306.pdf, em 26 de julho de
2007.
[7] Takahata Y., Projeto Técnico Científico Elaborado pelo Grupo de pesquisa,
Instituto de Química da UNICAMP.
[8] Dias J. J. C. T.; Química Quântica: Fundamentos e Métodos, Fundação
Calouste Gulbenkian: Lisboa, 1982.
[9] Cartier G.; Rivail, J. L.; Chemom. Intell. Lab. Sys, 1987, 1, 335.
99
[10] http://www.maxwell.lambda.ele.puc-rio.br/cgi-
bin/PRG_0599.EXE/8879_3.PDF?NrOcoSis=26676&CdLinPrg=pt
[11] Mundim K. C., Modelagem Molecular Aplicada a Sólidos e Biomoléculas,
Instituto de Química, Universidade de Brasília,IV Escola de Inverno do CBPF
de 15 a 26 de Julho de 2002.
[12] Tuzun, R. E. , Macromol. Theory Simul., 6, (1997)
[13] Tuzun, R. E., Macromol. Theory Simul., 6, (1997).
[14] Liang, G. L. ., J. of Polymer Science, 31, (1993).
[15] Binder, K. & Paul, W., J. of Polymer Science, 35, (1997).
[16] Gundertofte, K., J. Computational Chemistry, 17, (1996).
[16] Harmandaris, V. A., Macromolecules, 31, (1998).
[17] Alder, B. J. & Wainwright, T. E., J. Chem. Phys., 27, 1208(1957) (citado por
Liang, G. L., J. of Polymer Science, 31, 1993).
[18] Karplus, M. & McCammon, J. A., Scientific American, 254, (1986).
[19] Tan, T. T., Macromol. Theory Simul., 5, (1996).
[20] Smith. G. D., Macromolecules, 24, (1998).
[21] Manfield, K. F., Macromolecules, 24, (1998).
[22] Smith, G. D., Macromolecules, 28, (1995).
[23] Dumont, D., Macromol. Theory Simul., 7, (1998)
100
[24] Gusev, A. A., J. Chem. Phys., 99, (1993).
[25] Fujiwara, S. & Sato, T., J. Chem. Phys., 107, (1997)
[26] Esselink, K., J. Chem. Phys., 101, (1990).
[27] Yamamoto, T., J chem. Phys., 99, (1993).
[28] Kavassalis, T. A. & Sundararajan. P. R. Macromolecules, 26 (1993).
[29] Sumpter, B. G., Macromolecules, 23, (1990).
[30] Rino, J. P., Stuart, N., Um potencial de interação para estudo de materiais e
simulações por dinâmica molecular, Química Nova, v. 24 n.6, 2001
[31] Konstatinova, E., Novas Fases de Carbono: Abordagem computacional,
2005, Tese (Doutorado) – Centro Brasileiro de Pesquisas Físicas, Rio de
Janeiro, Brasil
[32] http://www.chemkeys.com/bra/md/tdqq_4/aqdmo_5/feldm_11/feldm_11.htm,
em 26 de julho de 2007.
[33] MurrellJ. N., Harget A. J. Semi-empirical Self-Consistent-Field Molecular
Orbital Theories of Molecules, Wiley-Interscience, (1971).
[34] Pople J. A., Beveridge D. L., Approximate Molecular Orbital Theory, McGraw-
Hill, (1970).
[35] Lipkowitz K. B., Boyd D. B., Reviews in Computational Chemistry, VCH
Publishers, NY, (1994).
[36] http://www.inf.ufrgs.br/procpar/hetnos/grid/papers/gridgene.pdf, em 26 de
julho de 2007
101
[37] Chinellato D. D., Dinâmica Molecular de Nanoosciladores Mecânicos
Baseados em Nanotubos de Carbono, Projeto de Pesquisa da Unicamp,
Campinas – SP, 08 de julho de 2003
[38] Companion Audrey L., Ligação Química, Departamento de Química,
Instituto de Tecnologia de Illinois, editora Edgard Blücher LTDA, editora da
Universidade de São Paulo
[39] Gould E. S., Inorganic Reactions and Structure, ed. Rev., Cap. 25, parte II,
Holt, Rinehart e Winston, Inc., New York, 1962.
[40] Halliday D., Resnick R., Física, 1ª. Ed., parte II, séc. 30.4, Ao Livro
Técnico S. A. e Edit. da Univ. de S. Paulo, Rio de Janeiro e S. Paulo, 1966,
Trad. de E. Cavallari, B. Afini Jr. e A. Oliveira.
[41] Pauling L., The Nature of the Chemical Bond, 3ª. Ed., Cornell University
Press, Ithaca, N. Y., 1960.
[42] Bishop, M. An Introduction to Chemistry. 1st edition. Benjamin Cummings,
2001, San Francisco-CA USA.
[43] Pearson, R. G.; J. Org. Chem., 54, 1423 (1989).
[44] http://www.phc.vcu.edu/Feature/oldfeature/benzene/index.html, em 05/06/07.
[45] http://www.molinspiration.com/services/volume.html, em 08/06/07
[46] Forças intermoleculares, Revista eletrônica do Departamento de Química
UFSC, ano 4, em 07/06/07
[47] Tomalia, D. A.; Naylor, A. M.; e Goddard III, W. A.; Angew. Chem. Int.
Ed.
Engl. 1990, 29 138.
102
[48] (a) Fréchet, J. M. J.; Reported at the International Symposium on
Recognition Processes, Birmingham, UK, 1994 (b) Wooley, K. L.;
Fréchet,
J. M. J.; e Hawker, C. J.; Polymer 1994, 35, 1710.
[49] Jin, R. H.; Aida, T.; e Inoue, S.; J. Chem. Soc. Chem. Commun. 1993,
1260.
[50] (a) Diederich, F.; Reported at the International Symposium on
Recognition Processes, Birmingham. UK, 1994 (b) Diederich, F.; e
Carcanague, D. R.; Helv. Chim. Acta 1994, 77, 800.
[51] Newkome, G. R.; Yao, Z. O.; Baker, G. R.; e Gupta, V. K.; J. Org.
Chem.
1985, 50, 2003.
[52] Tomalia, D. A.; Baker, H.; Hall, M.; Kallos, G.; Martin, S.; Roek, J.;
Smith,
P.; Polym. J. 1985, 17, 117.
[53] Entrevista ao Donald A. Tomalia, Scientific American, 1995, 42-46
[54] Hawker, C. J.; Fréchet, J. M. J.; J. Am. Chem. Soc. 1990, 15, 4375.
[55] Bo, Z. S.; Zhang, X.; Yi, X. B.; Yang, M. L.; Shen, S. C.; Rehn, Y. H.;
Xi,
S. Q.; Polymer Bull. 1997, 38, 257.
[56] http://www.ninger.com/dendrimer/three.htm, em 12/09/07.
[57] http://www.qmc.ufsc.br/quimica/pages/quimica_ufsc_br.html, em
31/07/07
103
[58] Tangerino, L. M. B. Estudos das Propriedades Antimicrobianas, 2006
Dissertação (Mestrado) – Instituto de Ciências Exatas, Departamento de
Física e Química, Universidade Federal de Itajubá, MG, Brasil.
[59] Fireman, M., Ross, S. D. J. Polym. Sci. v.5, p.259,1950.
[60] http://www.pucrs.br/quimica/mateus/quimicageralII.pdf, em 09/08/07
[61] http://www.feiradeciencias.com.br/sala21/21_23.asp, em 09/08/07
[62] http://pt.wikibooks.org/wiki/Curso_de_termodin%C3%A2mica:Diagrama
de_fases_de_um_corpo_puro, em 10/08/07
[63] Nam K., Cui Q., Gao J. York D. M., Specific Reaction Parametrization of
the AM1/d Hamiltonian for Phosphoryl Transfer Reactions: H, O and P
atoms, Journal of Chemical Theory and Computation, 2007, v.3, p. 486-504.
[64] http://www.cachesoftware.com/mopac/Mopac2002manual/node442.html, em
11/08/07
[65] Higo J., Go N., J. Comp. Chem. 1989, 10, 376-379.
[66] Santos V. M, Cunha S. F. C., Cunha D. F., Velocidade de sedimentação
das hemácias: utilidade e limitações, Revista da Associação Médica
Brasileira, v. 46, n.3, Julho/Setembro de 2000.
[67] Knischka, R.; Lutz, P.J.; Sunder, A.; Mulhaupt, R.M.; Frey, H. Functional
poly(ethylene oxide) multiarm star polymers: core-first synthesis using
hyperbranched polyglycerol initiators. Macromolecules, (33), p. 315-320,
2000.
[68] Hedden et. al. Templating of inorganic nanoparticles by PAMAM/PEG
dendrimer-star polymers. Polymer, 43, p. 5473–5481, 2002.
104
[69] Davis, A.P.; Ma, G.; Allen, H.C. Surface vibrational sum frequency and Raman
studies of PAMAM G0, G1 and acylated PAMAM G0 dendrimers. Analytica
Chimica Acta, 496, p.117-131, 2003.
[70] Risser, S.M.; Beratan, D.N.; Onuchicz, J.N. Electronic coupling in starburst
dendrimers: connectivity, disorder, and finite size effects in macromolecular
bethe lattices. Journal of Physical Chemistry, 97, p. 4523-4527, 1993.
[71] Vieira, N.C.S.; Fernandes, E.G.R.; Soares, D.A.W. De Queiroz, A.A.A in: 8º
Congresso Brasileiro de Polímeros, Águas de Lindóia, 2005, Vol. 1, 109.
[72] Vieira, N.C.S.; Grassi, M.; Soares, D.A.W. De Queiroz, A.A.A in: XIII Simpósio
Brasileiro de Química Teórica, São Pedro, 2005, 155.
[73] Vivas, Marcelo Gonçalves. Utilização da espectroscopia de ressonância de
plasmon na investigação das propriedades hemocompatíveis do dendrímero
PAMAM. Dissertação de mestrado. Universidade Federal de Itajubá - Brasil,
2007.
[74] Cowie, J.M.G. Polymers: chemistry & physics of modern materials. New York,
Chapman & Hall, p. 210-213, 1991.
[75] Malik, N.; Wiwattanapatapee, R.; Klopsch, R., Lorenz, K.; Frey, H.; Werner,
J.W.; Meijer, E.W.; Paulus, W.; Duncan, R. Dendrimers: Relationship between
structure and biocompatibility in vitro, and preliminary studies on the
biodistribution of 125I-labelled polyamidoamine dendrimers in vivo. Journal of
Controlled Release 65: 133-148, 2000.
[76] ISSO-10993-4 Guidelines for blood/material interactions. Report of the
National Heart, Lung and Blood Institute. Working Group, US Department of
Health and Human Services. NIH Publication no 85-2185, revised september
1985.
[77] BISCAYART P.L., PALADINI A.C., VITA N., ROGUIN L.P. Preparations of 125I
labelled human growth hormone of high quality binding properties endowed
105
with long term stability. J.Immunoassay 10(1): 37-56, 1989.
[78] BARTOLINI P. Efeitos da radiodação sobre as atividades biológica,
imunológica, de ligação a receptores e propriedades físico-químicas do
hormônio de crescimento humano. São Paulo, 1984. (Tese de
doutoramento, Instituto de Pesquisas Energéticas e Nucleares-IPEN/USP).
[79] MOROI M., OKUMA M., JUNG S.M. Platelet adhesion to collagen-coated
wells: analysis of this complex process and a comparison with the adhesion to
matrigel-coated wells. Bioch.Biophys.Acta 1137: 1-9, 1992.
[80] ADAMS G.A., FEUERSTEIN I.A. Visual fluorescent and radioisotopic
evaluation of platelet accumulation and embolization. Trans.Amer.
Soc.Art.Intern.XXVI: 17-23, 1980.
[81] OKANO T., YUI N., TANAKA J., SANUI K., OGATA N., KATAOKA K.
Characterization of the microestructure of poly(propylene oxide)-segmented
polyamide and its suppression of platelet adhesion. Polym.J. 16(2): 119-28,
1984.
[82] RATNER B.D. Biomedical applications of synthetic polymers. In: ALLEN G.,
BEVINGTON J. (Editors). Comprehensive polymer science. New York
(EUA), Pergamon Press, 1989. Vol. 7, pp. 201-47.
[83] DE QUEIROZ A . A . A . Thermodynamic analysis of the surface of
biomaterials. J.Molec.Structure (Theochem) 394: 271-79, 1997.
106
NOVAS REFERENCIAS
[1] Silva, C. G.; Uma Introdução à Nanotecnologia, Caderno de Estudos
Avançados, v.1 (2003) 14-15
[2] Políticas Tecnológicas e de Inovação: O que Há de Novo no Globo?, Carta
IEDI n. 153, Instituto de Estudos para o Desenvolvimento Industrial,
29 de abril de 2005.
[3] Silva, C. G.; Uma Introdução à Nanotecnologia, Caderno de Estudos
Avançados, v.1 (2003) p.16
[4] autor; título (Nanocristais sem fio emitem luz de forma eficiente), Nature, 10
de junho de 2004.
[5] Rocha, K. B.; Vieira, N. C.; Neves, F. A. R; Novas Drogas e Patentes,
p.4, fevereiro de 2003.
[6] Capanema, L. X. L; A indústria Farmacêutica Brasileira e a atuação do
BNDES, BNDES Setorial, Rio de Janeiro n. 23, p. 193-216, março de 2006.
107