MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A...

12
3 e previsíveis, já que condicionados por estruturas inter- pessoais, sociais e culturais bem mais simples que os or- ganismos que nelas participam. O conjunto de técnicas e métodos a que, dum mo- do algum indefinido, se dá o nome de Ciências da Complexidade estuda estes dois casos: 1 - O comportamento complexo dos sistemas simples (chamados simples por terem poucos graus de liberdade). 2 - O comportamento colectivo e estruturado dos sistemas complexos (chamados com- plexos por terem muitos graus de li- berdade). No primeiro caso a noção de com- plexidade está associada à dificulda- de de prever o comportamento do sistema e no segundo à criação de estruturas. A identificação e a função das es- truturas tem um subtil aspecto dual. Quando se diz que o “escoamento dum fluido se faz em turbilhões” ou que a “multidão gritou enraivecida” estamos a tomar o papel do obser- vador exterior que, em vez de des- crever a velocidade de cada uma das moléculas do fluido ou a intensida- de vocal de cada um dos elementos da multidão, comprime essa infor- mação através da identificação de es- truturas globais. Portanto neste caso as estruturas servem apenas os pro- pósitos do observador, estão asso- ciadas à sua compressão de infor- mação na descrição dos fenómenos e não desempenham qualquer papel na dinâmica interna do sistema com- plexo que está a ser descrito. No ex- tremo poderíamos dizer que estas es- lguns sistemas simples exibem comportamentos bastante complexos. Por exemplo o pêndulo du- plo, um sistema com apenas dois graus de liber- dade, embora perfeitamente determinado por equações de evolução simples, tem um movimento aparentemente errático e imprevisível (Fig. 1). Existem muitos outros sis- temas simples com comportamentos deste tipo [1] [2] [3]. Pois se até sistemas simples mostram comportamentos complexos, seria de esperar que sistemas complexos, com muitas partes em interacção (mui- tos graus de liberdade), mostrassem comportamentos ainda mais com- plexos. Isto é verdade em certos ca- sos como o da atmosfera terrestre, a qual se torna praticamente imprevi- sível para além de tempos muito cur- tos, como qualquer espectador do boletim meteorológico poderá teste- munhar.Mas nem sempre assim acon- tece. Um organismo humano tem bi- liões de células e um cérebro com 10 11 neurónios. Juntando uns milha- res de tais organismos, seria de es- perar um comportamento tão com- plexo que só uma inteligência sobre-humana poderia vislumbrar. Porém, na maior parte dos casos, os tais organismos exibem comporta- mentos decepcionantemente simples. Basta, por exemplo, examinar a assis- tência dum jogo de futebol, dum co- mício político ou dum espectáculo mu- sical (Fig. 2). O que observamos neste caso é uma estruturação colectiva das partes do sistema que conduz neste exemplo a um comportamento sin- cronizado e, em geral, a um conjun- to de comportamentos padronizados As ciências da complexidade estudam o comportamento complexo dos sistemas simples e o comportamento colectivo emergente dos sistemas complexos. A caracterização quantitativa da noção de complexidade revela-se porém difícil e parece depender do aspecto particular que se pretende descrever. De qualquer modo não era de esperar que medir a complexidade fosse um problema simples MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO R. VILELA MENDES Licenciado em Engenharia Electrotécnica (IST), doutorado em Física Teórica (Universidade do Texas, Austin, EUA), agregado em Matemática Aplicada (Universidade de Lisboa), Rui Vilela Mendes era investigador coordenador do INIC quando o XII Governo Constitucional extinguiu aquela instituição (1992). Actualmente é investi- gador coordenador da Universidade Técnica de Lisboa e membro do Grupo de Física-Matemática. Autor ou coautor de cerca de uma centena de tra- balhos de Física Teórica ou Física Matemática, pu- blicados em revistas internacionais, foi professor ou investigador visitante em instituições dos EUA, Israel, França, Alemanha e Suíça. Sócio corres- pondente da Academia das Ciências de Lisboa, en- tre os seus interesses científicos actuais contam- se a Dinâmica Não-Linear e a Complexidade. A

Transcript of MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A...

Page 1: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

3

e previsíveis, já que condicionados por estruturas inter-pessoais, sociais e culturais bem mais simples que os or-ganismos que nelas participam.

O conjunto de técnicas e métodos a que, dum mo-do algum indefinido, se dá o nome de Ciências daComplexidade estuda estes dois casos:

1 - O comportamento complexo dos sistemas simples(chamados simples por terem poucos graus de liberdade).

2 - O comportamento colectivo e estruturado dossistemas complexos (chamados com-plexos por terem muitos graus de li-berdade).

No primeiro caso a noção de com-plexidade está associada à dificulda-de de prever o comportamento dosistema e no segundo à criação deestruturas.

A identificação e a função das es-truturas tem um subtil aspecto dual.Quando se diz que o “escoamentodum fluido se faz em turbilhões” ouque a “multidão gritou enraivecida”estamos a tomar o papel do obser-vador exterior que, em vez de des-crever a velocidade de cada uma dasmoléculas do fluido ou a intensida-de vocal de cada um dos elementosda multidão, comprime essa infor-mação através da identificação de es-truturas globais. Portanto neste casoas estruturas servem apenas os pro-pósitos do observador, estão asso-ciadas à sua compressão de infor-mação na descrição dos fenómenose não desempenham qualquer papelna dinâmica interna do sistema com-plexo que está a ser descrito. No ex-tremo poderíamos dizer que estas es-

lguns sistemas simples exibem comportamentosbastante complexos. Por exemplo o pêndulo du-plo, um sistema com apenas dois graus de liber-

dade, embora perfeitamente determinado por equaçõesde evolução simples, tem um movimento aparentementeerrático e imprevisível (Fig. 1). Existem muitos outros sis-temas simples com comportamentos deste tipo [1] [2] [3].

Pois se até sistemas simples mostram comportamentoscomplexos, seria de esperar que sistemas complexos,com muitas partes em interacção (mui-tos graus de liberdade), mostrassemcomportamentos ainda mais com-plexos. Isto é verdade em certos ca-sos como o da atmosfera terrestre, aqual se torna praticamente imprevi-sível para além de tempos muito cur-tos, como qualquer espectador doboletim meteorológico poderá teste-munhar.Mas nem sempre assim acon-tece. Um organismo humano tem bi-liões de células e um cérebro com1011 neurónios. Juntando uns milha-res de tais organismos, seria de es-perar um comportamento tão com-plexo que só uma inteligênciasobre-humana poderia vislumbrar.Porém, na maior parte dos casos, ostais organismos exibem comporta-mentos decepcionantemente simples.Basta, por exemplo, examinar a assis-tência dum jogo de futebol, dum co-mício político ou dum espectáculo mu-sical (Fig. 2). O que observamos nestecaso é uma estruturação colectiva daspartes do sistema que conduz nesteexemplo a um comportamento sin-cronizado e, em geral, a um conjun-to de comportamentos padronizados

As ciências da complexidade estudam o comportamento complexo dos sistemas simplese o comportamento colectivo emergente dos sistemas complexos.

A caracterização quantitativa da noção de complexidade revela-se porém difícile parece depender do aspecto particular que se pretende descrever. De qualquer modo

não era de esperar que medir a complexidade fosse um problema simples

MEDIDAS DE COMPLEXIDADEE AUTO-ORGANIZAÇÃO

R. VILELA MENDES

Licenciado em Engenharia Electrotécnica (IST),doutorado em Física Teórica (Universidade doTexas, Austin, EUA), agregado em MatemáticaAplicada (Universidade de Lisboa), Rui VilelaMendes era investigador coordenador do INICquando o XII Governo Constitucional extinguiuaquela instituição (1992). Actualmente é investi-gador coordenador da Universidade Técnica deLisboa e membro do Grupo de Física-Matemática.Autor ou coautor de cerca de uma centena de tra-balhos de Física Teórica ou Física Matemática, pu-blicados em revistas internacionais, foi professorou investigador visitante em instituições dos EUA,Israel, França, Alemanha e Suíça. Sócio corres-pondente da Academia das Ciências de Lisboa, en-tre os seus interesses científicos actuais contam-se a Dinâmica Não-Linear e a Complexidade.

A

Page 2: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

4

truturas só existem porque o observador externo as iden-tifica como tal.

Por outro lado quando, no esquema evolutivo dosseres vivos, um conjunto de células se associam num sermulticelular criando uma parede em relação ao mundoexterior, duas coisas sucedem. Por um lado ao criar umanova unidade funcional competitiva as células perdemas vantagens eventuais duma dinâmica individual com-petitiva, tendo de realizar uma dinâmica de cooperação.

Por outro lado isto permite-lhes erigir uma parede emrelação ao mundo exterior e ficar ao abrigo da compe-tição de outras células que passam a ser definidas comoparasitas (Fig. 3) [4]. Neste caso portanto a nova estru-tura multicelular tem um efeito funcional determinantena dinâmica do sistema, independentemente do facto deser ou não usada na compressão de informação dos ob-servadores exteriores.

Da discussão anterior um aspecto ressalta imedia-tamente, que é o de que na criação de estruturas nossistemas complexos o factor determinante é a naturezada interacções entre os agentes que compõem o siste-ma complexo. Um dos comportamentos mais estrutu-rados que nós conhecemos é o comportamento inteli-gente dos animais. A inteligência é provavelmente umfenómeno adaptativo, como já fora sugerido por Darwin.Tradicionalmente as evoluções adaptativas têm sido as-sociadas às pressões do mundo natural. Porém estudosrecentes [5], sobre o desenvolvimento da inteligêncianos primatas, concluíram que o mecanismo essencial éo da adaptação ao ambiente social mais do que ao am-biente natural. Isto é, o desenvolvimento desta estru-tura depende principalmente da interacção com os ou-tros agentes.

Na descrição dos sistemas complexos a identificaçãodas estruturas desempenha um papel fundamental. No

Fig. 1 - O pêndulo duplo. O comportamento complexo dum sistemasimples.

Fig. 2 - O comportamento simples dum sistema complexo (O Animal Humano, Desmond Morris, Gradiva 1996).

Page 3: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

5

caso da evolução biológica, ilustrado na Figura 3, as no-vas estruturas são seres multicelulares parcialmente se-parados do meio exterior por uma parede física. Noutroscasos as paredes são, por exemplo, um conjunto de mi-tos nacionais, religiosos ou raciais. A dinâmica das inte-racções entre as partes dum sistema complexo é um me-canismo poderoso e inovador, que cria estruturas ecomportamentos radicalmente diferentes do comporta-mento isolado de cada uma das partes. As interacçõesentre cada dois elementos do sistema podem ser fracasmas, no seu conjunto, o efeito é irresistível. Exigiria umaenorme energia fazer com que um número significativode partes do sistema se afastassem do comportamentocolectivo. Por exemplo: É estranho que um povo, gri-tando contra um hipotético inimigo que vive quase dooutro lado do planeta, se tenha lançado alegremente nu-ma guerra santa contra os seus irmãos de religião. Antesporém de subestimarmos as capacidades mentais dequem quer que seja, as quais afinal são biológicamenteequivalentes em todo o mundo, dever-nos-iamos lem-brar da dificuldade que teria um átomo dum ferromag-neto em orientar o seu momento contra a polarizaçãodominante, ou uma gota de água em nadar contra a cor-rente em dia de enxurrada.

A natureza da complexidade dos fenómenos tem es-te aspecto dual: Por um lado alguns sistemas, mesmoaparentemente simples, têm uma riqueza dinâmica talque o seu comportamento é na prática imprevisível. Por

outro lado as interacções entre os elementos dum siste-ma composto por muitas partes cria novas estruturas,que podem ser simples ou elas próprias bastante com-plexas. Nalguns casos concretos que têm sido estudadosverifica-se mesmo que as estruturas criadas são tantomais ricas e diversas quanto mais próximo o sistema es-tiver duma transição para um estado de imprevisibilida-de (“caoticidade”) absoluta. Isto sugeriu a expressão pi-toresca “a vida à beira do caos”.

Em Ciência, noções como complexidade, imprevi-sibilidade, caos ou frases pitorescas, por mais sugesti-vas que elas sejam, são noções vagas, sem grande va-lor, até o momento em que são traduzidas em quantidadesque possam ser expressas matematicamente e corres-pondam a grandezas que possam ser medidas. No quediz respeito à noção de imprevisibilidade ou caos, a si-tuação é clara e solidamente estabelecida. O fenóme-no tem a ver com a chamada dependência sensível dascondições iniciais e as grandezas matemáticas corres-pondentes são os expoentes de Lyapunov e a entropiade Kolmogorov-Sinai. No que diz respeito à construçãode uma grandeza capaz de caracterizar a criação de es-truturas, a riqueza estrutural e dinâmica das mesmas e,dum modo geral, medir a complexidade dum sistema,a situação não é tão clara. As grandezas que têm sidopropostas parecem cada uma caracterizar apenas umaspecto particular do problema. O modo como se quan-tifica a noção de caos será descrito na secção seguintee as diversas medidas de complexidade e auto-organi-zação, que têm sido propostas, serão discutidas poste-riormente.

Alguns autores têm questionado se valerá realmen-te a pena procurar grandezas capazes de medir a com-plexidade dos sistemas. Anderson [6], por exemplo, dizsobre as medidas de complexidade:

“Será preciso nós sabermos? Não é tudo o que estu-damos suficientemente complexo para estar fora de qual-quer escala? E se não estiver fora da escala, será que nosinteressa?”

Pode de facto ser verdade que, até agora, não seconstruiu uma noção quantitativa capaz de caracteri-zar todos os aspectos dos sistemas complexos. Mas co-mo poderemos nós avaliar a dinâmica e os factores queinfluenciam a evolução dos sistemas se não tivermosao nosso dispor um certo número de grandezas comas quais construir modelos que sejam calculáveis epossam ser comparados com os dados experimentais?A dificuldade de encontrar uma só quantidade podeapenas indicar que ela de facto não existe e que cadaaspecto tem de ser caracterizado por uma grandezadistinta e uma ferramenta matemática própria. Manin[7] afirmou que o papel da Matemática é fornecer me-táforas acerca da Natureza e da Humanidade. E o es-tudo dos sistemas complexos, ao envolver muitos ra-mos da Matemática, parece bastante exigente emmetáforas [8].

Fig. 3 - Um modelo de formação de uma hierarquia de unidades bio-lógicas (segundo P. Schuster [4]).

Page 4: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

6

A IMPREVISIBILIDADE DO COMPORTAMENTODE ALGUNS SISTEMAS SIMPLES.

DEPENDÊNCIA SENSÍVEL DAS CONDIÇÕES INICIAIS,EXPOENTES DE LYAPUNOV E

ENTROPIA DE KOLMOGOROV-SINAI

Um exercício simples, que ilustra bem o fenómenoessencial, consiste em meter, no interior dum rectân-gulo branco, uma frase escrita com tinta preta e dar aospontos do rectângulo a seguinte transformação

x → x � y (mod. 1)

y → x � 2y (mod. 1)

ou, em forma matricial,

� x � → � 1 1 � � x �y 1 2 y

A Figura 4 mostra o resultado duma experiência des-te tipo em que à frase “A Matemática da Complexidade”foi aplicada quatro vezes esta transformação. O resulta-do é absolutamente incompreensível. Fica tudo mistura-do. A informação que existia no título inicial e que pro-vinha da posição relativa dos pontos negros (sobre ofundo branco) fica totalmente perdida.

Porém se, em vez da transformação anterior, fizer-mos a mesma experiência com a transformação:

x → 6 x - 5 y (mod. 1)7 7

y → 5 x + 4 y (mod. 1)7 7

ou, em forma matricial,

� x � � � � x �→ 6/7 - 5/7y 5/7 4/7 y

o resultado será o que se mostra na Figura 5. Destavez ainda se percebem algumas letras. À primeira vis-ta parece estranho! Afinal o que haverá de tão dife-rente entre as duas transformações? As matrizes detransformação são ambas matrizes numéricas, simplestransformações lineares, e até têm ambas determinan-te igual a um. A diferença é que no primeiro caso amatrix é hiperbólica e no segundo caso é elíptica. Nosegundo caso os dois valores próprios são complexose de modulo um, enquanto que no primeiro são reais,

um deles maior que um e o outro menor que um.(Recordemos que o produto dos dois valores própriostem de ser um porque o determinante vale um). Nosegundo caso a transformação efectua apenas uma ro-tação da imagem enquanto que no primeiro há umadirecção que se expande e outra que é comprimida.Neste processo de esticar numa direcção, comprimirna outra e depois dobrar-se sobre si própria, perde-se a coerência da imagem porque pontos que estavampróximos vão-se afastando cada vez mais e, no final,fica tudo misturado.

O fenómeno que acabámos de ilustrar é a base dochamado comportamento caótico dos sistemas dinâmi-cos. E embora se trate aqui duma lei de transformaçãoperfeitamente determinista, o comportamento diz-secaótico porque, na prática, o resultado é imprevisível.Suponhamos que queremos prever a trajectória de umponto de coordenadas (0.5,0.5) que marcamos a lápisno interior do quadrado. Fazendo as contas com a pri-meira das transformações, é fácil de ver que ao fim de7 iterações o ponto deverá estar na posição (0.0,0.5).Mas basta que na marcação inicial tenhamos feito umpequeno erro de 0,001 para que, ao fim de 7 iterações,o erro se possa ter tornado da ordem de 1. Isto é, oponto pode estar em qualquer sítio dentro do quadra-do e a nossa previsão não serviu para nada. A este fe-nómeno chama-se dependência sensível das condiçõesiniciais.

Fig. 4 - “ A Matemática da Complexidade” depois de 4 transforma-ções com uma matriz hiperbólica.

Fig. 5 - “A Matemática da Complexidade” depois de 4 transformaçõescom uma matriz elíptica.

Page 5: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

7

Matematicamente a grandeza que caracteriza este fe-nómeno é o maior expoente de Lyapunov (λ

1) que é ob-

tido pelo seguinte limite

λ1 = lim 1 log ∆ (t) (1)

∆ (0) → 0 t ∆ (0)t → ∞

isto é, dá-se à condição inicial uma pequena perturba-ção ∆(0) e vê-se como essa perturbação evolui no tem-po. O expoente de Lyapunov é a média ao longo datrajectória da taxa de crescimento exponencial da per-turbação, no limite das pequenas perturbações. Sendouma média ao longo da trajectória, o expoente deLyapunov depende sobretudo dos valores da taxa deexpansão nas regiões onde a trajectória permanece maistempo. Portanto o expoente de Lyapunov é uma gran-deza associada à distribuição probabilística das trajec-tórias (tecnicamente diz-se que é um invariante ergó-dico).

Para uma perturbação genérica ∆ (0) das condiçõesiniciais, o que se obtém com o limite da equação (1) éa maior taxa de expansão. Porém, em cada ponto da tra-jectória, em vez da expansão numa direcção apenas, po-deríamos ter considerado a matriz completa das diver-gências locais. Tomando o valor médio do produto dessasmatrizes ao longo da trajectória e diagonalizando a ma-triz resultante obtém-se um espectro de expoentes deLyapunov

λ1 ≥ λ

2 ≥ λ

3 ≥ ...

Diz-se que o sistema é caótico quando um pelo menosdestes expoentes é positivo, isto é quando os erros nascondições iniciais são amplificados ao longo do tempo.

Uma outra grandeza importante, associada tambémà estrutura probabilística do sistema dinâmico, é a en-tropia de Kolmogorov-Sinai. Pode ser definida do modoseguinte: Façamos uma partição do espaço de estadosdo sistema em várias partes

P1, P

2, P

3, P

4,...

Através dos tempos de permanência (de órbitas típicasdo sistema), pode associar-se a cada um dos elemen-tos da partição uma medida da probabilidade µ de en-contrar o estado do sistema dinâmico nesse elementoda partição. Consideremos no instante inicial t

0 um pon-

to arbitrário x e o elemento da partição Px

que contémo ponto x. Ao longo do tempo o ponto irá visitar ou-tros elementos da partição. O conjunto B

t(x) dos ou-

tros pontos de Px

que acompanham x, visitando simul-taneamente os mesmos elementos da partição, vai

diminuindo ao longo do tempo t. O teorema de Breimangarante a existência do seguinte limite

h (x,P) = - lim 1 log µ (Bt(x)) (2)

t

em que µ (Bt(x)) é a probabilidade associada ao con-

junto Bt(x). Tomando o supremo deste limite sobre to-

das as possíveis partições finitas P

h (x) = sup h (x,P) (3)P

a média ponderada, no espaço dos estados, de h(x) é aentropia de Kolmogorov-Sinai h

——h = h (x) = ∫ h (x) d µ (x) (4)

No caso de termos um sistema com dependênciasensível das condições iniciais, isto é com expoentes deLyapunov positivos, é de esperar que a maior parte dasórbitas irão rapidamente divergir umas das outras e por-tanto o conjunto B

t(x) vai diminuir muito rapidamente

ao longo do tempo, tanto mais depressa quanto maisLyapunovs positivos houver e quanto maiores eles fo-rem. É pois de esperar que haja uma relação quantitati-va entre expoentes de Lyapunov positivos e entropia deKolmogorov-Sinai. De facto têm-se em geral

h ≤ Σ λi (5)λi >0

e, no caso em que a medida de probabilidade é absolu-tamente contínua em relação à medida de Lebesgue, ve-rifica-se a igualdade

h = Σ λi (6)λi >0

É natural que a soma no lado direito das equações (5) e(6) seja apenas sobre os expoentes de Lyapunov positi-vos porque só estes fazem divergir as órbitas, aumen-tando a diversidade dos comportamentos dinâmicos noespaço de estados do sistema. A equação (5) é a desi-gualdade de Ruelle e a equação (6) é a igualdade dePesin.

Quando os expoentes de Lyapunov são positivos, adivergência das órbitas ao longo do tempo vai gerandocada vez mais informação sobre o exacto valor da con-dição inicial. Portanto a entropia de Kolmogorov-Sinai

Page 6: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

8

mede o valor médio da taxa de produção de informaçãopor unidade de tempo.

Em conclusão: O maior expoente de Lyapunov pro-porciona uma definição rigorosa de caos e a soma dosLyapunovs positivos (ou equivalentemente a entropia deKolmogorov-Sinai) caracteriza a complexidade dinâmi-ca das órbitas do sistema.

MEDIDAS DE COMPLEXIDADE

Antes de tratar do problema de como quantificar anoção (ou as noções) de complexidade, examinemos al-gumas definições gerais tentadas por alguns autores:

Um objecto (físico ou intelectual) é complexo se con-tém informação difícil de obter (David Ruelle).

Complexidade é a dificuldade de uma tarefa com sig-nificado. Complexidade dum instrumento (máquina, al-goritmo,etc.) é a dificuldade da tarefa mais importanteassociada a esse instrumento. Complexidade de um ob-jecto é a dificuldade de classificar esse objecto e descre-ver o conjunto a que ele pertence (Peter Grassberger).

Se soubermos classificar todas as possíveis configu-rações que um sistema assume, usa-se a complexidadeda classificação como uma medida da complexidade dosistema. Isto é, um sistema é complexo se o seu compor-tamento for complexo (Giorgio Parisi).

Um sistema é complexo quando for intrinsecamentedifícil de modelizar, sejam quais forem as ferramentasmatemáticas utilizadas (R. Badii e A. Politi)

Nestas definições a complexidade aparece associa-da à informação que se pode extrair do sistema, à difi-culdade de extracção dessa informação, à dificuldadedas tarefas que o sistema executa, à dificuldade da suaclassificação ou da sua modelização, etc. Parece portan-to pouco provável que alguma vez seja encontrada umaquantidade que possa descrever todos estes aspectos.

Nesta parte irei fazer uma revisão das principais quan-tidades que têm sido propostas para caracterizar os di-versos aspectos da complexidade dos sistemas. Umas ca-racterizam a maior ou menor natureza aleatória dasconfigurações do sistema, outras a dificuldade do algo-ritmo ou o tempo necessário para reproduzir o com-portamento do sistema, outras ainda as relações de de-pendência entre as diversas componentes. São estasúltimas sobretudo que tentam caracterizar a criação deestruturas e tanto poderíamos chamar-lhe medidas decomplexidade como medidas de auto-organização.

Complexidade Algorítmica

[9] [10] As órbitas dinâmicas do sistema, isto é os su-cessivos estados por que ele passa à medida que o tem-po evolui, definem o comportamento do sistema. Portantose descrevermos as órbitas, descrevemos o sistema. As

órbitas podem ser codificadas por uma sequência de nú-meros, números binários por exemplo. Seja S a sequên-cia que descreve a evolução dinâmica do sistema. SejaM

N(S) o comprimento do menor programa que, num cer-

to computador padrão, é capaz de reproduzir os pri-meiros N símbolos da sequência S. Note-se que em M

N(S)

se inclui o tamanho do programa e o tamanho dos da-dos iniciais que é necessário dar ao programa para ge-rar a sequência S. Define-se então complexidade algo-rítmica como o limite:

C (S) = lim MN (S)

(7)N → ∞ N

Para que esta noção seja independente do computadorparticular em que é definida, é essencial tomar o limiteN → ∞. Como qualquer computador pode ser simuladonum computador universal por um simulador de compri-mento finito, o limite N → ∞ não depende do computadorusado. A noção não poderia ser definida, dum modo úni-co, para sequências finitas. Esta noção pode ou não ser amais apropriada para caracterizar a complexidade dos sis-temas. Note-se, por exemplo, que ela exige que o pro-grama seja capaz de reproduzir fielmente todo comporta-mento dinâmico do sistema. Mas se o que mais nos interessarno sistema for a formação de comportamentos globais coe-rentes, de padrões colectivos, então não nos interessa mui-to se o programa reproduz ou não todos os pequenos de-talhes irrelevantes. Aqui aparece a noção de significado,que está associada a muitas das aplicações dos sistemascomplexos. Se a questão do significado for a essencial, co-mo o é por exemplo nos sistemas evolutivos e com capa-cidades de aprendizagem, então não interessa caracterizartodo o comportamento do sistema, mas sim apenas o queestá associado às tarefas com significado.

Dada uma sequência completamente aleatória, a me-nor descrição da sequência é a própria sequência. Como asequência não é formada segundo nenhuma lei, não é pos-sível comprimir a informação. Portanto a complexidade al-gorítmica duma sequência aleatória é máxima e a comple-xidade algorítmica é de facto uma medida de aleatoriedade,não uma medida de estrutura. Neste sentido o ruído dovento seria mais complexo que a quinta sinfonia de Beethoven.

A noção de complexidade algorítmica aplica-se a cadasequência em particular, enquanto que a noção de entropiade Kolmogorov-Sinai, discutida anteriormente, é uma noçãoestatística que se aplica ao comportamento médio das órbi-tas dum sistema dinâmico. As duas noções estão porém re-lacionadas. Em M

N(S) podemos distinguir duas partes

MN (S) = c1

(N) + c2N (8)

em que c1

(N) é o comprimento do programa e c2N o

comprimento dos dados. c2N é a parte da informação

Page 7: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

9

que não é ''explicada'' pelo programa. Portanto, emrelação ao modelo que o programa representa, c

2N é

a componente aleatória do sistema. Em geral é c1 (N)/N → 0quando N → ∞ e apenas a componente aleatória contri-bui para a complexidade algorítmica. Por este motivo,em muitos casos, a complexidade algorítmica das órbi-tas típicas dum sistema dinâmico coincide com a entro-pia de Kolmogorov-Sinai.

A noção de complexidade algorítmica é bastante im-portante em teoria da informação e teoria da computa-ção. Um problema porém, com a definição dada acima,é o de não ser efectivamente computável. Dada uma se-quência infinita, de origem desconhecida, nunca pode-remos estimar dum modo fiável a sua complexidade al-gorítmica porque nunca poderemos saber se de factoencontrámos a sua descrição mais curta. Esta dificulda-de pode ser obviada, definindo uma regra específica pa-ra efectuar a codificação da sequência e definindo a com-plexidade algorítmica em relação a esse método decodificação. O método de Ziv e Lempel é um dos pos-síveis [11].

Profundidade Lógica

[12] Aqui não se trata do comprimento do menor pro-grama que descreve a sequência S, mas sim do temponecessário para correr o menor programa que gera S.Note-se como esta noção é bastante diferente da com-plexidade algorítmica. Um estudante de Matemática po-de considerar que um livro de teoria dos números ougeometria algébrica é profundo. Porém a complexidadealgorítmica do livro é certamente pequena porque todosos teoremas são dedutíveis a partir dum pequeno nú-mero de definições iniciais. A profundidade do livro re-sulta sim do tempo (e da energia) necessários para de-duzir todos os teoremas. Mais do que o conteúdo deinformação, a profundidade lógica traduz o valor de uti-lidade da mensagem, na medida em que o facto do li-vro ter sido escrito evita ao leitor o trabalho de deduzirtodos os resultados a partir dos teoremas.

Por outro lado a profundidade lógica duma sequên-cia completamente aleatória é nula, porque sendo a me-nor descrição da sequência a própria sequência pode-mos sempre, para cada N, construir um computador talque os primeiros N símbolos da sequência sejam obti-dos pelo simples carregar dum botão.

Considerar a complexidade algorítmica ou a pro-fundidade lógica para cada sequência em particular, é oponto de vista habitual em teoria da computação. Umoutro ponto de vista consiste em considerar não uma se-quência em particular mas o conjunto de todas as se-quências dum certo tipo. Então o que interessa caracte-rizar é a complexidade do processo usado para gerar umasequência típica dentro da respectiva classe. Estes doispontos de vista conduzem a resultados diferentes. Porexemplo:

As sequências de DNA existentes nos organismosvivos actuais são sequências complexas com muitosaspectos quasi-aleatórios. Portanto a complexidade al-gorítmica de cada sequência em particular parece ele-vada e na medida em que a descrição mais curta é se-melhante ao seu tamanho a profundidade lógica épequena. Porém se em vez duma sequência em parti-cular, considerarmos o conjunto de todas as sequên-cias de DNA existentes nos seres vivos actuais, o quese acredita actualmente é que elas são obtidas pelaaplicação repetitiva de regras de associação muitos sim-ples, mais algumas mutações, e o resultado é selecio-nado pela sua adequação ao ambiente. O programa deevolução biológica é bastante simples, mas o produtofinal, como nós o conhecemos, é o resultado dum pro-cesso extremamente longo (~ 109 anos). Portanto a pro-fundidade lógica da evolução biológica é elevada. Note-se que ao considerar o conjunto, em vez duma sequênciaem particular, a complexidade algorítmica elevada queera necessária para especificar a sequência, passou pa-ra o ambiente exterior que funciona como um autó-mato complexo que testa as sequências produzidas porregras simples.

Convém não confundir a noção de profundidadelógica com a complexidade temporal que se medepelo tempo usado pelo programa mais rápido e nãopelo programa mais curto. Complexidade temporal ecomplexidade espacial são dois conceitos usados emteoria da computação, que constituem os dois as-pectos do que se designa por complexidade compu-tacional. A complexidade temporal mede-se pelotempo necessário para efectuar a computação usan-do o programa mais rápido e a complexidade espa-cial é o número de bits de memória necessários pa-ra efectuar o cálculo. Ao considerar o tempo usadopelo programa mais curto, e não pelo programa maisrápido, a profundidade lógica tenta fazer referênciaà ''verdadeira'' origem do processo que gera a com-plexidade, libertando o modelo de possíveis aspec-tos redundantes.

Existe, para os sistemas dinâmicos, uma noção se-melhante à complexidade espacial. Chama-se profundi-dade termodinâmica [13] [14] e mede o número de grausde liberdade macroscópicos e microscópicos que a es-pecificação de uma trajectória requer. Dada uma trajec-tória τ e a sua probabilidade àpriori p (τ), a profundida-de termodinâmica da trajectória é

Dτ = - log p (τ)

Sofisticação

[15] A noção de sofisticação, dá ênfase ao compri-mento do código e não ao comprimento dos dados queé necessário fornecer ao código para que ele possa ge-

Page 8: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

10

rar a sequência S de tamanho N. Se em (8) o compri-mento do código c

1(N) não depender de N

MN (S) = c1

+ c2N (9)

então c1

será a sofisticação.Consideremos uma sequência gerada por um siste-

ma dinâmico com dependência sensível das condiçõesiniciais, por exemplo

x → 1 - 2x2 (10)

As sequências geradas por este sistema, a partir da maio-ria das condições iniciais no intervalo [-1, 1], passam amaior parte dos testes usados para testar números alea-tórios. Para cada sequência em particular M

N(S) irá con-

ter um pequeno programa equivalente à Eq. (10) e umacondição inicial longa porque a dependência sensívelexige uma grande precisão na especificação da condi-ção inicial. Portanto a complexidade algorítmica é gran-de mas a sofisticação é pequena.

A sofisticação é uma medida da importância das re-gras na especificação da sequência de estados do siste-ma. Neste sentido está associada às correlaçõeses dinâ-micas do sistema que gera a sequência de estados, o queé um aspecto importante nos sistemas complexos evo-lutivos. Porém a sua definição só é útil quando M

N(S)

tiver a forma descrita na equação (9). Por exemplo pa-ra um simples modelo autoregressivo dependente de kparametros verifica-se que [16]

MN (S) = 1 k log N + c2N (11)

2

e neste caso a sofisticação degeneraria num valor infini-to, o que não parece adequado para um sistema relati-vamente simples.

Excesso de Entropiaou Complexidade de Medida Efectiva

[17] [18] [19] [20] Esta noção e a seguinte aplicam-senão a uma sequência isolada, mas sim a uma distribui-ção probabilística estacionária de sequências. São ambasdefinidas utilizando a entropia de Shannon.

Seja pN

(s1...s

N) a probabilidade de observar o bloco

s1...s

N de comprimento N. Então a soma sobre todos os

possíveis blocos de comprimento N de

H (N) = - Σ pN

(s1...s

N) log p

N(s

1...s

N) (12)

{si }

dá a incerteza média (entropia) dum bloco de comprimento

N. A incerteza média por elemento da sequência será

hs = lim 1 H (N) (13)N → ∞ N

chamada a entropia de Shannon.Suponhamos que as sequências são construidas se-

gundo um certo número de regras deterministas, mastambém com um certo grau de aleatoriedade. Então,quanto maiores forem os blocos examinados mais in-formação podemos extrair sobre as regras deterministase mais próximo estaremos da verdadeira incerteza porsímbolo. A diferença H (N) / N - hs representa portantoa informação adicional (para além da informação sobreos blocos de dimensão N) que é necessária para revelara verdadeira entropia de Shannon. O excesso de entro-pia define-se como

∞E = Σ � 1 H (N) - hs � (14)

N =1 N

No caso de uma sequência duplamente infinita de símbolosmostra-se [20] que o excesso de entropia E é a informaçãomútua entre as duas metades semi-infinitas da sequência

← → ← → ← →E = I ( s , s ) = H ( s ) + H ( s ) - H ( s + s ) (15)

← → ← →em que H ( s ), H ( s ) e H ( s + s ) são respectivamenteas entropias (Eq.(12)) da metade esquerda, da metadedireita e da sequência total. Portanto o excesso de en-tropia mede a quantidade de informação que uma me-tade da sequência contém acerca da outra metade. Nestesentido é uma medida da correlação estatística e dá al-guma informação sobre a estrutura da sequência.

Complexidade estatística

[18] [21] Consideremos de novo sequências dupla-mente infinitas e as probabilidades p ( s si ) de observaruma dada configuração s na metade direita uma vez co-nhecido que a configuração esquerda é si. As quantida-des p ( s si ) chamam-se probabilidades condicionais.

Haverá provavelmente todo um conjunto de configu-rações esquerdas para as quais as probabilidades condi-cionais são as mesmas. Vamos agrupar configurações equi-valentes si num conjunto designado por Si. A cada um destesconjuntos chama-se um estado causal. À quantidade

C = - Σ p (Si) log p (Si) (16){si }

em que p (Si) é a probabilidade de ocorrência de uma

→→

←←

Page 9: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

11

configuração esquerda no conjunto Si , dá-se o nome decomplexidade estatística. Uma vez estabelecidas as pro-babilidades condicionais p ( s s

i), e dado o conheci-

mento da metade esquerda, é possível usar as probabi-lidades condicionais para fazer uma previsão estatísticada configuração direita. Portanto a complexidade estatís-tica mede a quantidade média de informação acerca dasconfigurações esquerdas que é necessária para poder fa-zer uma previsão óptima do lado direito. Por este motivoquantidades deste tipo têm sido chamadas complexida-des de previsão [18].

A complexidade estatística está relacionada com oexcesso de entropia através da desigualdade

E ≤ C (17)

a qual significa que para uma previsão ideal dum acon-tecimento a partir de outro é necessária uma informação(uma memória) pelo menos igual à informação mútuaentre os dois acontecimentos.

Complexidade gramaticalReconstrução do autómato

Uma outra noção procura, na sequência S que des-creve o sistema, quais as regras da sua formação, isto éa respectiva gramática. A complexidade do sistema é en-tão associada à complexidade da gramática de acordocom a hierarquia de Chomsky: linguagens regulares, lin-guagens livres do contexto, linguagens sensíveis ao con-texto, conjuntos recursivamente enumeráveis [22].

A cada tipo de linguagem na hierarquia de Chomskyestá associado um tipo de autómato que a reconhece, nosentido em que palavras que pertencem à linguagem cor-respondem a percursos válidos sobre o grafo do autóma-to. Nomeadamente a linguagens regulares correspondemautómatos finitos, a linguagens livres do contexto autó-matos push-down, a linguagens dependentes do contex-to autómatos limitados linearmente e finalmente às lin-guagens mais gerais correspondem máquinas de Turinguniversais. Portanto a identificação da gramática geradapor um sistema complexo é equivalente à reconstruçãodo autómato que reproduz o seu comportamento.

A complexidade gramatical tem duas componentes.A primeira identifica a classe de linguagens do autóma-to mínimo que reproduz o comportamento do sistema.A segunda caracteriza a complexidade do autómato mí-nimo dentro da sua classe. Por exemplo se o autómatoidentificado for finito, esta poderia ser

CRL = log N

em que N é o número de nodos do autómato. A CRL cha-ma-se complexidade de linguagem regular. Também se

podem considerar as probabilidades pi

com que os di-versos nodos do autómato são visitados e definir

N

CSC = - Σ pi log pii =1

chamada a complexidade de conjunto.Se a linguagem gerada não for uma linguagem re-

gular, já não corresponde a um autómato finito. Nessecaso pode considerar-se o menor número n(L) de pala-vras necessárias para construir todas as subsequênciasaté ao comprimento L e definir a complexidade grama-tical como

CG = lim sup n(L) / LL → ∞

Auto-organização dinâmica

[28] Vimos anteriormente que a soma dos expoen-tes de Lyapunov positivos é uma medida da complexi-dade dinâmica da evolução temporal do sistema. Designemosessa soma por h. Se considerarmos o sistema dinâmicocomo constituído por N partes, podemos associar a ca-da uma das divisões em dois blocos de uma e N -1 par-tes os respectivos expoentes parciais (chamados ex-poentes de Lyapunov condicionais). Designemos as somasdos expoentes condicionais por h

1e h

N -1. A diferença

h1

+ hN-1

- h (18)

é uma grandeza dinâmica com um significado análogoao da informação mútua em teoria da informação.Representa a diferença dinâmica entre o sistema globale a simples justaposição das suas partes sem interacçõesmútuas.

Somando as quantidades representadas em (18), pa-ra todas as possíveis decomposições em uma e N -1 par-tes, obtém-se uma medida da auto-organização dinâ-mica

N (k) (k)I = Σ �h

1+ h

N-1- h � (19)

k =1

ASPECTOS GEOMÉTRICOS DA COMPLEXIDADEAUTO-SEMELHANÇA E AUTO-DIFERENÇA

Os sistemas naturais que, pela maior parte dos cri-térios descritos anteriormente seriam considerados osmais complexos, são sistemas que não estão isolados (nosentido termodinâmico) mas através dos quais uma cer-

→ ←

Page 10: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

12

ta forma de energia flui ou então que resultaram de umlongo processo de evolução ou agregação. No caso dossistemas que necessitam para a sua manutenção de umfluxo contínuo de energia, uma parte das suas estrutu-ras e a sua geometria são apenas um resultado das ne-cessidades físicas inerentes à manutenção do fluxo deenergia. Por exemplo: os sistemas cardiovasculares, ossistemas respiratórios, os sistemas vasculares das plan-tas e os sistemas traquiais dos insectos todos exibem umaestrutura ramificada, cuja escala varia com a potencia trêsquartos do tamanho do corpo (Fig6). Esta lei de poten-cia é obedecida com grande precisão para tamanhos cor-porais num domínio de 20 ordens de grandeza, desdeos organismos unicelulares até às baleias azuis. De fac-to esta lei resulta de três factos simples[29]:

1- Uma estrutura ramificada é necessária para fornecer,a todas as partes do organismo, os fluidos que trans-portam a energia que mantém a vida;

2- As ramificações finais (os capilares) têm sensivel-mente o mesmo tamanho independentemente do ta-manho do corpo;

3- A energia necessária para o transporte é a mínimapossível.

Estes sistemas circulatórios com as suas ramificaçõessucessivas e uma estrutura arborescente têm o mesmotipo de propriedade de auto-semelhança que muitos ou-tros objectos do mundo natural. Diz-se que um objectoé auto-semelhante quando cada uma das suas partes,quando convenientemente amplificada é identica ao ob-jecto global. Esta propriedade pode repetir-se sucessi-vamente até escalas extremamente pequenas.

Embora esta forma de organização hierárquica emestruturas auto-semelhantes seja bastante frequente porexemplo em objectos que resultam dum processo deagregação, ela pode ou não ser considerada uma marcada complexidade, conforme o ponto de vista. A repeti-ção da mesma estrutura a escalas cada vez menores dáaos objectos auto-semelhantes uma riqueza infinita dedetalhe e, por exemplo, numa imagem a descrição com-pleta do objecto exigiria uma resolução infinita e por-tanto um número infinito de bits. Porém tais objectos po-dem ser construidos a partir de uma lei simples e a suadescrição comprimida (o programa) é muito curta. Paraos construir completamente é que seria necessário umtempo infinito. Portanto os sistemas auto-semelhantessão muito simples ou muito complexos, tudo dependedo ponto de vista.

Em sistemas vivos algumas das estruturas, como osistema circulatório, são auto-semelhantes mas muitasoutras estruturas espaciais e temporais diferem bastantequando se varia a escala. São disto exemplo a distribui-ção de biomassa no corpo dos animais, a densidade deespécies na floresta tropical, a densidade de capital nu-ma economia, etc. Embora distintas, estas diversas es-

truturas não são independentes nem arbitrárias, no sen-tido em que alterações ao nível de uma delas afecta emgeral todas as outras. Estas observações e a noção de queos seres vivos são um exemplo de sistema complexo, le-vou Wolpert e Macready [30] a sugerir recentemente co-mo medida de complexidade não a semelhança mas sima auto-diferença entre estruturas dum mesmo sistema adiversas escalas. A auto-diferença entre duas escalas équantificada através da quantidade de informação adicio-nal que é necessária para descrever a estrutura duma es-cala, para além da informação já existente na outra.

CONCLUSÃO

Ao longo deste texto tentou-se uma caracterizaçãoda noção de complexidade. Uma conclusão é a de queesta noção está associada ou à imprevisibilidade, ou àdificuldade de modelização, ou à dificuldade de repro-dução do comportamento dum sistema. Em qualquer doscasos, ao classificar um sistema como complexo, isso sóimporta ao observador. Nada se altera no sistema pelofacto de nós o classificarmos como complexo ou nãocomplexo. Portanto a questão que se põe é: Porquê epara quê caracterizar a complexidade?

A resposta tem dois aspectos. O primeiro é que a ca-racterização da complexidade faz parte do processo deconhecimento do observador. Criação de modelos é com-pressão da informação recebida e todos os seres com ca-pacidade cognitiva o fazem, até as formigas [31]. Se osdados da experiencia sensível não forem comprimidosou não forem compressíveis, nada é aprendido. Se osdados não possuirem uma regularidade perceptível, asua descrição não lhes acrescenta qualquer valor.

O segundo aspecto é que a criação de modelos e acaracterização do comportamento dos sistemas tem, pa-

Fig. 6 - Representação esquemática de redes biológicas de distribuição :(A) Sistemas circulatório e respiratório em mamíferos (B) Sistema vas-cular em plantas (C) Representação topológica dos sistemas, em quea ordem (K) dos diferentes níveis começa em zero (aorta) e vai atéN (capilares) (D) parâmetros dum elemento típico do nivél K (re-produzido da ref. [29] ).

Page 11: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

13

ra o observador, um valor preditivo que lhe facilita aadaptação ao ambiente que o rodeia. Em casos favorá-veis permitir-lhe-á mesmo actuar sobre os sistemas e con-trolá-los para seu proveito.

Uma outra questão que transcende a caracterizaçãoda complexidade e tem ainda maior importancia é a se-guinte:

Suponhamos que se observa um sistema complexocom uma hierarquia de estruturas em interacção. Comoé que se chegou até lá? Isto é, como é que se cria a com-plexidade? Por exemplo, qual foi a dinâmica que a par-tir de uma natureza amorfa (do nosso ponto de vista co-mo observadores) criou estruturas aparentemente tãocomplexas como os seres vivos? Como e porquê seresunicelulares se associaram em seres com orgãos dife-renciados e cooperativos?

Se questões biológicas como estas podem pareceracadémicas para o cidadão comum, elas deixam de oser quando transportadas para os superorganismos quesão as sociedades ou os países. A evolução biológica écontrolada pelo mecanismo de selecção e, à posterio-ri, tudo parece correr bem, uma vez que sobrevivem asespécies mais viáveis. Mas será que isso serve de con-solo às espécies inviáveis que vão ser eliminadas? E osnossos superorganismos sociais são viáveis ou inviá-veis?

Quando as escalas de tempo associadas às diversasestruturas dum organismo ou superorganismo são mui-to diferentes, pode haver um conflito entre os mecanis-mos adaptativos das diversas escalas. Por exemplo: NaTerra parece só haver três espécies em que os indiví-duos dominantes dum grupo atacam e aniquilam, epi-

sódica mas sistemáticamente, os indivíduos de outrosgrupos da mesma espécie. São os chimpanzés, os gori-las e os homens. Todos genéticamente próximos. Umavez que estas três espécies sobreviveram até agora, é evi-dente que este comportamento deve ter um valor adap-tativo. Mas tê-lo-á também depois dos pequenos gruposse associarem nos superorganismos que são as naçõesou as unidades políticas?

Na evolução biológica mede-se em geral a robustez,duma espécie ou dum indivíduo dentro de uma espécie,pela sua capacidade reprodutiva, isto é, pela transmis-são dos seus genes às gerações futuras. Na maior partedos grupos animais são os indivíduos dominantes quemais transmitem os seus genes e a luta pelo domíniodentro do grupo parece ter um propósito reprodutivo.Neste sentido a luta pelo domínio dentro do grupo temum valor adaptativo. Nas sociedades humanas actuaiscontinua a haver uma apetência enorme pelo poder epelo domínio, mas não são os indivíduos, nem os gru-pos, com maior domínio que mais se reproduzem. Seráque a este nível se alterou o paradigma e o valor adap-tativo é outro? Será que os novos ''genes'' a transmitir sãoos valores culturais? Ou será que há apenas um malen-tendido com um mecanismo herdado de outra escala?Ou um conflito entre dois mecanismos que actuam si-multaneamente, mas cujos valores adaptativos perten-cem a escalas diferentes?

É a estas e outras questões que é urgente responder.A alternativa é continuar como sonâmbulos através dahistória [32] e esperar que a selecção natural nos diga(ou diga a quem quer que ocupe o nosso nicho ecoló-gico) se somos ou não viáveis.

[1] H. G. Schuster; Deterministic Chaos, An Introduction, VCH, Weinheim1995.

[2] Complexity in Physics and Technology, M. S. Garrido e R. VilelaMendes (Eds.), World Scientific 1992.

[3] R. Badii e A. Politi; Complexity. Hierarchical Structures and Scalingin Physics, Cambridge Univ. Press, Cambridge 1997.

[4] P. Schuster; How does Complexity Arise in Evolution, Santa Fe Instituteworking paper 96-05-026.

[5] Machiavellian Intelligence: Social Expertise and the Evolution ofIntellect in Monkeys, Apes and Humans; R. Byrne e A. Whiten (Eds.),Clarendon 1988.

[6] P. W. Anderson; The Eightfold Way to the Theory of Complexity: APrologue, in Complexity: Metaphors, Models and Reality; G. A. Cowan,D. Pines e D. Metzer (Eds.), Santa Fe Institute Studies in the Sciencesof Complexity, vol. XIX, pag. 7, Addison-Wesley 1994.

[7] Y. I. Manin; Mathematics as Metaphor, in Proceedings of the InternationalCongress of Mathematicians, Kyoto 1990, pag. 1665.

[8] R. Vilela Mendes; A Matemática da Complexidade, em Matemáticae Cultura II, Centro Nacional de Cultura SBP Editores, Lisboa 1995.

[9] M. Li e P. Vitányi; An Introduction to Kolmogorov Complexity andits Applications, Springer 2nd edition 1997.

[10] G. J. Chaitin; Information, Randomness and Incompleteness, WorldScientific 1990.

[11] J. Ziv e A. Lempel; Compression of Individual Sequences via Variable-rate Coding, IEEE Trans. Inf. Theory 24, 530 (1978).

[12] C. H. Bennett; Dissipation, Information, Computational Complexityand the Definition of Organization, in Emergent Syntheses in Science,D. Pines (Ed.), SFI Studies in the Sciences of Complexity vol. 1, pag.297, Addison-Wesley 1987.

[13] S. Lloyd e H. Pagels; Complexity as Thermodynamic Depth, Ann.of Phys. 188 (1988) 186.

[14] S. Lloyd e H. Pagels; Existence and Uniqueness of Physical Measuresof Complexity, preprint CALT-68-1576.

REFERÊNCIAS BIBLIOGRÁFICAS

Page 12: MEDIDAS DE COMPLEXIDADE E AUTO-ORGANIZAÇÃO · 2007. 8. 24. · te tipo em que à frase “ A Matemática da Complexidade ” foi aplicada quatro vezes esta transformação. O resulta-do

14

[15] M. Koppel; Complexity, Depth and Sophistication, Complex Systems1, 1087 (1987).

[16] J. Rissanen; Universal Coding, Information, Prediction and Estimation,IEEE Trans. Inform. Theory 30, 629 (1984).

[17] P. Grassberger; Towards a Quantitative Theory of Self-GeneratedComplexity, Int. J. of Theor. Physics, 25 (1986) 907.

[18] P. Grassberger; Problems in Quantifying Self-Generated Complexity,Helvetica Physica Acta 62 (1989) 489.

[19] J. P. Crutchfield e K. Young; Inferring Statistical Complexity, Phys.Rev. Lett. 63 (1989) 105.

[20] J. P. Crutchfield e K. Young; Computation at the Edge of Chaos, inComplexity, Entropy and the Physics of Information, pag. 223, SFI Studies inthe Sciences of Complexity, vol. VIII, W. H. Zurek (Ed.), Addison-Wesley 1990.

[21] J. P. Crutchfield e D. P. Feldman; Statistical Complexity of SimpleOne-dimensional Spin Systems, Phys. Rev. E55 (1997) R1239.

[22] R. N. Moll, M. A. Arbib e A. J. Kfoury; An Introduction to FormalLanguage Theory, Springer 1988.

[23] C. De W. Van Siclen; Information Entropy of Complex Structures,Phys. Rev. E56 (1997) 5211.

[24] Y.-C. Zhang; Complexity and 1/f Noise. A Phase Space Approach,J. Phys. I France 1 (1991) 971.

[25] D. F. Felman e J. P. Crutchfield; Measures of Statistical Complexity:Why ?, SFI working paper 97-07-064.

[26] S. Pincus; Approximate Entropy as a Complexity Measure, Chaos 5(1995) 110.

[27] Measures of complexity, L. Peliti e A. Vulpiani (Eds.), Springer1988.

[28] R. Vilela Mendes; Conditional exponents, entropies and a measu-re of dynamical selforganization, adap-org/9802001 (at xxx.lanl.gov).

[29] G. B. West, J. H. Brown e B. J. Enquist; A General Model for theOrigin of Allometric Scaling Laws in Biology, Science, 276 (1997)122.

[30] D. H. Wolpert e W. G. Macready; Self-Dissimilarity: An EmpiricalMeasure of Complexity, SFI working paper 97-12-087.

[31] Zh. I. Reznikova e B. Ya. Ryabko; Problems Inf. Transmission 22(1986) 245.

[32] State of the World 1996, A Worldwatch Institute Report on ProgressTowards a Sustainable Society, W. W. Norton, London 1996.