Blaise Pascal - ricardosheley.files.wordpress.com · Em 1666 escreveu De Arte Combinatória, no...
Transcript of Blaise Pascal - ricardosheley.files.wordpress.com · Em 1666 escreveu De Arte Combinatória, no...
Blaise Pascal
Blaise Pascal (Clermont-Ferrand, 19 de Junho de 1623 — Paris, 19 de Agosto de 1662) foi
um físico, matemático, filósofo moralista e teólogo francês.
Blaise Pascal era filho de Étienne Pascal e Antoniette Bejon. Perdeu a sua mãe com três anos
de idade. Seu Pai tratou da sua educação por ele ser o único filho do sexo masculino. A
educação que lhe foi dada por seu pai tinha em vista o desenvolvimento correto da sua razão e
do seu juízo. O recurso aos jogos didáticos era parte integrante do seu ensino em disciplinas
tão variadas como a História, a Geografia ou a Filosofia. Blaise Pascal contribuiu
decisivamente para a criação de dois novos ramos da matemática: a Geometria Projetiva e
a Teoria das probabilidades. Em Física, estudou a mecânica dos fluidos, e esclareceu os
conceitos de pressão e vácuo ampliando o trabalho de Evangelista Torricelli. É ainda o autor da
primeira máquina de calcular mecânica, a Pascaline, e de estudos sobre o método científico.
Seguindo o programa de Galileu e Torricelli, refutou o conceito de "horror ao vazio". Os seus
resultados geraram numerosas controvérsias entre os aristotélicos tradicionais. Tinha um filho
chamado Nycolas Guttemberg, também era filho de um professor de matemática, Etienne
Pascal, teve uma educação muito religiosa tendo-se recolhido numa vida ascética após a crise
de 1654, período em que escreve várias obras de teor religioso. O talento precoce para as
ciências físicas levou a família para Paris, onde ele se consagra ao estudo da matemática.
Acompanhou o pai quando este foi transferido para Rouen e lá realizou as primeiras pesquisas
no campo da Física. Realizou experiências sobre sons que resultaram em um pequeno tratado
(1634) e no ano seguinte chegou à dedução de 32 proposições de geometria estabelecidas
por Euclides. Publicou Essay pour les coniques (1640), contendo o célebre Pascal. Como
matemático, interessou-se pelo cálculo infinitesimal, pelas sequências, tendo enunciado o
princípio da recorrência matemática. Criou um tipo de máquina de calcular que chamou de La
pascaline (1642), a primeira calculadora mecânica que se conhece, conservada no
Conservatório de Artes e Medidas de Paris. Em 1646 a família converte-se ao Jansenismo. De
volta a Paris (1647), influenciado pelas experiências de Torricelli, enunciou os primeiros
trabalhos sobre o vácuo e demonstrou as variações da pressão atmosférica. A partir de então,
desenvolveu extensivas pesquisas utilizando sifões, seringas, foles e tubos de vários tamanhos
e formas e com líquidos como água, mercúrio, óleo, vinho, ar, etc., no vácuo e sob pressão
atmosférica. Seu pai morrera em 1651. Na sequência de uma experiência mística em finais
1654, ele fizera a sua "segunda conversão", abandonou o seu trabalho científico, e se dedicou
à filosofia e teologia. Suas duas obram mais famosas datam dessa época: Les Provinciales e
as Pensées, tempo este durante o conflito entre jansenistas e jesuítas. Neste ano, também
escreveu um importante tratado sobre a aritmética dos triângulos. Aperfeiçoou o barômetro de
Torricelli e, na matemática, publicou o Traité du triangle arithmétique (1654). Juntamente
com Pierre de Fermat, estabelecendo as bases da teoria das probabilidades e da análise
combinatória (1654), que o holandês Huygens ampliou posteriormente (1657). Entre 1658 e
1659, escreveu sobre o cicloide e a sua utilização no cálculo do volume de sólidos. Neste
mesmo ano, após uma "visão divina", abandonou as ciências para se dedicar exclusivamente
à teologia, e no ano seguinte recolheu-se à abadia de Port-Royal des Champs, centro
do jansenismo, só voltando às ciências após "novo milagre" (1658). Neste período publicou
seus principais livros filosófico-religiosos: Les Provinciales (1656-1657), conjunto de 18 cartas
escritas para defender o jansenista Antoine Arnauld, oponente dos jesuítas, que estava em
julgamento pelos teólogos de Paris, e Pensées (1670), um tratado sobre a espiritualidade, em
que fez a defesa do cristianismo. É em sua obra "Pensées" (Pensamentos) que está a sua
frase mais citada: "O coração tem suas razões, que a própria razão desconhece”. Como
teólogo e escritor destacou-se como um dos mestres do racionalismo e irracionalismo
modernos e sua obra influenciaram os ingleses Charlese John Wesley, fundadores
da Metodista. Um dos seus tratados sobre hidrostática, Traité de l'équilibre des liqueurs, só foi
publicado postumamente, um ano após sua morte (1663). Esclareceu finalmente os princípios
barométricos, da prensa hidráulica e da transmissibilidade de pressões. Estabeleceu o princípio
de Pascalque diz: em um líquido em repouso ou equilíbrio as variações de pressão transmitem-
se igualmente e sem perdas para todos os pontos da massa líquida. É o princípio de
funcionamento do macaco hidráulico. Na Mecânica é homenageado com a unidade de tensão
mecânica (ou pressão)Pascal (1Pa = 1 N/m²; 105 N/m² = 1 bar).
Pascal, que sempre teve uma saúde frágil, adoece gravemente em 1659, e morre em 19 de
Agosto de 1662, dois meses após completar 39 anos. Encontra-se sepultado na Igreja de
Saint-Étienne-du-Mont, Ilha de França, Paris na França.
Gottfried Leibniz
Gottfried Wilhelm von Leibniz (Leipzig, 1 de julho de 1646 — Hanôver, 14 de
novembro de 1716) foi um filósofo, cientista,matemático, diplomata e bibliotecário alemão.
A ele é atribuída à criação do termo "função" (1694), que usou para descrever
uma quantidade relacionada a uma curva, como, por exemplo, a inclinação ou um ponto
qualquer situado nela. É creditada a Leibniz e a Newton o desenvolvimento
do cálculo moderno, em particular o desenvolvimento da Integral e da Regra do Produto.
Demonstrou genialidade também nos campos
da lei, religião, política,história, literatura, lógica, metafísica e filosofia.
O pai era professor de filosofia moral em Leipzig e morreu em 1652, quando Leibniz tinha
apenas seis anos. Em 1663 ingressa na Universidade de Leipzig, como estudante de Direito.
Em 1666 obtém o grau de doutor em direito, em Nuremberg, pelo ensaio prenunciando uma
das mais importantes doutrinas da posterior filosofia. Nessa época afilia-se à
Sociedade Rosacruz, da qual seria secretário durante dois anos.
Foi o primeiro a perceber que a anatomia da lógica - “as leis do pensamento”- são assunto
de análise combinatória. Em 1666 escreveu De Arte Combinatória, no qual formulou
um modelo que é o precursor teórico de computação moderna: todo raciocínio, toda
descoberta, verbal ou não, é redutível a uma combinação ordenada de elementos tais como
números, palavras, sons ou cores.
Na visão que teve da existência de uma “característica universal”, Leibniz encontrava-se dois
séculos à frente da época, no que concerne à matemática e à lógica.
Aos 22 anos, foi-lhe recusado o grau de doutor, alegando-se juventude. Tinha vinte e seis
anos, quando passou a ter aulas com Christiaan Huygens, cujos melhores trabalhos tratam
da teoria ondulatória da luz. A maior parte dos papéis em que rascunhava suas ideias, nunca
revisando, muito menos publicando, encontra-se na Biblioteca Real de Hanôver aguardando o
paciente trabalho de estudantes. Leibniz criou uma máquina de calcular, superior à que fora
criada por Pascal, fazendo as quatro operações.
Em Londres, compareceu a encontros da Royal Society, em que exibiu a máquina de calcular,
sendo eleito membro estrangeiro da Sociedade antes de sua volta a Paris em março de 1673.
Em 1676, já tinha desenvolvido algumas fórmulas elementares do cálculo e tinha descoberto
o teorema fundamental do cálculo, que só foi publicado em 11 de julho de 1677, onze anos
depois da descoberta não publicada de Newton. No período entre 1677 e 1704, o cálculo
leibniziano foi desenvolvido como instrumento de real força e fácil aplicabilidade no continente,
enquanto na Inglaterra, devido à relutância de Newton em dividir as descobertas matemáticas,
o cálculo continuava uma curiosidade relativamente não procurada.
Durante toda a vida, paralelamente à Matemática, Leibniz trabalhou para aristocratas,
buscando nas genealogias provas legais do direito ao título, tendo passado os últimos quarenta
anos trabalhando exclusivamente para a família Brunswick, chegando a confirmar para os
empregadores o direito a metade de todos os tronos da Europa. As pesquisas levaram-no
pela Alemanha, Áustria e Itália de1687 a 1690. Em 1700, Leibniz organizou a Academia de
Ciências da Prússia, da qual foi o primeiro presidente. Esta Academia permaneceu como uma
das três ou quatro principais do mundo até que os nazistas a eliminaram.
Morreu solitário e esquecido. O funeral foi acompanhado pelo secretário, única testemunha dos
últimos dias.
O pensamento filosófico de Leibniz parece fragmentado, porque seus escritos filosóficos
consistem principalmente de uma infinidade de escritos curtos: artigos de periódicos,
manuscritos publicados muito tempo depois de sua morte, e muitas cartas a muitos
correspondentes. Ele escreveu apenas dois tratados filosóficos, dos quais apenas "Téodiceia"
de 1710 foi publicado em sua vida.
Leibniz data o seu começo na historia da filosofia com seu "Discurso sobre metafísica", que ele
compôs em 1686 como um comentário sobre uma contínua disputa entre Malebranche e
Antoine Arnauld. Isto levou a uma extensa e valiosa correspondência com Arnauld;o Discurso
sobre metafisica não foi publicado até o século 19. Em 1695, Leibniz fez sua entrada pública na
filosofia europeia, com um artigo de jornal intitulado "Novo Sistema da Natureza e da
comunicação das substâncias”. Entre 1695 e 1705, compôs os seus “Novos ensaios sobre o
entendimento humano", um longo comentário sobre John Locke em seus “Ensaios sobre o
entendimento humano", mas ao saber da morte de Locke, 1704, perdeu o desejo de publicá-lo,
Isto aconteceu até que os novos ensaios foram publicados em 1765. "A Monadologia",
composta em 1714 e publicada postumamente, é constituída por 90 aforismos.
Leibniz conheceu Espinoza, em 1676, leu alguns de seus escritos inéditos, e desde então tem
sido suspeito de apropriar-se de algumas das ideias de Espinosa. Embora Leibniz admirasse o
poderoso intelecto de Espinosa, ele ficou francamente desanimado com as conclusões de
Spinoza, especialmente por estas serem incompatíveis com a ortodoxia cristã.
Ao contrário de Descartes e Espinoza, Leibniz tinha uma formação universitária completa na
área de filosofia. Sua carreira começou, ao longo de uma influência escolar e aristotélica
traindo a forte influência de um de seus professores de Leipzig, Jakob Thomasius, que também
supervisionou a sua tese de Licenciatura em Filosofia. Leibniz leu ansiosamente Francisco,
jesuíta espanhol respeitado, mesmo em universidades Luteranas. Leibniz estava
profundamente interessado em novos métodos e nas conclusões de Descartes,
Huygens, Newton e Boyle, mas viu estes trabalhos através de uma lente fortemente matizada
por noções escolásticas. No entanto, a verdade é que os métodos de Leibniz e suas
preocupações, muitas vezes anteciparam a lógica e a analítica, assim como a filosofia da
linguagem do século 20
Liberdade x determinação: Leibniz admitia uma série de causas eficientes a determinar o agir
humano dentro da cadeia causal do mundo natural. Essa série de causas eficientes diz
respeito ao corpo e seus atos. Contudo, paralela a essa série de causas eficientes, há uma
segunda série, a das causas finais. As causas finais poderiam ser consideradas como uma
infinidade de pequenas inclinações e disposições da alma, presentes e passadas, que
conduzem o agir presente. Há, como em Nietzsche, uma infinidade imensurável de motivos
para explicar um desejo singular. Nesse sentido, todas as escolhas feitas tornam-se
determinantes da ação. Cai por terra a noção de arbitrariedade ou de ação isolada do contexto.
Parece também cair por terra à noção de ação livre, mas não é o que ocorre. Leibniz acredita
na ação livre, se ela for ao mesmo tempo 'contingente, espontânea e refletida'.
A Contingência: A contingência opõe-se à noção de necessidade, não à de determinação.
A ação é sempre contingente, porque seu oposto é sempre possível.
A Espontaneidade: A ação é espontânea, quando o princípio de determinação está no agente,
não no exterior deste. Toda ação é espontânea e tudo o que o indivíduo faz depende, em
última instância, dele próprio.
A Reflexão: Qualquer animal pode agir de forma contingente e espontânea. O que diferencia o
animal humano dos demais é a capacidade de reflexão que, quando operada, caracteriza uma
ação como livre. Os homens têm a capacidade de pensar a ação e saber por que agem.
As Mônadas: A contribuição mais importante de Leibniz para a metafísica é a sua teoria sobre
as mônodas, expostas em sua obra Mônadologia. As mônadas equivalem para a realidade
metafisica, o que os átomos equivalem para os fenômenos físicos. As mônadas são os
elementos máximos do universo. As mônadas são “formas substancias do ser com” as
seguintes propriedades: elas são eternas, decompostas, individual sujeita as suas próprias leis,
sem interação mútua, e cada uma refletindo o próprio universo dentro de uma harmonia pré-
estabelecida (historicamente um exemplo importante de pampsiquismo). Mônadas são centros
de forças; substância é força, enquanto o espaço, extensão e movimento são meros
fenômenos.
A essência ontológica das mônadas é sua simplicidade irredutível. Assim como os átomos, as
mônadas não possuem nenhuma matéria ou caráter espacial. Elas ainda se diferenciam dos
átomos por sua completa mútua independência, assim as interações entre as mônadas são só
aparentes. Em vez disso por força do principio da harmonia pré-estabelecida, cada mônada,
segue uma instrução pré-programada, peculiar para si, assim uma mônada sabe o que fazer
em cada situação. (Essas "instruções" podem ser análogas à lei cientifica que governam as
partículas subatômicas).Pelo principio dessas instruções intrínsecas, cada monada é como um
pequeno espelho do universo. Mônadas não são necessariamente "diminutas"; e.g., cada ser
humano é constituído por uma mônada, na qual o tema do livre-arbítrio é problematizado.
Deus, também, é uma Mônoda, e a existência de Deus pode ser inferida através da harmonia
que se prevalece diante de todas as mônadas; Deus através de sua razão e vontade se afigura
o universo através da harmonia pré-estabelecida.
As mônadas são referidas e problematizadas por outras correntes filosóficas por:
- Problematização das interações entre a mente e a extensão, como abordado no sistema de
Descartes.
- Falta de individualização inerente no sistema de Espinoza, da qual representa as criaturas
individuais como meros acidentes.
- A mônodalogia parece arbitraria, até mesmo excêntrica.
Os escritos de Leibniz estão a ser discutidos até os dias de hoje, não apenas por suas
antecipações e possíveis descobertas ainda não reconhecidas, mas como formas de avanço
do conhecimento atual. Grande parte de seus escritos sobre a física está incluído na Escritos
Matemáticos de Gerhardt.
Física: Leibniz teve grandes contribuições para a estática e a dinâmica emergentes sobre ele,
muitas vezes em desacordo com Descartes e Newton. Ele desenvolveu uma nova teoria do
movimento (dinâmicas) com base na energia cinética e energia potencial, que postulava o
espaço como relativo, enquanto Newton sentira fortemente o espaço como algo absoluto. Um
exemplo importante do pensamento maduro de Leibniz na questão da física é seu Specimen
Dynamicum de 1695.
Até a descoberta das partículas subatômicas e da mecânica quântica que os regem, muitas
das ideias especulativas de Leibniz sobre aspectos da natureza não redutível a estática e
dinâmica faziam pouco sentido. Por exemplo, ele antecipou Albert Einstein, argumentando,
contra Newton, que o espaço, tempo e movimento são relativos, não absolutos. As regras de
Leibniz são importantes, se muitas vezes esquecidas, provas em diversos campos da física. O
princípio da razão suficiente tem sido invocado na cosmologia recente, e sua identidade dos
indiscerníveis na mecânica quântica, um campo de algum crédito, mesmo com ele tendo
antecipado em algum sentido. Aqueles que defendem a filosofia digital, uma direcção recente
em cosmologia, alegam Leibniz como precursor.
Charles Babbage
Charles Babbage (Londres, 26 de Dezembro de 1791 — Londres, 18 de Outubro de 1871) foi
um cientista, matemático e inventor inglês nascido em Teignmouth, Devon.
Charles Babbage é mais conhecido e, de certa forma, reverenciado como o inventor que
projetou o primeiro computador de uso geral, utilizando apenas partes mecânicas, a máquina
analítica. Ele é considerado o pioneiro da computação. Seu invento, porém, exigia técnicas
bastante avançadas e caras na época, e nunca foi construído. Sua invenção também não era
conhecida dos criadores do computador moderno.
Mais recentemente, entre 1985 e 1991, o Museu de Ciência de Londres construiu outra de
suas invenções inacabadas, a máquina diferencial 2, usando apenas técnicas disponíveis na
época de Babbage.
Segundo outras fontes, Charles Babbage nasceu na Inglaterra, mais precisamente no
endereço 44 Crosby Row, Walworth Road, em Londres. Há uma pequena discrepância,
provinda de três fontes, sobre a data de nascimento de Babbage. A primeira, publicada no
obituário do The Times aponta 26 de Dezembro de 1792. Entretanto, dias mais tarde, um
sobrinho de Babbage escreveu dizendo que seu tio havia nascido precisamente um ano antes,
em 1791. Mais tarde, indícios do 'St. Mary's Newington', de Londres, provaram que Babbage
havia nascido no dia 06 de Janeiro de 1792. A confiabilidade de todas as três fontes é
questionável.
O pai de Babbage, Benjamin Babbage, foi um banqueiro, sócio do Praeds, de 'Bitton Estate',
em Teignmouth. Sua mãe era Betsy Plumleigh Babbage. Em 1808, a família Babbage mudou-
se para a antiga 'Rowdens house', a leste de Teignmouth, e Benjamin Babbage tornou-se
administrador das proximidades da igreja de St. Michael.
Charles Babbage estudou em Cambridge, onde depois lecionou matemática. Foi um dos
fundadores, juntamente com Herschel e Peacock, da Analitical Society (1811) do Trinity
College, em Cambridge. Eleito membro da Royal Society of London (1816), recebeu uma bolsa
do governo para projetar uma calculadora com capacidade para até a vigésima casa decimal
(1823).
Enquanto desenvolvia sua máquina era professor de matemática na University of Cambridge
(1828-1839). Apresentou sua máquina analítica em 1833, tendo sido considerada o ponto de
partida para os modernos computadores eletrônicos.
Publicou diversos artigos sobre matemática, estatística, física e geologia. Também colaborou
para a modernização do sistema de código postal inglês, além de ser o primeiro matemático
que conseguiu colocar em desuso a cifra de Vigenère, utilizando métodos de cripto-
análise (análise de frequência).
Alan Mathison Turing
Alan Mathison Turing (OBE; 23 de Junho de 1912 — 7 de Junho de 1954) foi
um matemático, lógico, criptoanalista e cientista da computação britânico. Foi influente no
desenvolvimento da ciência da computação e proporcionou uma formalização do conceito de
algoritmo e computação com a máquina de Turing, desempenhando um papel importante na
criação do moderno computador.[1]
Durante a Segunda Guerra Mundial, Turing trabalhou para a inteligência britânica em Bletchley
Park, num centro especializado em quebra de códigos. Por um tempo ele foi chefe de Hut 8, a
seção responsável pela criptoanálise da frota naval alemã. Planejou uma série de técnicas para
quebrar os códigos alemães, incluindo o método da bombe, uma máquina eletromecânica que
poderia encontrar definições para a máquina Enigma. Após a guerra, trabalhou no Laboratório
Nacional de Física do Reino Unido, onde criou um dos primeiros projetos para um computador
de programa armazenado, o ACE.
Mais para o fim de sua vida, Turing tornou-se interessado em química. Escreveu um artigo
sobre a base química da morfogênese,[2]
e previu as reações químicas oscilantes como
a reação Belousov-Zhabotinsky, que foram observadas pela primeira vez na década de 1960.
A homossexualidade de Turing resultou em um processo criminal em 1952 - os atos
homossexuais eram ilegais no Reino Unido na época, e ele aceitou o tratamento com
hormônios femininos, castração química, como alternativa à prisão. Morreu em 1954, algumas
semanas antes de seu aniversário de 42 anos, devido a um aparente auto administrado
envenenamento por cianeto, apesar de sua mãe (e alguns outros) ter considerado a sua morte
acidental. Em 10 de setembro de 2009, após uma campanha de internet, o primeiro-
ministro britânico Gordon Brown fez um pedido oficial de desculpas público, em nome do
governo britânico, devido à maneira pela qual Turing foi tratado após a guerra.[3]
A maior parte de seu trabalho foi desenvolvida na área de espionagem e, por isso, somente
em 1975 veio a ser considerado o Pai da informática.
Dedicava-se a teoremas que podiam ser comprovados, e à Teoria da Contabilidade. A sua
preocupação depois de formado era o que se poderia fazer através da computação. Suas
respostas iniciais vieram sob a forma teórica.
Aos 24 anos de idade, consagrou-se com a projeção de uma máquina que, de acordo com um
sistema formal, pudesse fazer operações computacionais. Mostrou como um simples sistema
automático poderia manipular símbolos de um sistema de regras próprias. A máquina teórica
de Turing pode indicar que sistemas poderosos poderiam ser construídos. Tornou possível o
processamento de símbolos, ligando a abstração de sistemas cognitivos e a realidade concreta
dos números. Isto é buscado até hoje por pesquisadores de sistemas com Inteligência
Artificial (IA). Para comprovar a inteligência artificial ou não de um computador, Turing
desenvolveu um teste que consistia em um operador não poder diferenciar se as respostas a
perguntas elaboradas pelo operador eram vindas ou não de um computador. Caso afirmativo, o
computador poderia ser considerado como dotado de inteligência artificial. Sua máquina pode
ser programada de tal modo que pode imitar qualquer sistema formal. A ideia
de contabilidade começou a ser delineada.
Devido a todos esses feitos, Alan Turing é tido como o Pai da ciência da computação.
Em 1943, sob sua liderança foi projetado o Colossus, computador inglês que foi utilizado
na Segunda Guerra Mundial. Utilizava símbolos perfurados em fitas de papel que processava a
uma velocidade de 25 mil caracteres por segundo. O Colossus tinha a missão de quebrar
códigos alemães ultrassecretos produzidos por um tipo de máquina de codificação
chamada Enigma. Os códigos mudavam frequentemente, obrigando a que o projeto do
Colossus devesse tornar a decifração bastante rápida. Turing foi depois até os EUA para um
projeto de transmissão de dados transatlânticos de forma segura.
Como homossexual declarado, no início dos anos 1950 foi humilhado em público, impedido de
acompanhar estudos sobre computadores, julgado por "vícios impróprios" e condenado a
terapias à base de estrogénio, um hormônio (hormona) feminino o que, de fato, equivalia
a castração química e que teve o humilhante efeito secundário de lhe fazer crescer seios.
Em 8 de junho de 1954, um criado de Turing encontrou-o morto, o que tinha ocorrido no dia
anterior, em sua residência em Wilmslow, Cheshire. Um exame post-mortem estabeleceu que a
causa da morte fosse envenenamento por cianeto. Quando seu corpo foi descoberto, uma
maçã estava meio comida ao lado de sua cama, e embora a maçã não tenha sido testada
quanto ao cianeto, especula-se que este foi o meio pelo qual uma dose fatal foi ingerida.
Um inquérito determinou que ele tivesse cometido suicídio, tendo sido então cremado no
crematório de Woking em 12 de junho de 1954.
A mãe de Turing argumentou com veemência que a ingestão fora acidental, causada pelo
armazenamento descuidado de seu filho de produtos químicos de laboratório. O biógrafo
Andrew sugere que Turing pode ter se matado deliberadamente de forma bastante ambígua
para dar à sua mãe alguma negação plausível. Outros sugerem que Turing estava encenando
uma cena do filme Branca de Neve, de 1937, seu conto de fadas favorito, salientando que ele
tinha "um prazer especialmente mordaz na cena em que a bruxa malvada mergulha a maçã na
poção venenosa."
Em 11 de setembro de 2009, 55 anos após sua morte, o primeiro-ministro do Reino
Unido, Gordon Brown, pediu desculpas formais em nome do governo britânico pelo tratamento
preconceituoso e desumano dado a Turing, que o levou ao suicídio.[9][10]
Parte de sua vida foi retratada no telefilme Breaking the Code de 1996 com o ator Derek
Jacobi no papel principal.
John Von Neumann
John von Neumann, nascido Margittai Neumann János Lajos (Budapeste, 28 de
dezembro de 1903 — Washington, D.C., 8 de fevereiro de 1957) foi um matemático húngaro de
etnia judaica, naturalizado estadunidense.
Contribuiu na teoria dos conjuntos, análise funcional, teoria ergódica, mecânica
quântica, ciência da computação, economia, teoria dos jogos, análise
numérica, hidrodinâmica das explosões, estatística e muitas outras as áreas da Matemática.
De fato é considerado um dos mais importantes matemáticos do século XX.[1]
Foi membro do Instituto de Estudos Avançados em Princeton, New Jersey, do qual também
faziam parte Albert Einstein e Erwin Panofsky, quando emigraram para os Estados Unidos,
além de Kurt Gödel, Robert Oppenheimer, George F. Kennan e Hermann Weyl.
Com Edward Teller e Stanislaw Ulam, von Neumann trabalhou em desenvolvimentos chave
da Física Nuclear, relacionados com reações termonucleares e com a bomba de hidrogênio.
Participou também do Projeto Manhattan, responsável pelo desenvolvimento das
primeiras bombas atômicas.
Foi professor na Universidade de Princeton e um dos construtores do ENIAC. Entre os anos
de 1946 e 1953, von Neumann integrou o grupo reunido sob o nome de Macy Conferences,
contribuindo para a consolidação da teoria cibernética junto com outros cientistas
renomados: Gregory Bateson, Heinz von Foerster, Kurt Lewin, Margaret Mead, Norbert
Wiener, Paul Lazarsfeld, William Ross Ashby,Claude Shannon, Erik Erikson e Max Delbrück,
entre outros. Von Neumann faleceu pouco depois, aos 53 anos, vítima de um tumor cerebral.
Neumann János Lajos (ou John von Neumann, depois de anglicanizar o seu nome) foi um
matemático nascido em Budapeste, no império, a vinte e oito de Dezembro de 1903, no seio de
uma rica família judaica, filho de Kann Margit (Margaret Kann) e de Neumann Miksa (Max
Neumann), um advogado que trabalhava num banco. Budapeste era uma capital intelectual em
expansão, e diz-se que a cidade “Estava quase a produzir uma das suas mais brilhantes
gerações de cientistas, escritores, artistas, músicos e úteis milionários expatriados a virem de
uma pequena comunidade desde as cidades-estado da Renascença Italiana.[2]
”
O pequeno Jancsi (diminutivo para János) teve uma educação elitista e cedo se notou que era
um prodígio:
“Aos seis anos, conseguia trocar piadas com o pai em grego clássico. A família Neumann por
vezes entretinha os seus convidados com demonstrações da habilidade do Johnny para
memorizar agendas telefónicas. Um convidado escolheria uma página e coluna aleatórias da
agenda. O pequeno Johnny lia a coluna algumas vezes e devolvia a agenda ao convidado.
Podia então responder a qualquer questão que lhe colocassem (quem era o número tal e tal?)
ou recitar nomes, endereços e números por ordem.[3]
”
Conseguia dividir de cabeça algarismos de oito dígitos, aos oito anos tinha lido os quarenta e
quatro volumes da História Universal e trivializado o cálculo e aos 12 tinha lido e entendido o
livro Théorie des Fonctions, de Borel. A distinção de von (Margittai, em Húngaro) entra na
família em 1913, quando o seu pai foi recompensado pelo seu serviço ao império Austro-
Húngaro, tendo Neumann János mudado o seu nome para János von Neumann e
posteriormente para o correspondente alemão Johann von Neumann.
Em 1911, com oito anos, entrou no Lutheran Gymnasium, uma das três melhores instituições
de Budapeste na altura. Em 1921 os pais mandam-no para a Universidade de Berlim, para
estudar engenharia química, e dois anos depois, vai para Zurique. Apesar de von Neumann ter
pouco interesse em engenharia química, esta era uma carreira popular que garantia um bom
nível de vida (ao qual von Neumann estava habituado), um pouco devido ao sucesso dos
químicos alemães entre 1914 e 1918, pelo que o seu pai o encorajou a segui-la. Esteve assim
dois anos em Berlim num programa de química, onde assiste também a um curso de física
(que incluía física estatística), dado por Albert Einstein; posteriormente fez o exame para entrar
no segundo ano de engenharia química no prestigiado Eidgennossische Technische
Hochschule (ETH) em Zurique - no qual Einstein não tinha conseguido entrar numa primeira
tentativa, em 1895, mas sim no ano seguinte.
Durante este tempo de estudo, von Neumann tinha traçado outro plano que estava mais de
acordo com os seus interesses. Entre o fim dos seus estudos em Berlim e antes da ida para
Zurique, entrou na Universidade de Budapeste como candidato para um doutoramento em
matemática. A sua tese de doutoramento foi uma tentativa de axiomatizar a teoria dos
conjuntos, desenvolvida por Georg Cantor, que era um assunto em voga na altura, já tendo
sido estudado por vários professores, causando algumas dores de cabeça à maioria. Von
Neumann fez assim o curso de engenharia química no ETH e, simultaneamente, o seu
doutoramento em matemática em Budapeste, tendo obtido notas máximas mesmo em
disciplinas às quais quase nunca assistia. Depois de acabar a sua tese, logo após obter a
licenciatura pelo ETH, passou nos exames finais com distinção.
Por essa altura, conhece David Hilbert, um matemático que viria a ter grande influência no seu
trabalho. G. Polya admitiu, a propósito da velocidade de raciocínio de von Neumann, que ele
era “O único aluno de quem alguma vez teve medo. Se no decorrer de uma aula falasse de um
problema por resolver, o mais provável era que ele viesse ter comigo no final, com a solução
completa escrita em alguns rabiscos num bocado de papel.[4]
”
Em 1926 tornou-se então no mais novo Privatdozent na história da Universidade de Berlim,
tendo aí leccionado até 1929, e depois em Hamburgo de 1929 a 1930, altura em que emigrou
para os Estados Unidos com a sua mãe e irmãos. Por esta altura, von Neumann tinha atingido
o estatuto de celebridade, como Poundstone constata em:[3]
“Aos vinte e poucos anos, a fama de von Neumann tinha-se espalhado mundialmente na
comunidade matemática. Em conferências académicas, ele ver-se-ia apontado como um jovem
génio”.
Uma vez nos EUA, mudou Johann para John mas manteve o apelido aristocrático austríaco
von Neumann, ao passo que os seus irmãos adoptaram os apelidos Vonneumann e Neumann
(usando apenas o título de von para certas cerimónias). Também por essa altura se converte
ao Catolicismo de modo a poder casar com Marriette Kövesi. Tinha uma memória prodigiosa,
lembrando-se de tudo quanto tinha aprendido, sendo, por exemplo, um perito em história
Bizantina, e sabendo detalhes do julgamento de Joana d’Arc ou de batalhas da guerra civil
americana. Sobre a lista telefónica de Manhattan, disse uma vez que sabia todos os números
de lá, mas que para poder dispensar a lista, só precisava saber a que nome é que cada
número correspondia. Era profundamente hedonista, gostava de comer e beber bem, levava
um estilo de vida extravagante, promovendo grandes festas que terminavam muito tarde:
“Festas e vida noturna produziam um apelo especial para von Neumann. Enquanto ensinava
na Alemanha, von Neumann tinha sido um frequentador do circuito de vida noturna de Berlim
na era do Cabaret."
“As festas em casa de von Neumann eram frequentes, famosas, e longas.[4]
"
Conduzia de maneira perigosa (a ler um livro, por exemplo) o que frequentemente resultava em
acidente. Certo dia relatou o acidente da seguinte maneira: “As árvores à direita estavam a
passar por mim de uma maneira ordenada, a 60 milhas por hora. De repente, uma delas
atravessou-se no meu caminho!”
Também não se inibia de contar piadas insensíveis nem de olhar persistentemente para as
pernas de mulheres jovens, tendo as secretárias em Los Alamos chegado ao ponto de tapar os
lados das suas mesas com cartolinas.
Ainda em 1930, von Neumann foi convidado para Princeton e em 1933 foi, juntamente
com Albert Einstein, Kurt Gödel, J.W. Alexander, M. Morse, O. Veblen e H. Weyl, selecionado
para a primeira faculdade de matemática do Institute for Advanced Study, onde foi professor
até à data da sua morte, tendo-se-lhes juntado outros notáveis cientistas e matemáticos
como Enrico Fermi e Wigner.
Como Ulam constata, o ensino não era o seu ponto forte: “A sua linha de raciocínio fluida era
difícil de seguir para aqueles menos dotados. Ele destacava-se por escrevinhar equações num
pequeno espaço livre do quadro e por apagar expressões antes que os alunos as pudessem
copiar.[3]
" Apesar disto, era-lhe fácil explicar ideias complexas: “Para um homem para quem
matemáticas complicadas não apresentavam dificuldade, ele podia explicar as suas conclusões
aos não-iniciados com lucidez surpreendente. Depois de uma conversa com ele, uma pessoa
tinha sempre a sensação que o problema era simples e transparente.[5]
”
Em 1937 divorciou-se de Marriette Kövesi, para, no ano seguinte, se casar com Klara Dan.
Esta, sobre os seus hábitos de trabalho disse que “ele escrevia sempre em casa, durante a
noite ou ao amanhecer. A sua capacidade de trabalho era praticamente ilimitada.” Segundo
Halmos em [1], von Neumann era um trabalhador incansável, chegando cedo ao seu gabinete,
saindo tarde e nunca perdendo tempo. Era também muito sistemático e meticuloso. Por
exemplo, ao ler um manuscrito, ele anotaria na primeira página os números das páginas em
que encontrara erros, e depois o número de erros de cada página. Ainda sobre o método de
trabalho de von Neumann, Halmos salienta a coragem matemática: “…enquanto que alguns
matemáticos, se na procura de um contraexemplo encontrassem uma série infinita com muitas
exponenciais de expoentes quadráticos, prefeririam recomeçar e procurar outro contraexemplo,
von Neumann diria “ah, sim… uma função teta…” e mergulharia nas contas. Não tinha medo
de nada.”
Em 1956 foi-lhe diagnosticado cancro ósseo ou pancreático, possivelmente contraído devido à
exposição à radioatividade enquanto observava os testes da bomba atómica no Oceano
Pacífico ou num trabalho posterior sobre armas nucleares em Los Alamos. O cancro evoluiu
para o cérebro, impedindo qualquer atividade mental.
“Quando von Neumann percebeu que estava incuravelmente doente, a sua lógica forçou-o a
perceber que ia cessar de existir, e por conseguinte, de ter pensamentos… Destroçava o
coração ver a frustração da sua mente, quando toda a esperança se foi, na sua luta contra o
destino que parecia ser inevitável mas inaceitável. O sentido de invulnerabilidade de von
Neumann, ou simplesmente o desejo de viver, estava a debater-se contra factos inalteráveis.
Ele parecia ter um grande medo da morte até ao fim… Nenhum sucesso e nenhuma
quantidade de influência o podiam salvar agora, como sempre tinham feito no passado. Johnny
von Neumann, que tinha sabido como viver intensamente, não sabia como morrer.[4]
“… a sua mente, o amuleto no qual sempre tinha podido confiar, estava-se a tornar menos
confiante. Então veio a quebra psicológica completa; pânico, gritos de terror incontrolável todas
as noites. O seu amigo Edward Teller disse, “Acho que von Neumann sofreu mais quando a
sua mente deixou de funcionar do que alguma vez vi um ser humano sofrer.[6]
”
Morreu sob segurança militar (uma maneira de impedir que revelasse quaisquer segredos
militares enquanto estava fortemente medicado), a 8 de Fevereiro de 1957.
No início do século XX, a teoria dos conjuntos ainda não tinha sido formalizada e estava em
crise devido ao paradoxo de Bertrand Russell, e a axiomatização da matemática, sobre o
modelo dos Elementos de Euclides, estava a atingir novos níveis de rigor, particularmente na
aritmética e na geometria. Ernst Zermelo e Abraham Fraenkel resolveram parcialmente este
problema, formulando princípios que permitiam a construção de todos os conjuntos usados na
matemática, mas não excluíam a possibilidade de existirem conjuntos que pertencessem a eles
mesmos.
Na sua tese de doutoramento, apresentada em 1925, von Neumann demonstrou como era
possível excluir esta possibilidade de duas maneiras complementares: a noção de classe e
oaxioma da fundação (um dos axiomas da teoria dos conjuntos de Zermelo-Frankel).
Uma aproximação ao problema foi pelo uso da noção de classe: define-se como conjunto uma
classe que pertence a outras classes, enquanto que uma classe própria é uma classe que não
pertence a nenhuma outra classe. De acordo com os axiomas da teoria de Zermelo-Frankel,
não é possível a construção de um conjunto que contenha todos os conjuntos que não
pertencem a si mesmos. Pelo contrário, usando a noção de classe, a classe de todos os
conjuntos que não pertencem a si mesmos pode ser construída, não sendo, no entanto, um
conjunto, mas sim uma classe própria.
A outra aproximação ao problema é conseguida pelo axioma da fundação, que diz que todo o
conjunto pode ser construído a partir da base, numa sucessão ordenada de passos, de tal
modo que se um conjunto pertence a outro, então o primeiro tem necessariamente de vir antes
do segundo na sucessão (o que exclui a possibilidade de um conjunto pertencer a si mesmo).
Para demonstrar que este axioma não estava em contradição com os outros, von Neumann
criou um novo método de demonstração que se tornou numa ferramenta fundamental na teoria
dos conjuntos, o método dos modelos interiores.
Aplicações destas ideias de von Neumann podem ser vistas na definição do Universo de von
Neumann (uma classe V de todos os conjuntos, que é a união de conjuntos Vx, em
que xpercorre todos os números ordinais) e na definição de número ordinal, como um conjunto
que satisfaz determinadas propriedades bem simples.
Desta maneira, o sistema axiomático da teoria dos conjuntos tornou-se completamente
satisfatório, e a pergunta que pairava era se esta axiomática era ou não definitiva, e se estava
ou não sujeita a melhoria. A resposta a esta questão surgiu em Setembro de 1930, no
Congresso de Matemática de Köningsberg, no qual Gödel anunciou o seu primeiro teorema da
incompletude (os sistemas axiomáticos usuais são incompletos, uma vez que não podem
provar todas as verdades que sejam expressas na sua linguagem). Menos de um mês depois,
von Neumann informou Gödel de uma consequência do seu teorema: os sistemas axiomáticos
usuais são incapazes de demonstrar a sua própria consistência. Contudo, Gödel já o tinha
concluído de modo independente, pelo que este resultado é o chamado segundo teorema de
Gödel, sem referência à von Neumann.
Von Neumann tinha uma grande admiração por Gödel, e era frequente elogiá-lo de maneira
entusiástica: “O feito de Kurt Gödel na lógica moderna é singular e monumental – na verdade é
mais do que um monumento, é um marco que se manterá visível longe no espaço e no tempo.
[…] O tema da lógica tem certamente mudado por completo a sua natureza e possibilidades
com o feito de Gödel.[7]
” E quando lhe perguntaram por que não se referia ao trabalho
de Ramsey, que seria conhecido para alguém que se interessasse pelo campo da lógica,
respondeu que depois de Gödel ter publicado os seus artigos sobre a indecidibilidade e
incompletude da lógica, não tinha lido mais nenhum artigo sobre lógica simbólica. Noutra
altura, numa entrevista intitulada “The Mathematician”, disse, a respeito do trabalho de Gödel:
“Isto aconteceu durante a nossa vida, e eu sei como os meus valores sobre a verdade
matemática absoluta mudaram, de maneira humilhantemente fácil, durante este acontecimento,
e como eles mudaram três vezes em sucessão!”
Devido a este fascínio por Gödel e pelo seu trabalho, afigura-se bastante natural que tenha
escolhido a lógica para tese de doutoramento. Tal como Ulam diz:
“No seu trabalho de juventude, estava preocupado não só com a lógica matemática e a
axiomatização da teoria dos conjuntos, mas, simultaneamente, com a substância da teoria dos
conjuntos, obtendo resultados na teoria da medida e na teoria das variáveis reais.[8]
”
A mecânica quântica trata da natureza das partículas atómicas e das leis que regem as suas
ações. Várias teorias da mecânica quântica começaram a aparecer para justificar as
discrepâncias observadas quando se usava apenas a física Newtoniana para descrever as
observações das partículas atómicas.
Uma destas observações diz respeito ao comprimento de onda da luz que os átomos podem
absorver e emitir. Por exemplo, os átomos de hidrogénio absorvem energia para comprimentos
de onda de 656.3 nm, 486.1 nm, 434 nm ou 410.2 nm, mas não para comprimentos de onda
intermédios. Isto contrariava os princípios da física do fim do século XIX, segundo os quais um
eléctron que orbita um núcleo num átomo deve irradiar em todos os comprimentos de onda de
luz, perdendo energia e rapidamente caindo no núcleo. Como tal facto não foi observado, Max
Planck introduziu uma nova teoria que dizia que a energia só podia ser emitida em quantidades
definidas. Isto levou a duas teorias descritivas da natureza do átomo (este apenas poderia
emitir e absorver energia em quantos específicos), que competiam entre si.
Uma delas, desenvolvida por Erwin Schrödinger sugeria que o eléctron no hidrogénio é
semelhante a uma corda num instrumento musical. Tal como uma corda, que emite um tom
específico juntamente com harmónicas, assim um eléctron deveria ter certo “tom” no qual
emitiria energia. Usando esta teoria, Schrödinger desenvolveu uma equação de onda que
predizia corretamente os comprimentos de onda nos quais o hidrogénio emitiria.
A outra teoria foi desenvolvida por físicos em Göttingen, incluindo Werner Heisenberg, Max
Born e Pascual Jordan, centrava-se na posição e momento de um eléctron num átomo. Eles
diziam que estes valores não eram diretamente observáveis (apenas a luz emitida pelo átomo
podia ser observada) e assim podiam comportar-se de maneira muito diferente do movimento
de uma partícula na física Newtoniana. Teorizavam que os valores da posição e momento
deviam ser descritos por construções matemáticas que não os números usuais.
No final da década de 20, rapidamente se descobriu que estas duas aproximações,
aparentemente muito diferentes, não eram mais do que duas formulações do mesmo princípio.
Em 1900, no Congresso Internacional de Matemáticos, David Hilbert tinha apresentado a sua
famosa lista de 23 problemas que considerava fulcrais para o desenvolvimento da matemática
no século XX. O sexto problema era a axiomatização de teorias físicas. No final da década de
20, a única área da física que ainda não tinha sido axiomatizada era a mecânica quântica, que
se encontrava numa situação semelhante à da teoria dos conjuntos no início do século XX,
enfrentando problemas se ordem filosófica e técnica: se por um lado o seu aparente não-
determinismo ainda não tinha sido explicado de maneira determinística, por outro existiam as
duas teorias heurísticas independentes referidas acima (a matriz mechanical de Heisenberg
e wave mechanical de Schrödinger) mas não havia uma formulação teórica unificada que fosse
satisfatória.
Von Neumann queria descobrir o que estas duas teorias tinham em comum, e através de uma
aproximação matemática mais rigorosa, queria encontrar uma nova teoria mais poderosa e
fundamental que as outras duas.
Assim, depois de terminar a axiomatização da teoria dos conjuntos, von Neumann dedicou-se à
axiomatização da mecânica quântica. Em 1926, percebeu que um sistema podia ser
considerado um ponto num espaço hilberteano, análogo à dimensão 6N do espaço de fase da
mecânica clássica (N é o número de partículas, com 3 coordenadas gerais e 3 momentos
canónicos para cada), mas com infinitas dimensões, correspondentes aos infinitos estados
possíveis do sistema. A física tradicional podia assim ser representada por operadores lineares
nestes espaços, e a física da mecânica quântica foi reduzida a matemática de operadores
hermiteanos em espaços de Hilbert.
Tomemos como exemplo o princípio de incerteza de Heisenberg. De acordo com ele, a
determinação da posição de uma partícula impede a determinação do seu momento e vice-
versa. Sob a aproximação matemática proposta por von Neumann, que culminou na publicação
em 1932 de The Mathematical Foundations of Quantum Mechanics, esta situação é traduzida
na não-comutatividade de dois operadores correspondentes e inclui os casos especiais das
formulações de Heisenberg e Schrödinger. Nesse livro está demonstrado um teorema segundo
o qual a mecânica quântica não pode ser deduzida a partir de uma teoria determinística como
era usual na mecânica clássica. Apesar de tal demonstração conter um erro conceptual, serviu
para lançar uma nova linha de pesquisa que levou à demonstração de que a física quântica
requer uma noção da realidade substancialmente diferente da física clássica. Num trabalho
complementar juntamente com Garrett Birkhoff, von Neumann provou também que para além
de uma noção de realidade diferente, a mecânica quântica precisa também de uma lógica
diferente da clássica, a lógica quântica, que é geralmente apresentada como uma versão
modificada da lógica proposicional.
Um exemplo disso é o caso dos fotões que atravessam filtros. Um fotão não pode passar
através de dois filtros consecutivos que estejam polarizados perpendicularmente, e,
consequentemente, se se acrescentar outro filtro (antes ou depois) polarizado diagonalmente,
o fotão não o atravessará. No entanto, se o filtro for acrescentado entre os outros dois,
o fotão passará. Também foi demonstrado que as leis distributivas da lógica clássica, e , não
são válidas para a mecânica quântica, pois, a disjunção quântica, ao contrário da disjunção
clássica, pode ser verdadeira mesmo quando os dois elementos são falsos, e isto, por sua vez,
deve-se ao facto de frequentemente um par de alternativas ser determinado semanticamente,
ao passo que cada um dos elementos (na mecânica quântica, posição ou momento de uma
partícula) é necessariamente indeterminado.
Para se perceber melhor esta última propriedade apresentam-se dois exemplos, sendo o
primeiro substancialmente mais simples.
Seja X uma partícula que se move em linha reta, p a afirmação “X está a mover-se para a
direita”, q a afirmação “X está para a esquerda da origem” e r a afirmação “X está para a direita
da origem”. Sabemos que é verdadeira, pelo que também é verdadeira. Por outro lado, de
acordo com certas interpretações do princípio de incerteza, quer são falsas. Então, é falsa.
Falha assim a lei distributiva.
Suponha-se, numa outra situação, que se está a lidar com partículas de momento angular
semi-integral, como os eletros, para os quais há apenas dois valores possíveis: positivo ou
negativo. Então, o princípio de indeterminação diz que o spin relativo a duas direções distintas
resulta num par de quantidades incompatíveis. Suponha-se que o estado Φ de um dado
eléctron verifica a proposição “O spin na direcção x é positivo” (A). Pelo princípio de
indeterminação, o valor do spin na direcção y será totalmente indeterminado para Φ, visto que
a direcção segundo x do spin está determinada. Assim sendo, Φ não pode verificar a
proposição “O spin na direcção y é positivo” (B) nem “O spin na direcção y é negativo” (C), pois
não se sabe qual destas é válida. No entanto, a disjunção das proposições “O spin na direcção
y é positivo ou o spin na direcção y é negativo” () tem de ser verdadeira para Φ, uma vez que
existe spin nessa direcção.
A propósito do contributo de von Neumann para a mecânica quântica, van Hove escreve
em:[9]
“A mecânica quântica foi, de facto, muito sortuda por atrair, nos primeiros anos após a
sua descoberta em 1925, o interesse de um génio matemática da estatura de von Neumann.
Como resultado, o enquadramento matemático da teoria foi desenvolvido e os aspectos
formais das suas completamente novas regras de interpretação foram analisados uma a uma
por apenas um homem em dois anos (1927-1929)”
John von Neumann formalizou o projeto lógico de um computador. Em sua proposta, von
Neumann sugeriu que as instruções fossem armazenadas na memória do computador. Até
então elas eram lidas de cartões perfurados e executadas, uma a uma. Armazená-las na
memória, para então executá-las, tornaria o computador mais rápido, já que, no momento da
execução, as instruções seriam obtidas com rapidez eletrônica, uma vez que os cartões
perfurados já estariam inseridos na máquina (computador). A maioria dos computadores de
hoje em dia segue ainda o modelo proposto por von Neumann. Esse modelo define um
computador sequencial digital em que o processamento das informações é feito passo a passo,
caracterizando um comportamento determinístico (ou seja, os mesmos dados de entrada
produzem sempre a mesma resposta).
Entre os seus muitos interesses, von Neumann gostava de matemática aplicada e desenvolveu
um particular interesse por explosivos. Tal interesse levou-o a ser consultado várias vezes em
assuntos militares, principalmente para a marinha. Em 1943 o governo dos Estados
Unidos continuava a recrutar génios, para produzirem o que muitos viam como um mal
necessário (independentemente das convicções mais ou menos pacifistas e do respeito que a
vida humana pudesse merecer, havia, na altura, uma grande ameaça a esses mesmos valores
- nazismo - que era necessário combater, e, se possível, erradicar. Daí a colaboração de tantos
cérebros em programas de armamento, incluindo o da bomba atómica). Como tal, von
Neumann foi contratado. As suas duas maiores contribuições foram a matematizarão do
desenvolvimento do projeto e a ajuda no desenvolvimento da bomba de implosão. Os cientistas
que trabalhavam em Los Alamos estavam habituados a fazer experiências científicas, mas não
se podem fazer muitas experiências quando se desenvolvem armas de destruição em massa.
Precisavam, portanto, de uma maneira de predizer o que ia acontecer naquelas reações sem
as realizar. Von Neumann fez então parte da equipa que inventou a modelação matemática
moderna, e aplicou as suas capacidades em todos os níveis, quer a ajudar os oficiais
superiores a tomar decisões lógicas quer a resolver os cálculos complicados dos escalões mais
baixos.
As bombas atómicas lançadas eram de dois tipos distintos: uma usava urânio-235 como
material de fissão, a outra, o plutónio. Uma reação em cadeia atómica ocorre quando o material
de fissão presente na bomba atinge a massa ou densidade críticas. Na bomba de urânio-235,
uma grande massa de urânio-235, ainda abaixo da massa crítica, seria bombardeada com
outra massa de urânio-235. A combinação das massas chegaria à massa crítica, onde
uma fissão nuclear descontrolada ocorreria. Sabia-se que este processo funcionava e o
procedimento era relativamente simples, sendo a parte mais difícil à obtenção do urânio-235,
que tinha de ser separado de outros isótopos de urânio, quimicamente semelhantes. Por seu
lado, o plutónio pode ser separado usando meios químicos, pelo que a produção de bombas
baseadas em plutónio progrediu mais rapidamente. Contudo, o plutónio não podia atingir a
massa crítica da mesma maneira, tinha de ser através da implosão. Neste método, uma massa
de plutónio é totalmente cercada por explosivos potentes que são detonados simultaneamente,
fazendo com que a massa seja comprimida até níveis supercríticos e exploda.
Exemplos de bombas de plutónio são Trinity Test Device (detonada como teste a 16 de Julho
de 1945, perto de Alamogordo) ou a Fat Man, lançada sobre Nagasaki a 9 de Agosto do
mesmo ano. Uma bomba de urânio é a Little Boy, lançada a 6 de Agosto sobre Hiroshima.
Uma das suas descobertas neste campo foi que bombas grandes são mais devastadoras
quando detonadas acima do solo, devido à força das ondas de choque. Bons exemplos desta
descoberta foram às bombas detonadas sobre Hiroshima e Nagasaki, à altitude que von
Neumann calculou que produziria o maior dano. Após a guerra, Robert Oppenheimer fez notar
que os físicos envolvidos no Projeto Manhattan tinham “conhecido o pecado”, ao que von
Neumann respondeu que “às vezes uma pessoa confessa um pecado de modo a obter algum
crédito por ele”. Posto isto, von Neumann continuou imperturbável o seu trabalho e foi,
juntamente com Edward Teller, um dos apoiantes do projeto sobre a bomba de hidrogénio.
Colaborou também com o espião Klaus Fuchs e juntos desenvolveram uma patente secreta
sobre Improvement in Methods and Means for Utilizing Nuclear Energy a qual delineava um
esquema para usar uma bomba de fissão para comprimir combustível de fusão que por sua
vez iniciaria uma reação termonuclear. Apesar de não ser a chave para a bomba de hidrogénio,
pensava-se que seria um passo na direcção certa.
John von Neumann propôs que as instruções, lidas na época por cartões perfurados, fossem
gravadas na memória do computador; o que faria sua execução e leitura mais rápidas, uma vez
que se davam eletronicamente.
Neumann contribuiu para a construção dos computadores de forma grandiosa, pois, ainda hoje
a maioria destas máquinas seguem o modelo inventado pelo mesmo.
“Em meados da década de 30, Johnny estava fascinado pelo problema
da turbulência hidrodinâmica. Foi então que tomou consciência dos mistérios subjacentes ao
tema das equações diferenciais parciais não lineares. O seu trabalho, desde o início da
Segunda Guerra Mundial, foca o estudo das equações da hidrodinâmica e da teoria dos
choques. Os fenómenos descritos por estas equações não lineares são analiticamente
estranhos e desafiam mesmo a visão qualitativa dos métodos presentes. O trabalho numérico
parecia-lhe o caminho mais promissor para obter uma ideia do comportamento destes
sistemas. Isto o impeliu a estudar as novas possibilidades da computação em máquinas
electrónicas.[2]
"
O projeto da bomba de hidrogénio teve, portanto, uma grande importância no desenvolvimento
da computação, uma vez que von Neumann e Stanislaw Ulam desenvolveram simulações no
computador digital de von Neumann, usado para computações hidrodinâmicas. Durante esse
período, contribuiu para o desenvolvimento do método de Monte Carlo, que permitia a
aproximação de problemas complexos através de números aleatórios. Uma vez que usar listas
de números aleatórios verdadeiros tornava o ENIAC extremamente lento, von Neumann
desenvolveu uma maneira de criar números pseudoaleatórios, usando o middle square
method (na verdade, este não é um método muito eficaz, pois o seu período é muito curto e
tem defeitos graves. Von Neumann estava consciente destes defeitos do método, mas para os
seus objetivos o método era rápido e os seus erros fáceis de detectar.) Logo após von
Neumann ter se interessado pelo ENIAC, a escola Moore solicitou e recebeu um contrato para
o desenvolvimento de um computador mais potente, denominado EDVAC[10]
. Enquanto era
consultor da Moore School of Electrical Engineering sobre o EDVAC (Electronic Discrete
Variable Automatic Calculador), um dos primeiros computadores electrónicos binários e
sucessor do ENIAC, von Neumann escreveu um artigo intitulado First Draft of a Report on the
EDVAC, no qual propunha um computador composto por uma estrutura simples mas fixa com
um controlo programado, que seria capaz de executar qualquer comando sem haver
necessidade de se alterar o hardware (a sua ideia era a técnica do programa-guardado).
O relatório sobre o EDVAC se tornou um dos primeiros documentos a descrever a disposição
interna e os princípios de funcionamento dos computadores modernos. Ao assinar tal relatório
com o seu nome de matemático prestigiado, von Neumann conferiu-lhe uma audiência e uma
legitimidade inesperadas, muito úteis para obter os créditos militares, mas, ao mesmo tempo,
atribuiu a si próprio toda a glória da invenção do computador. Ainda que tenha sido um
personagem importante na história da computação, a atribuição desse mérito a von Neumann
ignora o trabalho de seus colaboradores, contemporâneos e até predecessores, que
igualmente trabalharam no desenvolvimento do computador”.
Sugeria a existência de uma instrução máquina, chamada conditional control transfer, que
permitia a interrupção e reinício do programa em qualquer ponto da computação. Sugeria
igualmente guardar programas na mesma unidade de memória que os dados, o que permitiria
que as instruções fossem aritmeticamente modificadas do mesmo modo que os dados. Uma
unidade central de processamento, composta pela unidade de controlo e por uma ou mais
unidades de execução, extrairia quer dados quer instruções da memória, operando sobre elas
e devolvendo-as de novo à memória. O resultado era muito mais rápido, a programação e
computação mais eficientes, pois permitiam que as instruções fossem escritas como sub-
rotinas que não requeriam uma nova programação para cada novo problema (as rotinas mais
longas podiam ser alteradas por partes, sendo os resultados intermédios guardados na
memória e sendo usados para o resultado final).
Quer a implementação das componentes físicas independentes, quer as interações entre
elementos, têm variado ao longo do tempo, dependendo das tecnologias de fabrico, mas a sua
arquitetura mantém-se. Tal arquitetura de memória única tornou-se conhecida como arquitetura
de von Neumann, apesar de a sua concepção ter envolvido J. Presper Eckert ou John William
Mauchly, inventores do ENIAC, e é utilizada em quase todos os minicomputadores,
microcomputadores e computadores domésticos. Para além da criação de uma nova
arquitetura de computadores, von Neumann também criou os autómatos celulares sem a ajuda
de computadores: nos anos 1940, estudava sistemas autoexplicativos e enfrentava algumas
dificuldades em explicitar o modelo inicial de um robô que fosse capaz de se copiar sozinho a
partir de um conjunto de peças separadas. Stanislaw Ulam, colega de von Neumann que na
altura modelava o crescimento de cristais usando uma grelha, sugeriu-lhe que se inspirasse
nos seus trabalhos para ultrapassar o problema. Baseando-se numa grelha bidimensional na
qual cada célula podia estar num de 29 estados distintos, von Neumann criou um modelo
matemático abstrato para o seu problema, um “copiador e construtor universal”, que se tornou
no primeiro autómato celular auto replicante. Uma vez mais se comprova que von Neumann ia
inventando a matemática à medida das suas necessidades e dá crédito ao que diziam sobre
ele: “Matemáticos em geral, provam o que são capazes de provar. Von Neumann prova o que
quer.”
Aplicando esta descoberta ao seu gosto por explosivos, von Neumann provou que a maneira
mais eficaz de realizar operações mineiras como minar uma lua inteira ou uma cintura de
asteroides seria usar máquinas autoexplicativas, aproveitando o seu crescimento exponencial.
Von Neumann foi um dos pioneiros da computação, tendo feito grandes contribuições para o
desenvolvimento do design lógico, que Shannon resume do seguinte modo:
“Von Neumann passou parte considerável dos seus últimos anos de vida a trabalhar na teoria
dos autómatos. Representava para ele uma síntese do seu interesse inicial em lógica e teoria
das demonstrações, e do seu posterior trabalho, durante e após a Segunda Guerra Mundial,
em computadores electrónicos em larga escala. Envolvendo uma mistura de matemática pura e
aplicada bem como outras ciências, a teoria dos autómatos era um campo ideal para o
intelecto abrangente de von Neumann. Ele trouxe-lhe várias perspectivas novas e abriu pelo
menos duas novas direções de pesquisa.[12]
”
Ainda no campo da ciência da computação, Donald Knuth cita von Neumann como o inventor
do algoritmo Mergesort, em 1945, cujo objetivo é criar uma sequência ordenada a partir de
outras duas já ordenadas. Para tal, divide-se a sequência original em pares de dados, e
ordena-se. Depois, agrupa-se em sequências de quatro elementos, e assim por diante até a
sequência original estar separada em apenas duas partes. Este é um exemplo de algoritmo de
ordenação do tipo “dividir-para conquista-la-”, cujos passos do algoritmo são: 1- A sequência a
ordenar é dividida em duas; 2- Conquistar: cada uma das metades é ordenada
independentemente; 3- Combinar: as duas metades são juntas numa sequência ordenada. O
seu algoritmo para simular uma moeda equilibrada usando uma moeda viciada é usado na
etapa de Software Whitening de alguns geradores de números aleatórios.
Também se aventurou na resolução de problemas na hidrodinâmica numérica e com R.D.
Richtmyer desenvolveu um algoritmo sobre viscosidade artificial que contribuiu para a
compreensão das ondas de choque. Sem esse trabalho, provavelmente não
compreenderíamos muita da astrofísica atual e não teríamos desenvolvido os motores
de jacto e de foguete. A viscosidade artificial foi um truque matemático usado para atenuar
ligeiramente a transição de choque, uma vez que os computadores, ao resolverem problemas
de hidrodinâmica ou aerodinâmica, têm tendência para por demasiados pontos na grelha em
regiões de descontinuidade acentuada (ondas de choque).
A teoria dos jogos é um ramo da matemática que estuda situações de conflito de diversos tipos
(sociais, econômicos, políticos, militares, éticos, filosóficos, jornalísticos, etc.) de acordo com
um modelo escolhido, cujas regras são mais ou menos rígidas, e mais ou menos conhecidas
pelos jogadores. Assim, estes escolhem diferentes ações para tentarem melhorar o seu
retorno. Von Neumann tinha uma “impressionante consciência dos resultados obtidos por
outros matemáticos e as possibilidades inerentes que ofereciam. Cedo no seu trabalho, um
artigo de Borel sobre a propriedade mínima levou-o a desenvolver … ideias que culminaram
numa das suas mais originais criações, a teoria de jogos.[13]
”
Em 1940, von Neumann escreveu o seu primeiro artigo relevante sobre jogos, intitulado Theory
of Games I, general foundations, cujo objetivo era, segundo os autores, “mostrar
adequadamente que os problemas típicos do comportamento económico são rigorosamente
idênticos às soluções matemáticas de certos jogos de estratégia”, que foi rapidamente seguido
por um segundo artigo, Theory of Games II, decomposition theory, tentando sintetizar o seu
trabalho sobre teoria de jogos. Já anteriormente tinha escrito Zur Theorie der
Gesellschaftsspiele, em 1928 e em 1937 A Model of General Economic Equilibrium.
Em 1944, com a publicação por John von Neumann e Oskar Morgenstern de Theory of games
and Economic Behavior, este ramo da matemática ganhou uma maior proeminência. É muito
usado em economia, para procurar estratégias em situações em que o resultado não depende
apenas da estratégia própria de um agente e das condições de mercado, mas também das
estratégias escolhidas por outros agentes (que tendem a maximizar o seu próprio retorno) ou
para examinar a concorrência e cooperação dentro de pequenos grupos de empresas. Assim,
um jogo pode ser definido como um conflito envolvendo ganhos e perdas entre dois ou mais
oponentes que seguem regras formais. O primeiro capítulo deste livro fornece um contexto
económico para a teoria de jogos, e os autores, baseando-se na análise de Bernoulli,
estabelecem um sistema de axiomas para uma ferramenta numérica, conhecida como a função
de utilidade de von Neumann–Morgenstern, o que representa um grande avanço na construção
da teoria geral, particularmente sob risco e situações de incerteza, uma vez que conseguiram
estruturar matematicamente a noção de que cada indivíduo escolhe uma alternativa de acordo
com certa probabilidade, de modo a maximizar a utilidade. Outra importante contribuição desta
publicação é o conceito de equilíbrio económico estático, pois, apesar da sua aplicação
depender do modelo, não exige “regras do jogo” particulares (as ideias de Borel estavam
limitadas a exemplos isolados, ou, na melhor das hipóteses, a jogos de soma nula, de dois
jogadores, com matrizes de playoff simétricas). Assim, a solução de equilíbrio de von Neumann
e Morgenstern, ao contrário de tratamentos anteriores, não depende da competição perfeita ou
até mesmo dos contextos do mercado, que limitavam a interação.
A solução de von Neumann e Morgenstern depende do conceito de “domínio”; isto significa que
os jogadores excluem estratégias que serão desvantajosas para eles. A aplicação deste
conceito depende dos objetivos dos jogadores e das “regras do jogo” definidas. Este conceito
de solução aplica-se a problemas de optimização individual, jogos cooperativos e jogos da
política; neste contexto, a solução não é apenas uma única imputação, mas um conjunto de
imputações, sendo cada um estável, no sentido em que nenhuma das imputações que o
compõem domina as outras, e cada uma fora de um conjunto é dominada por pelo menos uma
imputação dentro. O conceito de solução proposto por ambos os autores não era nem óptimo
nem, em geral, exclusivo.
Tem-se observado que, ao contrário de vários teorizadores de jogos atuais, von Neumann e
Morgenstern se sentiam atraídos pela multiplicidade de soluções de equilíbrio, em vez de
perturbados. A sua teoria não prediz que solução irá ser observada ou que imputação será
obtida dentro de cada solução. Uma solução pode estar correlacionada com um
comportamento standard ou instituições que governam uma organização social num momento
particular. Deste modo, contrariamente a outras aproximações, há um vasto leque de
indeterminismo, e, citando Philip Wolfe:
“Von Neumann realçou que a enorme variedade de soluções que podem ser observadas para
jogos de n-jogadores não era surpreendente devido à correspondente enorme variedade de
estruturas sociais estáveis observadas; muitas convenções diferentes podem perdurar,
existindo hoje por nenhuma razão melhor de que elas estavam cá ontem.”
Apesar de todas as contribuições de Theory of Games and Economic Behavior, a sua
contribuição mais significativa para a economia foi, provavelmente, a sistematização da teoria
de jogos como um ramo da teoria da escolha. O primeiro passo no desenvolvimento da teoria
de jogos envolve a construção de uma descrição formal e matemática do jogo. Von Neumann e
Morgenstern foram os primeiros a descrever os jogos como uma classe, a delimitar a estrutura
de informação de um jogo, a desenhar uma árvore do jogo e a definir a solução de um jogo.
Houve autores como Cournot que já tinham analisado problemas que seriam mais tarde
reconhecidos como parte da teoria de jogos, mas foram von Neumann e Morgenstern que
estabeleceram a teoria de jogos como um campo autónomo e distinto. Devido à sua aversão à
matemática, os economistas deram uma resposta bastante negativa ao trabalho de von
Neumann e Morgenstern, bem como à sua visão crítica de trabalhos proeminentes sobre teoria
económica mais convencional. A melhor resposta ao seu trabalho veio da comunidade
académica de matemáticos aplicados de Princeton, que se mostraram especialmente
receptivos à importância da teoria da decisão estatística, e de estratégias da corporação RAND
e do departamento de pesquisa naval. Ainda que tenha sido negligenciado à partida, em longo
prazo Theory of Games and Economic Behavior exerceu uma enorme influência na economia,
pois libertou a economia do cálculo diferencial, e levou o estudo económico para novas
direções tais como a conexão entre o núcleo e o equilíbrio competitivo geral.
O exemplo mais clássico de um jogo é o dilema do prisioneiro, criado por Albert Tucker em
1950, geralmente explicado através de uma história, apesar de não se limitar a esta situação,
pois a dinâmica subjacente pode ser usado para descrever qualquer tipo de fenómenos. A
história do jogo é então a seguinte:
Dois homens, A e B, são presos depois de um assalto armado. A polícia tem provas suficientes
para acusar os dois do roubo do carro de fuga, mas não as suficientes para acusá-los do
assalto propriamente dito. Contudo, se a polícia conseguir uma confissão de algum dos dois
assaltantes, poderá condenar ambos por assalto à mão armada. Assim, a polícia fecha os
homens em celas separadas e faz a mesma oferta a ambos:
Se A confessar e B não disser nada, então A irá em liberdade e B será acusado de roubo e
condenado a 10 anos de prisão. Claro que a mesma proposta também foi apresentada a B: se
este confessar e A não disser nada, é A que será condenado a 10 anos de prisão. Se ambos
confessarem, recebem ambos 7 anos de prisão. Se nenhum deles confessar, então recebem
ambos 2 anos de prisão pelo roubo do carro. Os dois prisioneiros são deixados a pensar na
decisão a tomar, sem terem contato um com o outro. A questão que se coloca é: o que é que
cada assaltante escolherá? Assumindo que cada um age de acordo com o seu interesse
pessoal, a solução que ocorre cada vez que este jogo ocorre, é que quer A quer B escolhem
confessar, resultando numa sentença de 7 anos para cada um. Pode parecer um bocado
contra intuitivo… por que razão iriam os jogadores escolher confessar, uma escolha claramente
pior a ambos estarem calados e serem condenados a apenas 2 anos de prisão cada? Não é
apenas isto, em termos do número total de anos em prisão, este é o pior resultado possível!
O playoff esperado para o jogo, isto é, a quantidade média de benefícios que a estratégia trará,
é melhor caso A confesse: 3.5 anos de prisão por confessar versus 6 anos por ficar em
silêncio. Então, duma perspectiva racional, é preferível que A confesse em vez de ficar calado.
Para mais, A fica sempre melhor se confessar, independentemente do que quer que B faça. Se
B confessar, A tanto pode ter 7 anos de prisão se também confessar, ou 10 anos se ficar em
silêncio; se B ficar calado, A tanto pode ter 0 anos de prisão se confessar ou 2 anos por ficar
calado. Infelizmente para A, o mesmo é válido para B, que também ficará melhor se confessar.
Isto quer dizer que se ambos fizerem o que é melhor para os seus interesses, ficarão 7 anos na
prisão! Este exemplo demonstra que, em muitos jogos, a “melhor” solução (aquela na qual o
resultado é mais elevado) não é aquela que vai acontecer no final.
O mínima é um método usado em teoria da decisão para minimizar a perda máxima possível,
ou, alternativamente, pode ser pensado como a maximização do ganho mínimo.
Primeiramente, começou por se aplicar um jogo de soma zero em teoria de jogos, abrangendo
as situações nas quais os jogadores fazem jogadas alternadas e simultâneas, tendo sido
depois expandido a jogos mais complexos e à tomada de decisões na presença de incerteza.
Uma versão simples deste algoritmo lida com jogos como o jogo da pedra, nos quais um
jogador pode perder, empatar ou ganhar. Se o jogador A pode ganhar numa jogada apenas, a
sua melhor jogada é essa. Se o jogador B sabe que uma determinada jogada levará a que o
jogador A possa ganhar numa jogada, enquanto que outra levará a que o jogador A possa no
máximo, empatar, a sua melhor jogada será essa. Com o avanço do jogo, torna-se fácil ver
qual é a melhor jogada. O algoritmo minimax ajuda a encontrar a melhor jogada, começando
do fim para o início do jogo; em cada passo assume-se que o jogador A está a tentar
maximizar as suas chances de ganhar (Max), enquanto que por seu lado o jogador B está a
tentar minimizar as chances de ganhá-la (Min).
Von Neumann é considerado o pai da teoria de jogos em parte devido à demonstração
do teorema minimax, em 1926. Este teorema constata que todo o jogo de duas pessoas, de
soma nula e finito, tem estratégias mistas óptimas e estabelece uma solução racional para um
conflito (jogo) definido com exatidão, no qual ambas as partes estão convictas de que não
podem escolher nenhuma estratégia melhor para alcançar o seu objetivo, devido à própria
natureza do conflito. Este teorema aplica-se a vários jogos de entretenimento, desde os mais
triviais, como o “par ou ímpar” ou quatro em linha, até aos mais complexos, como o xadrez.
Von Neumann demonstrou que para este tipo de jogos há sempre uma forma “correta” ou
“óptima” de jogá-los. Para qualquer jogo de duas pessoas com soma zero, o valor minimax é
sempre maior ou igual ao valor maximin. Quando esses valores são iguais, as estratégias
escolhidas são chamadas estratégias óptimas, e nenhum jogador mudará a sua estratégia,
pois isso implicaria um resultado pior, caso o outro jogada mantenha a sua estratégia.
Apesar de a teoria de jogos ter sido estudada por von Neumann por um longo período de
tempo, há uma diferença na maneira como o tema é abordado no seu artigo de 1928 e no
trabalho realizado com Morgenstern. Tendo em conta o seu primeiro artigo, nota-se que o seu
principal objetivo era o teorema Minimax. Contudo, sabe-se que, ainda antes de 1927, sugeriu
a D. König a aplicação de um resultado teórico-gráfico de modo a provar que um jogo com uma
regra de paragem era finito, e, a partir desse mesmo artigo de König,[14]
sabe-se que corrigiu
um erro na prova de Zermelo de que o xadrez era um jogo de estratégia pura. Um artigo
de Kalmar[15]
também nos informa que, na mesma altura, von Neumann formulou e provou a
solução minimax para estratégias puras em jogos de informação perfeita. A classe de jogos
normalizada no artigo de 1928 restringe-se aos jogos finitos em que um jogador, quando tem
de fazer uma escolha, ou sabe tudo ou não sabe nada sobre as escolhas anteriores. Sob a
influência de Morgenstern, a classe particular atrás referida foi alargada através de uma nova
formulação em termos da partição das jogadas, passando a incluir jogos que poderiam apenas
ter uma informação parcial sobre as escolhas anteriormente feitas. Neste seu trabalho,
conseguiram encontrar uma teoria exacta para o “bluff” praticado no poker, que reduzia o “bluff”
a uma atividade racional, e estabelecia, no geral, probabilidades de acordo com as quais o
“bluff” deveria ser utilizado em cada oportunidade. Uma característica técnica importante no
trabalho de von Neumann sobre o poker foi à determinação de soluções minimax através do
uso de estratégias agora conhecidas como estratégias comportamentais.
Com o teorema minimax, von Neumann conseguiu provar que é possível encontrar a melhor
estratégia que maximiza potenciais ganhos ou que minimiza potenciais perdas. Contudo, a
solução encontrada por von Neumann está limitada a jogos de soma zero, que não
correspondem à maior parte dos conflitos de interesse em situações económicas e sociais, tal
como observou a mente brilhante de John Nash. Nash provou que, desde que possam existir
estratégias mistas, num jogo com um número arbitrário de jogadores existe pelo menos um
ponto de equilíbrio, generalizando a aplicação da teoria de jogos proposta por von Neumann.
Von Neumann estava interessado em mostrar que a matemática podia ser uma ferramenta
com diversas aplicações, mesmo em campos que não eram fáceis de formalizar
matematicamente. Tal pode explicar as importantes contribuições dele para a economia, uma
vez que o seu trabalho reflete mais uma crença de que a matemática podia ter um papel
importante na ciência e sociedade do que um interesse por assuntos económicos. As suas
duas maiores contribuições nesta área foram o Modelo Geral de Equilíbrio Económico, mais
comumente referido como modelo de uma economia em expansão (MEE), e a teoria de jogos e
comportamento económico (na qual trabalhou juntamente com Oskar Morgenstern).
Ainda jovem, na década de 20, von Neumann demonstrou interesse em estudar economia num
seminário em Berlim e a Nicholas Kaldor . Os seus primeiros trabalhos escritos em economia
teórica surgiram nos anos 30, e em 1932, enquanto dividia o seu tempo entre Berlim e a
América, apresentou um modelo económico num seminário de matemática em Princeton. O
texto, intitulado Sobre certas equações da economia e uma generalização do teorema do ponto
fixo de Brouwer foi publicado em 1937 como parte dos trabalhos do colóquio de Karl
Menger em Viena; dois anos depois, von Neumann enviou uma cópia do seu artigo a Kaldor,
então presidente do comité editorial da Review of Economic Studies, que decidiu que o artigo
merecia uma audiência mais vasta, pelo que o publicou em Outubro de 1945 (a Segunda
Guerra Mundial provocou um atraso na publicação) sob o título Um modelo Geral do Equilíbrio
Económico.
O modelo de crescimento de von Neumann trabalha com n bens e m processos de produção,
com retornos constantes a equilíbrios. A taxa de salários real corresponde às necessidades da
vida e todo o excesso de receita é reinvestido. A taxa de salários real é dada e as receitas têm
natureza residual. Neste contexto, von Neumann determina como o processo decorre, taxas de
juro e preços, e a taxa de crescimento do sistema económico (determinada endogenamente).
Para além de provar que uma solução geral de equilíbrio era possível, o maior feito de von
Neumann foi à harmonia entre as assumpções do modelo e as diferentes faces da solução.
Mais concretamente, ele demonstrou que a taxa de juro é a mesma em toda economia e todo o
lucro se expande à mesma taxa.
O modelo de von Neumann dá particular atenção aos aspectos circulares do processo de
produção, e uma das suas inovações foi à eliminação da distinção entre fatores primários e
outputs, o que significa que não há fatores “originais” (como o trabalho) como na teoria
tradicional. O “trabalho” deixa de ser um fator primário, e é agora um fator de produção, uma
vez que os trabalhadores usam produtos para poderem produzir outros produtos.
Na procura da solução de equilíbrio, a matemática provou ser essencial: o uso do teorema do
ponto fixo de Brouwer ajudou von Neumann a provar a existência de um equilíbrio na taxa de
crescimento dinâmica. A solução do problema económico é arranjada de modo a que todos os
bens sejam produzidos ao mínimo custo possível, na maior quantidade possível. De acordo
com o modelo de von Neumann, o máximo crescimento implica a existência de um equilíbrio
dinâmico, nomeadamente a existência de um ponto de sela de uma função que relacione o
input e o output.
Quando foi apresentado, o MEE provocou grande agitação entre os economistas, e várias
objecções foram levantadas (a maioria devido a interpretações incorretas): alguns diziam que
ele favorecia uma economia esclavagista, outros criticavam a premissa de que uma atividade
acaba quando não ganha a taxa de lucro do mercado. Críticas à parte, a maior limitação do
MEE era o seu carácter não-monetário, pois não era possível determinar os efeitos das ações
dos principais banqueiros em superexpandir ou super-restringir o dinheiro. Apesar destes
problemas, o MEE teve um enorme impacto na economia: aumentou as ferramentas
matemáticas dos economistas, acrescentando coisas como a teoria de conjuntos convexos ou
a programação matemática; permitiu uma melhor compreensão das diferenças entre
planeamento económico e os efeitos do mercado livre e ajudou o desenvolvimento de modelos
dinâmicos sobre o crescimento económico.
A base do trabalho de von Neumann ainda não está totalmente esclarecida. Parece haver uma
ligação entre o seu trabalho e o de economistas vienenses nos anos 30, sugerida pela própria
história, uma vez que o seu trabalho é visto como parte do grupo de equilíbrio geral associado
ao Menger Colloquium, cujos membros trabalhavam no problema de existência de uma solução
de equilíbrio para o modelo de Walras-Cassel (modelo de equilíbrio geral no qual os indivíduos
pedem bens e oferecem elementos, e as empresas pedem elementos e produzem bens de
maneira constante. O equilíbrio geral define-se como um conjunto de preços de fatores e
outputs tais que as quantidades pedidas e oferecidas em cada mercado são iguais, garantindo
a competição que o preço iguale o custo de produção em cada processo de produção e curso).
O modelo de MEE de von Neumann também inclui várias vertentes consideradas importantes
pelos economistas vienenses: o uso de desigualdades em vez que equações, preço zero para
bens em excesso de oferta e a ênfase no equilíbrio em longo prazo sem lucro. Alguns
economistas defendem que o modelo de von Neumann se baseia na tradição clássica de
pensamento económico: para eles, tal é evidente atendendo a aspectos tais como as ideias de
que a natureza do processo de produção é circular e de uma economia que se expande
uniformemente, sendo a taxa de expansão determinada endogenamente; a dualidade das
variáveis monetárias e técnicas ou a maneira como a regra dos bens livres foi aplicada aos
fatores primários de produção e aos bens.
Numa primeira abordagem, a “interpretação clássica” do modelo de crescimento de von
Neumann representava uma perspectiva totalmente diferente do dominante ponto de vista
neoclássico. Contudo, rapidamente surgiram argumentos a favor, por parte de economistas
como David Gawen Champernowne, Richard Goodwin ou Nicholas Kaldor.
A título de curiosidade, e para demonstrar a facilidade de von Neumann com números,
apresento agora histórias que se contam sobre a sua rapidez na resolução de problemas, tal
como apresentadas por P.R. Halmos em:[4]
Quando o seu computador electrónico ficou pronto, alguém sugeriu um teste relativamente
simples envolvendo potências de 2, um problema do género: qual é a menor potência de 2, tal
que o seu quarto dígito a contar da direita seja 7? O computador e von Neumann começaram
ao mesmo tempo, e von Neumann acabou primeiro!
Noutra ocasião, um jovem cientista de Aberdeen Proving Ground precisava calcular o valor de
uma expressão complicada. Passou 10 minutos no primeiro caso especial; o segundo cálculo
demorou uma hora; para o terceiro, teve de recorrer a uma calculadora, e mesmo assim
demorou meio dia. Quando von Neumann apareceu na cidade, o jovem cientista aproveitou
para lhe perguntar se sabia como havia de resolver tal problema, o que von Neumann aceitou
prontamente. Então começou a ver o que acontecia para o caso n=1. Fixou um ponto no
horizonte, murmurou umas contas por um minuto, e, sabendo a resposta, o jovem lançou um
“2.31?” Neumann olhou para ele, e continuou. “Para n=2, …” O interrogador estava preparado
e conseguia seguir alguns dos cálculos que von Neumann murmurava. Assim, uns segundos
antes de dar a resposta, interrompeu von Neumann de novo, perguntando, hesitante: “7.49?”
Desta vez, von Neumann franziu o sobrolho e apressou-se a continuar, mas o mesmo
aconteceu… mesmo antes de ele chegar ao resultado, o jovem cientista exclamou “11.06!” Isto
foi demais para von Neumann! Um principiante desconhecido estava a ser melhor que ele!
Ficou aborrecido e amuou até o jovem confessar a brincadeira.
Temos também a pergunta da mosca e dos ciclistas: Dois ciclistas começam afastados 20
milhas, e andam em direções opostas a uma velocidade constante de 10 mph. Ao mesmo
tempo, uma mosca que viaja a 15 mph, começa na roda dianteira do ciclista do norte, voa até à
roda dianteira do sul, regressa ao do norte e assim por diante, até ficar esmagada entre as
duas rodas. Qual é a distância percorrida pela mosca? Há duas maneiras de resolver este
problema: a maneira mais lenta é calcular a distância que a mosca percorre na primeira
viagem, depois na segunda, etc., e depois somar as séries infinitas que se obtêm; a maneira
mais rápida é observar que as bicicletas se encontram uma hora depois de partirem, portanto a
mosca só tem uma hora para as viagens, donde a resposta é 15milhas. Quando fizeram esta
pergunta à von Neumann, este a resolveu num instante, o que decepcionou bastante quem fez
a pergunta, que disse “Oh, devia ter ouvido o truque antes!”, ao que von Neumann respondeu
“Truque? Apenas somei as séries infinitas!”
coisas. Apenas nos habituamos a elas. (in G. Zukav The dancing Wu Li masters)
O facto mais característico acerca da matemática é, em minha opinião, a sua relação peculiar
com as ciências naturais, ou mais geralmente, com qualquer ciência que interprete
experiências a um nível superior ao meramente descritivo.
De uma maneira geral é uniformemente verdade que na matemática há um lapso de tempo
entre a descoberta matemática e o momento em que se torna útil; e que esse lapso pode ser
qualquer entre 30 e 100 anos, em alguns casos ainda mais; e que todo o sistema parece
funcionar sem qualquer direcção, sem qualquer referência à utilidade e sem qualquer desejo de
fazer coisas que sejam úteis.
Quem quer que seja que considere métodos aritméticos para produzir números aleatórios está,
claro, num estado de pecado. (in D. MacHale, Comic Sections (Dublin, 1993))
Existe um conjunto infinito A que não é demasiado grande.
Todos os processos estáveis conseguiremos prever. Todos os processos instáveis
conseguiremos controlar!
As ciências não tentam explicar, elas dificilmente tentam interpretar, elas fazem principalmente
modelos. Por um modelo entende-se uma construção matemática que, juntamente com certas
interpretações verbais, descreve um fenómeno observado. A justificação de tal construção
matemática é só e precisamente que se espera que funcione.
Podia parecer que chegámos ao limite do que era possível alcançar com a tecnologia dos
computadores, contudo, uma pessoa deveria ser cuidadosa com tais afirmações, pois tendem
a soar muito tontas em 5 anos. (dito em 1949)
Não há sentido em ser preciso quando não se sabe de que se está a falar.
George Boole
George Boole (2 de Novembro de 1815 — 8 de Dezembro de 1864) foi
um matemático e filósofo britânico, criador da Álgebra Booleana, fundamental para o
desenvolvimento da computação moderna.[1]
Seu pai tinha uma pequena loja de sapatos. O que se esperava das crianças desta classe era
que aprendessem o mínimo de catecismo para que não ultrapassassem o limite de obediência
aos que se encontravam em boa situação financeira. Os filhos destes aprendiam um pouco
de Latim, e não Grego, passando a ser considerados senhores. Na escola por ele frequentada,
o latim não era ensinado. Resolveu aprender esta língua por acreditar ser este o caminho para
uma posição superior.
A única orientação que pôde obter foi a do dono de uma livraria que lhe deu algumas noções
de gramática. Continuou sozinho e, aos doze anos, traduziu os versos de Horácio para
o Inglês. Seu pai, orgulhoso, levou o trabalho para o jornal local que o publicou, deflagrando
duas correntes: uma elogiando e outra humilhando Boole. Um professor de línguas clássicas
duvidou de que um menino de doze anos pudesse realizar tal tradução. Desafiado, decidiu
melhorar o domínio de Latim, acrescentando o Grego. O aprendizado inicial de Matemática lhe
foi dado por seu pai. Tendo terminado a escola pública fez um curso comercial, tornando-se
mais realista relativamente ao seu futuro. Aos dezesseis anos começou a dar aulas a fim de
ajudar seus pais, embora o que ganhasse fosse muito pouco. Por quatro anos ensinou em
escolas elementares. A partir de então buscou avaliar as profissões que lhe ofereceriam boas
perspectivas: a carreira militar estava fora do seu alcance, por sua penúria financeira;
a advocacia exigiria cursos acima de sua disponibilidade orçamentária. Restava-lhe a Igreja.
Resolveu, pois, tornar-se padre. Embora não tenha se concretizado a ideia, os quatro anos em
que se preparou para a carreira eclesiástica não foram perdidos.
Aprendeu Francês, Alemão e Italiano, que lhe seriam indispensáveis em seu futuro.
Finalmente, ele encontrou seu caminho, a partir daquelas primeiras aulas recebidas de seu pai.
Aos vinte anos abriu uma escola, onde teria que ensinar a matemática que se esperava fosse
ensinada em boas escolas. Buscou livros que o orientassem. Os livros comuns, daquela época,
deram-lhe grande interesse; a seguir foram considerados desprezíveis. Buscou os grandes
mestres da matemática. Seu primeiro trabalho foi ignorado pela maioria dos matemáticos,
exceto por alguns raros que reconheceram ali o germe de algo de supremo interesse para a
matemática. O desenvolvimento natural do que Boole começou, transformou-se em uma das
mais importantes divisões da matemática pura. Disse Bertrand Russell: “a matemática pura foi
descoberta por Boole em seu trabalho “Leis do Pensamento”, publicado em 1850.
Por si mesmo, aos vinte anos, dispôs-se a dominar a “Mécanique Céleste” de Laplace, obra
dificílima, pouco esclarecedora pela falta de interesse do autor em elucidar o caminho
percorrido para suas conclusões. A seguir tentou acompanhar a abstrata “mecânica analítica”
de Lagrange, na qual não é colocado um único diagrama do começo ao fim para ilustrar sua
análise. Ainda assim pôde fazer sua primeira contribuição à matemática (um artigo sobre
“cálculo de variações”). Ainda em seu estudo solitário descobriu as “invariantes”, cuja
importância pode ser reconhecida ao conscientizarmos que sem a teoria matemática das
invariantes (que cresceu a partir dos primeiros trabalhos algébricos) a Teoria da
Relatividade teria sido impossível.
Então, no limiar de sua carreira científica, notou algo que outros poderiam ter percebido antes.
Viu o que outros tinham negligenciado devido ao seu forte sentimento de simetria e beleza das
relações algébricas. Outros olharam aquele achado, considerando-o simplesmente bonito,
enquanto Boole reconheceu que ali estava algo de uma ordem mais elevada. Boole enviou seu
trabalho para o Jornal Matemático de Cambridge, que havia sido fundado em 1837 e que se
encontrava sob a hábil editoração do matemático escocês D. F. Gregory. A originalidade e
estilo impressionaram Gregory, iniciando-se uma amizade que perdurou pelo resto da vida. Foi
nesta época que surgiu a moderna concepção de álgebra que levou à compreensão da álgebra
como álgebra, ou seja, como o desenvolvimento abstrato das consequências de um grupo de
postulados sem necessariamente a interpretação ou aplicação de números. Sem esta
compreensão de que a álgebra em si mesma nada mais é do que um sistema abstrato, ela
poderia ainda encontrar-se inserida no bolo aritmético do século XVIII, incapaz de avançar para
as variantes sob a direção de Hamilton. Por iniciativa própria ele separou os símbolos das
operações matemáticas das coisas sobre as quais elas operavam, buscando compreendê-las.
Seu trabalho nesta direção é extremamente interessante, porém obscurecido pelo seu principal
interesse - a criação de um simples e manejável sistema simbólico, ou seja, a lógica
matemática.
Continuava leccionando, mas agora conhecia e se correspondia com muitos dos principais
matemáticos britânicos. Em 1838 publicou o pequeno livro A Análise Matemática da Lógica,
sua primeira contribuição para o vasto assunto, que o tornaria famoso pela ousadia e
perspicácia de sua visão. De Morgan apercebeu-se de que ali estava um mestre e apressou-se
em reconhecê-lo. Ele tinha aberto um novo e importante patamar. Por se encontrarem seus
pais totalmente sob sua dependência, continuava dando aulas. Em 1810 foi designado
Professor de Matemática no recém criado “Queen’s College” na cidade de Cork, Irlanda.
Realizou os mais variados trabalhos matemáticos, mas seu esforço principal continuou sendo o
de aperfeiçoar e dar forma final à sua obra-prima, publicada em 1857, Uma Investigação das
Leis do Pensamento, em que se fundamentam as Teorias Matemáticas da Lógica e
Probabilidades.[2]
Em 1857 foi eleito membro da Royal Society. É incomum que um matemático
nesta idade ainda venha a produzir um trabalho tão profundamente original. O parágrafo inicial
de um de seus textos nos dá uma ideia do seu estilo e extensão do seu trabalho. “O motivo do
presente tratado é investigar as leis fundamentais do funcionamento do cérebro através das
quais o raciocínio se realiza; expressá-las através da linguagem do Cálculo e, sobre este
fundamento, estruturar a ciência da Lógica e construir o seu método; fazer deste método a
base de todos os métodos para aplicação da doutrina matemática de probabilidades; e,
finalmente, recolher dos vários elementos verdadeiros trazidos para serem examinados no
curso destas investigações alguma provável sugestão a respeito da natureza e constituição da
mente humana”. Ele convertera a lógica em um tipo de álgebra fácil e simples. Desde o
trabalho pioneiro de Boole, sua grande criação tem sido melhorada. Mas a lógica simbólica foi
negligenciada por muitos anos depois de sua invenção. Até 1910 ainda existiam eminentes
matemáticos desdenhando-a como uma curiosidade filosófica sem qualquer significância
matemática. O trabalho de Whitehead e Russel em Principia Mathematica (1910-1913) foi o
primeiro a convencer um grupo de matemáticos que a lógica simbólica devia receber sua séria
atenção.
Boole não sobreviveu muito tempo à produção de sua obra-prima. Um ano após a sua
publicação casou-se com Mary Everest, sobrinha do coronel George Everest. Sua mulher
tornou-se sua devotada discípula. Depois da morte do marido, Mary Boole aplicou algumas
ideias que ela havia adquirido dele para racionalização e humanização da educação de
crianças, através do folheto Psicologia de Boole.
Boole morreu de pneumonia, honrado e com crescente fama, em 1864.
Algumas linguagens de programação tem um tipo lógico chamado bool como referência ao seu
nome.
Bibliografia
http://pt.wikipedia.org/wiki/Blaise_Pascal
http://pt.wikipedia.org/wiki/Gottfried_Leibniz
http://pt.wikipedia.org/wiki/Charles_Babbage
http://pt.wikipedia.org/wiki/Alan_Turing
http://pt.wikipedia.org/wiki/John_von_Neumann
http://pt.wikipedia.org/wiki/George_Boole