quinta-feira, 17 de dezembro de 2009

Lynyrd Skynyrd -- Simple Man

Escute essa música aqui.

Mama told me when I was young
Come sit beside me, my only son
And listen closely to what I say.
And if you do this
It will help you some sunny day.
Take your time... Don't live too fast,
Troubles will come and they will pass.
Go find a woman and you'll find love,
And don't forget son,
There is someone up above.

(Chorus)
And be a simple kind of man.
Be something you love and understand.
Be a simple kind of man.
Won't you do this for me son,
If you can?

Forget your lust for the rich man's gold
All that you need is in your soul,
And you can do this if you try.
All that I want for you my son,
Is to be satisfied.

(Chorus)

Boy, don't you worry... you'll find yourself.
Follow you heart and nothing else.
And you can do this if you try.
All I want for you my son,
Is to be satisfied.

(Chorus)

domingo, 13 de dezembro de 2009

Caetano Veloso -- Nine out of ten

http://www.youtube.com/watch?v=4xr8oA9m9tA

domingo, 6 de dezembro de 2009

Iniciação à teoria estocástica

Marcelo Papini

"Pour beaucoup d’esprits, une probabilité
calculée à sept ou huit décimales près est
beaucoup plus convaincante qu’un argument fondé
sur des considérations qualitatives. Ces esprits
oublient que si le calcul en question est fondé
sur des éléments statistiques, qui ne sont donc
pas numériquement précis, le nombre de décimales
est une pure illusion. Ce nombre fait croire à
la précision alors qu’elle n’existe pas. De ce
point de vue, la théorie des probabilités est
fondamentalement une imposture." René Thom, in
Entretien avec René Thom, Le Monde, 22-23
janvier 1995.


Sumário ¾

1 - Introdução
2 - A teoria estocástica
2.1 - Considerações preliminares
2.2 - A construção da teoria
3 - Rudimentos da teoria estocástica
4 - Escritos referidos
-------------------------------------------------------------------
1 - Introdução

“Longe de ser uma necessidade lógica, a geometria
euclidiana é um fato observacional empírico
que se aplica de modo muito preciso ¾ embora
não totalmente preciso ¾ à estrutura de nosso
espaço físico.” (PENROSE 1991:175)
“Les mathématiques naquirent lorsque les besoins
de la vie matérielle nécessitèrent leur existence,
lorsque la technique d’une société atteignit
un certain niveau. Au début elles n’eurent qu’un
caractère empirique, préscientifique. Puis elles
s’élevèrent au niveau expérimental, au niveau
d’une véritable science physique, d’une physique
du nombre et des formes.” (CHAPELON 1962:512)


É usual aproximar-se a matemática da lógica, opondo-a às
ciências empíricas. Não seria difícil rastrear essa perspectiva até
Platão e conduzi-la por um percurso quase ininterrupto, que passa
por Immanuel Kant, a Bertrand Russell e Gottlob Frege, no início do
século XX. Mas não é esse o escopo do presente escrito.
O presente autor advoga que a matemática tem raízes empíricas
e que sua separação da física foi condicionada socialmente.
Tampouco discutir essa tese é o escopo do presente escrito mas, para
que esse asserto não pareça gratuito, remeterei o leitor aos autores
seguintes, que professam opinião semelhante.

Heródoto de Halicarnasso vincula a origem do conhecimento
geométrico às exigências da agrimensura, pois as inundações periódicas
do rio Nilo teriam obrigado os arpedonaptas a retraçar os limites
dos lotes agrícolas, medida essa indispensável à cobrança dos
tributos devidos ao faraó. Notemos que o vocábulo grego geometria
corresponde etimologicamente ao nosso agrimensura (ALEXANDRE 1901:
222, 307; BAILLY 1950:274, 400; COOLIDGE 1940:25). Alguns autores indicam
a estrutura social da antiga Hélade como o principal motivo
de se haverem convertido em uma disciplina altamente racional as
técnicas geométricas empíricas usadas no antigo Egito, patentes na
edificação das portentosas pirâmides:

“La structure de la société grecque est la base matérielle du goût
des Grecs pour l’abstraction, pour la ratiocination. Il est juste de
dire qu’elle fut aussi la base de leur rationalisme, de leur confiance
dans la puissance du raisonnement pur pour atteindre la vérité, de
leur admirable technique de la démonstration, et ce dernier point devait
être d’une importance fondamentale pour le développement ultérieur
des mathématiques.” (CHAPELON 1962:514)


MEHRTENS (1976:314-315) informa como o advento de um novo modelo
de universidade provocou na Alemanha a separação entre as denominadas
ciências puras e ciências aplicadas:

“By the beginning of the nineteenth century, a new social class
had become dominant. In consequence of this change, the system of
education was modified and strengthened. The French revolution led to
the establishment of the École Polytechnique and the École Normale
which were of enormous significance in the history of mathematics.
France was the center of mathematics and science at the turn of the
century, it was the model for scholars in other countries. The German
university reform, starting with the foundation of the university of
Berlin (1809), merged traces of the French model with specifically
German philosophical ideas and, most important, was an attempt to
establish the autonomy of scholars without violating the boundaries
set by the political state of the German countries. The scientists
did not take part in the reform; still it turned out to be very favourable
to the development of mathematics and natural sciences. The
main point is that the teaching was done to students who could stay
at the university to become professors of mathematics. The institutional
background was provided by the Institute and Seminare that
were founded during the century. Thus the mathematicians could teach
the mathematics they were themselves working on.
These developments influenced the relation of pure and applied
mathematics in many ways. First, the connection of mathematics to
technology was cut off by the separation of Technische Hochschulen
and universities. Thus, for instance, descriptive geometry disappeared
from the university curriculum. Secondly, the model of the
foundation of Seminare was the mathematisch-physikalisches Seminar of
Königsberg; its fourth follower, the important Seminar of Berlin, was
already purely mathematical. The institutional structure tended to
separate fields, and thus pure mathematics was favoured. Thirdly, the
teaching of students as potential mathematicians had two effects: On
one hand, the mathematicians could teach things they were interested
in, and the teaching got swiftly up to the level of actual research,
thus forming a strong tradition. On the other hand, the mathematicians
turned their professional interest to the things they were
teaching, and thus became more concerned about the elementary partes
of their discipline.”

A despeito da propalada separação epistêmica ou metodológica
entre a matemática e a física, o exame da história revela diversos
pesquisadores como Isaac Newton (1643-1727), Leonhard Euler (1707-
1783), Joseph-Louis Lagrange (1736-1813), Pierre-Simon Laplace
(1749-1827), Carl Gauss (1777-1855), William Hamilton (1805-1865),
Henri Poincaré (1854-1912), David Hilbert (1862-1943), Hermann Weyl
(1885-1955) e Roger Penrose (1931 - ), para citar apenas os mais
conhecidos, que ignoraram a distinção epistêmica apontada pelos filósofos
das ciências e que deixaram decisiva contribuição tanto à
matemática quanto à física.
Aliás, deve consignar-se, en passant, que também são empíricas
as raízes da lógica, a qual foi criada na Academia platônica,
com apoio na observação dos métodos usados pelos geômetras que a
freqüentavam.

O escopo do presente escrito é apresentar um esboço didático
de introdução à teoria estocástica, o qual se preste a exibir como
se constrói uma disciplina matemática, desde o exame de fatos empíricos
até a sua consolidação sob a forma axiomática, evidenciando
que a axiomatização constitui o fim de um trajeto e jamais o seu
início. Esse tema será discutido no item 2.2 (a construção da teoria).
A escolha da estocástica foi ditada pelas razões seguintes:
(a) Trata-se de uma teoria cujas raízes empíricas estão suficientemente
documentadas, ao contrário da geometria e da aritmética,
cujas origens se escondem nas brumas do passado. Quem quiser investigar
as origens empíricas, por exemplo, do cálculo com frações
não deverá furtar-se a estudar cuidadosamente a obra coletiva
Histoire de fractions, fractions d’histoire, de Paul BENOIT,
Karine CHEMLA e Jim RITTER (1992), que contém cerca de duas dezenas
de estudos sobre frações, mostrando, entre outras coisas, como a
técnica fora praticada no antigo Egito e na China.

(b) Os primeiros capítulos da estocástica são tão elementares, que
podem ser expostos no curso secundário.

(c) Embora as técnicas necessárias à elaboração dos rudimentos da
estocástica já fossem anteriormente conhecidas, ela somente foi
constituída, quando o contexto cultural o impôs. Esse tema será
retomado no item 2.2 (a construção da teoria). Constitui, portanto,
um exemplo claro de que a matemática, por se produzir no seio
da sociedade humana, não está imune aos condicionamentos culturais.

(d) Tão logo a estocástica adquiriu uma formulação consistente,
foi requerida por outras ciências empíricas, sequiosas de ferramentas
adequadas para investigação de seus respectivos campos e
para a expressão de muitos de seus resultados. Desse modo, a estocástica
tornou-se relevante tanto à tomada de decisões quanto a
estudos epistêmicos. Esse tema, que é afim ao modelamento de uma
teoria empírica, será comentado no item 2.2 (a construção da teoria).
No item 3 será apresentada a proposta de iniciação à teoria
estocástica, que pode ser usada, como leitura introdutiva, no ensino
secundário. Na sua redação, o presente autor obedeceu fielmente
ao princípio didático de que o aprendizado por cada sujeito deve
reproduzir, em linhas gerais, o aprendizado pela espécie humana
(análogo ao aforismo de que a ontogênese replica a filogênese).
Assim, a construção da teoria apoiar-se-á em exemplos, dos quais se
extrairão as propriedades consideradas fundamentais.
-------------------------------------------------------------------
2 - A teoria estocástica
2.1 - Considerações preliminares
"Qualquer gênero da Matemática que se vai afastando
de sua fonte empírica ou que, em uma segunda
ou uma terceira geração, esteja apenas indiretamente
inspirada por idéias provenientes da
realidade, confronta-se com perigos muito
graves. Torna-se cada vez mais puramente estetizante,
cada vez mais puramente l'art pout l'art.

Isto não será necessariamente mau, se o gênero
vertente estiver cercado por assuntos correlatos
que ainda mantenham estreitas relações empíricas
ou se tal ramo se encontrar sob a influência de
pessoas dotadas de percepção extremamente bem
desenvolvida. Existe, contudo, o perigo de que a
matéria se desenvolva segundo a linha de menor
resistência, que seja arrastada para longe de
sua fonte e que se fragmente em um uma diversidade
de espécies insignificantes, transformando
o gênero em uma massa desarticulada de minúcias
e complexidades. Em outras palavras, a uma
grande distância de sua fonte empírica ou após
uma elaboração abstrata interna, um gênero
matemático corre o perigo de degenerescência.
Usualmente, no início, o estilo é clássico; o
sinal indicativo de perigo são os indícios de
que o estilo se está tornando barroco. Em
qualquer circunstância, sempre que essa fase é
alcançada, o único remédio que julgo eficaz é o
retorno rejuvenescedor às fontes, é a reinjeção
de idéias empíricas. Estou convencido de que
essa é uma condição necessária a que o gênero
conserve o frescor e a vitalidade. E creio que
isso é válido, não apenas agora, mas também no
futuro." (NEUMANN, J. von. The mathematician. In:
NEWMAN, J. R. (1956) The world of mathematics.
New York, Simon and Schuster. [Apud MAIA, L. P.
Mequita (1977). Mecânica Clássica, volume 2,
1977]

Há poucas décadas, designaram-se conjuntamente estocástica
(subentendendo-se teoria) a antiga teoria das probabilidades (que,
nos países de expressão alemã, era nominada cálculo da verissimilitude:
Wahrscheinlichkeitsrechnung) e os aspectos matemáticos da estatística.

O termo estocástica fora usado na Antiguidade, na acepção de
arte da conjectura. O termo stokhastikós encontra-se, por exemplo,
no diálogo platônico Philebos, para denotar a capacidade de conjecturar.
O vocábulo reapareceu no título da obra póstuma (1713) de
Jakob Bernoulli, Ars conjectandi sive stochastice, na qual o autor
pretendeu medir, com a possível precisão, a verissimilitude das
coisas. Foi reintroduzido na linguagem erudita, em 1917, por Ladislaus
von Bortkiewicz.

Como data de nascimento da estocástica aceita-se, geralmente,
o ano de 1654, no qual Blaise Pascal e Pierre de Fermat, através
de cartas, trataram de problemas associados a jogos de azar.
Mas não foi essa a primeira vez que se discutiram problemas dessa
natureza. Já em 1494, foi impresso um compêndio sobre a arte de
calcular, Summa de arithmetica ..., da autoria de Luca Pacioli.
Nesse manual, o autor afirmava que, se fossem necessários seis pontos
para se ganhar um jogo e dois jogadores interrompessem uma partida,
quando um deles tivesse cinco pontos e o outro tivesse dois
pontos, a quantia apostada deveria ser repartida entre os jogadores
na proporção de 5 para 2 (DAVIS & HERSH 1988:25; GARDING 1997: 268-
269)

Talvez logo os primeiros investigadores tenham percebido que
essa assertiva não seria aceitável. De fato, se fossem necessários
nove pontos para se ganhar um outro jogo e os jogadores interrompessem
uma partida nas condições referidas, o princípio adotado por
Luca Pacioli forneceria a mesma resposta, contrariando nossa percepção
de que a situação mudou. A primeira solução convincente foi
conhecida, depois que o Cavaleiro de Méré propôs esse problema a
Pascal. Pascal lhe respondeu que cada jogador deveria receber uma
parcela proporcional a oportunidade que ele tivesse de ganhar a
partida, no instante em que ela fosse interrompida. Para que esse
princípio fosse eficaz, seriam necessárias ferramentas que permitissem
o cálculo de tal oportunidade. Foi sobre isso que Pascal e
Fermat se cartearam e dessa discussão epistolar nasceram os fundamentos
da estocástica, expostos por Christian Huygens, em 1657, na
obra intitulada De ratiociniis in ludo aleae. Segundo a descrição
de Poisson: “Un problème relatif aux jeux de hasard, proposé à un
austère janséniste par un homme du monde, a été l’origine du calcul
des probabilités.” (EVES 1997: 365-366; GARDING 1997: 269; STEWART
1991: 52; STRUIK 1987: 103.)

Mas o interesse da humanidade pelos fenômenos fortuitos certamente
não é tão recente. Por se haverem encontrado dados de forma
quase cúbica em túmulos no antigo Egito e na Caldéia, se supõe que
o jogo de azar já fosse praticado por povos antigos (PICHARD 2005:
14-15). Tais dados foram, às mais das vezes, fabricados com astrágalos,
ossos do tarso, de forma quase cúbica, o que nos leva a conjecturar
que o curso da evolução do esqueleto dos primates foi determinante
na escolha do poliedro que seria usado nos jogos de
azar.

Os hebreus recorriam à sorte, para decidirem acerca da divisão
de um terreno, para atribuírem funções e para buscarem culpados
(Van den BORN 1971:1459). Informa também esse autor (1971:1079) que
“acontecimentos imprevistos eram interpretados como indícios da
vontade divina”, porque se acreditava que tudo o que ocorre é assim
determinado por Javé. Talvez seja essa a origem do ordálio, método
usado na Idade Média para instruir a sentença judicial, segundo o
qual um acusado era submetido a condições dolorosas ou perigosas,
sendo o resultado considerado como julgamento divino.

Também na mítica grega, há referências às decisões pela sorte.
Por exemplo, os três filhos de Hércules, após haverem conquistado
a península do Peloponeso, dividiram-na em três partes e as
sortearam. Em oposição ao fortuito, o espírito grego reconheceu a
necessidade, que foi personificada em Ananque [,Anaggh] a qual, na
teogonia órfica era irmã da justiça, Dique [Dikh]. No mito platônico
A república, Ananque é a mãe das Moiras, que representam o destino
pessoal de cada ser humano. (Cf. GRIMAL 1951:102b, 300b, 310b-311a.)
COURTEBRAS (2005:209) distingue, no pensamento grego, duas
modalidades de destino, que são incompatíveis com a noção de casualidade:
o destino segundo os escritores trágicos e o destino segundo
os estóicos.

O paradigma do destino trágico encontra-se na trilogia “o
rei Édipo, Édipo em Colono e Antígone”, de Sófocles. Nessa narrativa,
a casualidade não desempenha papel algum mas o destino é inexorável,
sendo diante dele impotentes os próprios deuses olímpicos.

Por outro lado, entre os estóicos, embora inelutável, o princípio
que distribui o destino a cada um é a razão universal, o logos, que
não atua casualmente mas segundo uma diretriz. (COURTEBRAS 2005:110).
Na sua Física (II 4,5 6), Aristóteles distinguiu entre os
eventos contingentes, que se produzem necessariamente, e os eventos
fortuitos, de ocorrência incerta (PICHARD 2005:13-14).

Parece que em Roma se praticavam tão obcecadamente os jogos
de azar, que foram editadas leis contra as casas de jogos. PICHARD
(ibidem) refere que se encontraram dados viciados, o que nos leva a
supor que já houvesse o reconhecimento claro de que, em condições
de perfeita simetria, todas as faces de um dado propendem a ocorrer
com iguais freqüências.

A incipiente igreja cristã foi herdeira da concepção de providência
divina, que já se esboçava na cultura hebraica. Segundo
esse conceito, Deus governa toda a natureza e cuida de suas criaturas.
Por considerar a providência divina como a manifestação contínua
do amor e da vontade divinas (van den BORN 1971:1236), essa concepção
pode haver sido um dos motivos que levaram a igreja cristã,
desde os seus primórdios, a condenar os jogos de azar (PICHARD 2005:
15) e, conseqüentemente, a postergar o nascimento da estocástica.
Os primeiros escritos sobre a teoria estocástica, dos quais
temos notícia, remontam ao século XVII mas apenas foram publicados
no século seguinte. Trata-se das obras de Giròlamo [Hyeronimus]
Cardano e de Galileo Galilei. Cardano, em seu Liber de Ludo Aleae
(escrito antes de 1576 e publicado em 1663), que consiste em trinta
e dois breves capítulos, estuda especificamente os jogos de dados e
os jogos de cartas.

Talvez se possa concluir que, antes de a estocástica haver
sido constituída, já os jogadores houvessem acumulado um acervo
significativo de resultados experimentais. Assim, os objetivos precípuos
dessa teoria seriam explicar os fatos já conhecidos e prever
novos resultados. Os fatos conhecidos podem haver sido consignados
em termos de freqüências relativas, o que permitiria aos jogadores
orientar-se na proposição de apostas.

De fato, entre os problemas resolvidos por Cardano (e, posteriormente,
também por Galilei) figura o seguinte: “Três dados são
jogados simultaneamente e os resultados obtidos em cada um deles
são somados. O número de partições de nove em três parcelas é igual
ao número de partições de dez em três parcelas. Mas, experimentalmente,
a freqüência relativa de ocorrência de nove é menor que a
freqüência relativa de ocorrência de dez.” (Cf. FERNANDEZ 1973:30, n.
15.)

Concluiremos a presente seção, transcrevendo um excerto de
PICHARD (2005:14-15):

“On peut alors se poser deux questions: pourquoi la théorie des
probabilités a-t-elle porté d’abord sur les jeux de pur hasard (lancers
de pièces, de dés...) et non sur d’autres phénomènes aléatoires
de la vie économique par exemple, et pourquoi cela est-il survenu si
tardivement ? En effet, les outils mathématiques utilisés par les
inventeurs de cette théorie sont très simples et étaient connus dès
l’antiquité grecque pour l’arithmétique et le calcul des proportions
et le Moyen-Age pour les combinaisons; ainsi, dès cette époque, l’appareillage
mathématique pour une telle théorie était disponible.

Sur le premier point, on peut remarquer que les jeux de hasard
pur (où l’adresse des joueurs n’intervient pas) sont les plus simples
conceptuellement et qu’ils sont faciles à modéliser; Pascal a écrit à
ce propos que cette théorie pourrait “s’arroger à bon droit ce titre
étonnant: Géométrie du hasard” dans son Adresse de 1654 à l’Académie
Parisienne Le Pailleur (qui faisait suite à l’académie de Mersenne).
Ce sont des problèmes de ce genre qui ont été développés en premier,
à l’encontre de l’hypothèse de Maistrov qu’une science se développe
pour répondre à des besoins économiques.

Sur le second point, une première raison est qu’un traité scientifique
sur les jeux de hasard ne fait peut-être pas très sérieux, le
jeu étant chose futile aux yeux des savants. Une autre raison, certainement
plus importante, est que le résultat d’un tirage au «sort»
est l’expression de la volonté divine et, comme telle, on ne doit pas
calculer dessus, on ne doit pas tenter Dieu (ou le Diable); cette attitude
existe encore actuellement avec les attitudes superstitieuses
de joueurs. C’est peut-être une raison pour laquelle l’Eglise catholique
avait prohibé les jeux de hasard.”

-------------------------------------------------------------------
2.2 - A construção da teoria

“Um ramo do saber será vigoroso, enquanto oferecer
problemas em abundância; a falta de problemas
significa marcescência ou fim da evolução
autônoma. A pesquisa matemática precisa de problemas,
assim como todo empreendimento humano
persegue metas. É mediante a resolução de problemas
que o pesquisador tempera a sua força;
ele encontra novos métodos e perspectivas e alcança
um horizonte mais amplo e mais livre.”
David HILBERT (1900). Mathematische Probleme.
(Conferência proferida no Congresso Internacional
de Matemáticos, em Paris, aos 8 de agosto de
1900.)

O primeiro tratado sobre a nova disciplina, escrito por
Christian Huygens, foi publicado em 1657, sob o título De ratiociniis
in ludo aleae. Huygens inicia com a tentativa de formalizar a
noção de direito de esperar, a qual encontrou em Pascal, sob o nome
de ‘valeur de la chance’: “Quoique dans les jeux de hasard pur les
résultats soient incertains, la chance qu’un joueur a de gagner ou
de perdre a cependant une valeur déterminée.” Esse tratado permaneceu
a única obra importante em estocástica até o início do século
XVIII, talvez porque, naquela época, os matemáticos estivessem ocupados
em elaborar o cálculo infinitesimal, inventado por Leibniz, e
o método equivalente das fluxões e das fluentes, inventado por Newton;
talvez, também, por se julgar, então, que a estocástica não se
pudesse empregar nas ciências (cf. PICHARD 2005:24).
Cabe assinalar que nem Fermat, nem Pascal, nem Huygens trataram
da noção de probabilidade mas de oportunidades ou ‘chances’.

O termo francês chance proveio do latim vulgar [não comprovado] cadentia,
do qual proveio o português cadência e corresponde, no
latim clássico, a alea, casus ou fortuna. O termo probabilidade
pertence à família do vocábulo latino probus, do qual derivam as
palavras portuguesas probo, ímprobo e provar. Foi introduzido na
jurisprudência, na Idade Média, no contexto do exame de provas,
indícios materiais e testemunhos, pois, consoante a notoriedade ou
a autoridade moral da testemunha, o testemunho apresentaria menor
ou maior peso. Nesse contexto, a probabilidade correspondia ao grau
de credibilidade atribuída a uma opinião ou ao julgamento de um fato.
Seria provável uma opinião atestada por todas as autoridades
morais ou religiosas; por extensão, por numerosas autoridades; por
deslizamento, por uma única autoridade. Daí a doutrina do probabilismo,
que considera impossível atingir-se a certeza e recomenda
satisfazer-se com o que for mais provável.

Karl Popper supôs que o termo probabilis tenha sido inventado
pelo romano M. T. Cícero, para traduzir diversos termos usados
pelos estóicos e pelos cépticos, tais quais piqanos, piqane e pistin, e
cita o seguinte excerto ciceroniano: “Essas são as coisas que creio
dever qualificar como prováveis [probabile] ou semelhantes à verdade
[veri simile].” (POPPER 1994:440)

O termo probabilidade, na acepção que hoje lhe atribuímos,
foi introduzido, pela primeira vez, na Arte de Pensar, redigida por
Arnauld & Nicole e denominada Logique de Port-Royal. Essa arte de
pensar foi estruturada segundo os quatro aspectos do pensamento racional:
compreender, julgar, deduzir e ordenar. Essa obra, que seria
usada como manual durante todo o século XVIII, institui a caracterização
(interna e externa) e as propriedades lógicas das proposições
certas ou impossíveis. Em seguida, os autores tratam das
proposições incertas, especificamente dos testemunhos sobre eventos
da vida comum ou extraordinários. A essas proposições incertas é
atribuída uma probabilidade, o seu grau de credibilidade. (Cf. PICHARD
2005:24-26)

Mas, mesmo nesse texto, ainda se encontra a oposição entre a
concepção medieval e a concepção de proporção:

“[...] a fim de decidirmos o que devemos fazer para obtermos algum
bem ou evitarmos algum mal, é necessário considerar não apenas o bem
ou o mal em si mesmos mas também a probabilidade de que ele ocorra e
enxergar geometricamente a proporção de todas essas coisas tomadas
conjuntamente”. (Apud EAGLE 2004:371)
Considera-se que Huygens foi o primeiro a examinar a aplicação
do cálculo estocástico a outros domínios que os dos jogos de
azar. Estudou a esperança da vida humana, apoiado em dados recolhidos
em Londres, em conexão com os problemas das rendas e das anuidades.
(LANIER 1995:261)

Na já citada Ars conjectandi, publicada em 1713, Jakob Bernoulli
operou um deslizamento progressivo do cálculo das expectativas
de Huygens para o cálculo das probabilidades. Terminou por definir
a probabilidade como o grau de certeza com o qual se pode
produzir um acontecimento futuro. A Ars conjectandi consiste em
quatro partes. A primeira parte é uma reprodução, anotada e comentada,
do tratado de Huygens. A segunda parte é uma compilação sistemática
de técnicas de enumeração (permutações e combinações). A
terceira parte aplica os resultados precedentes aos jogos de azar.

E a quarta parte colima a extensão da teoria a outros domínios,
tais quais os negócios civis, morais e econômicos, extensão essa
fundada no enunciado e na demonstração de um teorema que seria designado
lei dos grandes números por Denis POISSON, nas Recherches sur
la probabilité des jugements (1837).

O escopo de Bernoulli era estudar os argumentos que se podem
usar na arte de conjecturar e como lhes estimar os pesos para suputar
as probabilidades. Para isso distinguiu entre dois tipos de situações
aleatórias.

A primeira situação é a dos jogos de azar, na qual as probabilidades
são inferidas ‘a priori’ dos dados mais ou menos explícitos
da experiência aleatória. Bernoulli propôs como modelo para
descrever tal situação uma urna com bolas coloridas. Nesse caso, a
resolução do problema se reduz à aplicação das técnicas de enumeração
(compiladas na segunda parte de sua obra).

A segunda situação é a das experiência aleatórias nas quais
a probabilidade será definida ‘a posteriori’, mediante a repetição
do experimento por um número de vezes muito grande. Antes de considerar
exemplos extraídos de outros domínios, Bernoulli retomou o
modelo da urna, supondo que não se lhe conhecesse a composição.
Bernoulli supôs que, à medida que crescesse o número de experimentos,
a freqüência relativa da ocorrência de um dado evento convergiria
a sua probabilidade mas, cautelosamente, introduziu a noção
de intervalo de confiança, definido pelos valores mínimo e máximo
das freqüências relativas associadas a diversos do experimento. (LANIER
1995:262)

Foi nessa quarta parte da obra, que Bernoulli propôs a noção
de probabilidade epistemológica, que representava a elaboração de
uma teoria não aditiva e que foi absorvida pela concepção aleatória
dos jogos de azar, cuja preeminência impôs a teoria aditiva da probabilidade.
Os sucessores de Bernoulli, iniciando por MONTMORT e DE
MOIVRE, mantiveram a identificação dos conceitos de probabilidade e
de sorte, adquirindo o termo uma conotação associada aos aspectos
aleatórios dos fenômenos. O recurso a técnicas matemáticas conduziu
à quase extinção do que se nomeava probabilidade epistemológica.
(CERRO 2006:3-6)
Após MONTMORT e de MOIVRE, a teoria apresentou intensa maturação.

Paralelamente, a partir de estudos sobre hidrodinâmica conduzidos
por Daniel Bernoulli (sobrinho de Jakob), em 1738, desenvolveu-
se a teoria cinética dos gases. Clausius deu-lhe decisiva
contribuição, ao introduzir o conceito de velocidade de difusão de
um gás, que pode exprimir-se através os coeficientes macroscópicos
de difusão, iniciando uma prática que se tornou fecunda, pois grandezas
macroscópicas são diretamente observáveis. O passo seguinte
foi dado por Maxwell, que incorporou à Física diversos recursos da
teoria das probabilidades, sendo seguido nessa prática por Boltzmann
que, de 1872 em diante, empreendeu reduzir a termodinâmica à
mecânica, mediante a hipótese do caos molecular, que imprime nova
orientação ao cálculo das probabilidades (ANDRADE 2002:173-168).
Boltzmann enfrentou forte oposição por um significativo segmento
de físicos, cujo mais forte argumento consistia em notar que
as leis da mecânica são reversíveis enquanto não o são as leis da
termodinâmica, sendo essa irreversibilidade traduzida no conceito
de entropia, cujo crescimento é postulado na Segunda lei. Boltzmann
retrucou, sustentando que os processos dissipativos são irreversíveis,
por ser extremamente pequena a probabilidade de um estado
muito afastado do valor máximo.

Mas dizer que é muito pequena a probabilidade de um evento
não equivale a dizer que tal evento não ocorrerá. Esse quesito, que
já fora discutido por Antoine Cournot (1843), voltou à tona, a propósito
da aguda crítica que se fazia à formulação para termodinâmica
proposta por Boltzmann. Presentemente, denomina-se princípio de
Cournot à afirmativa de que é fisicamente impossível um evento cuja
probabilidade seja extremamente pequena. (Cf. SHAFER & VOVK 2005:11-
12.)

Considerou-se esse problema tão relevante, que foi incluído
por David Hilbert entre os problemas propostos durante o Congresso
Internacional de Matemáticos, em Paris, aos 8 de agosto de 1900,
sob a rubrica tratamento matemático dos axiomas da física [mathematische
Behandlung der Axiome der Physik]: “A investigação dos fundamentos
da geometria nos propôs insistentemente a tarefa de tratar
axiomaticamente, segundo esse modelo, aqueles ramos da física, nos
quais, hoje em dia, a matemática desempenha um papel proeminente,
entre os quais avultam o cálculo das probabilidades e a mecânica.
[Durch die Untersuchungen über die Grundlagen der Geometrie wird
uns die Aufgabe nahegelegt, nach diesem Vorbilde diejenigen physikalischen
Disziplinen axiomatisch zu behandeln, in denen schon
heute die Mathematik eine hervorragende Rolle spielt; dies sind in
erster Linie die Wahrscheinlichkeitsrechnung und die Mechanik.}
Parece significativo que Hilbert houvesse considerado o cálculo
das probabilidades como um ramo da física.

Nos primeiros decênios do século XX, foram propostas algumas
axiomatizações para a estocástica, que refletiam as visões de seus
autores. Usualmente, distinguem-se três concepções: a clássica, a
freqüencial e a subjetiva. (Cf. ZOCCANTE 2005:5)

A concepção clássica deriva do trabalho de Fermat e Pascal,
segundo a formulação de Laplace, para quem a probabilidade de um
evento era a razão entre o número de casos favoráveis e o número de
casos possíveis (pois a esses últimos se atribui a mesma probabilidade).
Nessa definição se reconhece a influência da sua origem (jogos
de dados e de cartas), nos quais, por simetria, se consideravam
todos os eventos elementares como equiprováveis.

A concepção freqüencial já se manifestou no problema enfrentado
por Cardano e Galilei: A freqüência relativa de ocorrência da
soma dez era maior que a freqüência relativa de ocorrência da soma
nove, o que parecia em desacordo com a expectativas correspondentes.

Segundo a concepção freqüencial, se a freqüência relativa de
um evento não convergir à probabilidade calculada segundo algum modelamento
do fenômeno estudado, então tal modelamento deverá ser
substituído por outro.
Na concepção subjetiva, a probabilidade é definida como o
grau de confiança que um observador tem de que tal evento ocorra.

Obviamente, esse conceito não modifica o cálculo da probabilidade
nas situações em que existe regularidade (como lançamentos de dados
ou de moedas) mas se torna mais adequado a situações, como a gestão
de empresas, nas quais as decisões pessoais são determinantes mas
não se podem reduzir ao exame de freqüências.

A primeira das axiomatizações dignas de nota foi a de Richard
von Mises (1919), às quais se seguiram diversas outras, entre
as quais a proposta por Karl Popper (1938), que sofreu várias modificações
até atingir a forma publicada em 1956. Mas a comunidade
preferiu a formulação de Andrei Kolmogorov (1933). A axiomatização
que será construída no item 3.2, apoiando-se nos exemplos concretos,
aproxima-se da proposta de Kolmogorov.

Presentemente, a estocástica é usada para o modelamento de
diversos fenômenos, tanto na física quanto na genética. Também é
usada como fundamento da teoria dos jogos. Resumidamente, a teoria
dos jogos trata das situações de conflito, isto é, das situações
nas quais diversos sujeitos perseguem objetivos distintos e nas
quais o resultado final depende de decisões tomadas por cada sujeito.

Dizemos que o jogo é competitivo, quando o bom êxito de um
sujeito implica o mau êxito dos outros. Essa teoria foi fundada por
Oskar Morgenstern e Janos von Neumann, em 1944. Posteriormente,
John Nash introduziu a teoria dos jogos competitivos, baseada no
conceito de jogos com estratégia mista que progridem ciberneticamente
em um círculo lógico em direção a um ponto de equilíbrio que
otimiza os resultado para todos os jogadores. Pelas correções e extensões
da teoria de von Neumann, Nash ganharia o prêmio Nobel de
Economia de 1994.

Se aceitarmos o juízo de que o estudo das leis naturais pode
ser visto como um jogo, no qual a natureza procura ocultar os segredos
e os investigadores tentam desvendá-lo, poderemos aplicar a
estocástica não apenas como instrumento de descrição do saber mas
como ferramenta para construí-lo (cf. HEGENBERG 1976:165).
-------------------------------------------------------------------
3 - Rudimentos da teoria estocástica

Primeiro protótipo ¾

Consideremos uma turma com a seguinte composição:
12 estudantes nascidos em Salvador (S),
6 estudantes nascidos na Feira de Santana (F),
4 estudantes nascidos na Cachoeira (C),
3 estudantes nascidos nas Barreiras (B).

Essa turma consistirá em estudantes distribuídos segundo as
proporções seguintes:

B: 3/(3 + 4 + 6 + 12) = 3/25 = 12%
C: 4/(3 + 4 + 6 + 12) = 4/25 = 16%
F: 6/(3 + 4 + 6 + 12) = 6/25 = 24%
S: 12/(3 + 4 + 6 + 12) = 12/25 = 48%.

Verifica-se facilmente que a composição dessa turma goza de
uma propriedade inerente a qualquer distribuição desse tipo, qual
seja, é igual à unidade a soma das proporções de todos os componentes
da turma.

Nesse exemplo, 3/25 + 4/25 + 6/25 + 12/25 = 1 ou, equivalentemente,
12% + 16% + 24% + 48% = 100%.
À expressão desse fato chamaremos propriedade A.

Suponhamos, em seguida, que um estudante dessa turma seja escolhido
aleatoriamente para representa-la junto à Diretoria da escola
vertente.

Para efetuar tal escolha aleatória, podemos supor que dispomos
de uma urna com vinte e cinco bolas idênticas, numeradas de 1 a 25,
e associadas aos componentes da turma, listados na ordem alfabética.
Dizer que um estudante será escolhido aleatoriamente equivale
a dizer que uma bola será retirada da urna por um processo que não
envolva volição.

Por admitirmos que a atribuição de números às bolas não lhes
modifica as propriedades físicas (tais quais o volume e o peso),
podemos dizer que a expectativa de que seja escolhida uma qualquer
dentre elas se possa medir pela proporção de 1 para 25. Equivalentemente,
dizemos que essa é a expectativa de que seja escolhido um
qualquer dentre os estudantes que integram a turma referida. O conjunto
de todas as escolhas de um estudante dessa turma será
designado pela locução espaço amostral.

A cada escolha de um estudante dessa turma chamaremos ponto do
espaço amostral. A qualquer parte do espaço amostral chamaremos
evento e diremos que um evento é elementar, se ele consistir em um
único elemento.

Nesse exemplo, notamos que todos os eventos elementares apresentam
a mesma expectativa. À propriedade de que todos os eventos
de um espaço amostral exibam a mesma expectativa chamaremos
eqüidade.
Diremos que dois eventos são incompatíveis, quando eles não
podem ocorrer concomitantemente.
Exemplo 1 ¾
Sejam E1 = {ser escolhido o primeiro estudante da lista} e E2
= {ser escolhido o segundo estudante da lista}. Se estivermos examinando
a escolha de um único estudante, os eventos E1 e E2 serão
incompatíveis.
Por outro lado, a expectativa de que ocorra a reunião dos
eventos E1 e E2 será a soma das respectivas expectativas, isto é,
p(E1 È E2) = 1/25 + 1/25 = 2/25.
Esse exemplo nos leva a formular a propriedade B: A expectativa
de que ocorra a reunião de dois eventos incompatíveis é a soma
das expectativas desses dois eventos.
Exemplo 2 ¾
Sejam EB = {ser escolhido um estudante nascido nas Barreiras},
EC = {ser escolhido um estudante nascido na Cachoeira}, EF = {ser
escolhido um estudante nascido na Feira de Santana} e ES = {ser
escolhido um estudante nascido em Salvador}. Se ainda estivermos
examinando a escolha de um estudante, os eventos EB, EC, EF e ES
serão incompatíveis.

Decorre do primeiro exemplo e da propriedade A que a expectativa
de que ocorra o evento EB é 3/25, o que será representado por
p(EB) = 3/25.
Pelos mesmos motivos, p(EC) = 4/25, p(EF) = 6/25 e p(ES) =
12/25.
O exame desse resultado nos conduz à formulação da propriedade
C: A soma das expectativas de todos os eventos incompatíveis (de um
mesmo espaço amostral) é igual à unidade.

Essa propriedade C fornece outro modo de se calcular a expectativa
do complementar de um evento H. De fato, seja H o evento
{ser escolhido um estudante que nasceu nas Barreiras, na Cachoeira
ou na Feira de Santana}. Ora, podemos calcular p(H) como 3/25 +
4/25 + 6/25 = 13/25. Por outro lado, notando que H = {ser escolhido
um estudante que não nasceu em Salvador} = CES, podemos escrever que
p(H) = p(CES)= 1 – p(ES) = 1 – 12/25 = 13/25.

Problema 1 ¾

Dada uma urna que contém duas bolas verdes, três bolas brancas
e quatro bolas azuis, sejam os eventos EV = {ser extraída uma bola
verde}, EB = {ser extraída uma bola branca} e EA = {ser extraída uma
bola azul}. Calcule as expectativas p(EA), p(EB), p(EV) e calcule,
por dois procedimentos, p(EA È EB).

Segundo protótipo ¾

Na discussão do exemplo anterior, verificamos que a expectativa
da reunião de eventos incompatíveis é a soma das expectativas
dos eventos considerados (propriedade B). Essa propriedade suscita
outro quesito: Como se deve calcular a expectativa da interseção de
dois eventos? O exame da seguinte situação fornecerá uma resposta
clara.

Consideremos duas urnas, das quais a primeira contém uma bola
branca e duas bolas verdes e a segunda contém três bolas azuis e
cinco bolas purpurinas, e efetuemos a extração de duas bolas, uma
da primeira urna e outra da segunda urna.
Para descrever o espaço amostral correspondente a esse experimento,
recorreremos ao conceito de produto cartesiano S x T de dois
conjuntos S e T. Lembramos que tal conjunto consiste nos pares formados
por um elemento do primeiro conjunto (S) e por um elemento do
segundo conjunto (T). O exame desse produto cartesiano é conduzido
facilmente mediante a tabela seguinte, na qual os eventos elementares
serão descritos pelas iniciais das cores das bolas extraídas.
Poderemos supor que a extração se fará sucessivamente e que a primeira
letra indica o evento correspondente à primeira urna, enquanto
a segunda letra representa o evento correspondente à segunda urna.
A P
B BA BP
V VA VP
A fim de, coerentemente com os resultados já obtidos,
atribuirmos expectativas aos eventos elementares que compõem esse
espaço amostral, notemos que, na primeira urna, vigoram as
expectativas:
p(B) = 1/3 e p(V) = 2/3;
enquanto, na segunda urna, p(A) = 3/8 e p(P) = 5/8.
Ora, de acordo com a propriedade C, como são incompatíveis os
eventos elementares do novo espaço amostral, será igual a 1 a soma
das respectivas expectativas.
Mas 1 = 1 x 1 = (1/3 + 2/3).(3/8 + 5/8) =
(1/3).(3/8) + (1/3).(5/8) + (2/3).(3/8) + (2/3).(5/8).
Isso nos conduz a atribuirmos aos eventos elementares as expectativas
seguintes, em harmonia com a propriedade C:
p(BA) = (1/3).(3/8) = 3/24
p(BP) = (1/3).(5/8) = 5/24
p(VA) = (2/3).(3/8) = 6/24
p(VP) = (2/3).(5/8) = 10/24.

Assim, obtivemos uma nova propriedade, a que chamaremos propriedade
D: A expectativa de dois eventos sucessivos é o produto
das respectivas expectativas.
Esse princípio tanto nos permite estudar a composição de experimentos
distintos (como a extração de bolas de urnas distintas)
quanto experimentos que consistem na repetição de um mesmo
experimento.

Exemplo 3 ¾

Com os dados do problema 1 enunciaremos um novo problema ou,
equivalentemente, definiremos um outro espaço amostral, para descrevermos
o experimento de se extraírem, sucessivamente, duas bolas
da urna considerada. Para identificarmos esse espaço amostral, usaremos
novamente o produto cartesiano do espaço amostral do problema
1 por si mesmo, construindo a tabela seguinte:
A B V
A AA AB AV
B BA BB BV
V VA VB VV

Notemos que, no cálculo das expectativas associadas aos eventos
elementares, consideraremos as mudanças introduzidas na
composição da urna pela extração da primeira bola. De fato, a urna
consiste, inicialmente, em nove bolas. Mas a extração de uma bola
reduz o número total das bolas bem como o número de bolas que têm a
mesma cor que a bola extraída. Baseados nesse fato, podemos
atribuir as seguintes expectativas aos eventos elementares do
espaço amostral descrito:
p(AA) = (4/9).(3/8) = 12/72
p(AB) = (4/9).(3/8) = 12/72
p(AV) = (4/9).(2/8) = 8/72
p(BA) = (3/9).(4/8) = 12/72
p(BB) = (3/9).(2/8) = 6/72
p(BV) = (3/9).(2/8) = 6/72
p(VA) = (2/9).(4/8) = 8/72
p(VB) = (2/9).(3/8) = 6/72
p(VV) = (2/9).(1/8) = 2/72
(Observemos que a soma das expectativas a todos os eventos
elementares é igual à unidade.)

Elaborada essa tabela, que descreve exaustivamente o espaço
amostral considerado, poderemos responder a quaisquer perguntas a
respeito dele. Por exemplo:
• A expectativa de que sejam extraídas duas bolas com a mesma cor:
12/72 + 6/72 + 2/72 = 20/72. Logo, é maior que a expectativa de
que a primeira bola seja verde mas é menor que a expectativa de
que a primeira bola seja branca.
• A expectativa de que sejam extraídas duas bolas com cores
distintas: 12/72 + 8/72 + 12/72 + 6/72 + 8/72 + 6/72 = 52/72 ou,
mais facilmente, 1 – 20/72 = 52/72.
• A expectativa de que exatamente uma bola seja verde: 8/72 + 6/72
+ 8/72 + 6/72 = 28/72.
• A expectativa de que pelo menos uma das bolas seja verde: 28/72 +
2/72 = 30/72.
• A expectativa de que nenhuma das bolas seja verde: 1 – 30/72 =
42/72.
• A expectativa de que a segunda bola seja azul: 12/72 + 12/72 +
8/72 = 32/72 = 4/9 (resultado que pode causar surpresa, por
coincidir com a expectativa de que a primeira bola seja azul).

Problema 2 ¾

Com os dados relativos à turma considerada no primeiro protótipo,
suponha que serão escolhidos, sucessiva e aleatoriamente,
dois estudantes para representá-la junto à Diretoria da escola e
calcule as expectativas dos seguintes eventos:

• Os estudantes escolhidos haverem nascido na mesma cidade.
• Os estudantes escolhidos haverem nascido em cidades distintas.
• Exatamente um estudante haver nascido em Salvador.
• Exatamente um estudante não haver nascido em Salvador.
• O segundo estudante haver nascido em Salvador.

Terceiro protótipo ¾
Ainda com os dados do problema 1 enunciaremos um terceiro
problema ou, equivalentemente, definiremos um terceiro espaço
amostral, para descrever o experimento de se extraírem, sucessivamente,
três bolas da urna considerada. Para identificarmos esse
espaço amostral, recorreremos novamente ao conceito de produto
cartesiano, neste caso, do espaço amostral do segundo protótipo
pelo espaço amostral do problema 1.

A B V
AA AAA AAB AAV
AB ABA ABB ABV
AV AVA AVB AVV
BA BAA BAB BAV
BB BBA BBB BBV
BV BVA BVB BVV
VA VAA VAB VAV
VB VBA VBB VBV
VV VVA VVB VVV

Notando agora que também a extração da segunda bola produz
mudanças na composição da urna, podemos atribuir as seguintes expectativas
aos eventos elementares do espaço amostral descrito:

p(AAA) = (4/9).(3/8).(2/7) = 24/504
p(AAB) = (4/9).(3/8).(3/7) = 36/504
p(AAV) = (4/9).(3/8).(2/7) = 24/504
p(ABA) = (4/9).(3/8).(3/7) = 36/504
p(ABB) = (4/9).(3/8).(2/7) = 24/504
p(ABV) = (4/9).(3/8).(2/7) = 24/504
p(AVA) = (4/9).(2/8).(3/7) = 24/504
p(AVB) = (4/9).(2/8).(3/7) = 24/504
p(AVV) = (4/9).(2/8).(1/7) = 8/504
p(BAA) = (3/9).(4/8).(3/7) = 36/504
p(BAB) = (3/9).(4/8).(2/7) = 24/504
p(BAV) = (3/9).(4/8).(2/7) = 24/504
p(BBA) = (3/9).(2/8).(4/7) = 24/504
p(BBB) = (3/9).(2/8).(1/7) = 6/504
p(BBV) = (3/9).(2/8).(2/7) = 12/504
p(BVA) = (3/9).(2/8).(4/7) = 24/504
p(BVB) = (3/9).(2/8).(2/7) = 12/504
p(BVV) = (3/9).(2/8).(1/7) = 6/504
p(VAA) = (2/9).(4/8).(3/7) = 24/504
p(VAB) = (2/9).(4/8).(3/7) = 24/504
p(VAV) = (2/9).(4/8).(1/7) = 8/504
p(VBA) = (2/9).(3/8).(4/7) = 24/504
p(VBB) = (2/9).(3/8).(2/7) = 12/504
p(VBV) = (2/9).(3/8).(1/7) = 6/504
p(VVA) = (2/9).(1/8).(4/7) = 8/504
p(VVB) = (2/9).(1/8).(3/7) = 6/504
p(VVV) = (2/9).(1/8).(0/7) = 0/504 = 0

Descrito esse espaço amostral, poderemos responder a qualquer pergunta
a respeito dele. Por exemplo, a expectativa de que sejam extraídas:

• Bolas da mesma cor: 24/504 + 6/504 + 0 = 30/504 = 5/84
• Uma bola de cada cor: 24/504 + 24/504 + 24/504 + 24/504 + 24/504
+ 24/504 = 144/504 = 24/84
• Exatamente duas bolas com a mesma cor: 1 - (5/84 + 24/84) = 55/84

Comentário 1 ¾
O método que adotamos para descrever cada espaço amostral e
calcular as expectativas dos respectivos eventos elementares mostrou-
se eficiente porém extremamente incômodo. Para nos convencermos
disso, será suficiente notar que, se quiséssemos estudar quatro
extrações feitas na urna considerada, teríamos que considerar oitenta
e um (= 34) eventos elementares.

Um método alternativo depende do uso de técnicas de enumeração
mais poderosas. De fato, examinando a tabela anterior, distinguiremos
três categorias de eventos elementares: (a) Eventos nos quais
as três bolas extraídas apresentam a mesma cor. (b) Eventos nos
quais são extraídas exatamente duas bolas de uma mesma cor. (c)
Eventos nos quais as três bolas extraídas apresentam cores distintas.

Examinemos detidamente cada categoria.

(a) p(AAA) = (4/9).(3/8).(2/7) = 24/504
p(BBB) = (3/9).(2/8).(1/7) = 6/504
p(VVV) = (2/9).(1/8).(0/7) = 0

Portanto, a expectative de que sejam extraídas bolas da mesma
cor é (24/504) + (6/504) = 30/504 = 5/84.

(b) Evento AAB ¾ Apresenta três permutações: AAB, ABA, BAA. Logo,
p{AAB, ABA, BAA} = 3.(4/9).(3/8).(3/7) = 108/504
Evento AAV ¾ Apresenta três permutações: AAV, AVA, VAA. Logo,
p{AAV, AVA, VAA} = 3.(4/9).(3/8).(2/7) = 72/504
Evento BBV ¾ Apresenta três permutações: BBV, BVB, VBB. Logo,
p{BBV, BVB, VBB} = 3.(3/9).(2/8).(2/7) = 36/504
Evento BBA ¾ Apresenta três permutações: BBA, BAB, ABB. Logo,
p{BBA, BAB, ABB} = 3.(3/9).(2/8).(4/7) = 72/504
Evento VVA ¾ Apresenta três permutações: VVA, VAV, AVV. Logo,
p{VVA, VAV, AVV} = 3.(2/9).(1/8).(4/7) = 24/504
Evento VVB ¾ Apresenta três permutações: VVB, VBV, BVV. Logo,
p{VVB, VBV, BVV} = 3.(2/9).(1/8).(3/7) = 18/504
Portanto, a expectativa de que sejam extraídas exatamente duas
bolas de uma mesma cor é 108/504 + 72/504 + 36/504 + 72/504 +
24/504 + 18/504 = 330/504 = 55/84.
(c) Evento ABV ¾ Apresenta seis permutações. Logo,
p{ABV, BVA, VAB, AVB, VBA, BAV} = 6.(4/9).(3/8).(2/7) = 144/504

Portanto, a expectativa de que as três bolas tenham cores distintas
é 144/504 = 24/84.
Podemos conferir a coerência do cálculo, notando que 5/84 + 55/84 +
24/84 = 1.
Exemplo 4 ¾

Efetuemos a descrição do experimento de se extraírem, sucessivamente,
quatro bolas daquela mesma urna, que contém duas bolas
verdes, três bolas brancas e quatro bolas azuis. Consideraremos as
seguintes categorias de eventos elementares nesse novo espaço amostral:

Quatro bolas da mesma cor:

• p(AAAA) = (4/9).(3/8).(2/7).(1/6) = 24/3024
• p(BBBB) = (3/9).(2/8).(1/7).0 = 0
• p(VVVV) = (2/9).(1/8).0.0 = 0

Exatamente três bolas de uma mesma cor:

• AAAB ® Admite quatro permutações.
p{BAAA, ABAA, AABA, AAAB} = 4.(4/9).(3/8).(2/7).(3/6) = 288/3024
• AAAV ® Admite quatro permutações.
p{VAAA, AVAA, AAVA, AAAV} = 4.(4/9).(3/8).(2/7).(2/6) = 192/3024
• BBBA ® Admite quatro permutações.
p{ABBB, BABB, BBAB, BBBA} = 4.(3/9).(2/8).(1/7).(4/6) = 96/3024
• BBBV ® Admite quatro permutações.
p{VBBB, BVBB, BBVB, BBBV} = 4.(3/9).(2/8).(1/7).(2/6) = 48/3024
• VVVA ® Admite quatro permutações, todas com expectativa nula.
• VVVB ® Admite quatro permutações, todas com expectativa nula.

Duas bolas de uma cor e duas bolas de outra cor:

• AABB ® Admite seis permutações.
p{AABB, ABAB, BAAB, BABA, BBAA, ABBA} =
6.(4/9).(3/8).(3/7).(2/6) = 432/3024.
• AAVV ® Admite seis permutações.
p{AAVV, AVAV, VAAV, VAVA, VVAA, AVVA} =
6.(4/9).(3/8).(2/7).(1/6) = 144/3024.
• BBVV ® Admite seis permutações.
p{VVBB, VBVB, BVVB, BVBV, BBVV, VBBV} =
6.(2/9).(1/8).(3/7).(2/6) = 72/3024.
Duas bolas de uma cor e duas bolas de cores distintas:
• AABV ® Admite doze permutações.
p{AABV, BAAV, BVAA, AAVB, VAAB, VBAA, ABAV, BAVA, ABVA, AVAB,
VABA, AVBA} = 12.(4/9).(3/8).(3/7).(2/6) = 864/3024
• BBVA ® Admite doze permutações.
p(BBVA, ...} = 12.(3/9).(2/8).(2/7).(4/6) = 576/3024
• VVAB ® Admite doze permutações.
p{VVAB, ...} = 12.(2/9).(1/8).(4/7).(3/6) = 288/3024
Podemos verificar a coerência do cálculo, notando que 24 + 288 +
192 + 96 + 48 + 432 + 144 + 72 + 864 + 576 + 288 = 3024.

Comentário 2 ¾

Nesse modelamento de fenômenos estocásticos, consideramos
eventos sucessivos nos quais a composição das urnas é modificada no
curso do experimento. Tais eventos são denominados extrações sem
reposição. Mas existem eventos que podem ser arbitrariamente repetidos,
sem que as condições iniciais se modifiquem, tais quais o
lançamento de um dado ou de uma moeda. (Obviamente, estamos supondo
dados e moedas ideais, que não se desgastem com o passar do tempo.)
De posse dessas primeiras noções, já podemos resolver o problema
discutido por Cardano e Galilei e referido no item 2.1: “Três
dados são jogados simultaneamente e os resultados obtidos em cada
um deles são somados. O número de partições de nove em três
parcelas é igual ao número de partições de dez em três parcelas.
Mas, experimentalmente, a freqüência relativa de ocorrência de nove
é menor que a freqüência relativa de ocorrência de dez.” (Cf.
FERNANDEZ 1973:30, n. 15; MORGADO et alii 1991:6.)
Confirmemos que o número de partições de nove em três parcelas
é igual ao número de partições de dez em três parcelas.

Lembremo-nos de que os dados hexaédricos apresentam seis faces.
Logo,

9 = 1 + 2 + 6 ® seis permutações
9 = 1 + 3 + 5 ® seis permutações
9 = 1 + 4 + 4 ® três permutações
9 = 2 + 2 + 5 ® três permutações
9 = 2 + 3 + 4 ® seis permutações
9 = 3 + 3 + 3 ® uma permutação
Total: vinte e cinco permutações.
10 = 1 + 3 + 6 ® seis permutações
10 = 1 + 4 + 5 ® seis permutações
10 = 2 + 2 + 6 ® três permutações
10 = 2 + 3 + 5 ® seis permutações
10 = 2 + 4 + 4 ® três permutações
10 = 3 + 3 + 4 ® três permutações
Total: vinte e sete permutações

De fato, os números nove e dez admitem o mesmo número (seis)
de partições distintas em três parcelas. Contudo, as partições do
número nove admitem vinte e cinco permutações enquanto as partições
do número dez admitem vinte e sete permutações. Por outro lado,
três dados podem cair de duzentos e dezesseis (6 × 6 × 6) modos distintos.

Logo, a expectativa de ocorrência da soma nove é 25/216 enquanto
a expectativa de ocorrência da soma dez é 27/216. A
diferença entre as duas expectativas é de ordem menor que 1%, o que
motivou o seguinte comentário por FERNÁNDEZ (1973:30, n. 15): “Notese
que a diferença é pequena, 1/108, o que dá idéia da experiência
desses jogadores [que propuseram o problema a Cardano].”
Adquirida a familiaridade com esses fenômenos aleatórios, já
podemos elaborar uma axiomatização. Doravante, a fim de tornar a
exposição semelhante aos textos disponíveis, usaremos o termo
probabilidade em substituição ao termo expectativa.

Aos teóricos que se debruçaram sobre os fenômenos aleatórios
causava profundo desconforto o uso de tantos vocábulos estranhos à
matemática, tais quais urna, bola, dado, moeda e extração. Sentiram
maior comodidade no recurso ao vocabulário conjuntual, que será empregado
doravante. A expressão calcular a expectativa de um evento
será considerada um sinônimo da locução atribuir um número a uma
parte de um conjunto previamente definido. Tal conjunto será denominado
espaço amostral e designado por A. Mas tal número deve
atender a dois requisitos fundamentais: não ser negativo e não ser
maior que a unidade.

Além disso, deve haver certa coerência na associação entre
as partes de A e as respectivas probabilidades. Vimos que, se dois
eventos forem incompatíveis, a expectativa de sua reunião será a
soma das respectivas expectativas. Ora, dizer que dois eventos são
incompatíveis significa que não podem ocorrer simultaneamente. (Na
descrição anterior, a reunião de eventos incompatíveis era indicada
pela conjunção OU.) Mas dizer que dois eventos não podem ocorrer simultaneamente
equivale a dizer que em sua interseção não existe
ponto algum, isto é, que sua interseção é vazia. Usaremos, pois,
essa propriedade para definir os eventos incompatíveis, isto é:
Diremos que dois eventos E e F (de um mesmo espaço amostral A) são
incompatíveis, se E Ç F = Æ.

Para facilitar a exposição, introduziremos um termo suplementar:
Diremos que uma família D1, D2, ..., Dn constitui uma decomposição
do espaço amostral A, se dois quaisquer membros dessa família forem
disjuntos e se a reunião dessa família coincidir com o espaço amostral
A, isto é, se

• Dados dois quaisquer índices h e k (1 £ h £ n, 1 £ k £ n), Dh Ç Dk
= Æ.

• È {Dh: 1 £ h £ n} = A.

Já podemos enunciar os axiomas iniciais:
Início de uma exposição axiomática ¾

“Whereas the axiomatic method was formerly used
merely for the purpose of elucidating the
foundations on which we build, it has now become
a tool for concrete mathematical research. [...]
It is perhaps proper to say that the strength of
modern mathematics lies in the interaction
between axiomatics and construction.” Hermann
WEYL (1951). A half-century of mathematics, p.
523-524

Sejam um conjunto não vazio A, a que chamaremos espaço
amostral, cujas partes serão denominadas eventos. Atribuiremos a
cada evento E um número, denotado por p(E), a que chamaremos a
probabilidade de E, que atende às condições seguintes:
• 0 £ p(E) £ 1

• Se os eventos E e F forem disjuntos (isto é, se E Ç F = Æ), então
p(E È F) = p(E) + p(F).

• Dada qualquer decomposição {D1, ..., Dn} do espaço amostral A,
p(D1) + ... + Dn} = 1. Equivalentemente, p(A) = 1.

• p(Æ) = 0, isto é, é nula a probabilidade de um evento impossível.
Note-se que os axiomas enunciadas não indicam o modo de
se atribuir uma probabilidade a cada evento. Esse fato já fora
reconhecido por Henri Poincaré, que aventou duas respostas à mesma
pergunta: Quando se lançam dois dados, qual é a probabilidade de
que pelo menos um dos dados apresente a face que mostra o número
cinco?

(a) Como cada dado pode apresentar seis faces, o número de casos
possíveis é trinta e seis e o número de casos favoráveis é onze.
Logo, a probabilidade é 11/36.

(b) O número de casos favoráveis pode ser computado, escolhendo-se
a face cinco de um dado, que se pode combinar com qualquer das
faces do outro dado; logo, esse número é seis. O número de casos
possíveis é o número de escolhas (com repetição) de dois objetos
entre seis objetos, (6 x 6)/2 = 18. Logo, a probabilidade é 6/18
= 12/36.

Perguntava-se Poincaré: “Pourquoi la première manière d’énumerer
les cas possibles est-elle plus légitime que la seconde? En
tout cas, ce n’est pas notre définition [de probabilidade] qui nous
l’apprend. [...] La conclusion qui semble résulter de tout cela,
c’est que le calcul des probabilités est une science vaine, qu’il
faut se défier de cet instinct obscur que nous nommions bons sens
et auquel nous demandions de légitimer nos conventions.” (POINCARÉ
1899:192-193)

Note-se também que os axiomas enunciados tampouco sugerem a
existência de nexos causais entre os eventos e suas expectativas.
Como escreveu WITTGENSTEIN (Tractatus, 5.1361): “Der Glaube an den
Kausalnexus ist der Aberglaube”. [A crença no nexo causal é superstição.]

-------------------------------------------------------------------
4 - Escritos referidos

ALEXANDRE, C. (1901). Dictionnaire Grec - Français. Paris, Hachette
ANDRADE, Roberto Fernandes Silva (2002). Mecânica estatística. In: ROCHA
2002:161-181
ARNOLD, Vladimir (1997). On teaching mathematics. (HTTP://WWW.ARNOLD/TEACHING.
HTM)
BAILLY, A. (1950). Dictionnaire Grec-Français. Paris, Librairie Hachette
CARRIER, G.; COURANT, R.; ROSENBLOOM, P.; YANG, C. (1962). Applied
mathematics: what is needed in research and education. SIAM Review,
vol. 4, n. 4, 297-320
CHAPELON, Jacques (1962). Les mathématiques et le développement social in
Le LIONNAIS (1962:511-519)
CERRO, Jesús Santos del (2006). L’ars conjectandi: la géométrie du hasard
versus le probabilisme moral. Journal Electronique d’Histoire des Probabilités
et de la Statistique, vol. 2, n. 1, p. 1-24
COOLIDGE, Julian Lowell (1940). A history of geometric methods. Oxford,
Clarendon Press
COURTEBRAS, Bernard (2005). Sur quelques conceptions du hasard in HENRY
(2005), p. 95-132
DANTAL, Bernard (2005). Les enjeux de la modélisation en probabilités in
HENRY (2005), p. 137-140
DAVIS, Philip J.; HERSH, Reuben (1985 [1982]). A experiência matemática.
Rio de Janeiro, Livraria Francisco Alves
DIEUDONNÉ, Jean (1973). Should we teach “modern” mathematics? American
Scientist, volume 61, p. 16-19.
DORIER, Jean-Luc (1998). The role of formalism in the teaching of the
theory of vector spaces. Linear algebra and its Applications, 141-160
EAGLE, Antony (2004). Twenty-one arguments against propensity analyses of
probability. Erkenntnis 60:371-416.
EVES, Howard (1997 [1994]). Introdução à história da matemática. Campinas,
Editora da UNICAMP.
FERNANDEZ, Pedro J. (1973). Introdução à teoria das probabilidades. Rio de
Janeiro, Livros Técnicos e Científicos; Brasília, Editora da UNB
GARDING, Lars (1997). Encontro com a matemática. Brasília, Editora da UNB.
GRIMAL, Pierre (1951). Dictionnaire de la mythologie grecque et romaine.
Paris, Presses Universitaires de France
HEGENBERG, Leônidas (1976). Etapas da invesigação científica, vol. 1. São
Paulo, EDUSP
HENRY, Michel (2005). Autour de la modélisation en probabilités. Besançon,
Presses Universitaire de Franche-Comté
KLINE, Morris (1976 [1973]). O fracasso da “matemática moderna”. São
Paulo, IBRASA
LANIER, Denis; TROTOUX, Didier (1995). La loi des grands nombres ¾ Le théorème
de De Moivre - Laplace. Contribution à une approche historique de
l'enseignement des mathématiques, collection "Les publications de
l'IREM de Besançon", pp. 259-294. Presses universitaires de Franche-
Comté/ Université de Franche-Comté, 1995
Le LIONNAIS, François (1962). Les grands courants de la pensée
mathématique. Paris, Albert Blanchard
MEHRTENS, Herbert (1976). Thomas Kuhn’s theorues and mathematics: a
discussion paper on the ‘new historiography’ of mathematics. Historia
mathematica 3 (1976), 297-320
MORGADO, A. C. Oliveira; CARVALHO, J. B. Pitombeira; CARVALHO, P. C. Pinto;
FERNÁNDEZ, Pedro (1991). Análise combinatória e probabilidade. Rio de
Janeiro, Sociedade Brasileira de Matemática
PENROSE, Roger (1991 [1989]). A mente nova do rei. Rio de Janeiro, Editora
Campus
PICHARD, Jean-François (2005). Les probabilités au tournant du dix-huitième
siècle in HENRY (2005), p. 13-45
POINCARÉ, Henri (1899). Le calcul des probabilités. In POINCARÉ 1968:191-213
POINCARÉ, Henri (1968 [1902]). La science et l’hypothèse. Paris, Flammarion
POPPER, Karl (1994 [1981]). Conjecturas e refutações. Brasília, Editora da
UNB
SHAFER, Glenn; VOVK, Vladimir (2005). The origins and legacy of Kolmogorov’s
Grundbegriffe. The Game-Theoretic Probability and Finance
Project, http://probabilityandfinance.com
STEWART, Ian (1991). Será que Deus joga dados? A nova matemática do caos.
Rio de Janeiro, Jorge Zahar Editor
STRUIK, Dirk (1987). A concise history of mathematics. New York, Dover Publications
THOM, René (1971). “Modern” mathematics: an educational and philosophic
error? American Scientist, volume 59, p. 695-699
ZOCCANTE, Sergio (2005). Fondamenti storici ed epistemologici della
probabilità.

Lynyrd Skynyrd - Free Bird

Free Bird
Lynyrd Skynyrd

Composição: Ronnie Van Zant / Allen Collins

If I leave here tomorrow
Would you still remember me?
For I must be travelling on, now,
'Cause there's too many places I've got to see.
But, if I stayed here with you, girl,
Things just couldn't be the same.
'Cause I'm as free as a bird now,
And this bird you can not change.
Lord knows, I can't change.

Bye, bye, baby its been a sweet love.
Though this feeling I can't change.
But please don't take it so badly,
'Cause Lord knows I'm to blame.
But, if I stayed here with you girl,
Things just couldn't be the same.
Cause I'm as free as a bird now,
And this bird you'll never change.
And this bird you can not change.
Lord knows, I can't change.
Lord help me, I can't change.

Lord, I can't change.
Won't you fly high, free bird
Yeah

sábado, 28 de novembro de 2009

Tecnologia

Quero reportar aqui um link interessante para uma demonstração de uma tecnologia extremamente interessante.


Tenho interesse em cursar doutorado em Tecnologia & Desenvolvimento, pois contempla um dos grandes desafios da Ciência Econômica em tentar "simular" os comportamentos de uma sociedade e fluxos financeiros quando surge uma inovação ou um avanço tecnológico significativo que seja capaz que reduzir custos, aumentar produtividade e a produção, desajustar taxas de desemprego, minimizar erros, otimizar uso de recursos, etc.

*Veja meu artigo sobre inovação e tecnologia na Ciência Econômica aqui.


sexta-feira, 27 de novembro de 2009

Black & Scholes

Este link é interessante pois mostra o desenvolvimento formal do modelo de precificação de opções de Black & Scholes (por mais que saibamos q não exista precificação de acordo com Minsky).

Algumas críticas bem fundamentadas podem ser vistas aqui .

segunda-feira, 23 de novembro de 2009

A Evolução Acabou ?

A evolução? Acabou

Para o inglês Steve Jones, a lógica de Darwin não se aplica mais aos seres humanos e chegamos ao ponto mais alto da genética

por Eduardo Szklarz
Você já deve ter se perguntado como seremos no futuro. Nosso cérebro vai crescer? O apêndice vai sumir? Teremos uma vida melhor? O cientista britânico Steve Jones dá uma dica: deixe de lado as especulações e se olhe no espelho. Você verá a imagem da humanidade em pleno auge. É isso mesmo: finalmente chegamos ao nosso limite biológico. “A evolução acabou”, diz ele. “As coisas simplesmente pararam de melhorar ou piorar para a nossa espécie. Se você está preocupado sobre como será a utopia, relaxe. Já está vivendo nela.” Segundo Jones, o Homo sapiens sapiens praticamente pulou fora da arena da seleção natural e não vai mais sofrer mudanças drásticas. Graças ao nosso estilo de vida, conseguimos sobreviver e nos reproduzir sem depender das diferenças herdadas para enfrentar o frio, a fome e as doenças. Mesmo as pessoas que morrem por essas causas costumam estar velhas demais para que a máquina de Charles Darwin se interesse por elas. No entanto, ele avisa que a evolução não tirou férias no mundo inteiro. Na África e em locais muito vulneráveis a epidemias, ela continua funcionando a todo vapor. Steve Jones é chefe do Departamento de Genética da University College em Londres e conversou com a SUPER por telefone.
Por que a evolução acabou?
Primeiro precisamos entender o que é evolução. Charles Darwin a definiu em 3 palavras: “descendência com modificação”. Descendência se refere à informação passada de uma geração à outra. E modificação significa que essa informação não é perfeita. Se isso acontecer em muitas gerações, as diferenças vão se consolidar e a evolução vai acontecer. Assim, parte da evolução é um acúmulo de erros durante longos períodos de tempo. Mas Darwin tinha uma segunda idéia sobre evolução: a seleção natural, que influi nas diferenças herdadas na capacidade de se reproduzir. Se você possui um gene que torna maiores as suas chances de sobreviver, encontrar um parceiro e ter filhos – em comparação com os que não possuem esse gene –, ele se tornará mais comum, vai se espalhar entre a população e, com o tempo, novas formas de vida vão aparecer. Portanto, a seleção natural tem a ver com diferenças herdadas e com a capacidade de copiar genes. Nos últimos séculos, porém, essas diferenças se reduziram drasticamente entre os humanos – daí a evolução ter parado ou ficado mais lenta.
De que maneira essas diferenças se reduziram?
Nos dois principais quesitos que a evolução exige: sobrevivência e reprodução. Na época de Shakespeare [século 17], 2 em cada 3 pessoas morriam na Inglaterra antes de chegar aos 21 anos. Muitas delas morriam porque tinham genes que as tornavam mais suscetíveis a certas doenças. Hoje, 99 em 100 chegam aos 21 anos. Isso se deve aos avanços na saúde pública e na medicina, entre outros fatores, mas o importante é que todas sobrevivem. Mas sobreviver não basta: para que a evolução aconteça, as pessoas também precisam encontrar um parceiro e se reproduzir. Quanto mais filhos tiverem, melhor. As mulheres são limitadas nesse quesito, mas os homens não. Toda vez que um homem faz sexo, ele produz esperma suficiente para fertilizar todas as mulheres da Europa, por exemplo. E é também nesse quesito que houve uma mudança drástica em relação ao passado: já não há tanta diferença no número de filhos que cada pessoa tem como antigamente.
Por que isso é importante?
Se todo mundo tivesse 16 filhos, não haveria seleção natural. E, se todos tivessem um filho, tampouco haveria seleção natural. Ela só pode existir se algumas pessoas tiverem 16 filhos e outras tiverem nenhum. Ou seja, se essa diferença for grande. Mohammed Bin Laden, pai de Osama, teve 22 mulheres e 53 filhos. Ora, se um homem tem 22 mulheres, outros 21 homens não terão nenhuma. Assim, na sociedade de Mohammed Bin Laden houve uma enorme diferença no número de filhos das pessoas: algumas tiveram muitos, outras poucos, outras nenhum. Mas casos assim são cada vez mais raros, salvo em regiões como o Oriente Médio. Em geral, poucas pessoas não têm filhos, algumas têm 1, outras 2, pouquíssimas têm 5. Praticamente nenhuma tem 22! Portanto, já não há mais diferenças na sobrevivência nem no sucesso reprodutivo das pessoas. Com isso, não há matéria-prima para evolução.
Mas não existe a possibilidade de mutações genéticas devido à radiação, por exemplo?
A mutação é uma parte secundária do meu argumento, mas é real. Ninguém nega que a radiação e os químicos fazem isso, mas os efeitos são muito pequenos. A principal fonte de mutações não são os reatores nucleares, e sim os homens que os constroem. Isso ficou evidente após a 2ª Guerra Mundial, quando os americanos mandaram uma equipe de geneticistas a Hiroshima para analisar as pessoas expostas à bomba nuclear. Anos depois, eles retornaram esperando encontrar muitos erros genéticos – mutações – nos filhos das pessoas expostas à bomba. Mas encontraram apenas 28 mutações. Dessas, 25 vinham do pai, não da mãe. Foi a pista de que a principal causa de mutação está no homem, não na mulher.
Por quê?
As mulheres produzem os seus óvulos antes de nascer. Isso significa que há apenas 24 divisões celulares entre o óvulo que fez a mulher e o óvulo que ela libera. Já os homens produzem esperma o tempo todo, inclusive agora ao ler esta revista. Em um homem de 28 anos [idade média de reprodução na Europa], ocorrem cerca de 300 divisões entre o esperma que fez esse homem e o que ele passa adiante. E em cada divisão dessas existe chance de mutação. Por isso, há mais mutações em homens do que em mulheres. E há muito mais mutações nos homens que têm filhos em idade avançada. Em um pai de 65 anos, ocorrem 2 mil divisões entre o esperma que o fez e o esperma que ele passa adiante. E também nesse ponto houve uma enorme mudança: antigamente, os homens continuavam tendo filhos enquanto podiam. Hoje, ocorre o contrário. Começamos a ter filhos mais tarde, mas paramos mais cedo. A maioria das pessoas deixa de ter filhos aos 30 e tantos anos. Resultado: como o número de pais mais velhos diminuiu, o número de mutações também diminuiu.
De que forma a globalização influi na mudança?
O isolamento é outro ingrediente da evolução. Populações isoladas tendem a se diferenciar umas das outras. No entanto, hoje a população mundial é densa e em constante movimento. Não precisamos mais casar com o rapaz ou a garota da porta ao lado. Podemos pegar um avião e encontrar nosso par a quilômetros de distância. As pessoas fazem sexo com gente de qualquer lugar do mundo, e com isso o planeta está se tornando um único continente genético.
Para alguns de seus críticos, essa mistura genética é a própria evolução acontecendo agora.
Em certa medida, isso de fato é evolução. Mas não é o tipo de evolução na qual as pessoas geralmente pensam – em que uma população evolui para se adaptar às condições climáticas de lugares diferentes, por exemplo. Foi esse tipo de evolução que levou à existência de pessoas negras na África e brancas na Europa. Isso nunca mais vai acontecer, porque as pessoas estão se movendo muito de um lugar a outro. Esse movimento não leva a diferenças, ao contrário, estamos todos cada vez mais parecidos.
Quer dizer que não há mais diferenças entre fracos e fortes? Todo mundo é apto?
Bem, todos morrem no final. O importante é que, embora muitos morram por motivos relacionados aos genes – como diabetes e câncer –, eles morrem quando já estão velhos. Se você morre depois de ter filhos, isso é totalmente irrelevante para a evolução.
O fim da evolução significa o fim da eugenia, a idéia de que é possível melhorar uma raça?
Depende do que você quer dizer com eugenia. O termo significa “ser bem-nascido”. Coisas terríveis foram feitas em nome do movimento eugenista, que começou exatamente aqui em meu departamento [Francis Galton, que dá nome ao laboratório de Steve Jones, foi quem inventou a palavra “eugenia”]. Milhares de pessoas morreram em campos de concentração em nome dessa idéia, e não nego isso nem por um instante. Hoje, no entanto, quando você pode escolher entre ter um bebê que sofrerá muito com uma doença severa – e morrerá cedo – e outro que será uma criança feliz, creio que vai escolher o segundo. Isso é eugenia, é “nascer bem”. E também não posso negar esse fato.
Parar de evoluir é algo ruim?
As palavras “bom” e “ruim” não significam nada para a ciência. O que podemos dizer é que a evolução acabou no mundo industrializado, e por enquanto. Acredito que na América do Sul as condições que descrevi sejam similares às da Europa, mas na África é diferente: lá ainda existe mortalidade maciça em função de problemas como o HIV. Além disso, pode ser que a evolução volte a operar no mundo dentro de 20 ou 100 anos. Digamos que uma epidemia mate milhões de pessoas. Algumas terão genes para resistir a ela, outras não. Estas últimas vão morrer, as primeiras vão sobreviver – e a evolução vai começar de novo. Ou seja, essa etapa com certeza não é para sempre. Mas espero que seja por muito tempo.
Temos de nos adaptar ao mundo ou o mundo a nós?
Em certa medida, tivemos que nos adaptar ao mundo. Somos apenas mais um animal. Mas agora o mundo precisa se adaptar a nós. Se você olhar ao redor do globo, verá que na verdade todos vivem nos trópicos. Mesmo no Alasca ou na Sibéria, as pessoas usam roupas quentes e calefação. Nós levamos nosso ambiente aonde vamos, e assim o mundo tem que se adaptar a nós. Mas não creio que ele esteja fazendo isso muito bem. O aquecimento global é um sinal disso e, se a situação piorar, teremos que nos adaptar ao mundo de novo. Descobriremos que nossa capacidade de fazer o mundo trabalhar para nós depende muito de nossa capacidade de trabalhar para ele.

O ser humano, essa obra-prima

Mudanças sociais e avanços na saúde pública estão nos protegendo da evolução, pelo menos por enquanto. Entenda os principais argumentos de Steve Jones
A SELEÇÃO NATURAL
No passado, os humanos dependiam de diferenças herdadas para suportar frio, fome e doenças. Isso mudou. Antes algumas pessoas tinham muitos filhos e outras não tinham nenhum. Hoje, todo mundo tem mais ou menos o mesmo número de filhos. Assim, quase todos passam pelas provas de sobrevivência e reprodução da mesma maneira.
PAIS JOVENS
Hoje os homens começam a ter filhos tarde, mas param cedo. Essa mudança repercute na genética: num pai de 28 anos, ocorrem cerca de 300 divisões no esperma; já num pai de 50 ocorrem mais de 1 000 divisões. E, cada vez que ocorre uma divisão celular, existe a possibilidade de uma mutação. Em pais mais novos, as chances de mutação diminuem.
POPULAÇÕES MISTURADAS
Séculos atrás, as pessoas permaneciam a vida toda perto do lugar onde nasciam. Hoje, ninguém precisa casar ou fazer sexo apenas com quem mora ao lado. A população humana está em constante movimento. Assim, grupos pequenos e isolados são cada vez mais raros . O mundo está se transformando num único continente genético.

Steve Jones

• Tem 64 anos e nasceu no País de Gales.
• É um dos maiores especialistas do mundo em caracóis. Para analisar as diferenças nas conchas, ele coletou centenas de milhares de espécimes na Europa.
• Recebe todo dia e-mails indignados com sua teoria sobre o fim da evolução. Ele costuma ler, mas dá de ombros: “Em geral, são bastante chatos”.
• Quando não trabalha no laboratório, gosta de ir para sua casa na França e escrever livros.
• Não tem comida nem música favorita. “Meu hobby é fazer ciência”, afirma.

Fonte: Revista SuperInteressante

Anabolizantes para o Cérebro!

Cérebro turbinado

Estica, puxa, conserta: a tendência de refazer o corpo, propagada graças à glamourização das cirurgias plásticas, chega agora a um órgão escondido, mas tão sujeito à vaidade quanto pernas, narizes e barrigas. A última palavra em aperfeiçoamento humano são as smart drugs (drogas inteligentes), desenvolvidas para tornar a inteligência um dom, digamos, mais democrático - e fazer do cérebro uma supermáquina, literalmente.

Não são apenas substâncias químicas que podem realizar milagres; uma técnica chamada de estimulação magnética transcraniana, que utiliza ímãs para aumentar ou diminuir a atividade em dadas regiões cerebrais, oferece grandes promessas para pacientes de depressão severa e várias outras desordens mentais - mas provou, em experimentos, ser capaz de acelerar a habilidade de resolver problemas lógicos em voluntários saudáveis.

Tais fortificantes cognitivos poderão ser tão comuns como o café dentro de 20 anos, sugerem experts do Foresight, grupo de pesquisadores que, com incentivo da Fundação Nacional de Ciência dos EUA, reuniu-se para discutir os caminhos dessa ciência emergente. As conclusões do encontro dão o que pensar. O painel, constituído por neurocientistas, profissionais de bioética, psicólogos e educadores, foi unânime em afirmar que a era da reforma cerebral já está aí - e as conseqüências disso são ainda bastante imprevisíveis. Nas últimas duas décadas, os cientistas fizeram importantes descobertas sobre quais regiões do cérebro realizam determinadas funções e de que maneira essas áreas interagem para absorver, armazenar e resgatar informações. Pesquisadores também começaram a compreender melhor como e onde nascem os neurotransmissores e quais deles são responsáveis por tarefas mentais específicas. O resultado foi que o campo de atuação se expandiu, e o cérebro começou a ser explorado com mais profundidade.
utilização de substâncias para turbinar a atenção ou outras capacidades cognitivas não é novidade. O café, por exemplo, trabalha dessa forma. A diferença é que as smart drugs oferecem uma versão mais concentrada e mais poderosa dessas armas químicas.

A Ritalina, comumente prescrita para crianças que sofrem de DDA (distúrbio de déficit de atenção), já é usada por estudantes para melhorar seu desempenho. "Não há estudos que comprovem a eficácia do medicamento para outras finalidades", adverte a Novartis, fabricante do medicamento, em e-mail a Galileu.

O Modafinil, voltado para tratar desordens do sono, como a narcolepsia, tem sido empregado para ajudar as pessoas a se lembrarem de números mais eficientemente. Existe ainda um tipo de molécula chamada ampaquina, que aperfeiçoa o trabalho de certos receptores químicos no cérebro, indicando o caminho para futuros medicamentos que possam melhorar a memória de pessoas cansadas.

"Todos esses exemplos foram desenvolvidos para fins terapêuticos", diz James Wilsdon, filósofo da Universidade Oxford que dirige o departamento de ciência e inovação do think tank britânico Demos. "O Modafinil começou a ser explorado pelos militares. Com ele, era possível ficar acordado por até 72 horas com poucos efeitos colaterais. Agora, a droga é usada para melhorar a performance no trabalho."

Motoristas de caminhão e pilotos de aviões há muito utilizam as anfetaminas para evitar a sonolência; universitários vão atrás de cápsulas de cafeína para manterem-se acordados a noite toda. Mas esses estimulantes fornecem efeito temporário e sua atuação é brusca e ampla - eles turbinam o cérebro mexendo com todo o sistema nervoso. As novas drogas, diferentemente, são potencialmente a chave para uma acuidade mental mais direcionada e com melhorias duradouras. Nos Estados Unidos, suplementos nutricionais com a suposta capacidade de melhorar a memória já movimentam um mercado anual de US$ 1 bilhão. E não se sabe ao certo se eles funcionam. As smart drugs, ao contrário, são comprovadamente potentes. E é justamente aí que reside a preocupação. "São substâncias poderosas. Como os esteróides no caso dos atletas, essas drogas não deveriam ser vistas com leveza, como a cafeína", diz Steven Rose, professor de biologia da Open University, no Reino Unido.

Alguns pesquisadores acreditam que o desenvolvimento de drogas de aperfeiçoamento cerebral cada vez mais eficientes vão inaugurar uma era de "neurologia cosmética". Para os experts do Foresight, contudo, essa é uma área muito mais delicada que a adoção de cirurgias plásticas para melhorar a aparência ou o uso de esteróides para aprimorar o desempenho físico - porque mexe com a nossa qualidade humana básica.

Algumas drogas e novas tecnologias, além disso, só melhoraram o desempenho mental dentro da situação controlada de um laboratório; a realidade, porém, pode ser muito diferente. Além disso, as substâncias não têm o mesmo efeito em todas as pessoas. O efeito colateral que a maioria dos cientistas teme não é físico, e sim mental. Uma droga para melhorar a memória pode fazer com que a pessoa se lembre de muitos detalhes, "entupindo" o cérebro. Da mesma forma, um medicamento para aguçar a atenção pode levar o usuário a ficar concentrado em uma tarefa específica, sem reagir a outros estímulos. Quem nota e retém tudo o que vê acaba não compreendendo coisa alguma.

Há, ainda, o risco do vício. Não há evidências que apontem para uma possível dependência física, mas certamente psicológica. Em resumo, as smart drugs mudam a maneira como pensamos. E, com isso, mudam aquilo que somos. A disponibilidade dessas drogas abre um vasto campo para questões éticas e sociais, incluindo-se aí a preocupação com as conseqüências de um mundo em que algumas pessoas poderão ganhar vantagem sobre outras. Ou, ao contrário, que o seu uso diminua a lacuna entre as pessoas inteligentes e as não tão espertas, criando uma homogeneização da capacidade cognitiva humana. "Vamos ter de aprender a fazer parte de um ambiente em que nossos pensamentos, emoções e comportamentos são continuamente modificados por novos agentes farmacêuticos", diz o neurocientista Steven Rose.

Segundo o neurocientista Iván Izquierdo, da Universidade Federal do Rio Grande do Sul, as drogas para memória em estudo têm revelado efeitos somente nas amnésias benignas mais intensas de pessoas muito idosas e nos pacientes com Alzheimer leve ou inicial. Ele explica que o estudo sueco de 1997 com ampaquinas (veja quadro à esquerda) não foi reproduzido. "Nenhuma droga foi descrita, de maneira confiável, como útil para melhorar a memória de pessoas normais. Pessoas saudáveis normalmente utilizam seus sistemas mnemônicos sempre ao máximo de sua capacidade disponível. As interferências que podem sofrer são devidas a estresse, ansiedade ou depressão, que se tratam independentemente dos sistemas de memória", conclui Izquierdo.

A monitoração dessas substâncias é outro problema. Os cientistas afirmam que, em breve, teremos de começar a pensar quais dessas drogas seriam aceitáveis em um ambiente escolar. Até testes antidoping, como aqueles a que atletas estão sujeitos em competições, são cogitados. Mas Michael Gazzaniga, diretor do centro de neurociência cognitiva da Universidade Dartmouth, não tem grandes esperanças sobre esse controle. "Já é difícil o bastante realizar esses exames com atletas. Não consigo ver isso funcionando com a população em geral. É muito difícil projetar testes para identificar drogas tão modernas quanto essas", diz o psicólogo. Além disso, afirma Gazzaniga, banir drogas nunca funciona. "É praticamente impossível proibir eficientemente drogas que podem ser compradas pela internet. O melhor a fazer é tentar regular seu uso", opina.

Quase todas as grandes companhias farmacêuticas pesquisam medicamentos capazes de melhorar a memória, alguns já em estágios avançados de testes. Ao mesmo tempo, diversas empresas estão desenvolvendo drogas para apagar memórias indesejadas, como lembranças e eventos traumáticos, para ajudar pacientes com depressão. Ninguém confirma que essas indústrias tenham a intenção de criar smart drugs, mas a idéia de que elas possam ser usadas de maneira alternativa também deve ser considerada.

Hoje, estão em estudo inúmeras drogas que ajudarão pessoas normais a lidar melhor com uma grande variedade de desafios mentais, inclusive suas emoções. Militares estão testando drogas para diminuir o medo, por exemplo, fazendo do combate uma questão puramente cerebral. Mas alguns cientistas estão céticos: um soldado tão avançado, tão destemido, pode ser também muito mais vulnerável ao perigo.

Mas, afinal, vamos nos tornar mais inteligentes? James Wilsdon afirma que sim, pelo menos temporariamente. Testes de QI têm demonstrado um avanço mental significativo em resposta às smart drugs. Mas isso não implica que seremos humanos mais evoluídos. "Pessoas melhores se conseguem com qualidade de vida", diz o especialista. "Temos várias maneiras de melhorar a memória e a cognição - trabalhando menos, por exemplo. Em uma sociedade em que tudo melhora de forma artificial, perdemos a noção do que é normal." Eis aí um erro que coloca em risco qualquer processo evolutivo. (Colaborou Fernanda Colavitti)


FONTE: Editora GLOBO

domingo, 8 de novembro de 2009

Um calote no cidadão

Artigo de Opinião publicado no Jornal O Estadão em 08/11/2009:

Qualquer empresa que deixar de quitar ou atrasar o pagamento de impostos passa imediatamente a sentir os rigores da lei: multas, juros, impedimentos de negociar com o governo etc. Pessoas físicas, igualmente. Quem não paga o IPVA, por exemplo, arrisca ter seu veículo apreendido na primeira blitz de trânsito; se está inadimplente com o Imposto de Renda, cassam-lhe o passaporte. E assim por diante. Seja quem for, o adjetivo que se emprega para qualificar o sonegador ou o inadimplente é o de caloteiro. E se for o contrário? Se for o governo a não pagar as dívidas que contraiu com contribuintes, com que nome qualificá-lo?
Muito embora seja da “tradição” de quase todos os governos não pagar, ou não pagar em dia seus compromissos, eis que agora o Congresso Nacional busca institucionalizar a prática do calote estatal. E o fez ao aprovar, semana passada, uma proposta de emenda constitucional – a PEC 12/06, também conhecida pelo desonroso nome de “PEC do calote” – pela qual o Estado ganha o “direito” de jogar para as calendas gregas a obrigação de pagar dívidas reconhecidas em caráter irrecorrível pela Justiça, os chamados precatórios.
Na última quarta-feira, graças aos votos de 328, a ausência de uma centena e a abstenção de alguns de seus 510 deputados, a Câmara Federal referendou o anteprojeto em primeira discussão, com quase nenhuma mudança fundamental em relação ao unanimemente aprovado pelo Senado em abril. Cumprida apenas mais a formalidade do segundo turno de votação, o que poderá se dar nos próximos dias, a PEC estará pronta para ser sancionada pelo presidente Luiz Inácio Lula da Silva. E, então, estará configurado o calote de cerca de R$ 100 bilhões – algo equivalente a quase quatro vezes o tamanho do Orçamento do Paraná deste ano – que os governos estaduais e municipais impõem contra o direito líquido, certo e irrecorrível de que são titulares milhões de brasileiros.
Pela legislação atual, os credores de títulos judiciais perante os entes públicos podem requerer o valor que lhes é devido para recebimento até o último dia do exercício seguinte. Assim, terminado um processo, a Fazenda Pública deveria pagar o que deve até o final do ano seguinte, observada a ordem cronológica dos requerimentos. Muito embora esta seja a previsão legal, todos nós sabemos que ela não é cumprida – daí o absurdo acúmulo de precatórios pendentes, apesar das facilidades de prazo (dez anos!), parcelamento e juros que a Constituição Federal de 1988 já concedeu ao Estado.
A PEC 12/06 vem para agravar ainda mais esta situação injusta. Por meio dela, estados, Distrito Federal e municípios poderão parcelar suas dívidas em até 15 anos, ou, ainda, optar por depositar apenas um determinado porcentual de sua “receita corrente líquida”, sem prazo máximo determinado para o pagamento total das suas dívidas. Valerá o que lhes for mais conveniente, ou seja, é óbvio, a segunda alternativa.
Isto significa que, em excepcional hipótese, os cidadãos e as pessoas jurídicas detentoras de precatórios só receberão o que por direito lhes cabe em 15 anos. A outra hipótese, certamente muito mais tentadora para os governantes, caracterizará com ainda maior clareza o monstruoso calote de que falamos: obedecido o regime de pagamento com base em porcentual de receita, o parcelamento poderá se estender por décadas, muitas décadas. Já se calculou, por exemplo, que, no caso do Espírito Santo, a quitação de suas atuais dívidas se dará em 140 anos.
A emenda constitucional vai adiante na sanha de prejudicar os credores. Permite-lhes receber antes, desde que, porém, se inscrevam em eventuais leilões promovidos pelos estados e municípios, por meio dos quais “ganha” quem oferecer os maiores descontos... Mais ainda: legaliza o comércio de precatórios entre particulares, hoje um próspero e lucrativo mercado que se faz sob as sombras da informalidade e da exploração especulativa dos deságios a que se submetem os credores desesperançados.
Estas, dentre muitas outras características danosas que a PEC do calote introduz na Carta Magna, são mais do que suficientes para configurar a inominável violência que se perpetra contra cidadãos e empresas. É contristador para todos nós verificar que tal se dê às vésperas da comemoração dos 120 anos de República – pois não há nada de mais antirrepublicano do que a República voltar-se contra a cidadania ao dar forma de lei o que é intrinsecamente ilegítimo e injusto.