Home // Posts tagged "probability"

Estatísticas Musicais para aula de Estatística Aplicada II para Psicologia

12/08/2013 – 03h07

Estudo mostra que maioria das pessoas escuta sempre as mesmas músicas


Ouvir o texto

A opção de ouvir toda e qualquer música nova está a um toque na tela. E você vai sempre escolher aquelas mesmas velhas canções.

Quem crava qual será a sua seleção são os autores de um estudo feito na Universidade de Washington sobre o poder da familiaridade na escolha musical.

A pesquisa foi feita com mais de 900 universitários, autodeclarados apreciadores de novos sons. Pelo menos foi isso o que disseram em questionários prévios. Curiosamente, o lado B dos participantes apareceu quando foram confrontados com escolhas reais entre pares de músicas. A maioria optou por aquelas que tinha ouvido mais vezes.

Ouvir sempre a mesma música não é falta de opção ou imaginação. Segundo o coordenador do laboratório de neuromarketing da Fundação Getulio Vargas de São Paulo, Carlos Augustos Costa, é coisa da sua cabeça.

“O cérebro não gosta de nada complicado. Se você ouve um som novo, tem de parar para entender, mas se a música tem padrões familiares, é sopa no mel: você decide imediatamente ouvi-la.”

Familiar é um padrão musical que a pessoa sabe reconhecer ou um estilo associado a memórias positivas.

“A música que você já conhece tem um valor emocional enorme. Cada vez que você a ouve, a associa a uma sensação de prazer e, quanto mais ouve, mais reforça essa associação”, diz a neurocientista e colunista da Folha Suzana Herculano-Houzel.

Editoria de arte/Folhapress
As dez músicas mais lucrativas, nacionais e internacionais
As dez músicas mais lucrativas, nacionais e internacionais

Read more [+]

Nosso universo vai congelar como uma cerveja super-resfriada…


Finding the Higgs? Good news. Finding its mass? Not so good.

“Fireballs of doom” from a quantum phase change would wipe out present Universe.

by  – Feb 19 2013, 8:55pm HB

A collision in the LHC’s CMS detector.

Ohio State’s Christopher Hill joked he was showing scenes of an impending i-Product launch, and it was easy to believe him: young people were setting up mats in a hallway, ready to spend the night to secure a space in line for the big reveal. Except the date was July 3 and the location was CERN—where the discovery of the Higgs boson would be announced the next day.

It’s clear the LHC worked as intended and has definitively identified a Higgs-like particle. Hill put the chance of the ATLAS detector having registered a statistical fluke at less than 10-11, and he noted that wasn’t even considering the data generated by its partner, the CMS detector. But is it really the one-and-only Higgs and, if so, what does that mean? Hill was part of a panel that discussed those questions at the meeting of the American Association for the Advancement of Science.

As theorist Joe Lykken of Fermilab pointed out, the answers matter. If current results hold up, they indicate the Universe is currently inhabiting what’s called a false quantum vacuum. If it were ever to reach the real one, its existing structures (including us), would go away in what Lykken called “fireballs of doom.”

We’ll look at the less depressing stuff first, shall we?

Zeroing in on the Higgs

Thanks to the Standard Model, we were able to make some very specific predictions about the Higgs. These include the frequency with which it will decay via different pathways: two gamma-rays, two Z bosons (which further decay to four muons), etc. We can also predict the frequency of similar looking events that would occur if there were no Higgs. We can then scan each of the decay pathways (called channels), looking for energies where there is an excess of events, or bump. Bumps have shown up in several channels in roughly the same place in both CMS and ATLAS, which is why we know there’s a new particle.

But we still don’t know precisely what particle it is. The Standard Model Higgs should have a couple of properties: it should be scalar and should have a spin of zero. According to Hill, the new particle is almost certainly scalar; he showed a graph where the alternative, pseudoscalar, was nearly ruled out. Right now, spin is less clearly defined. It’s likely to be zero, but we haven’t yet ruled out a spin of two. So far, so Higgs-like.

The Higgs is the particle form of a quantum field that pervades our Universe (it’s a single quantum of the field), providing other particles with mass. In order to do that, its interactions with other particles vary—particles are heavier if they have stronger interactions with the Higgs. So, teams at CERN are sifting through the LHC data, checking for the strengths of these interactions. So far, with a few exceptions, the new particle is acting like the Higgs, although the error bars on these measurements are rather large.

As we said above, the Higgs is detected in a number of channels and each of them produces an independent estimate of its mass (along with an estimated error). As of the data Hill showed, not all of these estimates had converged on the same value, although they were all consistent within the given errors. These can also be combined mathematically for a single estimate, with each of the two detectors producing a value. So far, these overall estimates are quite close: CMS has the particle at 125.8GeV, Atlas at 125.2GeV. Again, the error bars on these values overlap.

Oops, there goes the Universe

That specific mass may seem fairly trivial—if it were 130GeV, would you care? Lykken made the argument you probably should. But he took some time to build to that.

Lykken pointed out, as the measurements mentioned above get more precise, we may find the Higgs isn’t decaying at precisely the rates we expect it to. This may be because we have some details of the Standard Model wrong. Or, it could be a sign the Higgs is also decaying into some particles we don’t know about—particles that are dark matter candidates would be a prime choice. The behavior of the Higgs might also provide some indication of why there’s such a large excess of matter in the Universe.

But much of Lykken’s talk focused on the mass. As we mentioned above, the Higgs field pervades the entire Universe; the vacuum of space is filled with it. And, with a value for the Higgs mass, we can start looking into the properties of the Higgs filed and thus the vacuum itself. “When we do this calculation,” Lykken said, “we get a nasty surprise.”

It turns out we’re not living in a stable vacuum. Eventually, the Universe will reach a point where the contents of the vacuum are the lowest energy possible, which means it will reach the most stable state possible. The mass of the Higgs tells us we’re not there yet, but are stuck in a metastable state at a somewhat higher energy. That means the Universe will be looking for an excuse to undergo a phase transition and enter the lower state.

What would that transition look like? In Lykken’s words, again, “fireballs of doom will form spontaneously and destroy the Universe.” Since the change would alter the very fabric of the Universe, anything embedded in that fabric—galaxies, planets, us—would be trashed during the transition. When an audience member asked “Are the fireballs of doom like ice-9?” Lykken replied, “They’re even worse than that.”

Lykken offered a couple of reasons for hope. He noted the outcome of these calculations is extremely sensitive to the values involved. Simply shifting the top quark’s mass by two percent to a value that’s still within the error bars of most measurements, would make for a far more stable Universe.

And then there’s supersymmetry. The news for supersymmetry out of the LHC has generally been negative, as various models with low-mass particles have been ruled out by the existing data (we’ll have more on that shortly). But supersymmetry actually predicts five Higgs particles. (Lykken noted this by showing a slide with five different photos of Higgs taken at various points in his career, in which he was “differing in mass and other properties, as happens to all of us.”) So, when the LHC starts up at higher energies in a couple of years, we’ll actually be looking for additional, heavier versions of the Higgs.

If those are found, then the destruction of our Universe would be permanently put on hold. “If you don’t like that fate of the Universe,” Lykken said, “root for supersymmetry”

Probabilidade de ocorrer um evento maior que o “11 de setembro” ultrapassa os 95%

Statisticians Calculate Probability Of Another 9/11 Attack

According to the statistics, there is a 50 per cent chance of another catastrophic terrorist attack within the next ten years



Wednesday, September 5, 2012

Earthquakes are seemingly random events that are hard to predict with any reasonable accuracy. And yet geologists make very specific long term forecasts that can help to dramatically reduce the number of fatalities.

For example, the death toll from earthquakes in the developed world, in places such as Japan and New Zealand, would have been vastly greater were it not for strict building regulations enforced on the back of well-founded predictions that big earthquakes were likely in future.

The problem with earthquakes is that they follow a power law distribution–small earthquakes are common and large earthquakes very rare but the difference in their power is many orders of magnitude.

Humans have a hard time dealing intuitively with these kinds of statistics. But in the last few decades statisticians have learnt how to handle them, provided that they have a reasonable body of statistical evidence to go on.

That’s made it possible to make predictions about all kinds of phenomena governed by power laws, everything from earthquakes, forest fires and avalanches to epidemics, the volume of email and even the spread of rumours.

So it shouldn’t come as much of a surprise that Aaron Clauset at the Santa Fe Institute in New Mexico and Ryan Woodard at ETH, the Swiss Federal Institute of Technology, in Zurich have used this approach to study the likelihood of terrorist attacks.  Read more [+]

Paul, o polvo, inspira campanha “Paeja sem Cefalópodes”

Coma paeja sem polvos e lulas! Polvos são animais muito inteligentes (mais que cães), pois apresentam aprendizagem vicarial – aprendem apenas observando outro polvo sendo treinado.
Mesmo crianças pequenas não conseguem fazer isso. Acho que a lista de animais a serem eliminados do cardápio deveria seguir o rank de inteligência animal. Já não comemos antropoides, cetáceos, canídeos e elefantídeos. É agora a hora dos cefalópodes! Abaixo o especismo, o último racismo!
Seja ético! Leia “A Vida Ética de Paul Singer”. Substitua carne de mamíferos e cefalópodes por peixes pequenos e camarão! O clima da Terra e a comunidade de animais auto-conscientes agradecem. 

Vida no Multiverso

The Drake Equation For The Multiverse

Posted: 09 Feb 2010 09:10 PM PST

The famous Drake equation estimates the number of intelligent civilisations in the Milky Way. Now a new approach asks how many might exist in the entire multiverse

In 1960, the astronomer Frank Drake devised an equation for estimating the number of intelligent civilisations in our galaxy. He did it by breaking down the problem into a hierarchy of various factors.

He suggested that the total number of intelligent civilisations in the Milky Way depends first on the rate of star formation. He culled this number by estimating the fraction of these stars with rocky planets, the fraction of those planets that can and do support life and the fraction of these that go on to support intelligent life capable of communicating with us. The result is this equation:

which is explained in more detail in this Wikipedia entry.

Today, Marcelo Gleiser at Dartmouth College in New Hampshire points out that cosmology has moved on since the 1960s. One of the most provocative new ideas is that the universe we see is one of many, possibly one of an infinite number. One line of thinking is that the laws of physics may be very different in these universes and that carbon-based life could only have arisen in those where conditions were fine-tuned in a particular way. This is the anthropic principle.

Consequently, says Gleiser, the Drake Equation needs updating to take the multiverse and the extra factors it introduces into account.

He begins by considering the total set of universes in the multiverse and defines the subset in which the parameters and fundamental constants are compatible with the anthropic principle. This is the subset {ccosmo}.

He then considers the subset of these universes in which astrophysical conditions are ripe for star and galaxy formation {c-astro}. Next he looks at the subset of these in which planets form that are capable of harbouring life {c-life}. And finally he defines the subset of these in which complex life actually arises {c-complex life}.

Then the conditions for complex life to emerge in a particular universe in the multiverse must satisfy the statement at the top of this post (where the composition symbol denotes ‘together with’).

But there’s a problem: this is not an equation. To form a true Drake-like argument, Gleiser would need to assign probabilities to each of these sets allowing him to write an equation in which the assigned probabilities multiplied together, on one side of the equation, equal the fraction of universes where complex life emerges on the other side.

Here he comes up against one of the great problems of modern cosmology–that without evidence to back up their veracity, many ideas in modern cosmology are little more than philosophy. So assigning a probability to the fraction of universes in the multiverse in which the fundamental constants and laws satisfy the anthropic principle is not just hard, but almost impossible to formulate at all.

Take {c-cosmo} for example. Gleiser points out a few of the obvious parameters that would need to taken into account in deriving a probability. These are the vacuum energy density, matter-antimatter asymmetry, dark matter density, the couplings of the four fundamental forces and the masses of quarks and leptons so that hadrons and then nuclei can form after electroweak symmetry breaking. Try assigning a probability to that lot.

Neither is it much easier for {c-astro}. This needs to take into account the fact that heavy elements seem to be important for the emergence of life which only seem to occur in galaxies above a certain mass and in stars of a certain type and age. Estimating the probability of these conditions occurring is still beyond astronomers.

At first glance, the third set {c-life} ought to be easier to handle. This must take into account the planetary and chemical constraints on the formation of life. The presence of liquid water and various elements such as carbon, oxygen and nitrogen seem to be important as do more complex molecules. How common these conditions are, we don’t yet know.

Finally there is {c-complex life}, which includes all the planetary factors that must coincide for complex life to emerge. These may include long term orbital stability, the presence of a magnetic field to protect delicate biomolecules, plate tectonics, a large moon and so on. That’s not so easy to estimate either.

Many people have tried to put the numbers into Drake’s equation. The estimates for the number of intelligent civilisations in the Milky Way ranges from one (ours) to countless tens of thousands. Drake himself put the number at 10.

Gleiser’s take on the Drake equation for the Multiverse is an interesting approach. What it tells us, however, is that our limited understanding of the universe today does not allow us to make any reasonable estimate of the number of intelligent lifeforms in the multiverse (more than one). And given the limits on what we can ever know about other universes, it’s likely that we’ll never be able to do much better than that.

Ref: arxiv.org/abs/1002.1651: Drake Equation For the Multiverse: From String Landscape to Complex Life

Tudo acontece por acaso…

Acaso na vida é mais importante do que se pensa, afirma físico em livro

colaboração para a Folha de S.Paulo
Você é homem, americano, branco, heterossexual e não usa drogas. Corre o ano de 1989. Faz um exame de sangue, desses descompromissados e, após alguns dias, recebe a notícia: HIV positivo. O médico sente muito, mas a morte é inevitável. Se quiser, você pode fazer outro exame, mas a chance de que não esteja contaminado é bem pequena: uma em mil.
Aconteceu com Leonard Mlodinow, físico do Caltech (Instituto de Tecnologia da Califórnia) que já havia escrito o livro “Uma Nova História do Tempo” com Stephen Hawking. “É difícil descrever (…) como passei aquele fim-de-semana; digamos apenas que não fui à Disneylândia”, escreve em “O Andar do Bêbado”, seu novo livro, recém-lançado no Brasil.
Talvez o médico de Mlodinow fosse ótimo. Mas não serviria como estatístico. Isso porque, em 1989, nos EUA, uma em cada 10 mil pessoas nas condições citadas estava infectada pelo HIV. Imagine que essas 10 mil fizessem exames. O único soropositivo receberia, possivelmente, uma notícia ruim. Mas, como um em cada mil exames dá o resultado errado, dez pessoas saudáveis também a receberiam.

Ou seja, nessas condições, de cada 11 pessoas que recebiam o veredicto “HIV positivo”, apenas uma realmente estava contaminada. A porcentagem de “falsos positivos” é dez vezes maior que a de “verdadeiros positivos”. Faria, então, mais sentido que Mlodinow não deixasse de ir à Disneylândia. No final, soube que não tinha HIV.

Mas dificuldades com probabilidades não são exclusividade do médico de Mlodinow. Humanos desprezam a presença do aleatório nas suas vidas –nossos cérebros são programados para achar padrões, mesmo quando não existem. Isso vai desde coisas evidentemente desprovidas de sentido (como usar uma mesma meia velha em jogos do Brasil) até situações mais sérias.
Jegue estabanado
Nesse sentido, é muito comum considerar que sucessos ou fracassos são resultado exclusivamente da nossa competência. Em boa medida são, claro, mas quanta aleatoriedade está envolvida nisso?
Jogadores, vendedores, homens atrás de mulheres nas festas. Quase todas as atividades humanas estão sujeitas ao acaso. Os resultados se distribuem ao redor de uma média (alta, para quem é competente), mas existem dias bons (quando o centroavante faz três gols e se consagra) e dias ruins (quando o “pegador” volta pra casa sozinho).
Mas isso vale também para o mercado financeiro, por exemplo. Será que os investidores que ganham milhões na bolsa o fazem porque são competentes ou porque, em uma série determinada de anos, tiveram mais sorte -fazendo escolhas tão “chutadas” quanto muitos que tiveram menos sucesso?
Como exemplo, Mlodinow conta a história de Daniel Kahneman, psicólogo que em 2002 ganhou o Nobel de Economia. Como não se escolhe trabalho no começo da carreira, ele foi, nos anos 1960, ensinar aos instrutores da Aeronáutica israelense que recompensar funciona melhor do que punir erros.
Foi interrompido por um dos instrutores que o ouvia. Ele dizia que muitas vezes elogiou a manobra de um aluno e, na vez seguinte, o sujeito se saiu muito pior. E que, quando gritou com a besta que havia quase acabado de destruir o avião, ela melhorava em seguida. Os outros instrutores concordaram. Estariam os psicólogos errados? Kahneman concluiu que não. Apenas que a experiência dos instrutores estava relacionada com a probabilidade.
A ideia dele era que os aprendizes melhoram a sua capacidade aos poucos, e isso não é perceptível entre uma manobra e outra. Qualquer voo perfeito ou qualquer pouso que leve embora meio aeroporto junto são questões pontuais, desvios da média. Na próxima tentativa, é alta a chance de que se retorne ao “padrão” central -nem fantástico, nem desastroso.
Então, diz Mlodinow, quando os instrutores elogiavam uma performance impecável, tinham a impressão de que, em seguida, o aluno piorava. Já se ele, digamos, esquecia de baixar o trem de pouso e escutava um grito de “seu jegue estabanado”, na próxima melhorava.
A pergunta por trás do livro é até que ponto não nos deixamos enganar por desvios da média como sinais de competência extrema ou de falta de aptidão para a vida. Quando um ator é descoberto de repente, após anos de fracasso, como Bruce Willis, ou quando alguém ganha muito dinheiro em poucos anos, como Bill Gates, qual foi a importância de estar no lugar certo, na hora certa? O andar do bêbado, sem direção consciente, acaba sendo uma ótima metáfora para os caminhos que tomamos na vida.
LIVRO – “O Andar do Bêbado: Como o Acaso Determina Nossas Vidas“Leonard Mlodinow; trad. de Diego Alfaro; ed. Zahar, 261 págs., R$ 39

Payoff das disputas científicas no SEMCIÊNCIA

O Acaso e a Necessidade

O Acaso e a Necessidade de interpretá-lo parece ser inerente ao ser humano…

  • “Aquilo a que chamamos acaso não é, não pode deixar de ser, senão a causa ignorada de um efeito conhecido”.

“O acaso é uma palavra sem sentido. Nada pode existir sem causa.”

  • “O acaso é a lógica de Deus.”
Otto Friedrich Walter
  • “O acaso só favorece a mente preparada”
Louis Pasteur
  • “o acaso é lógico”
Johan Cruijff
  • “O acaso é o instrumento escolhido pelo destino para que seus mais importantes planos para conosco sejam relizados.”
Charles Tschopp
  • “Aquele que não deixa nada ao acaso raramente fará coisas de modo errado, mas fará pouquíssimas coisas”.
George Halifax
  • “Primeiramente: nada fazer ao acaso e sem finalidade. Depois: nada aceitar que não sirva para toda a humanidade.”
Marco Aurélio
  • “A beleza é a harmonia entre o acaso e o bem”.
Simone Weil
  • “Geralmente são os bens que provêm do acaso que provocam inveja.”
  • “O acaso é o maior romancista do mundo. Para se ser fecundo, basta estudá-lo.”
Honoré de Balzac

07/07/2009 – 10h22

Britânica que teve câncer e foi atacada por cães ganha na loteria

da BBC

Uma britânica que foi atacada por cães em janeiro e dois meses depois teve câncer de mama, acabou conhecendo também o outro lado da moeda ‘no pior ano’ de sua vida, ao ganhar na loteria.

Nicky Cusack, 43, uma mãe solteira de Swindon, em Wiltshire, no sudoeste da Inglaterra, faturou nada menos que 2,5 milhões de libras –cerca de na R$ 8 milhões.

Ela disse, entretanto, que continuará a trabalhar normalmente no supermercado onde é empregada.

“Ainda não caiu a ficha, é surreal”, disse Nicky, que foi diagnosticada com câncer de mama em abril, mas há apenas duas semanas teve alta com sessões de quimioterapia e radioterapia.

Em janeiro, ela foi ferozmente atacada por uma matilha de seis cães quando tentava proteger suas filhas.

“Desde janeiro, minha sorte tem sido horrível, foram seis meses horríveis. Finalmente veio algo de bom para mim”, disse ela.

Nicky contou que não acreditou quando viu que tinha acertado os números da sorte. “Eu li os primeiros números em voz alta para minha filha Jade, e ela disse: ‘você ganhou 10 libras [cerca de R$ 32]’.”

“Só então eu parei e me dei conta de que eu também tinha todos os outros números. Nós não conseguíamos crer. Liguei para minha filha mais velha, Kelly, e pedi que ela checasse. No começo, ela pensou que eu estivesse brincando, mas depois disse: ‘mãe, você ganhou na loteria!’.”

Nicky afirmou que o sorteio representa para ela a descoberta de “uma luz no fim do túnel”.

“Por muito tempo eu estava no fundo do poço e achei que [a luz] não existisse”, disse. “Será muito bom pagar minhas dívidas, mas também quero retribuir algo para a [instituição de caridade] Macmillan Cancer.”

Bala Meteorítica Perdida

Não existem casos registrados de humanos mortos por meteoritos (lembro-me, sem referências, de alguém ter me falado sobre uma vaca atingida por um).
Então estimo que a probabilidade de ser atingido é bastante baixa (bem menos que uma bala perdida no Rio…). E no entanto acontece. Coincidências acontecem. Eu só não entendo as pessoas que dizem que nada acontece por acaso…
Garoto alemão diz ter ficado ferido com queda de meteorito

da Folha Online

O adolescente Gerrit Blank, 14, afirma ter sido atingido por um meteorito quando ia para a escola em Essen, na Alemanha. Segundo o jornal “Daily Telegraph”, o objeto atingiu a mão do garoto, que ficou com uma cicatriz de 7 centímetros, e um buraco no chão.

“Primeiro eu vi uma luz forte e, de repente, senti uma dor na mão”, afirmou Blank ao jornal. “O barulho que veio depois do lampejo de luz foi tão forte que fiquei com o ouvido zumbindo por horas.”

Segundo ele, o meteorito tinha o tamanho de uma ervilha. Estudos químicos provaram que se trata, de fato, de um objeto vindo do céu. “É um meteorito real, além de ser valioso para colecionadores e cientistas”, afirma Ansgar Kortem, diretor do Observatório Walter Hohmann.

Kortem afirma que a maior parte dos meteoritos se desintegra na atmosfera da Terra, sem chegar ao chão. “E seis entre sete meteoritos que chegam à Terra caem na água”, diz.

Pesquisas com 21 loiras valem?

Teclado sem acentos, depois conserto isso:

Ser’a que podemos concluir a partir de uma amostra de 21 fotos como esta que loiras destras sao burrinhas e que morenas ambidestras sao inteligentes como Ruth de Aquino? Nao, nao podemos, pois as fotos teriam sido escolhidas a dedo (como os artigos comentados por Ruth) em vez de constituirem uma amostra aleatoria sobre a populacao de loiras.

Ruth de Aquino e mesmo alguns dos blogueiros que a contestaram afirmaram que realmente uma pesquisa com 21 pessoas ‘e muito pouco. Não necessariamente. Se as pessoas forem escolhidas de forma razoavelmente aleatoria, ‘e poss’ivel sim extrair informacao de uma amostra pequena. Se o desvio-padrao da populacao for S, entao para resultados que seguem uma distribuicao Gaussiana, o desvio-padrao da media ‘e sigma/sqrt(21) , ou seja, aproximadamente igual a 0.22 sigma. Ou seja, a barra de erro j’a eh razoavelmente pequena.

Isso vem do Teorema Central do Limite. ‘E ele tambem que explica porque podemos fazer estimativas razoaveis em pesquisas eleitorais com apenas 2000 pessoas escolhidas aleatoriamente emum universo de 80 milhoes de eleitores. ‘E o velho argumento de que para saber se um caldeirao de sopa est’a salgado, basta experimentar uma colherinha, nao preciso esperimentar metade do caldeirao…

Talvez este exemplo seja mais intelig’ivel: Voce d’a uma droga nova para 21 rapazes e 18 deles morrem em 24 horas. Ser’a que precisariamos dar a droga para uma amostra de 2100 jovens antes de poder concluir que a droga ‘e perigosa? Eu acho que qualquer comite de etica pararia a pesquisa depois dessa amostra de 21 pessoas (mesmo que fosse possivel que cada caso de morte pudesse, por puro acaso, acontecer independentemente da droga). Sim, isso ‘e poss’ivel, mas bastante improv’avel, e a Estat’istica pode quantificar essa improbabilidade…

Lei de Clausewitz vale para ataques terroristas

Sobre Clausewitz ver aqui.

Via Physics ArXiv Blog (quem será o KFC? Um físico desempregado? É impossível que um professor ou estudante tenha tanto tempo para ler os papers, blogar e escrever bem assim!):

Plot the number of people killed in terrorists attacks around the world since 1968 against the frequency with which such attacks occur and you’ll get a power law distribution, that’s a fancy way of saying a straight line when both axis have logarithmic scales.

The question, of course, is why? Why not a normal distribution, in which there would be many orders of magnitude fewer extreme events?

Aaron Clauset and Frederik Wiegel have built a model that might explain why. The model makes five simple assumptions about the way terrorist groups grow and fall apart and how often they carry out major attacks. And here’s the strange thing: this model almost exactly reproduces the distribution of terrorists attacks we see in the real world.

These assumptions are things like: terrorist groups grow by accretion (absorbing other groups) and fall apart by disintegrating into individuals. They must also be able to recruit from a more or less unlimited supply of willing terrorists within the population.

Being able to reproduce the observed distribution of attacks with such a simple set of rules is an impressive feat. But it also suggests some strategies that might prevent such attacks or drastically reduce them in number . One obvious strategy is to reduce the number of recruits within a population, perhaps by reducing real and perceived inequalities across societies.

Easier said than done, of course. But analyses like these should help to put the thinking behind such ideas on a logical footing.

Ref: arxiv.org/abs/0902.0724: A Generalized Fission-Fusion Model for the Frequency of Severe Terrorist Attacks

Distribuição de tempos de vida de casamentos

Gostaria de saber… Será uma distribuição exponencial (similar ao decaimento de um estado ligado atômico)? Com que meia-vida? Ou tem uma cauda estendida? Se for exponencial, isso significa que o fator principal é o acaso e não qualquer esforço dos cônjuges? Cuidado para não usar a calculadora e criar uma profecia auto-realizadora

Economista cria calculadora que prevê chance de divórcio

A economista americana Betsey Stevenson desenvolveu uma ‘calculadora do casamento‘ que poderia prever as chances de divórcio.

A ferramenta, disponível na internet , funciona com uma comparação de estatísticas dos divórcios realizados nos Estados Unidos com os dados fornecidos pelos usuários.

O “cálculo” resulta da análise de informações como idade, tempo de casamento, número de filhos e grau de escolaridade do usuário.

Essas informações são então comparadas com estatísticas do Censo americano sobre os divórcios realizados no país. Dessa forma, o usuário da calculadora recebe uma estimativa do percentual de pessoas com perfis similares que se divorciaram no passado e faz projeções sobre as chances de divórcio dentro de cinco anos.

“Com a calculadora do casamento, você pode descobrir como muitas pessoas com perfil parecido se divorciaram”, explica Stevenson.

“Em resumo, o passado está sendo usado para determinar o futuro com essa calculadora”, disse G.Cotter Cunninghma, diretor do site que hospeda a ferramenta .


Segundo Stevenson, pesquisadora da Universidade da Pensilvânia e especialista em casamentos e divórcis, o risco de divórcio é menor para pessoas que possuem pelo menos grau superior de escolaridade e se casam mais velhas.

Ela afirma que, entre as pessoas que se casaram nos últimos anos, a taxa de divórcio é menor entre aquelas que se casaram depois dos 30 anos. Ela explica ainda que, quanto mais cedo se casa, maiores são as chances de divórcio.

“Apesar de ser difícil identificar o que está causando essa relação, a partir dessas informações eu aconselharia meus amigos a casarem quando estiverem mais velhos”, disse a economista.

Dúvidas sobre o reducionismo

(Inspirado pelos artigos do Ariel Caticha)

Eu tenho uma listinha (incompleta) de termos que possuem uma ordem ascendente de abstração que me fazem duvidar da afirmação que a Física é materialista (no sentido clássico da palavra). Acho que o único termo que possui análogos à características clássicas como impenetrabilidade da matéria são os férmions, via Princípio de Pauli. Já os bósons, com seus condensados de Bose-Einstein, são uns caras bem esquisitos (OK, os férmions são quanticamente esquisitos também). Minha lista ou escada é:


Energia é um conceito bem mais abstrato do que as pessoas imaginam, acho que já comentei isso aqui. As pessoas pensam em energia como se fosse um fluido (talvez composto por “partículas de energia”) que se transmite de um corpo a outro, o velho conceito de calórico do século XVIII ressuscitado pela Nova Era. Mas energia, em Física, é um conceito muito abstrato: partículas possuem energia cinética e sistemas de partículas podem possuir energia potencial (que é uma propriedade sistêmica), ou seja, energia é uma propriedade, não é feita de partículas de energia.

Temperatura é mais abstrata no sentido de ser uma propriedade estatística, relacionada com a energia cinética média de partículas medida no referencial de centro de massa das mesmas. Até hoje existem controvérsias sobre como a temperatura se transforma mudando-se o referencial na relatividade restrita…

Acho que a partir daí todos os termos incluem conceitos como probabilidade e inferência estatística. E daí não fica claro se esses andares representam níveis de emergência, realidades que seriam redutíveis aos níveis de baixo. Pois afinal, Bayesianamente, probabilidades são definidas em termos de crenças racionais. Como diz Ariel Caticha:

(…) the objective Bayesian view considers the theory of probability as an extension of logic. It is said then that a probability measures a degree of rational belief. It is assumed that the objective Bayesian has thought so long and hard about how probabilities are assigned that no further reasoning will induce a revision of beliefs except when confronted with new information. In an ideal situation two di¤erent individuals will, on the basis of the same information, assign the same probabilities.

Me parece então que para se definir probabilidade precisamos de agentes racionais capazes de manter crenças, mesmo sem consciência, sejam eles animais, vegetais, bactérias espertas ou autômatos inteligentes, ou seja, processadores de informação. Wiener dizia que termostatos possuem crenças tipo “está muito frio aqui”, “está muito quente aqui” e “está bom aqui”… Mas então, parece que o degrau “Probabilidade” depende dos andares de cima, de modo que minha hierarquia de abstrações não parece muito boa.
Subindo a escadinha, encontramos conceitos cada vez mais abstratos, muitos deles sem uma definição clara mas que não podem ser desprezados. Acima de informação, eu coloco significado (informação semântica). Não podemos, por exemplo, afirmar que a palavra “significado”, por não estar bem definida, não tem significado, isso seria uma contradição lógica.
Em todo caso, vemos por essa escadinha que a partir de certo momento não entendemos bem o significado dos termos e portanto a ciência do século XXI tem um longo caminho a percorrer. A ciência não é materialista, nem fisicalista, nem mesmo naturalista. Talvez seja “informacional”, o que quer que isso “signifique”…

Fundamentos éticos da Teoria de Probabilidades

Acho que finalmente entendi o conceito Bayesiano de probabilidades. Antes tarde do que nunca! É claro que eu poderia ter aprendido isso muito antes, com o livro do Jaynes tão recomendado pelo Nestor Caticha. Acho que na verdade aprendi, depois esqueci, depois li de nôvo, depois esqueci de novo. “Apreender” é diferente de aprender. Acho que envolve uma mudança de Gestalt, uma espécie de momento de “iluminação”.

Isso aconteceu devido a dois acidentes (na verdade três): a) estou sem internet em casa, ou seja, sem essa máquina de perder tempo; b) este computador tinha uma pasta com alguns artigos em pdf, entre eles o ótimo Lectures on probability, entropy and statistical mechanics de Ariel Caticha, que me fora mandado há um bom tempo atrás pelo Nestor; c) eu havia terminado o livro Artemis Fowl – Uma aventura no Ártico e estava sem nada para ler na noite de Natal (escreverei um post sobre isso outro dia).

Além do conceito de probabilidade Bayesiano, foi muito esclarecedor a discussão sobre entropia, em particular sua ênfase de que entropia não é uma propriedade física do sistema, mas depende do grau de detalhe na descrição desse sistema:

The fact that entropy depends on the available information implies that there is no such thing as the entropy of a system. The same system may have many different entropies. Notice, for example, that already in the third axiom we find an explicit reference to two entropies S[p] and SG[P] referring to two different descriptions of the same system. Colloquially, however, one does refer to the entropy of a system; in such cases the relevant information available about the system should be obvious from the context. In the case of thermodynamics what one means by the entropy is the particular entropy that one obtains when the only information available is specified by the known values of those few variables that specify the thermodynamic macrostate.

Aprendi outras coisas muito interessantes no paper, cuja principal virtude acho que é a clareza e o fato de reconhecer os pontos obscuros como realmente obscuros. Imagino que este texto poderia ser a base de uma interessante disciplina de pós aqui no DFM. Eu ainda o estou estudando, e o recomendo aos meus amigos frequentistas. Mas é claro, eu não pude resistir em dar uma olhada no capítulo final, onde encontrei esta intrigante conclusão:

Dealing with uncertainty requires that one solve two problems. First, one must represent a state of knowledge as a consistent web of interconnected beliefs. The instrument to do it is probability. Second, when new information becomes available the beliefs must be updated. The instrument for this is relative entropy. It is the only candidate for an updating method that is of universal applicability and obeys the moral injunction that one should not change one´s mind frivolously. Prior information is valuable and should not be revised except when demanded by new evidence, in which case the revision is no longer optional but obligatory. The resulting general method – the ME method – can handle arbitrary priors and arbitrary constraints; it includes MaxEnt and Bayes-rule as special cases; and it provides its own criterion to assess the extent that non maximum-entropy distributions are ruled out.

To conclude I cannot help but to express my continued sense of wonder and astonishment at the fact that the method for reasoning under uncertainty – which presumably includes the whole of science – turns out to rest upon a foundation provided by ethical principles. Just imagine the implications!

Acho que este último parágrafo merece um comentário em um próximo post…
A ser lido:
From Inference to Physics

Authors: Ariel Caticha

(Submitted on 8 Aug 2008)
Abstract: Entropic dynamics, a program that aims at deriving the laws of physics from standard probabilistic and entropic rules for processing information, is developed further. We calculate the probability for an arbitrary path followed by a system as it moves from given initial to final states. For an appropriately chosen configuration space the path of maximum probability reproduces Newtonian dynamics.
Foto: Ariel Caticha.