Home // Posts tagged "statistics"

Nosso universo vai congelar como uma cerveja super-resfriada…

SCIENTIFIC METHOD / SCIENCE & EXPLORATION

Finding the Higgs? Good news. Finding its mass? Not so good.

“Fireballs of doom” from a quantum phase change would wipe out present Universe.

by  – Feb 19 2013, 8:55pm HB

A collision in the LHC’s CMS detector.

Ohio State’s Christopher Hill joked he was showing scenes of an impending i-Product launch, and it was easy to believe him: young people were setting up mats in a hallway, ready to spend the night to secure a space in line for the big reveal. Except the date was July 3 and the location was CERN—where the discovery of the Higgs boson would be announced the next day.

It’s clear the LHC worked as intended and has definitively identified a Higgs-like particle. Hill put the chance of the ATLAS detector having registered a statistical fluke at less than 10-11, and he noted that wasn’t even considering the data generated by its partner, the CMS detector. But is it really the one-and-only Higgs and, if so, what does that mean? Hill was part of a panel that discussed those questions at the meeting of the American Association for the Advancement of Science.

As theorist Joe Lykken of Fermilab pointed out, the answers matter. If current results hold up, they indicate the Universe is currently inhabiting what’s called a false quantum vacuum. If it were ever to reach the real one, its existing structures (including us), would go away in what Lykken called “fireballs of doom.”

We’ll look at the less depressing stuff first, shall we?

Zeroing in on the Higgs

Thanks to the Standard Model, we were able to make some very specific predictions about the Higgs. These include the frequency with which it will decay via different pathways: two gamma-rays, two Z bosons (which further decay to four muons), etc. We can also predict the frequency of similar looking events that would occur if there were no Higgs. We can then scan each of the decay pathways (called channels), looking for energies where there is an excess of events, or bump. Bumps have shown up in several channels in roughly the same place in both CMS and ATLAS, which is why we know there’s a new particle.

But we still don’t know precisely what particle it is. The Standard Model Higgs should have a couple of properties: it should be scalar and should have a spin of zero. According to Hill, the new particle is almost certainly scalar; he showed a graph where the alternative, pseudoscalar, was nearly ruled out. Right now, spin is less clearly defined. It’s likely to be zero, but we haven’t yet ruled out a spin of two. So far, so Higgs-like.

The Higgs is the particle form of a quantum field that pervades our Universe (it’s a single quantum of the field), providing other particles with mass. In order to do that, its interactions with other particles vary—particles are heavier if they have stronger interactions with the Higgs. So, teams at CERN are sifting through the LHC data, checking for the strengths of these interactions. So far, with a few exceptions, the new particle is acting like the Higgs, although the error bars on these measurements are rather large.

As we said above, the Higgs is detected in a number of channels and each of them produces an independent estimate of its mass (along with an estimated error). As of the data Hill showed, not all of these estimates had converged on the same value, although they were all consistent within the given errors. These can also be combined mathematically for a single estimate, with each of the two detectors producing a value. So far, these overall estimates are quite close: CMS has the particle at 125.8GeV, Atlas at 125.2GeV. Again, the error bars on these values overlap.

Oops, there goes the Universe

That specific mass may seem fairly trivial—if it were 130GeV, would you care? Lykken made the argument you probably should. But he took some time to build to that.

Lykken pointed out, as the measurements mentioned above get more precise, we may find the Higgs isn’t decaying at precisely the rates we expect it to. This may be because we have some details of the Standard Model wrong. Or, it could be a sign the Higgs is also decaying into some particles we don’t know about—particles that are dark matter candidates would be a prime choice. The behavior of the Higgs might also provide some indication of why there’s such a large excess of matter in the Universe.

But much of Lykken’s talk focused on the mass. As we mentioned above, the Higgs field pervades the entire Universe; the vacuum of space is filled with it. And, with a value for the Higgs mass, we can start looking into the properties of the Higgs filed and thus the vacuum itself. “When we do this calculation,” Lykken said, “we get a nasty surprise.”

It turns out we’re not living in a stable vacuum. Eventually, the Universe will reach a point where the contents of the vacuum are the lowest energy possible, which means it will reach the most stable state possible. The mass of the Higgs tells us we’re not there yet, but are stuck in a metastable state at a somewhat higher energy. That means the Universe will be looking for an excuse to undergo a phase transition and enter the lower state.

What would that transition look like? In Lykken’s words, again, “fireballs of doom will form spontaneously and destroy the Universe.” Since the change would alter the very fabric of the Universe, anything embedded in that fabric—galaxies, planets, us—would be trashed during the transition. When an audience member asked “Are the fireballs of doom like ice-9?” Lykken replied, “They’re even worse than that.”

Lykken offered a couple of reasons for hope. He noted the outcome of these calculations is extremely sensitive to the values involved. Simply shifting the top quark’s mass by two percent to a value that’s still within the error bars of most measurements, would make for a far more stable Universe.

And then there’s supersymmetry. The news for supersymmetry out of the LHC has generally been negative, as various models with low-mass particles have been ruled out by the existing data (we’ll have more on that shortly). But supersymmetry actually predicts five Higgs particles. (Lykken noted this by showing a slide with five different photos of Higgs taken at various points in his career, in which he was “differing in mass and other properties, as happens to all of us.”) So, when the LHC starts up at higher energies in a couple of years, we’ll actually be looking for additional, heavier versions of the Higgs.

If those are found, then the destruction of our Universe would be permanently put on hold. “If you don’t like that fate of the Universe,” Lykken said, “root for supersymmetry”

Nerds e esportes: uma pesquisa estatística

Nerds são classicamente descritos como incapazes de praticar esportes. Isso é verdade? Você poderia se manifestar?

1) Você se considera nerd?

2) Você se considera sedentário?

3) Você pratica algum esporte? Qual?

4) Você tem alguma religião?

5) Em quem você votou na eleição  de 2010?

Outra discussão é a questão da onipresença do futebol no Brasil e no mundo. Me defino como Afutebolista, ou seja, alguém que não acredita que o futebol seja benéfico para a Humanidade, sendo contra a idolatria do futebol, que é uma verdadeira religião secular. Proponho as seguintes teses:

1) O espaço dado na mídia para o futebol é exagerado e alienante. Outros esportes são prejudicados por pouca cobertura, fora a questão de que tal espaço de mídia poderia ser usado para se discutir ciência e cultura.

2) O Futebol é uma religião secular, com seus extases dominicais, seus ídolos, seu fanatismo, o incentivo a superstições (amuletos, simpatias para ganhar a partida), sua violência intrínseca que gera dezenas de mortes por ano no Brasil e provocou até mesmo uma Guerra entre Honduras e El Salvador. Ou seja, na America Latina, nunca tivemos uma guerra de cunho religioso (a menos que se conte Canudos) mas tivemos uma guerra de cunho futebolístico.

3) A FIFA tem mais países membros do que a ONU. Tem mais seguidores que a Igreja Católica. É  machista pois não admite juízas nos jogos principais. É mais rica que a Igreja Católica e faz muito menos ação social que a mesma. Está envolvida em casos de corrupção bem maiores que o Banco do Vaticano.

4) O dinheiro gasto por pessoas pobres para ir no estadio pode ultrapassar o dízimo de seu salario.

5) Existe uma grande discriminação quando te perguntam qual o seu time e você diz que não gosta de futebol. Te olham mais estranho do que se você fosse ateu, afinal existem mais ateus no Brasil do que afutebolistas.

6) Se uma pessoa declarar-se afutéia, ou seja, que detesta o futebol, ela será discriminada e ficaria em ultimo lugar numa eleição para presidente, atrás dos ateus (afinal, já tivemos vários presidentes ateus, mas nenhum que detestasse o futebol).

7) O futebol envolve um desperdício enorme de recursos (haja visto a atual copado mundo no Brasil). A Africa do Sul reconhece hoje que a Copa não trouxe nada de permanente para o país, apenas o enriquecimento de empresas e políticos corruptos.

8) Não existe separação entre Estado e Futebol. Por que o dinheiro do meu imposto deve ser gasto nessa religião secular se eu acho que o futebol é pernicioso para a sociedade? Que haja um estado verdadeiramente laico, separação total entre Estado e Estádios, Governo Laico e Futebol.

9) As crianças são educadas desde cedo, vestindo camisa, etc, sem lhe serem dadas a opção de escolha do time. Nesse sentido, pais que forçam goela abaixo o futebol para os filhos são análogos a estupradores mentais pedófilos.

10) Quanto maior o QI, menos a pessoa gosta de futebol (ver os nerds). Logo, o futebol emburrece, e deveria ser substituído pelo xadrez como esporte nacional.

UPDATE: Para quem não entendeu, o texto é uma paródia…

Probabilidade de ocorrer um evento maior que o “11 de setembro” ultrapassa os 95%

Statisticians Calculate Probability Of Another 9/11 Attack

According to the statistics, there is a 50 per cent chance of another catastrophic terrorist attack within the next ten years

3 comments

THE PHYSICS ARXIV BLOG

Wednesday, September 5, 2012

Earthquakes are seemingly random events that are hard to predict with any reasonable accuracy. And yet geologists make very specific long term forecasts that can help to dramatically reduce the number of fatalities.

For example, the death toll from earthquakes in the developed world, in places such as Japan and New Zealand, would have been vastly greater were it not for strict building regulations enforced on the back of well-founded predictions that big earthquakes were likely in future.

The problem with earthquakes is that they follow a power law distribution–small earthquakes are common and large earthquakes very rare but the difference in their power is many orders of magnitude.

Humans have a hard time dealing intuitively with these kinds of statistics. But in the last few decades statisticians have learnt how to handle them, provided that they have a reasonable body of statistical evidence to go on.

That’s made it possible to make predictions about all kinds of phenomena governed by power laws, everything from earthquakes, forest fires and avalanches to epidemics, the volume of email and even the spread of rumours.

So it shouldn’t come as much of a surprise that Aaron Clauset at the Santa Fe Institute in New Mexico and Ryan Woodard at ETH, the Swiss Federal Institute of Technology, in Zurich have used this approach to study the likelihood of terrorist attacks.  Read more [+]

Física Estatística de eleições

Multimode Control Attacks on Elections

(Submitted on 11 Jul 2010)

In 1992, Bartholdi, Tovey, and Trick opened the study of control attacks on elections—attempts to improve the election outcome by such actions as adding/deleting candidates or voters. That work has led to many results on how algorithms can be used to find attacks on elections and how complexity-theoretic hardness results can be used as shields against attacks. However, all the work in this line has assumed that the attacker employs just a single type of attack. In this paper, we model and study the case in which the attacker launches a multipronged (i.e., multimode) attack. We do so to more realistically capture the richness of real-life settings. For example, an attacker might simultaneously try to suppress some voters, attract new voters into the election, and introduce a spoiler candidate. Our model provides a unified framework for such varied attacks, and by constructing polynomial-time multiprong attack algorithms we prove that for various election systems even such concerted, flexible attacks can be perfectly planned in deterministic polynomial time.

Comments: 41 pages, 2 tables
Subjects: Computer Science and Game Theory (cs.GT); Computational Complexity (cs.CC); Data Structures and Algorithms (cs.DS); Multiagent Systems (cs.MA)
ACM classes: I.2.11; F.2.2; F.1.3
Report number: URCS TR-2010-960
Cite as: arXiv:1007.1800v1 [cs.GT]

Local ePolitics Reputation Case Study

(Submitted on 11 Feb 2010)

More and more people rely on Web information and with the advance of Web 2.0 technologies they can increasingly easily participate to the creation of this information. Country-level politicians could not ignore this trend and have started to use the Web to promote them or to demote their opponents. This paper presents how candidates to a French mayor local election and with less budget have engineered their Web campaign and online reputation. After presenting the settings of the local election, the Web tools used by the different candidates and the local journalists are detailed. These tools are evaluated from a security point of view and the legal issues that they have created are underlined.

Comments: Published in the Proceedings of the IADIS 2009 e-Society International Conference
Subjects: Computers and Society (cs.CY)
Cite as: arXiv:1002.2297v1 [cs.CY]

The biology dummies tutorial para barras de erros

Error bars in experimental biology.

Geoff Cumming, Fiona Fidler, David L Vaux
Add to My Library ShareThis

The Journal of Cell Biology (2007)
Volume: 177, Issue: 1, Publisher: Rockefeller Univ Press, Pages: 7-11
PubMed ID: 17420288
Available from http://www.ncbi.nlm.nih.gov/

Tags
basics error bars graphing methods standard deviation standard error statistics

Abstract

Error bars commonly appear in figures in publications, but experimental biologists are often unsure how they should be used and interpreted. In this article we illustrate some basic features of error bars and explain how they can help communicate data and assist correct interpretation. Error bars may show confidence intervals, standard errors, standard deviations, or other quantities. Different types of error bars give quite different information, and so figure legends must make clear what error bars represent. We suggest eight simple rules to assist with effective use and interpretation of error bars.
Cuidado! O autor diz: About two thirds of the data points will lie within the region of mean ± 1 SD, and ∼95% of the data points will be within 2 SD of the mean. Mas isso só vale para dados com distribuição aproximadamente Gaussiana. Se os dados tiverem distribuição com cauda longa, leis de potência (leis de Pareto) ou similares, o desvio padrão pode até nem existir (muito menos a média!). Neste caso, talvez seja interessante usar a entropia S = – \sum_i p_i ln p_i, onde p_i é a probabilidade de um valor cair no i-esimo bin (coluna) de uma tabela discretizada de valores. Uma sugestão para a qual ainda preciso encontrar uma referência…

Índice Castrol da seleção brasileira

Castrol Index

Ranking Player Castrol Index Position
23 13 Brazil LUCIO 9.19 Defender
30 8 Brazil JUAN 9.07 Defender
31 29 Brazil MICHEL BASTOS 9.05 Defender
44 23 Brazil MAICON 8.85 Defender
48 -4 Brazil GILBERTO SILVA 8.80 Midfielder
49 30 Brazil LUIS FABIANO 8.78 Forward
91 -14 Brazil FELIPE MELO 8.28 Midfielder
134 -113 Brazil ELANO 7.85 Midfielder
182 -61 Brazil ROBINHO 7.41 Forward
200 -93 Brazil KAKA 7.25 Midfielder
305 79 Brazil JULIO CESAR 6.37 Goalkeeper
369 47 Brazil NILMAR 5.84 Forward
370 17 Brazil DANI ALVES 5.83 Defender
385 Brazil JULIO BAPTISTA 5.70 Midfielder
451 Brazil JOSUE 5.10 Midfielder
495 -65 Brazil RAMIRES 4.64 Midfielder
502 Brazil GRAFITE 4.56 Forward

O futebol é uma caixinha markoviana de surpresas

Copiando descaradamente do blog Chi Vó Non Pó.

Original em inglês: Best Team Not Guaranteed World Cup Success ]

Por que é importante ter um pouco de sorte, junto com uma sólida estrategia para o jogo.

11 de junho de 2010

Por Chris Gorski
Inside Science News Service

Soccer -- GENERIC

Imagem ampliada

Crédito: Christopher Bruno

Informações sobre os direitos

WASHINGTON (ISNS) — A Copa do Mundo dá aos fãs do esporte mais popular do mundo a oportunidade de vibrarem e agonizarem com os altos e baixos das equipes de suas nações. Para os cientistas, sejam ou não fãs, é mais uma oportunidade para coletarem dados e testar hipóteses acerca do quanto a final reflete mesmo as habilidades relativas e desempenho das duas equipes – e se elas usaram as melhores estrategias possíveis para obter a vitória.

Um jogo e um torneio imperfeitos?

Quando a poeira assentar, depois do término no mes que vem dessa Copa do Mundo, provavelmente o campeão não será o time que jogou melhor, diz Gerald Skinner, astrofísico da Universidade de Maryland em College Park.

Após uma discussão no refeitório com seus fanáticos companheiros de mesa, Skinner, que admite não ser um grande entusiasta por esportes, publicou uma pesquisa em 2009 que detalhavam sua afirmação, usando técnicas familiares aos astrônomos. E as descobertas apoiavam sua posição.

“Não chega a ser um processo totalmente aleatório, porem o resultado de uma partida de futebol em particular tem uma grande dose de sorte e aleatoriedade nele”, argumenta Skinner.

A média de gols por partida na Copa de 2006 foi de 2,3 gols por partida. Pela análise do número de gols e sua distribuição, que é melhor descrita pelo fenômeno estatístico chamado de distribução de Poisson, Skinner foi capaz de demonstrar que, se uma partida fosse jogada novamente, o número de gols e até o vencedor poderiam variar consideravelmente, mesmo que ambas as equipes jogassem igualmente bem – em parte porque o futebol é um jogo de baixos escores.

Se uma seleção vence por uma diferença de 3×0, seus torcedores podem estar certos de que o melhor triunfou. Porém, segundo Skinner, se o resultado for 2×1 ou 1×0, a coisa não fica tão clara. Por exemplo, ele descobriu que nos jogos que acabaram em 2×1, quase um terço das vezes não foi o time com a melhor campanha que ganhou.

Essa incerteza influencia todo o torneio. Skinner afirma que a primeira fase da Copa do Mundo provavelmente revela os melhores times de cada chave, já que todos jogam entre si. Mas as fases seguintes são por eliminação simples e as incertezas se acumulam em quatro jogos sucessivos. Skinner calculou que a probailidade de ser a melhor equipe que ganhe a Copa do Mundo fica em torno dos 28%.

“É realmente na fase do mata-mata que a incerteza é introduzida no processo”, argumenta Skinner. “Você tem que vencer quatro vezes contra a chance de um resultado inesperado”.

Skinner propõe que mudanças no jogo que aumentem a média de gols fariam diminuir a chance de alguém ganhar por pura sorte. As opções incluem aumentar o tamanho do gol, ou fazer com que as equipes continuem jogando até uma diferença significativa no número de gols, mas acrescenta “eu tenho que admitir que essas opções não são realísticas”.

Para alguns torcedores, a chance de que qualquer coisa pode acontecer é uma das boas coisas nos esportes. Não importa o quanto improvável for o vencedor, a marra vai durar por quatro anos.

Os times deveriam ser mais ofensivos?

Talvez mesmo porque o futebol seja um jogo de poucos pontos ou talvez porque as equipes temam sofrer um gol de bobeira e perder o jogo, o fato é que muitas equipes parecem defender muito mais do que atacar. Um modelo desenvolvido com base na Teoria dos Jogos – que pode ser usado para descobrir uma estrategia ideal, dado que o(s) adversário(s) também procuram estrategias ideiais – sugere que esse modo de ver pode ser contraproducente.

Este modelo, desenvolvido para analisar estratégias otimizadas em futebol, é o trabalho de Ricardo Manuel Santos, economista do Instituto Tecnologico Autonomo de Mexico na Cidade do Mexico. “O que eu faço é comparar como os times deveriam jogar segundo o modelo e como eles realmente jogam segundo os dados, e eu encontro grandes discrepâncias”, diz ele.

Santos analisou dados de nove anos da Liga dos Campeões da UEFA, que reune as melhores euquipes da Europa e, felizmente, guarda numerosas estatísticas. Ele usou uma técnica chamada análise de fatores que ele descreve como uma maneira de estudar algo que não é diretamente observável, tal como felicidade ou comportamento de um time.

A partir das estatísticas da UEFA, Santos estimou a estrategia dos times baseado no número de chutes a gol, corners, faltas e outros fatores. O modelo refletiu como a estrategia causa impacto em um jogo.

“Eu sou capaz de encontrar a probabilidade de fazer qualquer número de gols, bem como a de levar qualquer número de gols”, afirma Santos. “Eu posso ver como os times jogam, como isso afeta a probabilidade de vencer ou perder o jogo”.

Santos admite que a Liga dos Campeões não é a mesma coisa que a Copa do Mundo, mas ele acredita que as descobertas devem ser aplicáveis a esta última. E ele concede que os técnicos podem não colocar seus times no ataque porque isso pode cansá-los muito cedo em uma partida, ou por outro motivo não aparente nas estatísticas.

Pode ser que os técnicos sejam simplesmente muito conservadores.

“O que eu percebo é que os times deveriam atacar muito mais do que aparentemente o fazem”, diz Santos. “Eles deveriam atacar muito, quando na verdade eles parecem defender muito”.

Será que um time ofensivo pode tomar conhecimento dessa pesquisa, ter um ou dois lances de sorte e ganhar a Copa do Mundo? Possivelmente.

Uma coisa é certa: o mundo inteiro vai estar de olho.

A ciência do futebol arte


Enviado por Roberto Takata:

Quantifying the Performance of Individual Players in a Team Activity

Jordi Duch1,2,3Joshua S. Waitzman1Luís A. Nunes Amaral1,2,4*

Background

Teamwork is a fundamental aspect of many human activities, from business to art and from sports to science. Recent research suggest that team work is of crucial importance to cutting-edge scientific research, but little is known about how teamwork leads to greater creativity. Indeed, for many team activities, it is not even clear how to assign credit to individual team members. Remarkably, at least in the context of sports, there is usually a broad consensus on who are the top performers and on what qualifies as an outstanding performance.

Methodology/Principal Findings

In order to determine how individual features can be quantified, and as a test bed for other team-based human activities, we analyze the performance of players in the European Cup 2008 soccer tournament. We develop a network approach that provides a powerful quantification of the contributions of individual players and of overall team performance.

Conclusions/Significance

We hypothesize that generalizations of our approach could be useful in other contexts where quantification of the contributions of individual team members is important.

Futebol computacional


Eu duvido que esses modelos Poissonianos funcionem, mas fica 
como referencia: 

http://arxiv.org/abs/1004.2003 
The Socceral Force 

Norbert Bátfai 
(Submitted on 12 Apr 2010 (v1), last revised 22 Apr 2010 (this 
version, v2)) 
We have an audacious dream, we would like to develop a 
simulation and virtual reality system to support the decision 
making in European football (soccer). In this review, we 
summarize the efforts that we have made to fulfil this dream 
until recently. In addition, an introductory version of FerSML 
(Footballer and Football Simulation Markup Language) is 
presented in this paper. 
Comments: 20 pages, 13 figures, added FerSML 0.0.2 
Subjects: Artificial Intelligence (cs.AI); Software 
Engineering (cs.SE) 
MSC classes: 68T35 
ACM classes: H.5.1 
Cite as: arXiv:1004.2003v2 [cs.AI] 

http://arxiv.org/abs/1002.0797 
Soccer: is scoring goals a predictable Poissonian process? 

Andreas Heuer, Christian Mueller, Oliver Rubner 
(Submitted on 3 Feb 2010 (v1), last revised 3 Mar 2010 (this 
version, v2)) 
The non-scientific event of a soccer match is analysed on a 
strictly scientific level. The analysis is based on the 
recently introduced concept of a team fitness (Eur. Phys. J. B 
67, 445, 2009) and requires the use of finite-size scaling. A 
uniquely defined function is derived which quantitatively 
predicts the expected average outcome of a soccer match in 
terms of the fitness of both teams. It is checked whether 
temporary fitness fluctuations of a team hamper the 
predictability of a soccer match. 
To a very good approximation scoring goals during a match can 
be characterized as independent Poissonian processes with pre- 
determined expectation values. Minor correlations give rise to 
an increase of the number of draws. The non-Poissonian overall 
goal distribution is just a consequence of the fitness 
distribution among different teams. The limits of 
predictability of soccer matches are quantified. Our model-free 
classification of the underlying ingredients determining the 
outcome of soccer matches can be generalized to different types 
of sports events. 
Subjects: Data Analysis, Statistics and Probability 
(physics.data-an); Physics and Society (physics.soc-ph) 
Journal reference: Europhys. Lett. 89 (2010) 38007 
DOI: 10.1209/0295-5075/89/38007 
Cite as: arXiv:1002.0797v2 [physics.data-an] 

http://arxiv.org/abs/0909.4555 
Soccer matches as experiments: how often does the ‘best’ team 
win? 

G. K. Skinner, G. H. Freeman 
(Submitted on 24 Sep 2009) 
Models in which the number of goals scored by a team in a 
soccer match follow a Poisson distribution, or a closely 
related one, have been widely discussed. We here consider a 
soccer match as an experiment to assess which of two teams is 
superior and examine the probability that the outcome of the 
experiment (match) truly represents the relative abilities of 
the two teams. Given a final score, it is possible by using a 
Bayesian approach to quantify the probability that it was or 
was not the case that ‘the best team won’. For typical scores, 
the probability of a misleading result is significant. 
Modifying the rules of the game to increase the typical number 
of goals scored would improve the situation, but a level of 
confidence that would normally be regarded as satisfactory 
could not be obtained unless the character of the game was 
radically changed. 
Comments: Contact the corresponding author in case of 
difficulty in accessing the published paper 
Subjects: Physics and Society (physics.soc-ph); Data 
Analysis, Statistics and Probability (physics.data-an); 
Applications (stat.AP) 
Journal reference: Journal of Applied Statistics Vol. 36, 
No. 10, October 2009, 1087-1095 
DOI: 10.1080/02664760802715922 
Cite as: arXiv:0909.4555v1 [physics.soc-ph] 

http://arxiv.org/abs/0803.0614 
Fitness, chance, and myths: an objective view on soccer results 

Andreas Heuer, Oliver Rubner 
(Submitted on 5 Mar 2008 (v1), last revised 20 Mar 2009 (this 
version, v4)) 
We analyze the time series of soccer matches in a model-free 
way using data for the German soccer league (Bundesliga). We 
argue that the goal difference is a better measure for the 
overall fitness of a team than the number of points. It is 
shown that the time evolution of the table during a season can 
be interpreted as a random walk with an underlying constant 
drift. Variations of the overall fitness mainly occur during 
the summer break but not during a season. The fitness 
correlation shows a long-time decay on the scale of a quarter 
century. Some typical soccer myths are analyzed in detail. It 
is shown that losing but no winning streaks exist. For this 
analysis ideas from multidimensional NMR experiments have been 
borrowed. Furthermore, beyond the general home advantage there 
is no statistically relevant indication of a team-specific home 
fitness. Based on these insights a framework for a statistical 
characterization of the results of a soccer league is 
introduced and some general consequences for the prediction of 
soccer results are formulated. 
Comments: tex-file, 31 pages,16 figures 
Subjects: Data Analysis, Statistics and Probability 
(physics.data-an); Physics and Society (physics.soc-ph) 
DOI: 10.1140/epjb/e2009-00024-8 
Cite as: arXiv:0803.0614v4 [physics.data-an] 

Americanos revolucionam futebol

Em termos de esportes, é bem conhecida a fascinação dos americanos por estatísticas. Neste blog do New York Times você pode encontrar dados estatísticos minuto a minuto das partidas da Copa.  Muito interessante… para um físico estatístico.
Idéia para um paper: claramente as estatísticas para intervalos entre posse de bola, chutes a gol, escanteios e faltas não seguem uma distribuição de Poisson, mas lembram uma distribuição com lei de potência (com cut-off de 45 min, claro!) ou talvez uma log-normal. Para um exemplo, veja as estatísticas do jogo Uruguai vs França aqui. Dá para entender algo disso: a probabilidade de um escanteio seguir outro é alta e, quando um time está pressionando outro, os chutes a gol podem sair em sequência (não está claro a origem da distribuição não uniforme de faltas).
Na verdade, existem boas razões para se acreditar que o jogo de futebol não é Markoviano nem estacionário. Mas então, seria possível modelar (gerar) essas distribuições de modo simples?
Idéia: Coletar estatísticas desse blog (usando o Match Analysis?) e mostrar que essas distribuções não são Poisson. Daí propor um modelo que gere essas distribuições.

Vida no Multiverso


The Drake Equation For The Multiverse

Posted: 09 Feb 2010 09:10 PM PST

The famous Drake equation estimates the number of intelligent civilisations in the Milky Way. Now a new approach asks how many might exist in the entire multiverse

In 1960, the astronomer Frank Drake devised an equation for estimating the number of intelligent civilisations in our galaxy. He did it by breaking down the problem into a hierarchy of various factors.

He suggested that the total number of intelligent civilisations in the Milky Way depends first on the rate of star formation. He culled this number by estimating the fraction of these stars with rocky planets, the fraction of those planets that can and do support life and the fraction of these that go on to support intelligent life capable of communicating with us. The result is this equation:

which is explained in more detail in this Wikipedia entry.

Today, Marcelo Gleiser at Dartmouth College in New Hampshire points out that cosmology has moved on since the 1960s. One of the most provocative new ideas is that the universe we see is one of many, possibly one of an infinite number. One line of thinking is that the laws of physics may be very different in these universes and that carbon-based life could only have arisen in those where conditions were fine-tuned in a particular way. This is the anthropic principle.

Consequently, says Gleiser, the Drake Equation needs updating to take the multiverse and the extra factors it introduces into account.

He begins by considering the total set of universes in the multiverse and defines the subset in which the parameters and fundamental constants are compatible with the anthropic principle. This is the subset {ccosmo}.

He then considers the subset of these universes in which astrophysical conditions are ripe for star and galaxy formation {c-astro}. Next he looks at the subset of these in which planets form that are capable of harbouring life {c-life}. And finally he defines the subset of these in which complex life actually arises {c-complex life}.

Then the conditions for complex life to emerge in a particular universe in the multiverse must satisfy the statement at the top of this post (where the composition symbol denotes ‘together with’).

But there’s a problem: this is not an equation. To form a true Drake-like argument, Gleiser would need to assign probabilities to each of these sets allowing him to write an equation in which the assigned probabilities multiplied together, on one side of the equation, equal the fraction of universes where complex life emerges on the other side.

Here he comes up against one of the great problems of modern cosmology–that without evidence to back up their veracity, many ideas in modern cosmology are little more than philosophy. So assigning a probability to the fraction of universes in the multiverse in which the fundamental constants and laws satisfy the anthropic principle is not just hard, but almost impossible to formulate at all.

Take {c-cosmo} for example. Gleiser points out a few of the obvious parameters that would need to taken into account in deriving a probability. These are the vacuum energy density, matter-antimatter asymmetry, dark matter density, the couplings of the four fundamental forces and the masses of quarks and leptons so that hadrons and then nuclei can form after electroweak symmetry breaking. Try assigning a probability to that lot.

Neither is it much easier for {c-astro}. This needs to take into account the fact that heavy elements seem to be important for the emergence of life which only seem to occur in galaxies above a certain mass and in stars of a certain type and age. Estimating the probability of these conditions occurring is still beyond astronomers.

At first glance, the third set {c-life} ought to be easier to handle. This must take into account the planetary and chemical constraints on the formation of life. The presence of liquid water and various elements such as carbon, oxygen and nitrogen seem to be important as do more complex molecules. How common these conditions are, we don’t yet know.

Finally there is {c-complex life}, which includes all the planetary factors that must coincide for complex life to emerge. These may include long term orbital stability, the presence of a magnetic field to protect delicate biomolecules, plate tectonics, a large moon and so on. That’s not so easy to estimate either.

Many people have tried to put the numbers into Drake’s equation. The estimates for the number of intelligent civilisations in the Milky Way ranges from one (ours) to countless tens of thousands. Drake himself put the number at 10.

Gleiser’s take on the Drake equation for the Multiverse is an interesting approach. What it tells us, however, is that our limited understanding of the universe today does not allow us to make any reasonable estimate of the number of intelligent lifeforms in the multiverse (more than one). And given the limits on what we can ever know about other universes, it’s likely that we’ll never be able to do much better than that.

Ref: arxiv.org/abs/1002.1651: Drake Equation For the Multiverse: From String Landscape to Complex Life

Qual foi a melhor seleção brasileira?

New Statistical Method Ranks Sports Players From Different Eras

Posted: 02 Mar 2010 09:10 PM PST

A new statistical approach reveals the intrinsic talent of sportsmen and women, regardless of the era in which they played.

It’s a problem that leaves brows furrowed on barstools across the world: how to rate the sportsmen and women of the day against the stars of yesteryear.


There’s no easy way to make meaningful comparisons when sports change so dramatically over the years. Even in endeavours like baseball where player stats have been meticulously kept for almost a hundred years, comparisons across the decades can be odious. Is it really fair to compare players from the 1920s against those of the last 20 years when so many external factors have changed such as the use of new equipment, better training methods and, of course, performance enhancing drugs?


In 1914, the National League Most Valuable Player was Johnny Evers with a batting average of 0.279, 1 Home Run and 40 Runs Batted In. That was impressive then but these stats would embarrass even a second rate player in today’s game.


But what if there were a way to remove the systematic differences to reveal intrinsic talent? Today, Alexander Petersen at Boston University and a few pals explain just such a method that “detrends” the data leaving an objective measure of a player’s raw ability.


The detrending process is a statistical trick that essentially rates all players relative only to their contemporaries. This effectively cancels out the effect of performance-enhancing factors which are equally available to everybody in a given era. The detrended stats then allows them to be objectively compared with players from other eras and the end product is a ranking of pure talent.


Petersen and co compare the detrended rankings against the traditional ones for several standard baseball metrics, such as Career Home Runs, Season Home Runs and so on.


The results will be an eye-opener for some fans and Petersen and co provide an interesting commentary on the new tables. For example, their new list of the top 50 individual home run performances by season does not contain a single entry after 1950. Not even the performance of Barry Bonds in 2001 or of Mark McGwire in 1998 make the list. In fact, Babe Ruth’s achievements from the 1920s fill seven of the top ten slots.


Petersen and co are at pains to point out why this is: “It behooves us to point out that these results do not mean that Babe Ruth was a better slugger than any other before or after him, but rather, relative to the players during his era, he was the best home run hitter, by far, of all time.”

The Boston team say their method can be applied to other sports with professional leagues such as American basketball, Korean baseball and English football. And it also works in ranking research scientists too.


Petersen and co may not actually settle any barstool brow-creasers with this paper but they’ve clearly had some fun in trying.


Ref: arxiv.org/abs/1003.0134: Detrending Career Statistics In Professional Baseball: Accounting For The Steroids Era And Beyond

Aleatoriedade quântica

First Evidence That Quantum Processes Generate Truly Random Numbers
Posted: 12 Apr 2010 09:10 PM PDT

Quantum number generators produce random numbers that are measurably different from those that computer programs generate.

There is a growing sense among physicists that all physical processes can be thought of in terms of the information they store and process; by some accounts information is the basic unit of existence in our cosmos. That kind of thinking has extraordinary implications: it means that reality is a kind of computation in which the basic processes at work simply chomp their way through a vast bedrock of information.

And yet this is at odds with another of the great challenges facing modern science: understanding the nature of randomness. While information can be defined as an ordered sequence of symbols, randomness is the opposite of order, the absence of pattern. One of the basic features of true randomness is that it cannot be produced by a computer, otherwise it wouldn’t be random and that sets up a mouthwatering problem.

If all physical processes in the universe are ongoing computations, how does randomness arise? What kind of process can be responsible for its creation?

Until recently, mathematicians could only study randomness generated by classical physical processes such as coin tosses or computer programs which generate so-called pseudo-randomness. Since physical processes like coin tosses are hard to prove unbiased and difficult to manage, the work horse random number generators are programs such as Mathematica which uses the interesting properties of cellular automata to generate psedorandom sequences of numbers. Another method is simply to choose a sequence of numbers from the digits of an irrational number such as pi.

This stuff looks and feels random but because it can be computed, mathematicians treat it with suspicion.

But in the last few years, scientists have found a new source of randomness that cannot be produced by a computer program. This is called algorithmic randomness and it is the gold standard when it comes to the absence of order. The new source of this randomness is the quantum world and comes from exploiting quantum processes such as whether a photon is transmitted or reflected by a semi-silvered mirror.

This ought to produce sequences that can never be created by a computer. But are these sequences measurably different from those produced by computers?
This question is settled today by Cristian Calude at the University of Auckland in New Zealand and a few mates. These guys have carried out the first experimental comparison of randomness generated in these different ways and they’ve done it on a huge scale, using sequences 2^32 long.

Calude and co compare several flavours of random sequence generated in different ways.The sequences come from a quantum random number generator called Quantis, another from physicists in Vienna who also exploit quantum processes, they also use conventional sequences generated by computer programs such as Mathematica and Maple as well as a sequence of 2^32 bits from a binary expansion of pi.

The team use four different tests in their comparison, which fall into four categories based on algorithmic information theory, statistical tests involving frequency counts, a test based on Shannon’s information theory and finally, a test based on random walks.

The results show that the sequence generated by Quantis is easily distinguishable from the other data sets. This say Calude and co, is evidence that quantum randomness is indeed incomputable. That means that it could not have been be generated by a computer.

Significantly, they leave unanswered the question of how convincing this evidence is that they’ve gathered and instead go to some length to point out that it is impossible to prove absolute randomness.

Nevertheless, if this evidence is taken at face value, it leaves us with a significant conceptual dilemma. On the one hand, it shows that Quantis produces sequences of random numbers that cannot be generated by a computer. And yet Quantis itself is a machine that must work by manipulating information in the way the laws of physics allow–it must be a computer of sorts.

This contradiction can only mean there is something wrong with the way we think about randomness or information or both (or at least with the way I’ve set it up here).

Of course, the answer must lie in the nature of information in the quantum world. It’s easy enough to define information classically as an ordered sequence of symbols. But that definition falls apart as soon as these symbols become quantum in nature.

If each bit can be both a 1 and a 0 at the same time, what does it mean for such a such a sequence to be in order? Equally, what would the absence of order look like in such a quantum sequence?

It’s in the tackling these questions that the nature of our universe is being teased apart.

Ref: arxiv.org/abs/1004.1521: Experimental Evidence of Quantum Randomness Incomputability

Amor em Londres: uma aplicação prática da Equação de Drake

Quem disse que a pesquisa em SETI não serve para nada?

Amor em Londres é tão raro quanto encontrar aliens, indica cálculo


da Folha Online

Romances podem acontecer diariamente, mas encontrar um verdadeiro amor em Londres é tão raro quanto alienígenas na galáxia, segundo divulgou um economista londrino nesta terça-feira (19).

Peter Backus, professor de economia na Universidade de Warwick, calculou que ele tem 0,00034% de chances de encontrar um amor na capital inglesa, usando a equação de Drake, que é aplicada por cientistas para determinar o número potencial de extraterrestres na nossa galáxia.

Bridget Jones -27.set.99/AP
Casal observa peças de ouro em joalheria de Londres; cálculo prevê 0,00034% de chances de encontrar um amor na capital inglesa
Casal observa peças de ouro em joalheria de Londres; cálculo prevê 0,00034% de chances de encontrar amor na capital inglesa

O nome da equação provém do astrônomo e astrofísico Frank Drake, responsável por desenvolver a equação no começo dos anos 1960.

Backus, 31, vive na região central de Londres, não idealizou nada em especial na parceira ideal, pedindo apenas que ela fosse uma mulher radicada em Londres, com idade entre 24 e 34 anos, e também com formação universitária.

“Não estou tentando ser elitista ou qualquer outra coisa”, disse sobre a exigência educacional. “Qualquer um tem preferências. Eu acho só que teríamos mais em comum.”

Reduzindo ainda mais as suas chances, ele estimou que se sentiria fisicamente atraído por apenas 5% das mulheres com todos estes critérios.

Isso significa que há por volta de 10,5 mil mulheres no Reino Unido que preenchem todos os critérios de Backus, disse ele –há por volta de 10 mil civilizações com potencial de comunicação que podem existir na Via Láctea, de acordo com a equação Drake.

Então apenas 0,14% dos londrinos e 0,017% da população britânica se enquadra nas exigências de Backus.

Mas aí a coisa se complica.

Se a mulher dos sonhos do economista é tão exigente quanto ele, suas chances de encontrar alguém que corresponda ao nível é apenas de 0,00034%.

“Há 26 mulheres no Reino Unido com as quais eu talvez tivesse um relacionamento maravilhoso. Então, em uma noite londrina, há 0,00034% de chances de encontrar uma dessas pessoas especiais”, diz ele.

“Isso é uma em 285 mil chances. Nada formidável.”

Gripe suína: O papel do rearranjo gênico

Tentando responder a pergunta do Cláudio, reproduzo abaixo um ótimo texto doÁtila Iamarino no Influenza A (H1N1) Blog. Fiquei apenas com uma dúvida: Rearranjo é o mesmo que cross-over?

13/11/2009

Diversidade do Influenza e o rearranjo

Escrito por Atila Iamarino

Uma das características mais importantes do Influenza a ser considerada no preparo para pandemias é o rearranjo. Uma mistura de genes de dois ou mais vírus diferentes capaz de gerar uma variedade nova. Como o novo Influenza A (H1N1).

ResearchBlogging.org

Embora as mutações tenham um papel importante na diversidade do Influenza, e contribuam bastante para que tenhamos de desenvolver novas vacinas anualmente, o rearranjo causa uma variação antigênica brusca (antigenic shift) que pode gerar um vírus completamente novo para nosso sistema imune.

O rearranjo é uma decorrência do ciclo do Influenza e de seus 8 genes. Quando o vírus entra na célula, seus genes se replicam no núcleo e saem dele para o citoplasma para poderem ser empacotados. Todos os 8 genes precisam entrar na nova partícula viral formada para que ela seja infectiva. Para isso, cada gene possui uma sequência sinal que interage com a proteína M1, que dá a estrutura da partícula viral. Mas este sinal é parecido mesmo em vírus distintos, e os genes de um podem ser empacotados junto de genes de outro.

rearranjo_

Quando dois Influenzas diferentes entram em uma mesma célula, seus genes podem se rearranjar na formação de novas partículas virais.

Com isso, nos raros eventos – raros em relação à infecções por um só vírus – em que dois Influenza diferentes entram na mesma célula, diferentes mosaicos de genes podem ser formados nas partículas que sairão. A maioria destas combinações não será viável, mas algumas entre as milhares podem ser infecciosas, e uma porcentagem menor ainda pode ser mais infecciosa do que os vírus originais. Este é o rearranjo.

A loteria do rearranjo, onde os genes são embaralhados e sorteados, pode originar linhagens de Influenza muito perigosas. Basta pensar na possibilidade do H5N1 altamente patogênico adquirir genes que o ajudem a se espalhar com mais eficiência, ou no caso do Influenza A (H1N1) adquirir genes que aumentem a gravidade da gripe que ele causa.

É desta forma que o Influenza tem se rearranjado e misturado genes em aves, porcos e humanos. E dado o estrago causado por estas variantes híbridas, este é um evento fundamental no surgimento de linhagens pandêmicas. O rearranjo tem a vantagem de trazer para seu genoma componentes inéditos.

Genes de vírus de mamíferos que já estão otimizados para crescer em uma temperatura corpórea do hospedeiro de cerca de 37°C, contra cerca de 40°C em aves, se misturam com novos HA e NA aviários que não serão nem um pouco reconhecidos pelo anticorpos. Uma mudança muito maior do que as mutações. Os porcos possuem um papel importante aqui. Eles não só convivem entre humanos e aves de criação como possuem ambos os tipos de receptor de membrana. Assim, podem ser infectados com vírus aviários e humanos e fornecer um ambiente com condições para que o híbrido se adapte ao nosso metabolismo.

São eventos como estes que deram origem aos vírus que causaram a maioria das pandemias de gripe. Embora o H1N1 de 1918 pareça ser um vírus que veio diretamente de aves para humanos – independente de ter passado por porcos antes ou não, provavelmente foi transmitido como um vírus inteiro – em 1957, um evento de rearranjo com um vírus aviário forneceu novas HA e NA que permitiram que o vírus causasse muito mais estrago, na chamada Gripe Asiática. Em 1968, novamente em um rearranjo, o vírus adquiriu uma nova Hemaglutinina aviária e causou a Gripe de Hong Kong.

Mesmo eventos de rearranjo dentro de uma mesma linhagem são capazes de causar doenças mais severas e falha na cobertura da vacina, como os surtos de gripe de 1947, 1851, 1997 e 2003. Os dois primeiros foram eventos decorrentes de rearranjos do H1N1 e os dois últimos do H3N2 humanos.

Agora em 2009 vivemos outro reflexo do rearranjo, desta vez em vírus suínos. Em 1918 o H1N1 aviário passou a circular tanto em humanos quanto em porcos, gerando linhagens distintas e presentes até hoje. Em 1997, um novo vírus suíno surgiu na América do Norte, de um triplo rearranjo, com uma combinação de genes de Influenza humanos (nosso H3N2 gerado em 1968), suínos e aviários. Trata-se do H1N2 suíno. – Os porcos da Europa estavam virtualmente livres de gripe até 1976, quando o H1N1 suíno foi trazido em um carregamento de porcos da América do Norte. Este foi rapidamente substituído por um H1N1 aviário em 1979.

Por fim, em 2008, o triplo rearranjado circulante em porcos na América do Norte se rearranjou novamente, com o vírus suíno H1N1 da Eurásia. Ainda não se sabe se este evento ocorreu em porcos ou em humanos. O mais provável é que tenha ocorrido em humanos, uma vez que ainda não encontramos porcos contaminados. Este novo Influenza A (H1N1) contaminou humanos e está causando a atual pandemia.

Fontes:

Palese, P. (2004). Influenza: old and new threats Nature Medicine, 10 (12s) DOI: 10.1038/nm1141

10.1056/NEJMp0904819

Morens, D., Taubenberger, J., & Fauci, A. (2009). The Persistent Legacy of the 1918 Influenza Virus New England Journal of Medicine, 361 (3), 225-229 DOI: 10.1056/NEJMp0904819

Gripe Suína: a segunda onda

A segunda onda epidêmica de gripe suína no Brasil deve chegar por volta de março, se o padrão observado no hemisfério norte for seguido. Duas notícias ruins apareceram hoje, e fico pensando se o Ministério da Saúde não deveria se preparar para vários cenários, mesmo alguns bem ruinzinhos (por exemplo, 1% de mortalidade e resistência do vírus ao Tamiflu).

Mutações do H1N1 encontradas na Noruega são as mesmas da Ucrânia e do Brasil.

Um novo comentário no site da Recombinomics demonstra claramente que a OMS assim como órgão políticos internacionais estão tentando minimizar a situação das mutações do H1N1. – Segue abaixo a tradução do comentário da OMS sobre o tema:

A descrição de um artigo analisando as diferenças de domínio de ligação ao receptor em seqüências da pandemia de 1918, a variante ” The New York tinha D225G”, possui a mesma alteração encontrada nas sequências encontradas em tecidos pulmonares de casos fatais de H1N1 no Brasil, Ucrânia e Noruega. O resultado demonstra claramente uma mudança na especificidade de receptor para D225G, que estava presente em A / New York/1/1918 e A/London/1/1919, demonstrando a mesma mudança que houve em 1918 tem sido descrita em 2009. Embora a OMS afirme que esta mudança “não foi significativa nas amostras Ucrânia”, a questão da mesma ser associada aos casos fatais e é motivo de preocupação. A preocupação foi reforçada pelo anúncio da Noruega, indicando que a mesma alteração foi encontrada em infecções pulmonares fatais de H1N1 lá também.

Embora tenha havido comentários de que esta mudança foi “espontânea” e não se espalhou, a existência da mesma alteração em todos os quatro pacientes falecidos na Ucrânia, em dois locais distintos, indica que se espalharam, assim como a existência da mesma alteração em vários casos no Brasil e na Noruega. Embora o conceito de “mutações aleatórias” ter sido usada para explicar o repentino aparecimento do polimorfismo mesmo em fundos múltiplos, o aparecimento via recombinação é um argumento muito forte para a mesma alteração a aparecer em vários locais ao mesmo tempo.

A teoria de mutação espontânea, que é o fundamento da política da OMS e declarações sobre a importância das mudanças depende fortemente de uma seleção “componente”, argumentando que a mesma mudança continua aparecendo em diferentes origens por causa da pressão de seleção de cadeia. No entanto, esse mesmo fenômeno foi descrito por uma mutação silenciosa no H5N1, que não oferece nenhuma pressão de seleção claro. Da mesma forma, uma mudança silenciosa também foi encontrada no H1N1 em seqüências que tinham adquirido o marcador de resistência ao Tamiflu, H274Y. Assim, essas silenciosas seqüências de mudanças argumentam contra uma mutação por coincidência espontânea e posicionam que esta aquisição é simultaneamente adquirida por causa de um doador general comum.

O conceito de aquisição através de recombinação tem sérias implicações para a pandemia atual. Foi usado para prever a mudança D225G, em parte porque a mudança foi “em jogo” e aparecendo em julho/agosto de seqüências de freqüência crescente, embora as seqüências do H1N1 representam diferentes origens genéticas. Da mesma forma os grupos de resistência ao Tamiflu em Gales e na Carolina do Norte também são impulsionadas por recombinação, como aconteceu quando a mudança idêntica foi adquirida em H1N1 da gripe sazonal em doentes que não tomavam Tamiflu (oseltamivir).

Assim, o conceito de recombinação prevê que o receptor D225G com mudança domínio de ligação, e a mudança H274Y, que causa a resistência de Tamiflu, continuam a se espalhar através de recombinação.

– O texto original pode ser lido no site da Recombinomics

EUA: crianças morrem seis vezes mais com gripe A

Bem escondidinho no último boletim disponível do Ministério da Saúde (19/outubro/2009) temos a informação de óbitos.
Entre os 17.219 casos confirmados de influenza pandêmica, 1.368 (8%) evoluíram para óbito. Cabe destacar que o acréscimo no número de óbitos em relação ao último boletim refere-se aos casos antigos de SRAG que tiveram confirmação laboratorial e que foram atualizados no SINAN. Segundo a data dos óbitos por influenza pandêmica, 53% (720/1.368) ocorreram entre 16 de julho a 16 de agosto de 2009 (Gráfico 6).
Outras informações:

EUA: crianças morrem seis vezes mais com gripe A

Números do CDC comparados com o registo de mortes da gripe sazonal

Quase quatro mil (3900) norte-americanos morreram com gripe A entre Abril e Outubro deste ano, entre os quais 540 crianças, informaram esta quinta-feira as autoridades sanitárias dos EUA, citadas pelo El País.

A média de crianças falecidas durante uma temporada normal de gripe sazonal é de 82, pelo que a taxa de mortalidade infantil sextuplicou.

Segundo o Centro de Prevenção e Controlo de Doença (CDC), esta é a pior temporada de gripe desde que há controlo de números (1997).

O vírus H1N1 já infectou 22 milhões de pessoas nos EUA, sendo que 98 mil tiveram de ser hospitalizadas. Oito destes 22 milhões eram crianças.

Com a gripe sazonal, 90 por cento das mortes correspondiam a pessoas com mais de 65 anos. Com a gripe A, 90 por cento das pessoas infectadas são adultos jovens e crianças.

“Temporada” de mentiras estatísticas

UuDate: Carlos Hotta também está começando a ficar nervoso com as estratégias de “Comunicação Social” do Ministério da Saúde e do jornalismo brasileiro. Como sempre, ele continua um gentleman (ou isso é fleugma nipônica?), o que faz a gente se preocupar ainda mais, não é mesmo? “Se até o Carlos Hotta está desconfiando do MS, então…”
Trinta e três dias depois do último boletim (e da conivência da Folha em não divulgar os totais das Secretarias da Educação), é emitida a nota à imprensa sobre a gripe suína do Ministério da Saúde. É interessante ver a manipulação e maquiação das informações pelo MS, seguindo o preceito jornalístico de contar mentiras dizendo apenas verdades…
Em vermelho, minhas observações (sem análise detalhada) sobre as afirmativas estatisticamente falaciosas do MS:
19/10/2009 , às 18h30

Influenza A(H1N1)

MINISTÉRIO DA SAÚDE
GABINETE PERMANENTE DE EMERGÊNCIAS
NOTA À IMPRENSA
Situação epidemiológica da influenza pandêmica (H1N1) 2009
1. SITUAÇÃO NO BRASIL

CASOS GRAVES

• O número de casos de síndrome respiratória aguda grave (SRAG) no Brasil – ou casos graves – causados pela influenza pandêmica (H1N1) 2009 (nova gripe) caiu 97,3%, passando de 2.828 registros para 78, entre as Semanas Epidemiológicas (SE) 31, encerrada em 8 de agosto, e a 40, encerrada em 10 de outubro. [Dado que o último boletim é de 16 de setembro, deveria se fazer uma comparação com essa data, e não com o pico da epidemia em 8 de agosto, escolhido a dedo para impressionar o leitor (97,3% !). Comparando semana por semana, da SE 35 até a SE 39 para ver a variação semanal em setembro, temos quedas semanais de 24%, 21%, 43% e 42% nas últimas semanas (o que é bem menos impresionante!). Não se deve usar os dados da semana 40 porque tais dados não são confiáveis, já que casos graves e mortes ocorridas no período ainda serão confirmadas no futuro. É possível que os dados das semanas 38 e 39 também ainda sofram desse efeito subestimador, o que explicaria as “quedas” observadas].
• No acumulado entre 25 de abril e 10 de outubro, foram notificados 68.806 casos graves de algum tipo de doença respiratória no país. Do total, 18.973 foram confirmados para algum tipo de influenza, dos quais 17.219 (90,7%) tiveram confirmação laboratorial para a nova gripe. [Por que insistir em comparar com os casos de algum tipo de doença respiratória em geral – inclusive as cronicas? O que deve se comparar é a tão propalada equivalência entre a gripe sazonal e a gripe suína. Verifica-se que 90,7% foi da suína, e a questão é se 90,7% das mortes (de adultos jovens!) foram da suína também, ou não. Aposto que foi mais, pois a gripe sazonal não mata em geral adultos jovens (a taxa de mortalidade da gripe sazonal nesta faixa etária é de 0,0001%), ou seja, as duas gripes não são equivalentes, nem epidemiologicamente nem nosologicamente: esta é a afirmação falaciosa do MS, este é o ponto que os jornalistas deveriam enfatizar, se quisessem fazer jornalismo investigativo…].

Distribuição de casos de SRAG, por semana epidemiológica de início dos sintomas, segundo classificação etiológica. Brasil, até SE 40/2009 [Interessante como os casos de gripe sazonal desaparecem nas últimas semnas epidemiológicas. Isso não mereceria um comentário? E cadê as tão propaladas 70 mil mortes por gripe sazonal que o Temporão divulgou de boca cheia?]

Gráfico

ÓBITOS

• Foram registrados, entre 25 de abril e 10 de outubro, 1.368 óbitos por influenza A (H1N1), o que corresponde a uma taxa de mortalidade de 0,7 por 100.000 habitantes. [Quantos óbitos por gripe sazonal, para podermos verificar a afirmação do ministro de que as duas gripes matam da mesma forma? Como se compara esse número com a média mundial? Porque incluir os estados do Norte e Nordeste, onde o pico epidemico ainda não foi atingido, nessa estatística?] A estratégia do MS evitou que o número mágico de 1000 mortes desse manchete na TV… Logo, a política de desinformação funcionou…

Distribuição de óbitos por Influenza A(H1N1)2009 Pandêmica por região e Unidade Federada de residência. SE 40/2009.

Região/UF

Confirmado para Influenza Pandêmica

Estimativa populacional
(IBGE, 2009)

Taxa de mortalidade
(por 100 mil hab.)

n

%

Região Sul

577

41,3

27.718.997

2,08

.. Paraná

278

19,9

10.686.228

2,60

.. Rio Grande do Sul

200

14,3

10.914.042

1,83

.. Santa Catarina

99

7,1

6.118.727

1,62

Região Sudeste

663

49,6

80.915.637

0,86

.. São Paulo

432

30,9

41.384.089

1,04

.. Rio de Janeiro

122

8,7

16.010.386

0,76

.. Minas Gerais

107

7,7

20.034.068

0,53

.. Espírito Santo

2

0,1

3.487.094

0,06

Região Centro-Oeste

98

7,0

13.895.467

0,71

.. Goiás

61

4,4

5.926.308

1,03

.. Mato Grosso do Sul

17

1,2

2.360.550

0,72

.. Distrito Federal

10

0,7

2.606.884

0,38

.. Mato Grosso

10

0,7

3.001.725

0,33

Região Norte

14

1,0

15.359.645

0,09

.. Roraima

2

0,1

421.497

0,47

.. Tocantins

3

0,2

1.292.063

0,23

.. Acre

1

0,1

691.169

0,14

.. Pará

5

0,4

7.431.041

0,07

.. Rondônia

1

0,1

1.503.911

0,07

.. Amazonas

2

0,1

3.393.357

0,06

.. Amapá

626.607

Região Nordeste

16

1,1

53.591.299

0,03

.. Bahia

10

0,7

14.637.500

0,07

.. Paraíba

2

0,1

3.769.954

0,05

.. Pernambuco

2

0,1

8.810.318

0,02

.. Piauí

1

0,1

3.145.164

0,03

.. Rio Grande do Norte

1

0,1

3.137.646

0,03

.. Maranhão

6.367.111

.. Ceará

8.547.750

.. Alagoas

3.156.101

.. Sergipe

2.019.755

Total

1368

100,0

191.481.045

0,71

Fonte: Sinan/MS

IMPORTANTE:

– Com relação à taxa de mortalidade, a comparação entre os países fica prejudicada porque a atualização dos dados não tem ocorrido de maneira uniforme. Além disso, os Estados Unidos, um dos países com maior número de óbitos, mudaram seu critério de classificação de mortes. Em 30 de agosto, o país zerou as estatísticas e, desde então, o Centro de Controle de Doenças conta os óbitos causados não apenas pelo vírus A(H1N1) pandêmico 2009, mas também as mortes associadas a qualquer tipo de influenza, mais a combinação pneumonia+influenza. Pela nova definição de caso adotada pelo governo americano, de 30 de agosto a 3 de outubro, houve 240 mortes associadas a qualquer tipo de influenza mais 1.544 mortes por pneumonia e influenza. As informações estão no site http://www.cdc.gov/flu/weekly/ [Ou seja, as novas estatisticas dos EUA superestimam as mortes se comparadas com os critérios brasileiros, de modo que estamos MUITO pior que os EUA].
– Reitera-se que o cálculo da taxa de letalidade em relação ao total de casos de influenza não é mais utilizado como parâmetro para monitorar o comportamento da doença, uma vez que os casos leves não são mais notificados, exceto em surtos. Esta conduta tem sido preconizada pela Organização Mundial da Saúde (OMS) desde julho e seguida pela maioria dos países, com priorização para o monitoramento de casos graves por influenza. [Isso quer dizer que perdemos qualquer conhecimento sobre o R0 epidemiológico e que não temos a menor noção da porcentagem de população brasileira que foi infectada na primeira onda]
.
– O acréscimo no número de óbitos em relação ao último boletim (divulgado em 16 de setembro)NÃO SE REFERE A CASOS NOVOS DE PESSOAS QUE MORRERAM NO PERÍODO ANALISADO, mas aos casos que tiveram resultado de teste laboratorial concluído entre 12 de setembro e 10 de outubro (SE 36 e SE 40, respectivamente). [Ou seja, os dados de óbitos estão subestimados e atrasados].

MULHERES E GESTANTES

• Um total de 5.369 mulheres em idade fértil (15 a 49 anos) tiveram resultado positivo para o novo vírus A(H1N1) e desenvolveram a forma grave da doença.
• Destas, 1.414 mulheres estavam grávidas. Entre as gestantes, 135 morreram, [ou seja, quase 10% das grávidas em estado grave morreram! E embora a proporção de gravidas na população de mulheres seja pequena (menor que 5% ?), houve um número desproporcional de casos graves e óbitos nessa classe. Por que? A gripe H1N1 não é igual ou mesmo mais fraca que uma gripe sazonal?


2. SITUAÇÃO NO MUNDO

• Com a proximidade do inverno nas regiões temperadas do hemisfério Norte, observa-se, nas últimas três semanas epidemiológicas, aumento nas taxas de transmissão de doença respiratória na América do Norte, Europa Ocidental e Norte da Ásia.

• No link abaixo, observa-se o mapa de tendência de doenças respiratórias no mundo, com dados até 4 de outubro. A tendência é de crescimento em diversos países do Hemisfério Norte, incluindo Estados Unidos, México, Canadá, Reino Unido e Espanha; e de queda em alguns países do Hemisfério Sul, incluindo o Brasil. [O que essa informação é relevante para o Brasil? O aumento nos outros países não justifica os números absurdos de óbitos no Brasil!]


http://gamapserver.who.int/h1n1/trend-resp-diseases/h1n1_trend-resp-diseases.html

• Com relação à resistência ao antiviral fosfato de oseltamivir, até 4 de outubro, foi informada à OMS a ocorrência de 31 casos – nenhum no Brasil, até o momento. [Ou seja, a desculpa do MS com relação ao Tamiflu era história pra boi dormir, que alguns blogueiros de ciência compraram sem questionar].


• Outras informações estão disponíveis, em inglês, no site
http://www.who.int/csr/don/2009_10_16/en/index.html

Assessoria de Imprensa
(61) 3315-2351/3580

Porque o R é melhor que o S?


A Quick Guide to Teaching R Programming to Computational Biology Students

Stephen J. Eglen*

Cambridge Computational Biology Institute, Department of Applied Mathematics and Theoretical Physics, University of Cambridge, Cambridge, United Kingdom

Introduction: Why Use R in Computational Biology? Top

The name “R” refers to the computational environment initially created by Robert Gentleman and Robert Ihaka, similar in nature to the “S” statistical environment developed at Bell Laboratories (http://www.r-project.org/about.html) [1]. It has since been developed and maintained by a strong team of core developers (R-core), who are renowned researchers in computational disciplines. R has gained wide acceptance as a reliable and powerful modern computational environment for statistical computing and visualisation, and is now used in many areas of scientific computation. R is free software, released under the GNU General Public License; this means anyone can see all its source code, and there are no restrictive, costly licensing arrangements. One of the main reasons that computational biologists use R is the Bioconductor project (http://www.bioconductor.org), which is a set of packages for R to analyse genomic data. These packages have, in many cases, been provided by researchers to complement descriptions of algorithms in journal articles. Many computational biologists regard R and Bioconductor as fundamental tools for their research. R is a modern, functional programming language that allows for rapid development of ideas, together with object-oriented features for rigorous software development. The rich set of inbuilt functions makes it ideal for high-volume analysis or statistical simulations, and the packaging system means that code provided by others can easily be shared. Finally, it generates high-quality graphical output so that all stages of a study, from modelling/analysis to publication, can be undertaken within R. For detailed discussion of the merits of R in computational biology, see [2].

Tudo acontece por acaso…

Acaso na vida é mais importante do que se pensa, afirma físico em livro
RICARDO MIOTO

colaboração para a Folha de S.Paulo
Você é homem, americano, branco, heterossexual e não usa drogas. Corre o ano de 1989. Faz um exame de sangue, desses descompromissados e, após alguns dias, recebe a notícia: HIV positivo. O médico sente muito, mas a morte é inevitável. Se quiser, você pode fazer outro exame, mas a chance de que não esteja contaminado é bem pequena: uma em mil.
Aconteceu com Leonard Mlodinow, físico do Caltech (Instituto de Tecnologia da Califórnia) que já havia escrito o livro “Uma Nova História do Tempo” com Stephen Hawking. “É difícil descrever (…) como passei aquele fim-de-semana; digamos apenas que não fui à Disneylândia”, escreve em “O Andar do Bêbado”, seu novo livro, recém-lançado no Brasil.
Talvez o médico de Mlodinow fosse ótimo. Mas não serviria como estatístico. Isso porque, em 1989, nos EUA, uma em cada 10 mil pessoas nas condições citadas estava infectada pelo HIV. Imagine que essas 10 mil fizessem exames. O único soropositivo receberia, possivelmente, uma notícia ruim. Mas, como um em cada mil exames dá o resultado errado, dez pessoas saudáveis também a receberiam.

Ou seja, nessas condições, de cada 11 pessoas que recebiam o veredicto “HIV positivo”, apenas uma realmente estava contaminada. A porcentagem de “falsos positivos” é dez vezes maior que a de “verdadeiros positivos”. Faria, então, mais sentido que Mlodinow não deixasse de ir à Disneylândia. No final, soube que não tinha HIV.

Mas dificuldades com probabilidades não são exclusividade do médico de Mlodinow. Humanos desprezam a presença do aleatório nas suas vidas –nossos cérebros são programados para achar padrões, mesmo quando não existem. Isso vai desde coisas evidentemente desprovidas de sentido (como usar uma mesma meia velha em jogos do Brasil) até situações mais sérias.
Jegue estabanado
Nesse sentido, é muito comum considerar que sucessos ou fracassos são resultado exclusivamente da nossa competência. Em boa medida são, claro, mas quanta aleatoriedade está envolvida nisso?
Jogadores, vendedores, homens atrás de mulheres nas festas. Quase todas as atividades humanas estão sujeitas ao acaso. Os resultados se distribuem ao redor de uma média (alta, para quem é competente), mas existem dias bons (quando o centroavante faz três gols e se consagra) e dias ruins (quando o “pegador” volta pra casa sozinho).
Mas isso vale também para o mercado financeiro, por exemplo. Será que os investidores que ganham milhões na bolsa o fazem porque são competentes ou porque, em uma série determinada de anos, tiveram mais sorte -fazendo escolhas tão “chutadas” quanto muitos que tiveram menos sucesso?
Como exemplo, Mlodinow conta a história de Daniel Kahneman, psicólogo que em 2002 ganhou o Nobel de Economia. Como não se escolhe trabalho no começo da carreira, ele foi, nos anos 1960, ensinar aos instrutores da Aeronáutica israelense que recompensar funciona melhor do que punir erros.
Foi interrompido por um dos instrutores que o ouvia. Ele dizia que muitas vezes elogiou a manobra de um aluno e, na vez seguinte, o sujeito se saiu muito pior. E que, quando gritou com a besta que havia quase acabado de destruir o avião, ela melhorava em seguida. Os outros instrutores concordaram. Estariam os psicólogos errados? Kahneman concluiu que não. Apenas que a experiência dos instrutores estava relacionada com a probabilidade.
A ideia dele era que os aprendizes melhoram a sua capacidade aos poucos, e isso não é perceptível entre uma manobra e outra. Qualquer voo perfeito ou qualquer pouso que leve embora meio aeroporto junto são questões pontuais, desvios da média. Na próxima tentativa, é alta a chance de que se retorne ao “padrão” central -nem fantástico, nem desastroso.
Então, diz Mlodinow, quando os instrutores elogiavam uma performance impecável, tinham a impressão de que, em seguida, o aluno piorava. Já se ele, digamos, esquecia de baixar o trem de pouso e escutava um grito de “seu jegue estabanado”, na próxima melhorava.
A pergunta por trás do livro é até que ponto não nos deixamos enganar por desvios da média como sinais de competência extrema ou de falta de aptidão para a vida. Quando um ator é descoberto de repente, após anos de fracasso, como Bruce Willis, ou quando alguém ganha muito dinheiro em poucos anos, como Bill Gates, qual foi a importância de estar no lugar certo, na hora certa? O andar do bêbado, sem direção consciente, acaba sendo uma ótima metáfora para os caminhos que tomamos na vida.
LIVRO – “O Andar do Bêbado: Como o Acaso Determina Nossas Vidas“Leonard Mlodinow; trad. de Diego Alfaro; ed. Zahar, 261 págs., R$ 39