background preloader

Loi de Poisson

Loi de Poisson
Un article de Wikipédia, l'encyclopédie libre. La loi de Poisson a été introduite en 1838 par Siméon Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile[2]. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires N qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées « arrivées ») qui prennent place pendant un laps de temps donné. Si le nombre moyen d'occurrences dans cet intervalle est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2, ...) est où e est la base de l'exponentielle (2,718...)k! On dit alors que X suit la loi de Poisson de paramètre λ. Calcul de p(k)[modifier | modifier le code] Ce calcul peut se faire de manière déductive en travaillant sur une loi binomiale de paramètres (T; λ/T). Il peut aussi se faire de manière inductive en étudiant sur l'intervalle [0; T] les fonctions On note Remarques : et

Loi binomiale Un article de Wikipédia, l'encyclopédie libre. En mathématiques, la loi binomiale de paramètres n et p est une loi de probabilité qui correspond à l'expérience suivante : On renouvelle n fois de manière indépendante une épreuve de Bernoulli de paramètre p (expérience aléatoire à deux issues possibles, généralement dénommées respectivement « succès » et « échec », la probabilité d'un succès étant p, celle d'un échec étant q = 1 - p). On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la variable aléatoire indiquant ce nombre de succès. La variable aléatoire suit une loi de probabilité définie par : ou . , du fait que dans une combinaison l'ordre des éléments n'importe pas. et on obtient : Cette loi de probabilité s'appelle la loi binomiale de paramètres n et p et se note Bin(n ; p). Représentation sous la forme d'un arbre[modifier | modifier le code] Représentation de la loi binomiale sous forme d'un arbre. On retrouve bien évidemment que Donc par où C < 0,4784.

Binomial distribution Binomial distribution for with n and k as in Pascal's triangle The probability that a ball in a Galton box with 8 layers (n = 8) ends up in the central bin (k = 4) is In probability theory and statistics, the binomial distribution is the discrete probability distribution of the number of successes in a sequence of n independent yes/no experiments, each of which yields success with probability p. Specification[edit] Probability mass function[edit] In general, if the random variable X follows the binomial distribution with parameters n and p, we write X ~ B(n, p). for k = 0, 1, 2, ..., n, where is the binomial coefficient, hence the name of the distribution. different ways of distributing k successes in a sequence of n trials. In creating reference tables for binomial distribution probability, usually the table is filled in up to n/2 values. Looking at the expression ƒ(k, n, p) as a function of k, there is a k value that maximizes it. and comparing it to 1. Recurrence relation where Example[edit]

Loi de Bernoulli Un article de Wikipédia, l'encyclopédie libre. En mathématiques, la distribution de Bernoulli ou loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, est une distribution discrète de probabilité, qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q = 1 – p. En d'autres termes, ou, de manière équivalente, L'espérance mathématique d'une variable aléatoire de Bernoulli vaut p et la variance vaut p(1 – p). Le kurtosis tend vers l'infini pour des valeurs hautes et basses de p, mais pour p = 1/2 la distribution de Bernoulli a un kurtosis plus bas que toute autre distribution, c’est-à-dire 1. Variable de Bernoulli[modifier | modifier le code] Une variable aléatoire suivant la loi de Bernoulli est appelée variable de Bernoulli. Plus généralement, toute application mesurable à valeur dans {0,1} est une variable de Bernoulli. Distributions liées[modifier | modifier le code] Loi binomiale[modifier | modifier le code] Si Loi de Poisson[modifier | modifier le code] Soit On note

Loi uniforme discrète Un article de Wikipédia, l'encyclopédie libre. En théorie des probabilités, la loi discrète uniforme est une loi de probabilité discrète indiquant une probabilité de se réaliser identique (équiprobabilité) à chaque valeur d’un ensemble fini de valeurs possibles. Description[modifier | modifier le code] Une variable aléatoire qui peut prendre n valeurs possibles k1 , k2 , …, kn, suit une loi uniforme lorsque la probabilité de n’importe quelle valeur ki est égale à 1/n. Un exemple simple de loi discrète uniforme est le lancer d’un dé non biaisé. Dans le cas où les valeurs d’une variable aléatoire suivant une loi discrète uniforme sont réelles, il est possible d’exprimer la fonction de répartition en termes de distribution déterministe ; ainsi où H(x - x0) désigne la fonction marche de Heaviside, est la fonction de répartition (ou distribution cumulative) de la distribution déterministe centrée en x0, aussi appelée masse de Dirac en x0. Cas général[modifier | modifier le code] . où

Loi uniforme continue Un article de Wikipédia, l'encyclopédie libre. La loi uniforme continue est une généralisation de la fonction rectangle à cause de la forme de sa fonction densité de probabilité. Elle est paramétrée par les plus petites et plus grandes valeurs a et b que la variable aléatoire uniforme peut prendre. Caractérisation[modifier | modifier le code] Densité[modifier | modifier le code] La densité de probabilité de la loi uniforme continue est une fonction porte sur l'intervalle Fonction de répartition[modifier | modifier le code] La fonction de répartition est donnée par Fonctions génératrices[modifier | modifier le code] Fonction génératrice des moments[modifier | modifier le code] La fonction génératrice des moments est Fonction génératrice des cumulants[modifier | modifier le code] Propriétés[modifier | modifier le code] Statistiques d'ordre[modifier | modifier le code] Soit X1, ..., Xn un échantillon i.i.d. issu de la loi U(0,1). Ce fait est utile lorsqu'on construit une droite de Henry. par : et Si Soit

Mesure de Dirac Un article de Wikipédia, l'encyclopédie libre. Soient un espace mesurable et . On appelle mesure de Dirac au point , et l'on note , la mesure sur définie par : où Le support de est réduit au singleton . donc cette mesure est une probabilité sur . Les mesures de Dirac ont une utilité pratique ; elles permettent par exemple de construire des mesures par approximations successives. Portail de l’analyse Loi géométrique Un article de Wikipédia, l'encyclopédie libre. La loi géométrique est une loi de probabilité apparaissant dans de nombreuses applications. La loi géométrique de paramètre p (0 < p < 1) correspond au modèle suivant : On considère une épreuve de Bernoulli dont la probabilité de succès est p et celle d'échec q = 1 - p. On renouvelle cette épreuve de manière indépendante jusqu'au premier succès. Les valeurs de X sont les entiers naturels non nuls 1, 2, 3, ... On dit que X suit une loi géométrique de paramètre p. Calcul de p(k)[modifier | modifier le code] La probabilité p(k) correspond à la probabilité d'obtenir dans une succession de k épreuves de Bernoulli, k − 1 échecs suivis d'un succès. Définition alternative[modifier | modifier le code] On rencontre parfois pour la loi géométrique, la définition alternative suivante : la probabilité p'(k) est la probabilité, lors d'une succession d'épreuves de Bernoulli indépendantes, d'obtenir k échecs suivi d'un succès. mais de , c'est-à-dire . pour alors

Loi hypergéométrique Un article de Wikipédia, l'encyclopédie libre. La loi hypergéométrique de paramètres associés n, p et A est une loi de probabilité discrète, décrivant le modèle suivant : On tire simultanément n boules dans une urne contenant pA boules gagnantes et qA boules perdantes (avec q = 1 - p, soit un nombre total de boules valant pA + qA = A). On compte alors le nombre de boules gagnantes extraites et on appelle X la variable aléatoire donnant ce nombre. Cette loi de probabilité s'appelle la loi hypergéométrique de paramètres (n ; p ; A). Une autre paramétrisation très répandue consiste à considérer une loi hypergéométrique de paramètres (A, Na, n) avec A le nombre total de boules, Na le nombre de boules à succès (ici pA) et n le nombre de tirages. Calcul de p(k)[modifier | modifier le code] Il s'agit d'un tirage simultané (c'est-à-dire non ordonné et sans remise) de n éléments parmi A. La combinatoire permet de dire que le cardinal de l'univers est La probabilité de l'événement est donc

Loi exponentielle Un article de Wikipédia, l'encyclopédie libre. Une loi exponentielle modélise la durée de vie d'un phénomène sans mémoire, ou sans vieillissement, ou sans usure : la probabilité que le phénomène dure au moins s + t heures sachant qu'il a déjà duré t heures sera la même que la probabilité de durer s heures à partir de sa mise en fonction initiale. En d'autres termes, le fait que le phénomène ait duré pendant t heures ne change rien à son espérance de vie à partir du temps t. Plus formellement, soit X est une variable aléatoire définissant la durée de vie d'un phénomène, d'espérance mathématique . Alors, la densité de probabilité de X est définie par : si t < 0 pour tout t ≥ 0. et on dit que X suit une loi exponentielle de paramètre ( ou de facteur d'échelle) Cette loi permet entre autres de modéliser la durée de vie de la radioactivité ou d'un composant électronique. Définition[modifier | modifier le code] Densité de probabilité[modifier | modifier le code] L'écart type est donc , est Donc et alors

Loi normale Un article de Wikipédia, l'encyclopédie libre. En théorie des probabilités et en statistique, la loi normale est l'une des lois de probabilité les plus adaptées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elle est en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elle est également appelée loi gaussienne, loi de Gauss ou loi de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée. Plus formellement, c'est une loi de probabilité absolument continue qui dépend de deux paramètres : son espérance, un nombre réel noté , et son écart type, un nombre réel positif noté . La courbe de cette densité est appelée courbe de Gauss ou courbe en cloche, entre autres. Lorsqu'une variable aléatoire Parmi les lois de probabilité, la loi normale prend une place particulière grâce au théorème central limite. . ). . .

Loi de Cauchy (probabilités) Un article de Wikipédia, l'encyclopédie libre. La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité classique qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si elle admet une densité par rapport à la mesure de Lebesgue, dépendant des deux paramètres et (a > 0) et définie par : Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle). L'inverse d'une variable aléatoire, de loi de Cauchy, suit une loi de Cauchy. Le quotient de deux variables aléatoires réelles indépendantes suivant des lois normales standards suit une loi de Cauchy. La loi de Cauchy (avec notamment la loi normale et la loi de Lévy) est un cas particulier de loi stable. La loi de Cauchy n'admet ni espérance ni écart type. n'est pas intégrable au sens de Lebesgue car (à l'infini) d'où la divergence de l'intégrale : l'espérance n'existe pas. diverge).

Related: