Skip to content

Commit

Permalink
update
Browse files Browse the repository at this point in the history
  • Loading branch information
emesefe committed Jan 21, 2019
1 parent c82ef97 commit 3fc7ac8
Show file tree
Hide file tree
Showing 3 changed files with 75 additions and 23 deletions.
Binary file modified ejercicios/EjerciciosT3.2.pdf
Binary file not shown.
48 changes: 36 additions & 12 deletions teoria/Tema11.Rmd
Original file line number Diff line number Diff line change
Expand Up @@ -18,16 +18,21 @@ knitr::opts_chunk$set(echo = TRUE, comment = NA)

## Probabilidad

Por ahora, os basta la siguiente definición de probabilidad:
Por ahora, nos basta la siguiente definición de probabilidad:

<l class = "definition">Probabilidad. </l>Medida de la certidumbre asociada a un suceso o evento que aún no ha sucedido y que se expresa como un número entre 0 y 1, ambos incluidos.

<div class = "example">
**Ejemplo**

La probilidad de que salga cara cuando tiramos una moneda no trucada es $p = \frac{1}{2} = 0.5$
- La probilidad de que salga cara cuando tiramos una moneda no trucada es $p = \frac{1}{2} = 0.5$
- La probilidad de que salga al tirar un dado no trucado nos salga 5 es $p = \frac{1}{6}$
</div>

Por lo general, si nos encontramos en un caso como los anteriores, la probabilidad la podemos calcular del siguiente modo:

$$p=\frac{\text{casos favorables}}{\text{casos posibles}}$$


## Variable aleatoria

Expand All @@ -54,18 +59,21 @@ La variable aleatoria $X$ que cuenta el número de caras que salen al tirar una

<l class = "definition">Función de distribución.</l> Describe la probabilidad de que $X$ tenga un valor menor o igual que $x$.

- Es continua por la derecha
- Es creciente
- Toma valores entre 0 y 1

## Esperanza de una variable aleatoria

<l class = "definition">Esperanza de una variable aleatoria discreta.</l> E$[X]= \sum_{i=1}^nx_n\cdot p\{X=x_i\}$. Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.
<l class = "definition">Esperanza de una variable aleatoria discreta.</l> $E(X)= \sum_{i=1}^nx_i\cdot p\{X=x_i\}$. Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.

<l class = "definition">Esperanza de una variable aleatoria continua.</l> E$[X]= \int_{-\infty}^{\infty}x\cdot f(x)$. Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.
<l class = "definition">Esperanza de una variable aleatoria continua.</l> $E(X)= \int_{-\infty}^{\infty}x\cdot f(x)dx$. Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.

## Varianza de una variable aleatoria

<l class = "definition">Varianza.</l>
<l class = "definition">Varianza.</l> $Var(X)=E((X-E(X))^2)$. Es decir, es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.

- De entre sus propiedades, una de las más interesantes es: $Var(X)=E(X^2)-(E(X))^2$

## Distribución de probabilidad

Expand Down Expand Up @@ -108,8 +116,8 @@ donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
\\ 1 & \text{si } k\ge 1
\end{array}
\right.$$
- **Esperanza** E$(X) = p$
- **Varianza** Var$(X) = pq$
- **Esperanza** $E(X) = p$
- **Varianza** $Var(X) = pq$

## Distribución Binomial

Expand All @@ -131,8 +139,8 @@ donde $p$ es la probabilidad de éxito y $q = 1-p$ es la probabilidad de fracaso
\\ 1 & \text{si } k\ge n
\end{array}
\right.$$
- **Esperanza** E$(X) = np$
- **Varianza** Var$(X) = npq$
- **Esperanza** $E(X) = np$
- **Varianza** $Var(X) = npq$

## Distribución Binomial

Expand All @@ -158,14 +166,29 @@ $$f(k) = (1-p)^{k-1}p \qquad\text{ si empieza en 1}$$

## Distribución Geométrica

- **Esperanza** E$(X) = \frac{1-p}{p}$ si empieza en 0 y E$(X) = \frac{1}{p}$ si empieza en 1
- **Varianza** Var$(X) = \frac{1-p}{p^2}$
- **Esperanza** $E(X) = \frac{1-p}{p}$ si empieza en 0 y E$(X) = \frac{1}{p}$ si empieza en 1
- **Varianza** $Var(X) = \frac{1-p}{p^2}$
- No tiene memoria. Es decir, $p\{X>m+n:\ X>m\} = p\{X>n\}$

## Distribución Hipergeométrica

## Distribución de Poisson

Si $X$ es variable aleatoria que mide el "número de eventos en un cierto intervalo de tiempo", diremos que $X$ se distribuye como una Poisson con parámetro $\lambda$

$$X\sim \text{Po}(\lambda)$$
donde $\lambda$ representa el número de veces que se espera que ocurra el evento durante un intervalo dado

- El **dominio** de $X$ será $X(\Omega) = \{0,1,2,\dots\}$

- La **función de probabilidad** vendrá dada por $$f(k) = \frac{e^{-\lambda}\lambda^k}{k!}$$

## Distribución de Poisson

- **Esperanza** $E(X) = \lambda$
- **Varianza** $Var(X) = \lambda$


## Distribuciones discretas en R

R conoce las distribuciones de probabilidad más importantes.
Expand Down Expand Up @@ -222,4 +245,5 @@ Para cada una de las funciones anteriores, R sabe calcular cuatro funciones:

Si a la hora de llamar a alguna de las 4 funciones siguientes: `dnorm`, `pnorm`, `qnorm` o `rnorm` no especificásemos los parámetros de la media ni la desviación típica, R entiende que se trata de la normal estándar: la $\mathcal{N}(0,1)$.

Es decir, R interpreta $\mu = 0$ y $\sigma = 1$
Es decir, R interpreta $\mu = 0$ y $\sigma = 1$

50 changes: 39 additions & 11 deletions teoria/Tema11.html
Original file line number Diff line number Diff line change
Expand Up @@ -118,14 +118,21 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>

</article></slide><slide class=""><hgroup><h2>Probabilidad</h2></hgroup><article id="probabilidad">

<p>Por ahora, os basta la siguiente definición de probabilidad:</p>
<p>Por ahora, nos basta la siguiente definición de probabilidad:</p>

<p><l class = "definition">Probabilidad. </l>Medida de la certidumbre asociada a un suceso o evento que aún no ha sucedido y que se expresa como un número entre 0 y 1, ambos incluidos.</p>

<div class="example">
<p><strong>Ejemplo</strong></p>

<p>La probilidad de que salga cara cuando tiramos una moneda no trucada es \(p = \frac{1}{2} = 0.5\)</p></div>
<ul>
<li>La probilidad de que salga cara cuando tiramos una moneda no trucada es \(p = \frac{1}{2} = 0.5\)</li>
<li>La probilidad de que salga al tirar un dado no trucado nos salga 5 es \(p = \frac{1}{6}\)</li>
</ul></div>

<p>Por lo general, si nos encontramos en un caso como los anteriores, la probabilidad la podemos calcular del siguiente modo:</p>

<p>\[p=\frac{\text{casos favorables}}{\text{casos posibles}}\]</p>

</article></slide><slide class=""><hgroup><h2>Variable aleatoria</h2></hgroup><article id="variable-aleatoria">

Expand Down Expand Up @@ -153,19 +160,24 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>
<p><l class = "definition">Función de distribución.</l> Describe la probabilidad de que \(X\) tenga un valor menor o igual que \(x\).</p>

<ul>
<li>Es continua por la derecha</li>
<li>Es creciente</li>
<li>Toma valores entre 0 y 1</li>
</ul>

</article></slide><slide class=""><hgroup><h2>Esperanza de una variable aleatoria</h2></hgroup><article id="esperanza-de-una-variable-aleatoria">

<p><l class = "definition">Esperanza de una variable aleatoria discreta.</l> E\([X]= \sum_{i=1}^nx_n\cdot p\{X=x_i\}\). Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.</p>
<p><l class = "definition">Esperanza de una variable aleatoria discreta.</l> \(E(X)= \sum_{i=1}^nx_i\cdot p\{X=x_i\}\). Es decir, es la suma del producto de todos los valores que puede tomar la variable aleatoria discreta por su probabilidad.</p>

<p><l class = "definition">Esperanza de una variable aleatoria continua.</l> E\([X]= \int_{-\infty}^{\infty}x\cdot f(x)\). Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.</p>
<p><l class = "definition">Esperanza de una variable aleatoria continua.</l> \(E(X)= \int_{-\infty}^{\infty}x\cdot f(x)dx\). Es decir, es la integral de todos los valores que puede tomar la variable aleatoria continua por su función de densidad.</p>

</article></slide><slide class=""><hgroup><h2>Varianza de una variable aleatoria</h2></hgroup><article id="varianza-de-una-variable-aleatoria">

<p><l class = "definition">Varianza.</l></p>
<p><l class = "definition">Varianza.</l> \(Var(X)=E((X-E(X))^2)\). Es decir, es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.</p>

<ul>
<li>De entre sus propiedades, una de las más interesantes es: \(Var(X)=E(X^2)-(E(X))^2\)</li>
</ul>

</article></slide><slide class=""><hgroup><h2>Distribución de probabilidad</h2></hgroup><article id="distribucion-de-probabilidad">

Expand Down Expand Up @@ -212,8 +224,8 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>
\\ 1 &amp; \text{si } k\ge 1
\end{array}
\right.\]</li>
<li><strong>Esperanza</strong> E\((X) = p\)</li>
<li><strong>Varianza</strong> Var\((X) = pq\)</li>
<li><strong>Esperanza</strong> \(E(X) = p\)</li>
<li><strong>Varianza</strong> \(Var(X) = pq\)</li>
</ul>

</article></slide><slide class=""><hgroup><h2>Distribución Binomial</h2></hgroup><article id="distribucion-binomial">
Expand All @@ -239,8 +251,8 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>
\\ 1 &amp; \text{si } k\ge n
\end{array}
\right.\]</li>
<li><strong>Esperanza</strong> E\((X) = np\)</li>
<li><strong>Varianza</strong> Var\((X) = npq\)</li>
<li><strong>Esperanza</strong> \(E(X) = np\)</li>
<li><strong>Varianza</strong> \(Var(X) = npq\)</li>
</ul>

</article></slide><slide class=""><hgroup><h2>Distribución Binomial</h2></hgroup><article id="distribucion-binomial-2">
Expand All @@ -261,15 +273,31 @@ <h2 data-config-subtitle><!-- populated from slide_config.json --></h2>
</article></slide><slide class=""><hgroup><h2>Distribución Geométrica</h2></hgroup><article id="distribucion-geometrica-1">

<ul>
<li><strong>Esperanza</strong> E\((X) = \frac{1-p}{p}\) si empieza en 0 y E\((X) = \frac{1}{p}\) si empieza en 1</li>
<li><strong>Varianza</strong> Var\((X) = \frac{1-p}{p^2}\)</li>
<li><strong>Esperanza</strong> \(E(X) = \frac{1-p}{p}\) si empieza en 0 y E\((X) = \frac{1}{p}\) si empieza en 1</li>
<li><strong>Varianza</strong> \(Var(X) = \frac{1-p}{p^2}\)</li>
<li>No tiene memoria. Es decir, \(p\{X&gt;m+n:\ X&gt;m\} = p\{X&gt;n\}\)</li>
</ul>

</article></slide><slide class=""><hgroup><h2>Distribución Hipergeométrica</h2></hgroup><article id="distribucion-hipergeometrica">

</article></slide><slide class=""><hgroup><h2>Distribución de Poisson</h2></hgroup><article id="distribucion-de-poisson">

<p>Si \(X\) es variable aleatoria que mide el &quot;número de eventos en un cierto intervalo de tiempo&quot;, diremos que \(X\) se distribuye como una Poisson con parámetro \(\lambda\)</p>

<p>\[X\sim \text{Po}(\lambda)\] donde \(\lambda\) representa el número de veces que se espera que ocurra el evento durante un intervalo dado</p>

<ul>
<li><p>El <strong>dominio</strong> de \(X\) será \(X(\Omega) = \{0,1,2,\dots\}\)</p></li>
<li><p>La <strong>función de probabilidad</strong> vendrá dada por \[f(k) = \frac{e^{-\lambda}\lambda^k}{k!}\]</p></li>
</ul>

</article></slide><slide class=""><hgroup><h2>Distribución de Poisson</h2></hgroup><article id="distribucion-de-poisson-1">

<ul>
<li><strong>Esperanza</strong> \(E(X) = \lambda\)</li>
<li><strong>Varianza</strong> \(Var(X) = \lambda\)</li>
</ul>

</article></slide><slide class=""><hgroup><h2>Distribuciones discretas en R</h2></hgroup><article id="distribuciones-discretas-en-r">

<p>R conoce las distribuciones de probabilidad más importantes.</p>
Expand Down

0 comments on commit 3fc7ac8

Please sign in to comment.