Cómo calcular la precisión

Escrito por Michele Jensen ; última actualización: February 01, 2018
calculator image by Randy McKown from Fotolia.com

La precisión mide la repetibilidad de un evento o de un error de muestreo. Realiza cinco tiros en una canasta y anota la ubicación de cada impacto de la pelota. Si esta golpea cerca del mismo lugar en el tablero, pero no alcanza la canasta, los ataques son precisos, pero no exactos. Utiliza la desviación estándar para medir la precisión.

Determina el promedio, o media

Jupiterimages/Pixland/Getty Images

Cuenta el número, o N, de los valores de los datos.

PhotoObjects.net/PhotoObjects.net/Getty Images

Agrega los valores de los datos juntos.

Jupiterimages/Polka Dot/Getty Images

Divide la suma por N (del paso 1) para determinar el promedio.

Determina la variación

Jupiterimages/Polka Dot/Getty Images

Resta la media de cada valor de los datos para calcular la desviación de cada valor.

Jupiterimages/Comstock/Getty Images

Eleva al cuadrado cada desviación.

Jupiterimages/Polka Dot/Getty Images

Añade los cuadrados juntos

Jupiterimages/Pixland/Getty Images

Resta uno de la cuenta, o N - 1.

Jupiterimages/Polka Dot/Getty Images

Divide la suma de los cuadrados por N - 1, para determinar la variación.

Determina la precisión

Jupiterimages/Polka Dot/Getty Images

Toma la raíz cuadrada de la variación para obtener la desviación estándar.

Comstock/Comstock/Getty Images

Multiplica la desviación estándar por 100 para convertir a porcentaje.

Brand X Pictures/Brand X Pictures/Getty Images

Si los valores de los datos caen dentro de una desviación estándar por debajo o por encima de la media, entonces se consideran valores precisos.