Hace 7 años | Por mazzeru
Publicado hace 7 años por mazzeru

Es fácil de calcular, pero pone de manifiesto lo fácil que es equivocarse evaluando intuitivamente una situación. Creo.

Estás en una ciudad de 1 millón de habitantes en la que se estima que 100 de ellos son terroristas.

La policía ha camuflado en una calle transitada un detector de última tecnología que, usando visión artificial e IA, analiza el movimiento de ojos y el lenguaje corporal para decidir si una persona trama algo.

El detector no es perfecto. Si un terrorista pasa por el detector, la alarma saltará en el 99% de ocasiones y el 1% no lo hará (falso negativo). Lo mismo al revés: si pasa un ciudadano de bien por el detector, el 99% de ocasiones no sucederá nada, pero el 1% saltará la alarma (falso positivo).

Acaba de pasar uno de los habitantes de la ciudad por el detector y la alarma ha saltado. Sin saber nada de esta persona, ¿qué probabilidad hay de que sea de verdad terrorista?

Comentarios

Dolordeoidos

Si no es tan complicado...

mazzeru

Doy por buena la solución deinconnitoinconnito, aunque se le ha colado un gazapo: @inconnito.

Si hacemos pasar a todos los habitantes por el detector, los terroristas lo harán saltar 99 (99% de 100) veces y los ciudadanos de bien lo harán saltar 9999 veces (1% de 999900, el millón menos 100).

Es decir, en una bolsa tenemos 99 bolas rojas (yo todo lo que sea probabilidad lo traduzco a bolsas con bolas si puedo) y 9999 bolas azules. No metemos bolas de otros colores porque dado que sabemos que ha saltado la alarma, sólo puede ser un caso de bola roja (positivo) o azul (falso positivo).

La probabilidad de sacar una bola (suena la alarma una vez) roja (es terrorista) es de 99 entre 10098 (99+9999).

O lo que es lo mismo, la persona que ha hecho saltar la alarma tiene sólo un 0,01% de probabilidades de ser terrorista.

Mento afantomaxfantomax por si la he cagado en algún cálculo.

El problema original sale de el artículo de la Wikipedia en inglés para la falacia de la frecuancia base: https://en.wikipedia.org/wiki/Base_rate_fallacy.

mazzeru

#4, me he olvidado de pasar a porcentaje el resultado

«Si de 10098, 99; de 100, 0,98»

0,98%, no 0,01.

Perdón

fantomax

#6 Pequeñez, las ideas estaban todas bien puestas en su sitio.

fantomax

#4 La solución es buena, una de cada 102 personas detectadas será terrorista. Esto con un test realmente "fiable". Por supuesto que se puede expresar formalmente con probabilidades condicionadas y utilizar el teorema de Bayes y hacerlo en plan formal, pero en definitiva las cuentas que haríamos son exactamente las mismas.
https://es.wikipedia.org/wiki/Teorema_de_Bayes

En el ámbito de la inferencia estadística se hacen contrastes de hipótesis. Consiste en tomar una muestra (esto de las muestras tiene una gran complejidad) y a partir de los datos que ésta arroja decidir cuál de dos hipótesis se ajusta mejor. https://es.wikipedia.org/wiki/Contraste_de_hip%C3%B3tesis El caso es que una de estas hipótesis es tomada como privilegiada y se le da un peso distinto, mientras que la otra tendremos menos cuidado en rechazarla cuando sea cierta. El error de tipo I es tomar por falsa mi hipótesis privilegiada (nula) cuando fuera cierta en realidad y el error de tipo II es tomar por cierta la alternativa, siendo falsa. Decidir qué hipótesis es la más plausible por adelantado es delicado. Pero en un problema como el nuestro quizá se podría decidir si se ajustar alguno de los parámetros de nuestro detector para hacer más probable pillar a un terrorista verdadero o menos probable tomar por terrorista a un pobre transeúnte bienintencionado. ¿Cuál de los errores es más grave, que se te escape uno o encarcelar a un inocente?

inconnito

#4 Sí, se me han colado numeritos! Perdón por no hacer el cálculo exacto!

fantomax

#10 Nada que perdonar, gracias por darle a pensar.

capitan__nemo

#16 Aparte, está el problema de cyclebeating, los terroristas tambien utilizarán las mismas tecnicas de mejora continua y 6sigma para intentar no fallar en los atentados.
La hora y media en que el algoritmo del 'New York Times' dio un vuelco y Trump ganó/c7#c-7

#4
Los terroristas no son bolas rojas y bolas negras en una bolsa. Cuando el terrorista ve que metes la mano para sacar una bola roja o bola negra, esquivará la mano para evitar que le saques.

V

Si no me equivoco, se puede resolver con el clásico arbolito de probabilidades y el teorema de Bayes. Si calculamos la suma de probabilidades de las ramas que acaban en alarma, tenemos:

P(alarma) = 999.900/1.000.000 · 0.01 + 100/1.000.000 · 0.99 = 0.01

Es decir, la alarma salta en total en un 1 % de los casos. De estos, los que serán terroristas serán:

P(terrorista y alarma) / P(alarma) = 100/1.000.000 · 0.99 / 0.01 = 0.0099

Es decir, un 0.99 % de probabilidad de que, saltando la alarma, la persona sea un terrorista. Corregidme si hay algún fallo, que probabilidad nunca se me dio muy bien :c

fantomax

#5 Esta es una manera muy habitual de representar las probabilidades condicionadas. Una manera de formalizarlo sería esta, pero conste que no le veo mayor valor que al razonamiento directo.
Llamemos T al suceso observar un terrorista, NT al suceso de que el sujeto observado sea pacífico. A será el suceso de disparar la alarma y NA el suceso de que no se active.
tomada una persona al azar por la calle P(T)=100/1000000 es la probabilidad de que sea terrorista
P(NT)=999900/10000000 es la probabilidad de que no lo sea.
Cuando un terrorista se expone al detector, la probabilidad de activar la alarma es P(AT)=99/100. Si la persona expuesta no tenía malas intenciones será P(ANT)=1/100
Teorema de la Probabilidad Total P(A) = P(AT)*P(T)+P(ANT)*P(NT)=99/100*100/1000000+1/100*999900/1000000=99/1000000+9999/1000000=10098/1000000
Se aplica porque hemos dividido toda la población en dos subconjuntos sin intersección.
(La alarma saltaría 10098 veces si toda la población pasara por el detector por turnos).
Teorema de Bayes. P(NTA)=P(ANT)*P(NT)/P(A) =( 1/100*999900/1000000)/(10098/1000000) =9999/10098

Xtrem3

#0 Yo tengo reciente la estadística y voy a tirar de fórmula, me creo que tengo todos los datos, os dejo debatirlo y en casa me pongo con papelico y lápiz para confirmar

fantomax

#2 De este problema se pueden sacar un par de ideas teóricas interesantes, pero primero voy a dejar que se resuelva.

A

Hay dos posibilidades: lo es o no lo es. 50%

fantomax

#12 troleando, ¿no?
Es sorprendente la cantidad de gente que cree que todos los sucesos posibles se distribuyen de manera equiprobable.

A

#14 En muchas ocasiones es por el uso torticero que se da de los números cuando hay muchos factores para que "las estadísticas digan" lo que uno quiere.

capitan__nemo

No es un test realmente fiable si no tiene calidad 6sigma
https://es.wikipedia.org/wiki/Seis_Sigma
6 sigma= 3,4 DPMO (defectos por millón de eventos u oportunidades) = 99,99966% de eficiencia
Los efectos perjudiciales de las vacunas creo que siguen este nivel de calidad o superior.
Los países del mundo donde triunfan los antivacunas/c211#c-211

Si no se puede hacer una red de sensores lo suficientemente fiable, entonces habrá que atacar el problema desde otro punto de vista. ¿no será mas facil conseguir el bienestar de millones de ciudadanos, o decenas de millones ciudadanos y bajar lo suficiente la probabilidad de que quieran atentar?