Los resúmenes, toma nota de los textos que figuran en nuestra página web se ponen a disposición de forma gratuita con fines didácticos de la ilustración, científica, social, civil y cultural a todos los posibles interesados de acuerdo con el concepto de uso justo, y con el 'objetivo de cumplimiento de la Directiva Europea 2001/29 / CE y del «arte. 70 de la ley 633/1941 sobre derechos de autor
La información médica y de la salud en este sitio es de carácter general y para propósitos informativos solamente y por lo tanto no puede en ningún caso sustituir el consejo de un médico (o un autorizado legalmente a la profesión).
Probability. A Philosophical Introduction. D.H. Mellor
Capítulo 1: Tipos de Probabilidad.
Tipos de probabilidad:
Capítulo 2: Probabilidades Clásicas.
TESIS PRINCIPALES
Hay tres tipos de probabilidad (CH, EP, CR) unidas por el mismo formalismo matemático y por algo más.
La probabilidad matemática es una probabilidad pura. La probabilidad aplicada es siempre uno de los tres tipos anteriores.
No es lo mismo una interpretación del formalismo matemático (clásica, frecuencialista, ….) de la probabilidad que un tipo de probabilidad.
La interpretación clásica de la probabilidad es inaplicable a la probabilidad subjetiva (CR).
La ignorancia no permite suponer una distribución de probabilidad uniforme. En consecuencia, el Principio de Indiferencia (PI) no permite derivar ni probabilidades epistémicas ni probabilidades físicas.
CUESTIONES
¿Por qué en las probabilidades complejas, las probabilidades involucradas han de ser del mismo tipo?
¿En qué consiste exactamente la receta de la interpretación clásica para los espacios muestrales infinitos?
¿Por qué PI no permite fijar chances?
Capítulo 3: Frecuencias.
Para los frecuencialistas la probabilidad es la frecuencia relativa.
No es aplicable a las credences, ya que cuando la credence en que la moneda va a salir cara es igual a ½ no se está diciendo que lo que se cree es que si se lanzara la moneda varias veces saldrían la mitad de caras.
Desde luego, que CR no admita una interpretación frecuencialista no es razón para negar la existencia de grados de creencia o de que tales grados admiten una medida probabilística.
Respecto a CH y EP las cosas son más complicadas. Mellor considera que el frecuencialismo no puede dar cuenta de EP, y que tiene problemas respecto a CH.
¿Por qué el frecuencialismo no puede dar cuenta de las probabilidades epistémicas (secc. 3.2)?
Para el frecuencialismo la probabilidad es una relación entre propiedades. La clase de referencia es la clase respecto a la cual la frecuencia probabilística es relativa. El problema, según Mellor, es que demasiadas veces las probabilidades epistémicas son probabilidades de proposiciones singulares (p.ej., la probabilidad de que el Universo tuviera un comienzo, o de que el crimen lo cometiera el jardinero). Estas probabilidades no pueden ser identificadas con las frecuencias.
Pensemos en un dado, ¿cuál es la probabilidad epistémica de que salga 4 en la próxima tirada? ¿p ({4}/{2,4,6})? La clase de referencia en este caso es esta tirada, así que la probabilidad epistémica de que salga 4 en este caso sería de 1 si sale 4, ó 0 si no sale 4. Pero esto resulta claramente implausible.
Los frecuencialistas han dado dos respuestas:
Cualquiera de ambas respuestas niega que la interpretación frecuencialista se aplique directamente al suceso particular: o no existe o se deriva de otro contexto.
La alternativa (b) no debe hacernos olvidar que igualar los valores no equivale a identificar tipos de probabilidad diferentes.
CH y CR no son lo mismo porque una puede existir sin la otra, aunque ambas tengan el mismo valor, como ya se vio en el capítulo 1.
Respecto a un suceso particular, EP (H/E) y CH (H) pueden tener el mismo valor, pero no son lo mismo. EP (H/E) conecta dos proposiciones H y E, con independencia de que H y E sean verdaderas o falsas (algo parecido a lo que ocurre con la implicación lógica: A implica a B con independencia de que A sea verdadera o no). Si decimos que la probabilidad epistémica de que la moneda salga cara es la misma que su probabilidad física, lo que decimos es que EP (H/E) = CH (H) = p, porque E en este caso es justamente la proposición que dice que CH (H) es p. Mellor dice que es razonable atribuir el mismo valor a EP (H/E) que a CH (H), pero que eso no supone identificarlas. El quid del argumento es que CH (H) = p podría ser falsa, y sin embargo, EP (H/E) = p porque: (i) CH (H) está mal calculada; (ii) CH (H) no existe porque ninguna moneda se ha tirado. La conclusión de Mellor es que las probabilidades epistémicas no pueden ser frecuencias.
DUDA: Mellor en pp. 34-5 habla de dos frecuencias con las que podría identificarse la probabilidad epistémica de un suceso individual: la frecuencia de ocurrencia respecto a esta tirada y “the only frequncy whose value it might equal, that of {4} outcomes among all throws with {2,4,6} outcomes”. Su conclusión es que, como no puede identificarse con ninguna de ambas, EP no es una frecuencia.
¿Puede el frecuencialismo dar cuenta de las chances (secc. 3.3)?
En principio, es más sencillo reducir las single case chances a frecuencias que las epistemic probabilities.
El frecuencialismo respalda una concepción humeana de las leyes causales: las leyes se reducen a la coocurrencia de propiedades. Una ley causal -necesaria- es una ley de frecuencia igual a 1. Ahora bien, el frecuencialista debe admitir que, aunque todas las chances sean frecuencias, no todas las frecuencias son chances. Por eso, el frecuencialista debe distinguir entre leyes estadísticas y coincidencias estadísticas. Pero cualquier distinción que haga un humeano, también puede hacerla el frecuencialista (p. ej., las leyes ocupan un lugar destacado en la teoría mientras que las coincidencias no).
Si las leyes estadísticas las formalizamos como las deterministas, nos comprometeríamos con la existencia de CH para un suceso particular, lo cual sería negado por los frecuencialistas (p. 37). La probabilidad de desintegración de los átomos de radio no es una probabilidad de cada átomo, sino de un colectivo. Por eso, las leyes estadísticas simples deben representarse como la frecuencia con que las cosas-F son cosas-G.
Esto nos obliga a una separación tajante entre las leyes deterministas y las estadísticas. La diferencia estriba (¿?) en que, de acuerdo con el frecuencialismo, una regularidad estadística nada nos dice sobre la probabilidad de ocurrencia de un suceso particular, por ejemplo, mi chance de coger la gripe durante este invierno (y sin, embargo, si la regularidad es una ley determinista, sí nos dice algo, ya que de cualquier hombre puedo saber que es mortal: NO VEO POR QUÉ el frecuencialista se compromete con una distinción tajante entre leyes deterministas y leyes estadísticas ¿acaso él no las formalizaría igual?).
Mellor solamente señala esta consecuencia de la interpretación frecuencialista de la probabilidad física, y lo deja como una cuestión abierta.
El frecuencialismo no explica las posibilidades clásicas, sino que las abandona.
Nótese que las frecuencias y las probabilidades atribuidas a los resultados pueden diferir. El espacio muestral puede modificarse para que las probabilidades clásicas encajen con los datos de frecuencias. Los frecuencialistas no necesitan partir de una distribución uniforme de probabilidad , por lo que es la posibilidad clásica la que ha de adaptarse a las frecuencias y no al revés.
El frecuencialismo sortea las dificultades que vimos en el cap. 2 respecto a cómo medir las probabilidades en espacios muestrales infinitos (paradoja de Bertrand). En cambio, el frecuencialismo no puede tratar con probabilidades epistémicas mientras que la concepción clásica sí (recuérdese que ninguna de ambas puede abordar las credences).
Frecuencias límite y frecuencias hipotéticas.
Un problema para el frecuencialismo es cómo calcular la probabilidad cuando la clase de referencia es infinita. En una clase así, sólo las frecuencias 0 y 1 quedan definidas.
Sí parece que algunas clases de referencia son infinitas. Ej. de los átomos p. 40 (no lo veo claro). El problema lleva de nuevo a la dificultad de dotar de sentido a la noción de probabilidad física desde el frecuencialismo.
Opciones de los frecuencialistas:
(a) Frecuencialismo finito: niega o ignora las clases infinitas y opera sólo con subclases finitas.
(b) Frecuencialismo del límite real: postula límites para las secuencias de frecuencias.
Dificultades de la opción (a):
(i) contradice el ppo. de la clase máximamente relevante (ya que ésta sería la clase infinita);
(ii) ¿cómo excluir un nº determinado de elementos de una clase infinita? ¿no deberíamos excluir infinitos elementos para obtener una clase finita?
(iii) ¿cuáles excluir?
Dificultades de la opción (b):
(i) Puesto que no se trata de un razonamiento matemático, no podemos probar matemáticamente que una secuencia de frecuencias dada tiene un límite particular (en cambio, sí podemos demostrar que una función matemática tiende a un límite).
(ii) No todas las frecuencias límite se considerarían chances (v. ejemplo de una secuencia cara-cruz, p. 42); hay un límite (1/2), pero la chance de obtener un resultado en una tirada concreta no es ½ sino 1 ó 0). Entonces, una frecuencia límite será una chance siempre que no todas las subsecuencias de la secuencia tengan la misma frecuencia límite. El problema es cómo distingue el frecuencialista entre frecuencias que cumplen esta condición y frecuencias que no, porque cualquier secuencia interesante no la cumple.
Pero no sólo las clases infinitas plantean problemas al frecuencialismo. Las clases finitas también lo plantean. Si el denominador es un n finito, la probabilidad será siempre x/n. Pero esto implica que CH no puede poseer ciertos valores y que la chance de una moneda de salir cara depende del número de veces que se lance. La alternativa aquí es identificar CH con el límite de una frecuencia hipotética. Que la moneda tiene una CH = ½ significa que ½ es el límite de la frecuencia hipotética. El problema es cómo se determina el límite en una clase hipotética. Una frecuencia actual no sirve para fijar el límite porque cualquier frecuencia actual es consistente con cualquier límite. Se puede replicar que no nos interesa lo que podría ocurrir desde un punto de vista lógico, sino lo que ocurre. Pero entonces, si la moneda no se lanza, no podríamos decir que CH = ½. Esto resulta contraintuitivo y para ello se ha desarrollado un enfoque diferente de la probabilidad que veremos en el capítulo 4.
Capítulo 4: posibilidades y propensiones.
Hay dos maneras de dar cuenta de la noción de probabilidad física de casos únicos (single case chance): desde la noción de posibilidad metafísica (perspectiva modal) o desde la noción de propensión.
La posición que entiende la probabilidad física (chance) como una posibilidad modal intenta responder a la pregunta de qué es lo que hace verdadera la afirmación de que si una moneda fuera tirada muchas veces la frecuencia límite de caras sería ½. La probabilidad física modal es una posibilidad metafísica que implica un límite para una frecuencia hipotética (y que se mide mediante ella).
El ejemplo de la hipótesis ergódica intenta mostrar que podemos admitir una conexión entre la probabilidad física modal (modal chance) y el límite de la frecuencia hipotética, pero que eso no nos obliga a comprometernos con una interpretación clásica de las modal chances. La razón de esto es que no podemos saber a priori si los puntos del espacio muestral tienen chances iguales. Tal vez las teorías nos digan que eso es así, pero la corrección de la teoría es una cuestión empírica, no a priori.
Una ventaja de la interpretación modal de las chances es que podemos atribuir a cada átomo individual de radio una posibilidad de desintegración en un periodo t recurriendo a una ley determinista simple en vez de quedarnos con una relación estadística entre frecuencias.
Sin embargo, aceptar la existencia de chances modales tiene sus dificultades teóricas, ya que las semánticas de mundos posibles no pueden dar cuenta de la noción de posibilidad metafísica. El problema es, si lo entiendo bien, que la clase de referencia se determina acudiendo a una noción de posibilidad irreducible a la semántica de mundos posibles porque la posibilidad se convierte en un rasgo intrínseco del mundo real, actual, no meramente posible.
¿Qué son las propensiones?
Son tendencias o disposiciones. Lo que mide la probabilidad es la fuerza de la tendencia.
La disposición a tener una probabilidad física (chance) no es lo mismo que la chance, del mismo modo que la fragilidad no es igual a la rotura. Definimos parcialmente una en términos de otra, la fragilidad como una disposición por parte de un objeto a romperse.
Para comprobar que no son lo mismo las disposiciones que las chances que las definen parcialmente hay que fijarse en que la disposición es una propiedad de la moneda (p. ej., estar trucada) y la chance de caer cara o cruz es una propiedad de la tirada (p. 50).
Desde una interpretación modal o propensivista esta última propiedad remitirá a una tirada única, mientras que desde una interpretación frecuencialista remitirá a una clase real o hipotética de tiradas.
Y bien, ¿cuál es la propiedad de la tirada? Es una disposición (una propiedad disposicional, por tanto) a producir una frecuencia con un límite determinado (1/2 p. ej. cuando la moneda no está trucada).
Las propensiones son disposiciones al 100%. Esto significa que para cada tirada con una chance p de salir cara , en una secuencia de repeticiones sin fin de cada una de ellas, la frecuencia de caras valdría p.
La diferencia entre una propensión y una disposición no está en la “fuerza” de ambas, sino en que las propensiones son un tipo de disposiciones en concreto, a saber, disposiciones a producir frecuencias límite.
¿Qué son las disposiciones?
Dos perspectivas: antirrealista y realista.
Mellor señala que el problema del antirrealismo respecto a las disposiciones no permite diferenciar la interpretación propensivista de las chances de la frecuencialista (en p. 52 Mellor da un argumento general para preferir la interpretación realista a la no realista).
El realismo respecto a las disposiciones exige que cuando a tiene la disposición D y b no la tiene tiene que haber una propiedad categórica en la que a y b difieren.
¿Cómo dotar de sentido a las leyes de la desintegración radiactiva? (v. pp. 54-55) Mediante el expediente ya visto en el cap. 3, podemos dar cuenta de las chances que aparecen en leyes. Expresaríamos las leyes probabilísticas como generalizaciones universales.
Pero, ¿qué pasa con las chances que no parecen ocurrir en leyes? ¿existe la chance de que en una tirada concreta de la moneda salga cara? Quien piense que el determinismo es aplicable en esta situación, o sea, que la tirada determina el resultado, aunque nosotros no lo sepamos, entonces las chances son frecuencias, no propensiones. En realidad la chance no es más que una frecuencia 0 ó 1.
Entonces, ¿cómo defender una interpretación propensivista de las chances que no intervienen en leyes?
Estos argumentos sólo muestran que las tiradas podrían tener chances diferentes de 0 y 1, pero no muestran que realmente las tengan.
Argumento “decisivo” para introducir las chances, además de las frecuencias (p. 56):
La distinción entre correlaciones estadísticas y leyes estadísticas puede establecerse tanto por parte del frecuencialista humeano como por el realista. El humeano puede invocar criterios pragmáticos o convencionalistas; el realista diría que las puras correlaciones no involucran chances, mientras que las leyes sí. Pero, ¿qué ocurre con las chances que parecen no ocurrir en leyes? El propensivismo tiene una respuesta inmediata: la chance de la tirada sería lo que fija el valor límite de una frecuencia hipotética. Respecto a la tirada de una moneda a, su chance de salir cara es una disposición cuya base categórica es una propiedad o combinación de propiedades que a tiene en acto. La ventaja de optar por las propensiones es que el frecuencialismo no puede responder a esto.
Objeciones:
Las propensiones son el candidato a sustituir a las probabilidades físicas modales (modal chances).
En las pp. 59-2 Mellor discute las ventajas y desventajas de entender las chances como posibilidades modales o como propensiones.
Las posibilidades modales son compatibles con la tesis NT: si la chance de A es 1, la de ¬ A es 0. Sin embargo, interpretar las chances como frecuencias con límite o como propensiones no respeta NT. La idea es que la tirada de una moneda puede tener una propensión a caer de un lado u otro de 1 (o un límite para la frecuencia de 1). Y sin embargo, de hecho, por alguna razón puede no caer de un lado u otro. Pero si la frecuencia o la propensión es igual a 1, y si NT es correcto, esto no puede ocurrir, ya que su chance debería ser 0.
Por otro lado, si la frecuencia hipotética o propensión de caer de un lado es de 1, la frecuencia/propensión de que no caiga es de 0, pero entonces la chance de una tirada de caer de canto, pongamos, sería la misma que la de caer y no caer, que es un estado de cosas lógicamente imposible. Esto significa que las propensiones y las posibilidades modales no son lo mismo. Si el límite de una frecuencia hipotética es la chance, o si es la disposición a generar una secuencia hipotética de resultados con dicho límite, entonces las chances modales son otra cosa. Aunque mantengan cierta conexión con las frecuencias hipotéticas, de hecho las posibilidades modales implican frecuencias, pero la frecuencias no implica una chance correspondiente.
¿Qué preferir, NT (que tiene sus contraejemplos, por supuesto) o la interpretación propensivista respecto a las probabilidades físicas de caso único (single-case chances)? Mellor no se decide ni por una ni por otra.
Ante estas dificultades algunos filósofos han decidido rechazar la noción de probabilidad física en general y trabajar con una noción subjetiva (credence). Ahora bien, ¿qué implica negar la existencia de las chances en general?
No puede negarse la existencia de frecuencias finitas observadas (puesto que eso existe). Tampoco los subjetivistas tienen por qué negar la existencia de frecuencias que tienen límite y que refieren a una clase infinita. Lo que sí negarían es la existencia de frecuencias hipotéticas con límite, ya que ese es el correlato de la noción de chance, se entienda ésta en términos frecuencialistas, propensivistas o modales.
CUESTIONES:
¿Por qué la propensión es una propiedad disposicional de la tirada y no de la moneda, según Mellor? ¿Qué se gana con esto? ¿No resulta mucho más difícil de entender una propiedad disposicional atribuida a un hecho (la tirada) que a un objeto (la moneda)?
Capítulo 5. Credence.
En el capítulo 1 ya se argumentó que la creencia admite grados, y que la duda es una actitud proposicional genuina que no puede reducirse a la creencia en sentido pleno (por ejemplo, creer en parte en A no es lo mismo que creer en ¬ A).
Ahora bien, ¿cómo medir el grado de creencia? ¿Por qué habríamos de suponer que los grados de creencia pueden fijarse cuantitativamente?
Un modo directo sería identificar “creer en grado p que A” con “creer que A tiene una chance igual a p” o con “creer que A tiene una probabilidad epistémica p”. Si esto fuera así, todo el discurso sobre grados de creencia sería redundante, pero no es así, ya que puedo pensar, creer, actuar, etc. que A es más o menos probable sin creer nada en absoluto respecto a la probabilidad epistémica o la chance de A. En suma, como se dijo en el cap. 1, los grados de creencia no equivalen a creencias plenas (full beliefs) en probabilidades físicas o epistémicas.
Otra alternativa es conectar los grados de creencia con las apuestas. Supongamos que apuesto 3 euros a que el Barcelona gana la Liga y 1 a que la pierde. Estoy apostando 3 a 1 a favor de que eso ocurra. El cociente de apuesta (betting quotient) es la cantidad que pierdo dividido por la cantidad que gano si ocurre A. En este caso el cociente de apuesta es ¾. Mellor también le llama la ratio coste/beneficio (c/b).
Pues bien, el mayor cociente de apuesta que estaría el sujeto dispuesto a aceptar a favor de A es lo que mide su grado de creencia en A. Nótese que c/b debe ser, en circunstancias normales, inferior a 1.
Con esto no tenemos una definición de los grados de creencia. De la misma forma que un termómetro sirve para medir la temperatura, pero no nos dice qué es, las apuestas son un indicador aproximado del grado de creencia. De hecho, el cociente de apuesta que estoy dispuesto a aceptar respecto a A no depende exclusivamente de grado en que creo que A, sino de otros factores como mi afición a apostar, mis recursos monetarios, …
Admitido pues que tenemos un modo de fijar numéricamente los grados de creencia, se plantea la cuestión de si tales medidas son probabilidades. En concreto, ¿han de oscilar entre 0 y 1? ¿los grados de creencia en A y ¬ A deben sumar 1?
Si no admitimos estas limitaciones sobre los valores de las apuestas podríamos estar apostando “irracionalmente, es decir, apostando de manera tal que tanto si ocurre A como si ocurre ¬ A perdemos. Satisfacer las dos condiciones mencionadas permite evitar cocientes de apuesta “irracionales” o “incoherentes”. Los bayesianos hablan de los argumentos del cuaderno holandés (Dutch Book Arguments). Un cuaderno de apuestas es una secuencias de apuestas que asegura que uno de los dos apostantes perderá pase lo que pase (y el otro ganará). Para los bayesianos la racionalidad del agente depende de que éste haga sus apuestas de modo que no se pueda elaborar una secuencia de apuestas contraria que le lleve siempre a perder. Y eso se consigue si se respetan las dos condiciones señaladas, que no son sino dos axiomas de la teoría matemática de la probabilidad.
Los grados de creencia, en tanto que cumplen los axiomas de la teoría de la probabilidad, se denominan credences.
Observación interesante: decir que una determinada razón c/b es un cociente de apuestas irracional significa en realidad que la medida c/b no refleja adecuadamente el grado de creencia que el sujeto tiene en A, pues si lo reflejara, c/b no violaría los axiomas de la probabilidad y no sería, por tanto, incoherente. Así, en los casos en que c/b es irracional lo que ocurre es que están interviniendo otros factores, además del grado de creencia del sujeto, en su decisión de optar precisamente por ese cociente de apuestas (por ejemplo, apuesto para perder porque quiero ganarme otros favores de quien apuesta contra mí).
La conclusión es, entonces, que las creencias no sólo tienen un valor numérico en cuanto al grado de convicción del sujeto, sino que ese valor es un valor probabilístico. Esta es una conclusión de peso. Ahora bien, ¿podemos dotarla de algún contenido empírico?
Mellor piensa que sí. Del mismo modo que en la mecánica newtoniana cuando obtenemos datos que no encajan exactamente con las predicciones teóricas lo atribuimos a la intervención de algún factor desconocido, pero no pensamos que la ley es falsa. Las leyes newtonianas constituyen una idealizacón, una aproximación. De igual modo, la exigencia de que las apuestas incluyan cocientes coherentes permite obtener una medida aproximada del grado de creencia del sujeto. No se trata de negar que en la práctica apostamos a veces incoherentemente; pero cuando lo hacemos es porque intervienen otros factores.
La otra posibilidad es argumentar que tener un grado de creencia es estar dispuesto a apostar coherentemente. De ello se sigue que si un sujeto apuesta incoherentemente no podemos decir que tenga ningún grado de creencia en absoluto. De esta manera se convierte a la exigencia de coherencia en un criterio constitutivo, a priori, de los grados de creencia. Sin embargo, Mellor objeta que no parece irracional o conceptualmente imposible dudar verdades necesarias (sean a priori o a posteriori).
Si la noción de “credence” es una aproximación o idealización de la noción de grado de creencia que puede ser operativizada mediante la disposición a apostar, hemos de admitir cierto margen de imprecisión, como ocurre con los valores de cualquier magnitud continua como puede ser la masa. De hecho, en la práctica, para tomar decisiones sobre cómo apostar a menudo nos basta con credences relativamente vagas.
Teoría (subjetiva) de la decisión.
Una apuesta es un cociente entre el coste y el beneficio. Si generalizamos la idea, no estamos obligados a entender costes y beneficios en términos monetarios. El ahorro de tiempo puede ser un beneficio; contratar un seguro de accidentes también me supone un beneficio no monetario, y un coste en dinero, Todo aquello que sea deseable por el sujeto puede ser considerado un beneficio, y todo lo que él quiere evitar es un coste. A todos esos posibles valores (dinero, tiempo, fama, tranquilidad de conciencia, seguridad, conservación del medio ambiente, …..) se les denomina utilidades subjetivas.
La teoría de la decisión puede verse como una generalización del modelo de apuestas. Las decisiones del sujeto, hacer B o no hacerlo, habrán de tener en cuenta no sólo su grado de creencia respecto a lo que puede o no ocurrir, ya que unas cosas serán para él más probables que otras, sino también aquello que él considere más o menos valioso: ¿para qué hacer B?. A fin de cuentas no se trata de tomar decisiones al azar, sino de tomar buenas decisiones, esto es, decisiones que convengan al sujeto.
Una tabla de utilidades subjetivas nos da el valor, en términos de costes/beneficios subjetivos, de cada una de las situaciones posibles (v. tabla 3, p. 75). Hemos de añadir también lo probable o improbable que resulten tales situaciones desde la perspectiva del sujeto (v. tabla 4, p. 76). Si una situación posible es muy valiosa, pero sumamente improbable igual no compensa perder un beneficio actual.
Lo que se hace entonces es calcular la utilidad subjetiva esperada de cada una de las alternativas. Por ejemplo, seguir fumando o dejar de fumar. Para calcular la utilidad esperada de dejar de fumar debo tener en cuenta cuán probable es que si dejo de fumar evite el cáncer y cuán probable es contraerlo. Y lo mismo si sigo fumando (si pienso que es muy probable que, a pesar de seguir fumando, no voy a contraer cáncer, ¿por qué privarme del placer de fumar?).
Una vez hechos los cálculos el Principio de Maximización de la utilidad esperada (PMESU) nos dice que se elige la opción que posee mayor utilidad esperada.
Mellor dice que la teoría de la decisión se utiliza antes, contra lo que pueda parecer a primera vista, para inferir utilidades a partir de decisiones que al revés.
Respecto al estatus de PMESU, para muchos autores es un principio normativo: nos dice cuál es la decisión que debemos tomar, la decisión racional. Mellor, en la línea de lo defendido a lo largo de este capítulo sobre las credences, piensa que PMSEU es una teoría descriptiva, una aproximación útil, sobre cómo actuamos en condiciones de incertidumbre.
Mellor concluye apuntando la distinción entre la credence que de facto tenemos en una proposición A, y la que deberíamos tener dada nuestra evidencia disponible a favor de A. Los principios de racionalidad no intervienen en el primer punto, pero sí en el segundo. En cambio, quienes prefieran entender la teoría en términos normativos deben distinguir entre los principios racionales ligados a la mera atribución de credences, y los principios epistémicos adicionales que limiten las credences que un sujeto puede tener acerca de A dada la evidencia de que dispone. Esta diferencia, sin embargo, no afecta a la discusión que se desarrolla en el capítulo siguiente.
Capítulo 6. Confirmación.
Las teorías de la confirmación son las teorías cuantitativas sobre el apoyo evidencial.
Una vez mostrado que los grados de creencia pueden entenderse en términos probabilísticos, entre la noción de probabilidad epistémica (EP) y la de probabilidad subjetiva -(CR) o credence, como la hemos llamado aquí-, puede establecerse un nexo directo que parece plausible:
“cuanto más confirma B a A, mayor es el grado de creencia en A que B justifica”
Este principio trata de vincular estrechamente EP y CR. No obstante, el problema que se va a discutir en este capítulo no es si dicho vínculo es defendible o no. La cuestión es si realmente existen esas relaciones de confirmación que EP se supone que mide.
Recuérdese que las probabilidades epistémicas tienen una naturaleza relacional, a diferencia de las chances y las credences, ya que siempre quedan definidas en términos de una probabilidad condicionada entre dos proposiciones, p (A/B).
Conviene distinguir dos preguntas:
¿En qué grado A es confirmada por toda la evidencia disponible en este momento?
¿En qué grado A es confirmada por B?
La primera cuestión plantea si la evidencia actual inclina la balanza a favor de A o a favor de ¬ A. Lo que nos interesa es cuánto vale EP (A/Et) – EP (¬A/ Et). Si EP (A/Et) > ½ , A es confirmada por Et.
En cambio, en la segunda cuestión lo que interesa es si EP (A/ K & B) > EP (A/ K), siendo K el “conocimiento de fondo”.
Ahora bien, ¿cómo fijar el valor de las probabilidades epistémicas?
Las probabilidades epistémicas son objetivas, como las chances. Sin embargo, a diferencia de éstas no son empíricas. A favor de una probabilidad física (chance) puede haber una probabilidad epistémica. Así, tiene sentido decir que EP (CH (A) = p / K & B) = p’. Pero no puede haber probabilidad epistémica a favor de una probabilidad epistémica. Con otras palabras, no podemos aducir evidencia a favor de una probabilidad epistémica; al hacer eso, lo que se hace en realidad es plantear una nueva probabilidad epistémica. Así, supongamos que sabemos que EP (A/ K & B) = p, y que obtenemos más evidencia C. ¿Podemos considerar a C como evidencia ulterior que confirma que la igualdad anterior? O sea, ¿tiene sentido EP (EP (A/ K & B) = p / C = p’)? No. Lo que tenemos es, simplemente, una nueva probabilidad epistémica, a saber, EP (A/K & B & C) = p’.
Entonces, ¿de dónde se deriva la supuesta objetividad de las probabilidades epistémicas?
La respuesta tradicional ha sido considerarlas probabilidades lógicas, aunque una crítica potente aquí es que si EP fueran probabilidades lógicas podríamos conocer a priori su valor, como ocurre con las verdades lógicas, de un modo parecido a como podemos conocer si un enunciado es implicado deductivamente por otro. Pero como EP son probabilidades que expresan relaciones entre proposiciones empíricas, contingentes, resulta, cuanto menos, discutible que podamos conocerlas a priori. Y, como ya vimos en un capítulo anterior, el Ppo. de Indiferencia de Keynes no es de gran ayuda aquí.
Otra posibilidad menos discutible es el Ppo. de las chances como evidencia:
EP (A/ CH (A) = p) = p
Pero este principio no es muy útil porque muy raramente toda nuestra evidencia sobre A consiste en CH (A) = p. Y cuando eso ocurre, la evidencia adicional puede contrarrestar el peso de CH, con lo cual EP (A) ya no sería p. Por eso, hemos de contar con un conocimiento de fondo que no contenga evidencia a favor de ningún valor de CH excepto p. El Ppo. debe ser reformulado así:
EP (A/ K & CH (A) = p) = p
Dificultades con el Ppo.:
- el conocimiento de fondo a menudo es inarticulado; ¿por qué habría de pronunciarse sobre algún valor de CH para A?;
- para fijar EP hemos de haber determinado previamente CH (A); CH (A) puede venir determinado por una ley estadística (recuérdese el ejemplo de la desintegración de átomos radiactivos);
Pero entonces, ¿realmente EP está midiendo algo distinto de lo que mide CH? Para saber en qué medida la evidencia de que algo es F apoya la hipótesis de que es G, no necesitaríamos nada más que conocer la ley estadística en cuestión. Además, no podemos usar las probabilidades derivadas de las chances a menos que tomemos las chances como evidencia.
Todo esto parece cuestionar la idea de que las probabilidades epistémicas cuantifican un tipo especial de relaciones, las relaciones de confirmación.
Mellor, sin embargo, no piensa que sea tan fácil prescindir de las probabilidades epistémicas en favor de las probabilidades físicas (v. secc. 5) porque:
- Hay casos en que la evidencia a favor de una proposición no refiere para nada a las chances (p.ej, el mundo tuvo un comienzo o el criado cometió el crímen); en estos casos, no resulta obvio, reconoce Mellor, que haya proposiciones epistémicas involucradas, pero tampoco que, si éstas existen, son inferibles de alguna otra cosa;
- Aquellos casos en los que la evidencia remite a chances, tampoco está claro que permitan concluir que la probabilidad epistémica es redundante, ya que las chances no son observables, se infieren a partir de las frecuencias; es decir, hay una evidencia B que es la frecuencia. Pero entonces debemos calcular las probabilidades epistémicas de diferentes hipótesis respecto al valor de CH (A) dado que B:
EP (CH (A) = p / B), EP (CH (A) = p’ /B), etc.
No obstante lo dicho, algunos autores piensan que no hay un tipo especial de relación de confirmación que las probabilidades epistémicas miden.
Pero entonces, ¿cómo explicar los hechos relativos a la confirmación de hipótesis? No se trata de negar que la evidencia puede confirmar las hipótesis ni que podemos cuantificar el grado de confirmación. Lo que se niega es que haya un tipo de relaciones especiales que expliquen el uso que hacemos de la probabilidad para medir la confirmación. Una posibilidad aquí, defendida por los bayesianos, es hacer equivalente el grado de apoyo de una proposición contingente A con el grado justificado de creencia en A. Y esta última cuestión puede responderse sin comprometernos con la existencia de relaciones especiales de confirmación.
Capítulo 7. Condicionalización.
La probabilidad condicional de A dado B, p (A/B), debe satisfacer la ecuación:
p (A/B) = p (A & B)
p (B)
Hemos dicho en repetidas ocasiones que la probabilidad epistémica (EP) siempre es una probabilidad condicionada. Parece natural entenderla, pues, de acuerdo con la igualdad anterior. Lo que no está claro es que tal definición de EP deba fijar el grado de creencia que el sujeto debe tener en A una vez conocido B.
En pg. 91 Mellor plantea un ejemplo con un dado que muestra cómo al adquirir información nueva las probabilidades condicionadas a dicha evidencia se reajustan prorrateando las probabilidades de los puntos muestrales respecto a un espacio muestral más reducido. Este prorrateo se hace según la ecuación anterior. A la actualización de nuestros grados de creencia siguiendo esta regla se le denomina condicionalización.
¿Cómo interpretar las probabilidades de la ecuación anterior? Acabamos de sugerir una interpretación en términos de credences.
CR B(A) = CR (A & B) = df CR ( A/B)
CR (B)
Pero la ecuación también permite, en principio, una interpretación con probabilidades epistémicas. Si hay una conexión entre las credences y las probabilidades epistémicas, parece natural sugerir, pues,
EP (A / B & K) = EP (A & B / K)
EP (B / K)
A partir de ahí, Mellor reinterpreta el ejemplo anterior en términos de si B confirma, disconfirma o resulta irrelevante para A.
No obstante, elijamos una u otra interpretación el problema que hemos de afrontar es que la probabilidad condicionada sólo estará justificada en la medida en que las probabilidades previas, las que no son condicionadas, están justificadas.
Esto se ve claramente en la interpretación subjetiva. En la interpretación en términos de EP tanto el numerador como el denominador incluyen probabilidades condicionadas. Parece que las probabilidades previas son, en este caso, probabilidades condicionadas. Sin embargo, estas probabilidades se definen a su vez en términos de probabilidades no condicionadas, con lo cual lo que Mellor llama probabilidades iniciales absolutas (absolute priors) no son probabilidades condicionadas. Por eso dice Mellor que la condicionalización no es capaz ni de crear ni de transmitir justificación.
Este problema es especialmente grave para la interpretación epistémica, puesto que las probabilidades epistémicas no pueden ser sino probabilidades condicionadas.
Una estrategia para convertir las probabilidades iniciales absolutas en probabilidades condicionadas es condicionarlas a verdades necesarias (verdades lógicas). Puesto que tales verdades se cumplen en todo mundo posible, considerarlas evidencia a favor de una proposición contingente es completamente inocuo.
No podemos derivar todas las probabilidades iniciales absolutas de probabilidades condicionadas. Y si así fuera, no está claro en qué deberíamos basarnos para fijar el valor de éstas. La alternativa es interpretar las probabilidades subjetivamente, refiriendo a credences. Visto así, las probabilidades no condicionadas tienen sentido, y además, contamos con un medio de descubrir sus valores. De hecho no necesito saber cuál es la composición del conocimiento de fondo para poder determinar cuál es mi grado de creencia en A ó en B.
La estrategia a seguir es definir las probabilidades condicionadas en términos de credences, y posteriomente, identificar las probabilidades epistémicas con las credences que cumplen ciertas condiciones: cuando las credences estén justificadas, o sea, cuando las probabilidades incondicionadas absolutas entendidas como credences lo estén (y veremos cuándo esto es así en el próximo capítulo), lo que tendremos no es sino EP (A/B). En suma,
EP (A/B) = CR (A/B) = CR (A & B)
CR (B)
es la mejor interpretación de p (A/B) = p (A & B)
p (B)
El teorema de Bayes permite derivar p (A/B) de p (B/A). En su forma más simple sostiene que
p (A/B) = p (B/A) · p (A)
p (B)
El teorema puede simplificarse más si podemos reducir p (B/A) a la existencia de una probabilidad física CHA (B). Si ese valor es conocido, el problema se reduce a determinar dos probabilidades previas, p (A) y p (B). En ocasiones se recurre al Teorema de Bayes en una versión un poco más compleja, que se apoya en el Teorema de la probabilidad total:
P (Ai/B) = p (B/Ai) · p (Ai)
∑i p (B/Ai) · p (Ai)
Ello nos permite evitar el cálculo de p (B), de manera que sólo nos queda una probabilidad incondicionada, p (A). En pgs. 98-99 Mellor pone un ejemplo de cómo aplicar esta versión del teorema. Gracias a ella podemos calcular las respectivas probabilidades epistémicas de varias hipótesis rivales en relación a una evidencia dada a partir de sus probabilidades iniciales y de la probabilidad condicionada de la evidencia dada cada hipótesis.
Ahora bien, el valor que obtenemos para p (A/B) depende de cuál haya sido el punto de partida, es decir, de cuál haya sido el valor atribuido a p (A). El Teorema de Bayes nada nos dice sobre si las probabilidades iniciales están justificadas o no. Esta cuestión la abordaremos en el capítulo siguiente.
Capítulo 8. Input Credences.
En este capítulo se aborda el asunto de la justificación de las credences que corresponden a las probabilidades iniciales.
Las credences causadas por percepciones son denominadas por Mellor input credences. Aunque la inmensa mayoría de nuestras creencias tienen como fuente la percepción (incluso las basadas en el testimonio de los otros), está claro que la percepción no siempre posee un poder justificador. Así, una ilusión perceptiva no justifica, aunque la percepción cause la creencia.
La consistencia es un criterio de justificación. Exige que las credences del sujeto satisfagan todas, o la mayoría, de las reglas de la probabilidad numérica.
La consistencia es un criterio puramente estático, ya que refiere a la justificación de las credences de un sujeto en un momento dado.
La consistencia no implica que el reajuste de probabilidades conforme el sujeto obtiene evidencia se haga según la regla de la Condicionalización. Naturalmente, para poner en marcha la condicionalización hemos de contar con probabilidades de partida, la probabilidades iniciales de las input credences. El problema es que si la condicionalización se aplica sobre input credences no justificadas, las probabilidades condicionadas resultantes, esto es, las output credences, tampoco lo estarán.
¿Es la consistencia criterio suficiente de justificación? Quienes afirman que sí dirían que todo lo que sabemos del mundo está codificado en nuestras credences. Tenemos credences sobre el mundo y también sobre nosotros mismos, nuestras capacidades perceptivas, etc. Pero, aunque podamos hablar de credences de segundo orden, en lo que a la justificación concierne no podemos salir del ámbito de las credences. En epistemología, se habla de internismo cuando se sostiene que la justificación involucra únicamente el ámbito de las creencias, lo interno al sujeto. De acuerdo con esta posición, cualquier principio que invoquemos para justificar las input credences del sujeto deberá ser creído por el sujeto para tener un peso justificador. Por tanto, en lo tocante a la justificación no hay nada más que la consistencia.
No obstante, un bayesiano puede admitir que las input credences necesitan una justificación externa, además de la interna (y también puede reconocer esto y escurrir el bulto diciendo que él no tiene por qué ocuparse de ese asunto).
Mellor propone una teoría de la justificación externista tomando como modelo el fiabilismo (reliabilism).
El fiabilismo afirma que una creencia está justificada sii es producida por un proceso cognitivo, facultad, …, etc., que arroja una alta frecuencia de creencias verdaderas. El reto es elaborar una versión probabilista extendiendo esta definición de las creencias plenas a las credences.
Una teoría de la creencia plena diría:
Si la chance de que CRS (A) = 1 cuando A es verdadera, y la de CRS (¬A) = 1 cuando ¬A se cumple, supera cierto valor, pongamos 0’95, entonces la credence de S, sea A o ¬A, estará justificada.
La teoría aplicada a los grados de creencia diría:
Sea fS(D) = x la frecuencia observada por S. Entonces, CRS (A) = x estará justificada si la chance p (CRS (A) = CH (A)) supere cierto valor (podemos poner, de nuevo, 0’95).
Posibles dificultades desde la perspectiva bayesiana:
1) Estamos apelando a credences que no son input, sino que parecen más bien credences derivadas.
Respuesta de Mellor: esto no es problema porque tales creencias no presuponen la condicionalización, sino alguna regla del tipo “iguala CR a CH” o “iguala CR a la frecuencia observada”.
2) Estamos postulando la existencia de chances, y esa noción de probabilidad parece que gusta muy poco a los bayesianos.
Respuesta de Mellor: tras intentar aplicar a las credences una teoría externista, la de R. Nozick, que no refiere a chances, Mellor concluye que desde el externismo fiabilista es sumamente difícil no referirse a las chances; la discusión queda pospuesta al cap. 10, donde se verán sustitutos subjetivos de la noción de chance.
Uncertain Evidence
En la última sección Mellor expone la regla de Jeffrey. Esta regla subsume el ppo. de Condicionalización tal como lo hemos visto en el capítulo anterior como un caso particular. Conviene explicar primero el modelo bayesiano de aprendizaje.
La teoría bayesiana atribuye al sujeto la capacidad de aprender de la experiencia. El sujeto, al recibir información nueva, está inmerso en un proceso de revisión de creencias (de credences, en sentido estricto). La probabilidad inicial es reajustada por una probabilidad posterior que incorpora la nueva información obtenida. Este proceso se realiza en dos pasos. En la primera fase las probabilidades iniciales que ya posee el sujeto, se ven directamente alteradas por la experiencia, por algún tipo de proceso no inferencial (percepción, memoria, intuición, ..). Aquí es dónde tienen cabida las consideraciones que Mellor ha hecho a lo largo de este capítulo a favor de una epistenología externista y fiabilista. En la segunda fase, el sujeto actualiza el resto de sus opiniones para que sean consistentes –consistencia probabilística– con la información nueva.
La situación más simple es aquella en la que el sujeto llega a estar completamente seguro de E. Sea E, p. ej., “el semáforo está en rojo”, proposición de la que estoy completamente seguro porque me encuentro a corta distancia delante del semáforo y nada se interpone. Nótese que en tal caso, toda hipótesis que resulte inconsistente con E debe rechazarse ya que si p (E/H) = 0 y p (E) = 1, entonces, p (H) = 0 (como se demuestra fácilmente con los axiomas de la probabilidad). Sea como fuere, diremos que la probabilidad posterior de H, una vez acontecida la experiencia, es igual a p (H/E), es decir,
pf (H) = pi(H/E)
La norma es, simplemente, ajuste sus probabilidades iniciales a la evidencia que obtiene de acuerdo con los axiomas de probabilidad. Esto no es más que el pp. o regla de Condicionalización.
Pero, ¿qué ocurre si la evidencia no es cierta? ¿no se está pecando de optimismo, o de dogmatismo? A veces la evidencia obtenida no garantiza la certeza de E; en ocasiones los científicos rechazan evidencia previamente aceptada, ... La probabilidad de la hipótesis dada la evidencia debería tener en cuenta este factor, ya que, intuitivamente, no es lo mismo la probabilidad de H condicionada a E, siendo p (E) = 1, que siendo p (E) = 0’6, por ejemplo. Se supone que en el último caso será p (H/E) será más baja, naturalmente.
Un modelo más realista del efecto no inferencial de la experiencia sobre las probabilidades iniciales debe, según algunos autores, tener en cuenta que la evidencia puede ser incierta. Jeffreys ha propuesto una generalización del principio de Condicionalización. Según él, la observación no proporciona certeza (lo que equivaldría a sustituir la probabilidad inicial, previa a la observación, pi (E) por pf (E), tra la observación que siempre sería igual a 1). Lo que la observación hace es modificar pi (E) de modo no inferencial (o sea, que no depende de otras creencias o credences), de modo que la probabilidad resultante, pf (E), podrá tener cualquier valor entre 0 y 1. Obviamente, pf (¬E) = 1 − pf (E). Entonces,
pf (H) = pi(H/E) ∙ pf (E) + pi(H/¬E) ∙ pf (¬E)
Nótese que cuando pf (E) = 1,
pf (H) = pi(H/E)
que es el ppo. de Condicionalización. Así pues, el ppo. de Condicionalización de Jeffrey subsume como caso particular el pp. de Condicionalización simple.
La regla de Jeffrey es más discutible que el ppo. de Condicionalización en su forma simple. Las dificultades son dos:
1ª) El orden en que aceptamos la evidencia incierta puede afectar la probabilidad condicionada.
2ª) La estrategia de la condicionalización queda sin base, incluso aunque la evidencia sea cierta.
Mellor remite al capítulo siguiente para analizar estas cuestiones en detalle.
1. Prorrateo
La primera cuestión problemática para el condicionalismo vendría de la propia justificación del criterio pro-rata en el caso en el que la evidencia se dé con incertidumbre:
La regla considera que la reasignación (condicionada) de probabilidades es tal que B pasa a ser el suceso cierto ( el espacio muestral) lo que supone P(B)=1.
La certidumbre absoluta en la evidencia B puede ser problemática (el criterio de la apuesta supondría estar dispuesto a apostar infinito). También puede haber situaciones en las que tenga sentido suponer una evidencia incierta.
Si no tenemos certeza absoluta de que se ha obtenido B (digamos salir un número impar) no se podrán reasignar las probabilidades de forma que se anulen las de los sample points incompatibles con B, ya que la CR(¬B) no sería cero ,al no ser 1, CR(B).
Una asignación alternativa sería la de prorratear las probabilidades de sample points compatibles con (la condición) B de forma que la unión de todas ellas nos dé CR(B) y las probabilidades incompatibles de forma que la unión de todas ellas nos diera CR(B).
(p.ej. si CR(B)=0,85 y CR(¬B)=0,15 podríamos reasignar las probabilidades a la luz de esta evidencia incierta como: CR ±B(1)= CR ±B(3)= CR ±B(5)= 0,85/3 y CR ±B(2)= CR ±B(4)= CR ±B(6)=0,15/3=0,05)
Esta reasignación se aparta, sin embargo, no sólo de la aplicación de la “regla pro-rata” sino de la propia definición estándar de probabilidad condicionada, además de poder ser inviable, en la práctica en situaciones realistas y complejas (sucesos no simples, ausencia de equiprobabilidad, etc).
2. Probabilidad de la intersección ( proposición 3 de Bayes).
En el fondo parece seguir subyaciendo la cuestión de si se puede interpretar “la probabilidad epistémica (y/o ,también, el grado de confianza en) de A dada la evidencia B (cierta o incierta)” como una probabilidad de A condicionada a la ocurrencia de B ( en “acto” o hipotética ) . Y en este sentido se discute la llamada “proposición 3 del “ensayo” de Bayes o teorema del producto o de la intersección en terminología moderna:
<< La probabilidad de la ocurrencia conjunta de dos sucesos es el producto de la probabilidad del primero por la probabilidad de ocurra el segundo en el supuesto de que haya ocurrido el primero:
P (A Ç B) = P(B).P(A/B) >>
Interpretando la probabilidad como chance no plantea muchos problemas (podemos pensar en ejemplos sencillos de dados o monedas que lo ilustran bien): Tendríamos:
CH(AÙB)= CHB (A). CH(B) y si CH(B)>0 podemos despejar :
=def CH(A/B) (expresión1)
que es, según la definición estándar, la probabilidad condicionada CH(A/B)
La expresión anterior es similar a la regla ( condicionalista / bayesiana) de reasignación de credence en función de la incorporación de nueva evidencia:
(expresión 2)
Pero ¿son realmente similares las dos expresiones? :
La primera ( que es más bien en la que el propio Bayes pensaba) habla de Chance y la segunda de Credence , lo que no sólo es una cuestión nominal.
Además en la primera expresión debe entenderse que ,dada CH(B), es el valor de CHB(A) el que determina la CH(AÙB) y como consecuencia CH(A /B) .Esto es, la probabilidad objetiva de A en una situación en la que ocurre B es la primitiva a partir de la cual se puede obtener la probabilidad de la intersección de ambas ocurrencias y como consecuencia , si se quiere, lo que suele entenderse por probabilidad condicionada: La chance que tiene ( o tendría), A si suponemos ( o supusiéramos) B.
Teniendo en cuento esto ,¿se puede interpretar la proposición 3(o su equivalente despejada) en términos de credence.?
Parece razonable que en la medida en que el principio de chance como evidencia permite igualar nuestras credence con las chance ( siempre que las conozcamos) podriamos traducir una expresión por otra, pero esta traducción no es exactamente lo que pretende ser el criterio bayesiano de readaptación de las credence según las evidencias disponibles por condicionalización; ese criterio que pretendidamente nos permite pasar de la credence a priori en A ,CR(A), a un nuevo valor, CRB(A),al haberse dado una evidencia B.
Además de ello las chances pueden en muchos casos o no existir o no ser conocidas y sin embargo ser perfectamente concebible la actualización de credence en función de la evidencia.
Puede haber, de todas formas . una cierta justificación psicologica en la medida en que las propias chances se pudieran intepretar como credence considerando que CR(A)=p es en realidad la creencia cierta en que CH(A)=p; esto es CR(CH(A)=p)=1
3.- Credences y decisiones.
Partiendo de la regla de condicionalización para la CRB(A) necesitamos conocer, antes de saber si B es cierto, CR(B) y CR(AÙB), pero en muchas situaciones prácticas de toma de decisiones estas probabilidades pueden ser problemáticas.
Supongamos un caso típico de dos acciones posibles (B y ¬B) (p.ej.dejar de fumar o no) y dos estados de naturaleza ( consecuencia no predecibles), (A y ¬A),(p.ej evitar o no un cancer):
Utilidades |
B |
¬B |
A |
US(BÙA) |
US(¬BÙA) |
¬A |
US(BÙ¬A) |
US(¬BÙ¬A) |
La utilidad esperada de la opción B será : USE(B)=CRB(A). US(BÙA)+ CRB(¬A).US(BÙ¬A)
Y
La utilidad esperada de ¬B será : USE(¬B)=CR¬B(A). US(¬BÙA)+ CR¬B (¬A).US(¬BÙ¬A)
De forma que hacer B verdadero ( dejar de fumar) depende de CRB(A) ( y también de CRB(¬A))que según la condicionalización de los bayesianos depende de CR(AÙB) y de CR(B), lo que parece un poco absurdo ( ¿Convertir B en verdadero depende de la probabilidad que le concedemos al hecho de hacerlo?)
Hay otro problema con el esquema decisional y la condicionalización: supongamos que la decisón se ha tomado y se opta por ¬B porque la USE(¬B) era mayor que la USE(B), esta decisión hace la CR(B) baja incluso cero y por ello también anula la CR(AÙB) de forma que CRB(A) resultaría indeterminada.
Hay que llamar la atención de que a pesar de no estar determinada no parece razonable decir que no exista.
Podríamos intentar asignarle un cierto valor, p: esto es CRB(A)=p que interpretaríamos como el valor que tendría el cociente CR(AÙB)/ CR(B) si CR(B) tuviera un valor definido no nulo.
¿??¿? podríamos considerar la situación de evidencia incierta de forma que:
CR±B(AÙB)= p . CR±B(B)
Aunque esta opción genera nuevos problemas:
1.- ¿Esto quiere decir que el cociente CR(AÙB)/ CR(B) toma el mismo valor p para cualquier CR(B) distinta de cero?
2.- Teniendo en cuenta la condicionalización generalizada con evidencia incierta tendríamos:
CR±B(AÙB)= CR(AÙB/B).CR±B(B) + CR(AÙB/¬B).(1- CR±B(B))
Y si consideramos que en cualquier interpretación de probabilidad:
y que :
CR±B(AÙB) nos queda como :
lo que significa que el valor p debe ser para los bayesianos igual al cociente CR(AÙB)/CR(B) pero estas credence son las “auténticas” (antes de la consideración hipotética de una credence en B distinta de cero) que o no estaban definidas o eran cero con lo que volvemos al problema inicial
Una vía de solución totalmente distinta que reconcilie la asignación de probabilidades condicionadas y la teoría de la decisión es concebirlas como una disposición actual a tener una credence p en A si creyera que ocurre o se da B. Postular tales disposiciones significa abrir un nuevo debate sobre su estatuto ontológico
Y aún otra se puede expresar en términos de confianza absoluta diciendo que en la situación de indeterminación que produce la propia decisión decir que CRB(A)=p quiere decir: CR(CRB(A)=p)=1
¿Cual sería el valor de p en una u otra situación es una cuestión, poco clara excepto en el caso en el que la Chance de A en el supuesto de que se de B exista y se conozca y hagamos valer el principio de Chance como evidencia.
4.- Apuestas condicionales
Una propuesta para dar una racionalización de la condicionalización es la idea de la apuesta condicional.
Se trata de concebir apuestas que tienen que relacionar credence a priori y a posteriori de ciertas condiciones y ver cómo deben ser para resultar consistentes (racionales): son las llamadas apuestas codicional. En las que si no se procede así, una apuesta inconsistente con la condicionalización lleva a la pérdida de la apuesta en cualquier circunstancia):
Consideremos la situación en la que la confianza en A en función de que B pase, la credence “a priori condicionada” viene dada por q : CR(A/B)=q
Por otro lado la credence “a posteriori” de B en la proposición A ( la confianza en A una vez sabido que ha ocurrido B)es q’ : CRB(A)= q’
Y la credece a priori en B que viene dada por p:
Teniendo en cuenta estas probabilidades podríamos pensar en tres apuestas realizadas antes de que sepamos si B ocurre:
Veamos la tabla de pagos para las tres apuestas:
apuesta |
BÙA |
BÙ¬A |
¬BÙA |
¬BÙ¬A |
1 |
1-q |
-q |
0 |
0 |
2 |
- (1-q’) |
q’ |
0 |
0 |
3 |
(1-p)(q-q’) |
(1-p)(q-q’) |
-p(q-q’) |
-p(q-q’) |
Suma |
p(q’-q) |
p(q’-q) |
p(q’-q) |
p(q’-q) |
En todos los casos la realización de las tres apuestas lleva a una ganancia neta de p(q’-q) lo que conlleva que :
1.si q’>q : ( CRB(A)> CR(A/B) la probabilidad subjetiva depositada en A una vez se sabe que ha ocurrido B es mayor que la probabilidad de A condicionada a B) se ganaría siempre pasara lo que pasara
2. si q’<q: ( CRB(A)< CR(A/B) la probabilidad subjetiva depositada en A una vez se sabe que ha ocurrido B es menor que la probabilidad de A condicionada a B, concedida a priori) se perdería siempre
3. si q’=q ( si se asigna como probabilidad a posteriori la probabilidad condicional ) las apuestas se equilibrarían.
Esto no es una auténtica justificación de la condicionalización como método para actualizar las probabilidades tan sólo muestra la coherencia de mantener posteriori de la ocurrencia de la condición, la misma asignación de probabilidades que cuando se plantea a priori considerando la ocurrencia hipotética.
5.-Imaginar ( cómo asignar las probabilidades).
Si parece que ,al menos, no siempre es adecuada la regla pro-rata ¿qué otra cosa podemos hacer para ir actualizando las probabilidades en función de la experiencia?:
La respuesta va ser imaginar una situación en la que las probabilidades (a priori) enteras de aquellos (resultados) puntos muestrales excluidos por la condición se suman a los resultados más similares de entre los posibles.
Supongamos un lanzamiento de una moneda que puede salir [cara (C) ,cruz (+), canto (#)] y que tenemos una probabilidades subjetivas iniciales de CR( C )= 0.5 ; CR(+)=0,4 y CR(#)=0.1
Ahora supongamos que “sabemos” que no ha salido cara
La regla pro-rata nos dice que :
CR¬C(+)= 0,8= 0,4/0,5 = 0,4 + (0,5.0,4 ) y la CR¬C(#)= 0,2 =0,1/0,5= 0,1 +(0,1.0,5)
aquí estamos asignando una fracción 0,4 de la probabilidad “excluida”( 0,5) al resultado cruz y una frección 0,1 de la probabilidad de excluida al resultado canto
La regla “imaging” operaría de forma diferente asignando “la totalidad de la probabilidad excluida” al resultado que pensemos que es más parecido al resultado que estamos excluyendo
Y si pensamos que un mundo donde la moneda salga cara se parece más a un mundo en el que salga cruz que a otro en el que salga canto: optaríamos por reasignar las probabilidades de forma que la totalidad de 0,5 se la sumaríamos a salir cruz y nada a salir canto:
CR¬C(+)= 0,4 + 0,5 .1= 0,9 CR¬C(#)= 0,1 +0,5 . 0 = 0,1
En este caso puede ser razonable pensar así pero en otros muchos, ciertamente no.
Pensemos que partiendo de una situación de lanzar un dado con puntos con probabilidades iniciales iguales para cada resultado , vemos de lejos el resultado y notamos que hay muchos punto de forma que ante este suceso , B; excluiríamos los resultados 1,2,3 pensando en qué resultado es más similar a los excluidos posiblemente reasignaríamos mayor probabilidad a posteriori al resultado 4, pero sobre la evidencia de “haber visto mucho punto negro” esto no es muy razonable.
Quizá lo misma ocurra con el condicionalismo en algún contexto, pero a falta de algo mejor parece un “buen sistema de actualización de probabilidades”.
6.- (Situaciones anómalas) Cuando Bayes falla.
Con todo el principal problema del bayesianismo surge de la propia virtualidad del teorema de bayes para combinar información previa e información empírica.
Posiblemente la razón está en que no siempre se trata de informaciones de la misma naturaleza o que merecen igual crédito, o que hablan “exactamente” de lo mismo.
El ejemplo que se cita es muy acertado para ver cómo puede resultar algo absurdo aplicar el teorema de bayes , en ocasiones.
Supongamos que ha habido un accidente en el que ha participado un taxi que debe se dio a la fuga y la policía debe encontrar.
Supongamos también que en la ciudad hay dos compañías de taxis la de taxis verdes (que son verdes) y la de taxis azules ( que son azules) de forma que el 85% de los taxis son verdes y el 15 % azules.
( a falta de más información diríamos que es más probable que el taxi implicado fuera verde: de hecho la asignación a priori de probabilidades sería CR(V)=0,85 CR(A)=0,15)
Supongamos que un testigo ha identificado el taxi implicado y ha dicho que era azul. Supongamos también que se sabe por un gran número de situaciones análogas que la fiabilidad de un testigo así es tal que hay una probabilidad de que esté en lo cierto del 80 %.
En estas circunstancia casi cualquier policía del mundo se fiaría del testigo e investigaría principalmente la compañía de taxis azules ( posiblemente con un confianza cercana al 80 % )
Sin embargo la regla de Bayes llevaría a un resultado muy distinto:
La probabilidad de que sea un taxi azul conocido el testimonio combinaría la información inicial y la empírica de forma que :
Mientras que la probabilidad de que fuera un taxi verde sería mayor:
La razón de esta “inversión” del resultado está en que probabilidades y verosimilitudes se combinan en la misma medida de forma que si la razón entre las probabilidades iniciales es de sentido contrario y mayor que la de las verosimilitudes las primeras pueden ganar la partida las segundas.
Esta dependencia de la información inicial se postula a veces como el gran atractivo del bayesianismo ya que permite no prescindir de conocimiento “ya” acumulado pero queda claro que también es su posible gran debilidad.
Si la información inicial hubiera hecho referencia, no a la proporción de coches azules y verdes sino a la proporción de siniestralidad entre unos y otros, posiblemente nos parecería más razonable.
La reiteración de la experiencia, la ponderación de la misma y el cuidado a la hora de elegir la información inicial pertinente son las únicas posibles bazas a jugar ante situaciones anómalas.
Capítulo 10. Chance, Frequency and Credence.
Las frecuencias reales son físicas y son probabilidades. Sin embargo, no son las chances. Recuérdese que las tres teorías que se discutieron en el capítulo 4 sobre las chances (modal, propensivista y frecuencialista) implican frecuencias hipotéticas con límite. Por eso, para evitar la confusión, a las frecuencias reales decidimos llamarles probabilidades estadísticas.
La cuestión es cuál es el nexo entre las chances y las frecuencias finitas reales (o probabilidades estadísticas).
Una posibilidad es identificar CH con el límite de una frecuencia hipotética. En tal caso, el mejor modo de estimar CH (H) será a través de una frecuencia finita y apoyándose en una regla de inferencia como la Regla Directa (Straight Rule), según la cual fn (H) tiene como límite f∞ (H) conforme se incrementa n.
Pero esta justificación es débil, ya que hay otras reglas además de la Regla Directa que cumplen esta propiedad asintótica de aproximarse a f∞ (H) conforme aumenta n, por ejemplo, fn (H) + 1/n. La regla directa es la más simple, pero, ¿por qué habría de ser al más fiable?
No obstante, la Regla Directa se emplea para estimar probabilidades estadísticas cuando partimos de una muestra y queremos extrapolar la frecuencia obtenida a una población. Esto ofrece cierta justificación para la Regla Directa porque, cuando la población es finita y real, la única regla que conduce al resultado exacto es la Directa. Sin embargo, esto no es suficiente para estimar CH. El problema es que CH implica el límite de una frecuencia hipotética (y refiere a una población infinita). Entonces, no basta con saber que fn (H) es la mejor estimación de f∞ (H). Hemos de saber cuánto de buena es dicha estimación, o al menos qué probabilidad hay de que la estimación a partir de un número finito de casos coincida con el límite de la frecuiencia hipotética (y, consiguientemente, con el valor de la chance).
Lo que se necesita es la Ley de los grandes números. Esta ley nos asegura que la diferencia entre el valor encontrado y el valor real se reduce a partir de cierto punto.
Sabiendo las probabilidades de los resultados simples (una tirada de un dado), podemos deducir la probabilidad de todos los resultados complejos (p.ej., que salga al menos un múltiplo de tres en una secuencia de cuatro tiradas) si y sólo si suponemos que las tiradas son independientes.
Dos tiradas A y B son independientes si y sólo si
p (A/B) = p (A)
p (A & B) = p (A) ∙ p (B)
La idea de la independencia de sucesos consiste en que B no nos dice nada respecto a las posibilidades de que A sea verdadera. Entonces, si igualamos, p (A/B) = p (A & B)
p (B)
Podría pensarse que la independencia entre las tiradas consiste en que p (A) ha de ser igual a p (B), o sea, que la tirada primera B, no modifica la chance de la tirada segunda (A). Sin embargo, Mellor demuestra que no basta con esto. Supongamos que A es que la segunda tirada sale cara y B que la primera tirada sale cara. En tal caso, tomando p (A) = p (B) o p (B) = p (¬ A) Mellor muestra que las dos igualdades anteriores son violadas (p. 131).
La independencia exige entonces no sólo que las tiradas consecutivas atribuyan el mismo valor, sino que además, las tiradas sean independientes en un sentido adicional de independencia física. Sólo si los resultados son independientes en este sentido se puede decir que las chances de los resultados simples
fijan las de los resultados complejos en conformidad con la Ley de los Grandes Números.
Decir que la chance (CH) de una tirada no se ve afectada por el otro resultado no es decir que nuestra estimación de CH (H) no ha de verse afectada tampoco. Puede que sí, puede que no, dependiendo de cuál sea la evidencia que tengamos a favor de un valor particular para la chance (p. ej. si tenemos mucha evidencia de que el dado no está cargado).
No obstante, lo más usual es que la evidencia proporcionada por una frecuencia sí influya. Si lo único que sabemos es que en todas las tiradas tienen la misma chance de salir cada resultado y además son físicamente independientes, podemos recurrir a la Regla Directa para derivar una credence en CH (H) dentro de un intervalo centrado en fn (H). La amplitud del intervalo dependerá de lo fiable que queramos que sea nuestra estimación.
Entonces, nuestra mejor estimación de la chance de un resultado varía con la frecuencia encontrada, pero suponemos, no obstante, que CH (O) no varía en sí misma. Los bayesianos piensan que esto es una carga de la que debemos prescindir, sobre todo si podemos obtener los mismos resultados (la ley de los Grandes Números) sin tal suposición.
La independencia es una condición suficiente para satisfacer la Ley de los Grandes Números. Pero no es una condición necesaria: la intercambiabilidad (exchangeability) también sirve. La idea es que mi credence de que la probabilidad de una tirada es p se obtiene a partir de una frecuencia (una frecuencia que es una secuencia de resultados), y que la credence no varía por el hecho de que cambie el orden de las tiradas, puesto que lo único que cuenta es la proporción en los resultados.
En la sección 6, Mellor argumenta que es posible conectar credences y frecuencias sin apoyarse en las chances.
Si tenemos una CR (Ai) sobre el resultado X de una tirada particular y este valor es el mismo para todas las tiradas A1, A2, …, An, podemos pensar que el número total de X en n tiradas será n ∙ CR (X), o sea, que a partir de CR obtenemos el valor de la frecuencia esperada de fn (X) para todo n. Este valor esperado no tiene por qué coincidir con el real, naturalmente.
Mediante el Teorema de Bayes podemos calcular la probabilidad posterior de una hipótesis en función de los resultados obtenidos (por ejemplo, la probabilidad de que la moneda no esté trucada después de salir cinco caras seguidas). Para ello necesitamos dar una probabilidad inicial a la hipótesis en cuestión, naturalmente. En p. 136 Mellor muestra cómo al aumentar el número de resultados, las probabilidades posteriores tienden a acercarse y las diferencias entre las probabilidades iniciales disminuyen.
El siguiente paso es calcular la probabilidad de que una tirada concreta tenga un resultado dada una secuencia previa de resultados. También en tal caso la probabilidad posterior tiende a borrar la diferencia entre las probabilidades iniciales.
El asunto es si podemos dar cuenta de estos resultados sin contar con las chances. Según Mellor no hay incoherencia en ello. En el caso de la hipótesis de que la moneda no está cargada diríamos que las propiedades relevantes de la moneda y la tirada son propiedades no-chance y simétricas. En el caso de la moneda con dos caras, bastaría con decir que la moneda tiene dos caras.
Que sea posible interpretar de modo subjetivista la situación anterior no significa que no existan las chances. El problema es que tiene sentido exigir que las estimaciones sean justificadas, mientras que no lo tiene exigirlo a las chances. Las chances existen y punto; las estimaciones son credences. La chance puede justificar tales estimaciones, ya que hay chances para las frecuencias. La cuestión es, pues, cómo justificar las estimaciones (probabilidades) iniciales.
La respuesta subjetivista tradicional es que las probabilidades iniciales no necesitan justificación. A veces derivamos nuestras credences por condicionalización a partir de grandes muestras (la probabilidad de desintegración de un átomo radiactivo). Pero eso no ocurre siempre. No es que las chances expliquen nada. Las chances son una proyección ilusoria a partir del hecho de que tenemos credences (posteriores) similares, o sea, que al aumentar el número de tiradas las probabilidades posteriores tienden a coincidir.
Si la Ley de los Grandes Números se cumple, las probabilidades posteriores tenderán a aproximarse a pesar de haber partido de probabilidades iniciales diferentes. Lo único que se requiere es la intercambiabilidad. No hace falta, pues, justificación de las probabilidades iniciales porque éstas quedan neutralizadas a la larga.
La ley de los Grandes Números nos dice que si incrementamos n nuestra credence posterior no diferirá de la frecuencia en más de una cantidad infinitesimal. Pero no nos dice que incrementando indefinidamente la n podemos conseguir que la credence de que la próxima tirada sea cara sea superior a cierto valor dado cualquier valor de probabilidad inicial para la hipótesis de que la moneda tiene dos caras (v. gráfico 8 p. 139). Aun dando un valor probabilístico muy pequeño a ésta última hipótesis, una acumulación de caras seguidas incrementará rápidamente la probabilidad de que la próxima tirada sea cara. Pero no la incrementará hasta hacerla igual a uno, salvo que la probabilidad inicial de que la moneda tenga dos caras sea tambien igual a uno.
De este hecho, Mellor concluye que ninguna credence posterior en el resultado de la próxima tirada estará justificada por la frecuencia obtenida (que sería la evidencia) a menos que también lo esté alguna credence inicial sobre H no igual a cero.
El subjetivista piensa que puede explicar por qué alcanzamos credences similares sobre las mismas proposiciones. Frente a esto Mellor objeta:
La regla 1.8 es importante en teoría de la confirmación, ya que de ella se sigue, por ejemplo, que si o1 es un enunciado observacional implicado por una hipótesis h1, entonces p (h1) ≤ p (o1). Nótese asimismo que si h1 → o1 entonces p (o1 / h1) = 1.
Esto se denomina el Ppo. de la imposibilidad de los sistemas de apuestas (the impossibility of gambling systems).
¿No es esto definir las chances para secuencias de tiradas y no para una tirada solamente. Respuesta de Mellor: Sí, pero la disposición es una propiedad de una tirada: si ésta se repitiera indefinidamente, tendríamos la chance como una frecuencia con límite. Aunque la tirada no se repita, la tirada tiene la disposición (de igual forma que un vaso puede ser frágil aunque no se rompa).
Desde luego, cómo determinemos cuál es la base categórica de una chance y cómo midamos cuál es el límite de las frecuencias hipotéticas son asuntos difíciles, como reconoce Mellor, pero no deben hacernos pasar por alto la ventaja mencionada por parte del propensivismo frente al frecuencialismo.
Ya se ha argumentado que las probabilidades físicas interpretadas modalmente son difíciles de aceptar porque apelan a una noción de posibilidad inexplicable desde una semántica de mundos posibles. En cambio, las propensiones “reducen” la modalidad a la no modalidad recurriendo a una base categórica.
Lewis ha defendido un principio parecido con el nombre de Principio Principal.
En las pp. 86-7 se incluye una digresión para sostener que una interpretación de la leyes estadísticas como verdades analíticas a posteriori (o sea, como leyes necesarias y no cognoscibles a priori) en la línea de Kripke es compatible con una interpretación humeana (frecuencialista) de las chances.
Sorprendentemente, Mellor no dice nada de los Teoremas de la Convergencia, tan queridos por los bayesianos, según los cuales, la acumulación de evidencia lleva a probabilidades posteriores prácticamente iguales, con lo cual a la larga quedan neutralizadas las diferencias que pudiera haber respecto al valor atribuido a las probabilidades iniciales.
Esto es lo que los bayesianos llaman el problema de los priors. Por cierto, Mellor sigue sin decir ni chufa de los Teoremas de la Convergencia, según los cuales los valores de las input credences a la larga quedan neutralizados: al reajustar las probabilidades de acuerdo con el ppo. de Condicionalización, el peso relativo de las probabilidades iniciales (priors) es cada vez menor conforme aumenta la cantidad de evidencia; por tanto, tampoco tiene demasiada importancia el valor concreto que el sujeto de a los priors.
OJO: si exigimos la igualdad exacta entre CRS (A) y CH (A) la probabilidad de que se cumpla esta igualdad será muy baja a poco precisos que sean los valores de ambos; habría que decir que el valor del primero esté razonablemente cercano del segundo.
Recuérdese que E y H poseen probabilidades iniciales, si no, el modelo no puede siquiera ponerse a funcionar.
Fuente del documento: http://www.uv.es/methodos/seminario/mellor.doc
Sitio para visitar: http://www.uv.es
Autor del texto: especificado en el documento de origen o se indique en el texto
Las letras son propiedad de sus respectivos autores y les damos las gracias por la oportunidad que nos brindan para conocer sus textos libres para fines ilustrativos y educativos. Si usted es el autor del texto y que está interesado para solicitar la eliminación del texto o la inserción de otra información envíe un correo electrónico después de que los controles adecuados que va a satisfacer su solicitud tan pronto como sea posible.
Los resúmenes, toma nota de los textos que figuran en nuestra página web se ponen a disposición de forma gratuita con fines didácticos de la ilustración, científica, social, civil y cultural a todos los posibles interesados de acuerdo con el concepto de uso justo, y con el 'objetivo de cumplimiento de la Directiva Europea 2001/29 / CE y del «arte. 70 de la ley 633/1941 sobre derechos de autor
La información médica y de la salud en este sitio es de carácter general y para propósitos informativos solamente y por lo tanto no puede en ningún caso sustituir el consejo de un médico (o un autorizado legalmente a la profesión).