Los ordenamientos procesales suelen contener actualmente alguna disposición o conjunto de disposiciones destinadas a fijar cuál es el sistema de valoración de la prueba que quienes decidan las controversias deben emplear. No es osado afirmar que, al menos declarativamente, la generalidad de los ordenamientos procesales establece que ese sistema es, y debe ser, el de Sana Crítica Racional (en adelante SCR). Ello así, sea cual fuere la materia que delimita el marco de competencia pertinente. Las cortes, tribunales, juristas y ciudadanía en general parecen estar más o menos de acuerdo respecto de esa exigencia, más allá del distinto nivel de profundidad que la comprensión alcance a este respecto. Por ejemplo, la CSJN decía hace algunos años que la doctrina en general rechaza en la actualidad la pretensión de que pueda ser válida ante el derecho internacional de los Derechos Humanos una sentencia que se funde en la llamada libre o íntima convicción, en la medida en que por tal se entienda un juicio subjetivo de valor que no se fundamente racionalmente y respecto del cual no se pueda seguir (y consiguientemente criticar) el curso de razonamiento que lleva a la conclusión de que un hecho se ha producido o no o se ha desarrollado de una u otra manera. Por consiguiente, se exige como requisito de la racionalidad de la sentencia, para que ésta se halle fundada, que sea reconocible el razonamiento del juez. Por ello se le impone que proceda conforme a la sana crítica, que no es más que la aplicación de un método racional en la reconstrucción de un hecho pasado[2].
Declarar que el sistema de valoración de la prueba de cualquier proceso es, y debe ser, el de SCR tiene mucho sentido, con independencia de lo que las disposiciones legales de los códigos o constituciones digan expresamente al respecto. En efecto, suele asumirse que el fin (teleológico e incluso, para algunos, cronológico) del proceso es la decisión judicial. A su tiempo, una decisión judicial (en una de sus acepciones) constituye un argumento, un «procedimiento argumentativo tendiente a aseverar una entidad lingüística dotada de algún valor»[3]. Este procedimiento argumentativo suele ser reconstruido como un silogismo que contiene dos premisas: por un lado, una premisa normativa, expresiva de la norma general aplicable al caso; por el otro, una premisa fáctica constitutiva de una aserción, precisamente relativa al caso al que la norma procura aplicarse.
Ahora bien, las premisas que juez o jueza fijan en su decisión no le vienen dadas sin más. Por el contrario, fijarlas requiere de una justificación independiente. A esa justificación suele hoy denominársela justificación externa[4]. Dejaré de lado aquí todo lo concerniente a la justificación externa de la premisa normativa, para poner atención en lo referente a la justificación de la premisa fáctica.
Pues bien, decía que insistir en que el sistema de valoración de la prueba (por medio del cual, en definitiva, se justifica la premisa fáctica) es, y debe ser, el de SCR tiene mucho sentido, al margen de lo que diga la legislación o jurisprudencia. Lo que le da sentido a esta exigencia es el concebir a la premisa fáctica misma como un acto de habla asertivo, como uno por medio del cual se expresa una proposición con valor de verdad. Por lo demás, si así no fuera, ningún sentido tendría decir que ‘el derecho se aplica a ciertos hechos’[5].
Un acto de habla asertivo conlleva al menos dos tipos de compromisos: uno con la verdad de la proposición expresada, otro con la posesión de las razones adecuadas para justificar ese compromiso[6]. En un mundo gobernado por la visión cientificista del mundo, las únicas razones adecuadas para justificar contenidos proposicionales (i.e. afirmaciones acerca de cómo son las cosas o de cómo fueron) son las denominadas razones epistémicas, las pruebas genuinas. Piénsese, por ejemplo, en un diagnóstico clínico que concluye en que el paciente goza de una salud rebosante. No consideraríamos aceptable esa aserción si el médico que realiza el diagnóstico invocase en su favor como ‘razones’ el haber recibido dinero de los familiares del paciente a efectos de procurarle tranquilidad y alegría.
Del mismo modo, y de aquí que tenga sentido la insistencia con la SCR, un veredicto según el cual las cosas han sido de tal o cual modo no podrá apoyarse en cualquier tipo de alegación, sino que deberá invocar las razones del tipo adecuado[7]. No obstante, las cosas no son tan sencillas. La SCR suele ser considerada un sistema de valoración de la prueba, es decir, un método para atribuir peso probatorio a determinados elementos de prueba individualmente y en su conjunto. Se trata de un método según el cual lo que determina el peso probatorio concreto de una prueba o de un conjunto de elementos de prueba es su valor estrictamente epistémico. De allí que se lo denomine «criterio metodológico negativo»: pues prescinde de reglas que digan cómo se debe valorar la prueba, pero remite a las reglas de la epistemología general[8]. De allí que usualmente se diga entre procesalistas que la SCR está constituida por las reglas de la lógica y de la experiencia común.
En este orden de ideas, la experiencia común nos permite generar máximas (a modo de reglas generales) a partir de las cuales inferimos ciertas conclusiones. Las máximas de experiencia (y las leyes científicas, que podrían considerarse un subtipo de ellas) están fundamentadas en razonamientos de tipo ampliativo, más específicamente, en razonamientos inductivos. Estos razonamientos, como es bien sabido, no son concluyentes[9]. A lo sumo, un razonamiento tal
puede ser mejor (más fuerte) que otro, si en el primero las premisas confieren más apoyo a la conclusión que en el segundo; o un argumento inductivo puede ser sólo un poco válido (muy débil), o muy válido (muy fuerte), etcétera[10].
Es por esto que a menudo se dice que la justificación epistémica es falible en todo ámbito: en las ciencias, en el diagnóstico clínico, en la historia, en la investigación de crímenes y, naturalmente, en el marco de las decisiones judiciales. Por más que contemos con una robusta justificación epistémica, con innumerables observaciones y con máximas de experiencia bien sustentadas en ellas, la proposición aseverada, en favor de la cual esa justificación se alega, puede ser falsa[11].
De tal modo, por identificarse con este método falible, la SCR padece de las mismas dificultades. Más aún, ni la SCR ni la llamada ‘concepción racionalista de la prueba’ establecen o imponen criterios específicos de suficiencia probatoria. Aun cuando la conclusión pueda siempre resultar falsa ¿cuándo debemos considerarnos justificados en aceptarla? La ausencia de criterios tales identificados en la SCR misma resulta bastante evidente. Pues dentro de las reglas de la lógica a que la SCR debe responder, suelen decir desde antaño los procesalistas, está el principio de razón suficiente. De modo que resolver de acuerdo con la SCR si una acusación contra una persona está o no probada exige aplicar un principio (uno cuyo carácter lógico, además, debería ser revisado) cuyas condiciones de satisfacción no están dadas por la SCR misma.
Una de las estrategias que tanto los filósofos de la ciencia cuanto los juristas han buscado a efectos de hallar criterios de suficiencia es recurriendo a la noción de probabilidad. Ello permitiría elucidar la relación de apoyo entre pruebas y contenido aseverado, medir la debilidad o fortaleza de esa relación, y fijar umbrales de suficiencia probatoria.
Come in tutte le inferenze induttive, anche nell’inferenza storiografica e in quella giudiziaria la conclusione ha pertanto solo il valore di un’ipotesi probabilistica in ordine alla connessione causale tra il fatto assunto come provato e l’insieme dei fatti addotti come probatori. E la sua verità no è dimostrata come logicamente conseguente dalle premesse, ma solo provata come probabile o ragionevolmente plausibile in accordo con uno o più principi d’induzione[12].
Sin embargo, esta estrategia parece en ocasiones una mera exportación del problema a otro sitio: pues qué signifique probabilidad y cómo se la mida es algo sumamente misterioso. En lo que sigue, consciente de lo rudimentario y limitado que este análisis puede resultar, apuntaré algunas ideas en torno a la noción de ‘probabilidad’ recurriendo a la discusión desarrollada en el ámbito de la filosofía.
Cabe adelantar que todas las ideas que se clasifican a continuación pueden ser identificadas con una de dos grandes líneas de pensamiento en torno al apoyo con que ha de contar un razonamiento inductivo como razonamiento probabilístico. La línea demarcatoria está en el compromiso o rechazo con la posibilidad de que el concepto de probabilidad defendido por cada teoría satisfaga el cálculo matemático de probabilidades.
La línea de pensamiento de quienes se comprometen con la satisfacción de dicho cálculo encuentra sus raíces en la teoría matemática de la probabilidad, entre cuyos estudiosos se encuentran, entre otros, Pascal, Fermat, Galileo, von Kries y Poincaré. Dicha teoría nació, sin embargo, lejos de la inducción, en vistas a la resolución de problemas relacionados con los juegos de azar y en general, en ámbitos donde rige el llamado principio de irrelevancia o de indiferencia. Ello dada la «simetría de las condiciones físicas»[13]. Esto es, nació pensada para casos respecto de los cuales parece razonable asumir que los resultados posibles tienen la misma probabilidad inicial, siendo irrelevante todo factor empírico a los fines de la probabilidad a priori de los resultados[14]. La probabilidad es, según esta noción tradicional, el cociente resultante de dividir el número de los casos favorables por el de todos los casos equiprobables (e.g. la probabilidad de ‘sale un 2 en el primer tiro’ es igual a la división de la cantidad de caras que tengan el 2 por la totalidad de las caras del dado: 1/6)[15].
Esta teoría de la probabilidad se identificó con una sintaxis que cuenta primordialmente con dos axiomas a saber: (i) la regla de complementariedad para la negación y (ii) la regla de multiplicación para la conjunción. Para la teoría de la probabilidad matemática, en efecto, la probabilidad de una proposición es una función intermedia entre los números 0 y 1, de modo tal que (i) la conjunción de la probabilidad de una proposición y la de su negación suman, en todos los casos 1[16]. Por otra parte, la probabilidad de que dos proposiciones sean verdaderas se calcula (ii) multiplicando la probabilidad de cada una de ellas, de modo tal que la probabilidad de la conjunción será siempre menor a la probabilidad de ambas proposiciones individualmente consideradas (de cada probabilidad monádica)[17].
El que la probabilidad sea matemáticamente calculable significa que pueda satisfacer las exigencias de éstos axiomas básicos. Como se adelantó, hay quienes pretenden que la probabilidad que da sustento a la inducción es, puede ser, o debe ser, de este tipo. Algunos poniendo el acento en la variedad de los casos observados, otros insistiendo en la cantidad de ellos e incluso algunos pretendiendo una combinación de ambos[18].
Esto ha sido llevado al campo de la justificación de las decisiones judiciales aunque no con resultados del todo positivos. En efecto, se ha mostrado ya que, desde un punto de vista teórico, la aplicación de las reglas del cálculo matemático de probabilidad conduce a algunos resultados contraintuitivos; y del punto de vista práctico, a algunos resultados indeseables. Para considerarlos brevemente:
En primer lugar, el axioma del complemento para la negación presupone un cierto grado de probabilidad inicial tanto para la hipótesis cuanto para su negación (i.e. en ausencia de prueba en ambos sentidos 0,5 para cada hipótesis)[19]. De este modo, cualquier mínimo elemento probatorio inclinaría la balanza hacia una de las hipótesis en desmedro de su negación y los casos de ausencia de prueba, ordinarios en la práctica, serían absolutamente extraordinarios desde el punto de vista teórico: casi siempre habría pruebas para elegir una de las dos hipótesis (de allí lo contraintuitivo). Esta objeción no parece tan contundente ya que todavía podrían establecerse estándares para salvar esta dificultad. Pero resta una objeción más en tanto la medida de la credibilidad sobre una hipótesis no puede ser igualada sin más a la de la frecuencia relativa con que los eventos ocurren. Allí donde lo que importa es aquella credibilidad, el que h tenga un apoyo probatorio tal que la torne creíble no implica la disminución proporcional del apoyo probatorio para ¬h. Lo que disminuye proporcionalmente es, en todo caso, el apoyo para la incredulidad de h[20]. Esto, espero, quedará claro más adelante.
En segundo término, el principio de multiplicación para la conjunción frustraría prácticamente toda iniciativa justificativa en el Derecho. Ello porque la probabilidad de una conjunción de una hipótesis fáctica con otra, es siempre menor que la de cada una de ellas individualmente. Esto dificulta alcanzar el estándar probatorio cuando un supuesto de hecho incluye varias hipótesis independientes (por caso, el daño y la imprudencia)[21].
Todo ello, sumado a algunas razones adicionales, parece suficiente para rechazar la aplicación de los axiomas del cálculo matemático de probabilidad en este campo[22]. En cualquier caso, con idoneidad para satisfacer el cálculo matemático o sin ella, el contenido semántico del término probabilidad parece mantenerse persistentemente indeterminado.
Pasemos entonces a un esbozo de clasificación de algunos ‘significados’ atribuidos al término probabilidad. Como se dijo, se espera que esto arroje algo de luz respecto del problema del grado del apoyo con que puedan contar nuestros enunciados fácticos. Creo que más allá de la complejidad, la sutileza y la abstracción de muchas teorías sobre la probabilidad, no pueden perderse de vista las utilidades prácticas que alguna de ellas pueden tener en determinados campos[23]. En concreto, buscaremos elucidar una noción de probabilidad fecunda frente a la noción de razón suficiente ínsita en la SCR[24].
A efectos de la clasificación aludida es quizás útil recurrir a una distinción preliminar presente en el discurso epistemológico sobre la probabilidad desde los albores mismos de la discusión. Esa distinción es la que se presenta entre quienes conciben a la probabilidad como un término realista (como una relación entre eventos u objetos naturales de cualquier clase) frente a aquellos para quienes es una cuestión idealista (una relación entre «proposiciones, creencias, aserciones, u otras características similares de nuestros pensamientos respecto a la realidad»[25]). Todos los conceptos que en adelante se analizarán pueden ser identificados con una u otra línea de pensamiento pudiendo ser combinados con las otras dos grandes líneas antes referenciadas: la que admite el cálculo matemático de probabilidad y aquella que lo rechaza.
Trataré en primer lugar una teoría que considero sumamente intuitiva, aunque no por ello carente de problemas. Ella trata a la probabilidad como un término modal del lenguaje ordinario. Dicho término estaría definido por su función, que sería, pura y exclusivamente, la de reducir el nivel de compromiso asumido en el acto de habla en que se presenta. Referiré luego a tres teorías que, en principio y dados ciertos presupuestos, satisfarían los requerimientos del cálculo matemático de probabilidad: la teoría frecuentista, la teoría de la probabilidad como propensión y la teoría subjetivista. La primera de ellas puede ser interpretada sea como realista sea como idealista. La segunda es esencialmente realista y la tercera, en cambio, idealista. Por último, haré referencia a la teoría de la probabilidad de tradición baconiana como versión de la teoría lógica. Ella, como toda teoría lógica de la probabilidad, identifica al término con la relación entre proposiciones de modo tal que se trata de una teoría idealista. Pero a diferencia de ciertas teorías lógicas (como las de Carnap o Keynes), la línea baconiana es ajena al cálculo matemático de probabilidad. Sobre todo, por rechazar los principios de complementariedad para la negación y multiplicación para la conjunción ante los resultados contraintuitivos a los que se hizo referencia brevemente. Sostendré, siguiendo los pasos de numerosos autores que se han ocupado especial y recientemente de estas cuestiones, que es ella la teoría más adecuada para delinear un modelo teórico de justificación (o una parte de la justificación) de la inferencia probatoria[26].
III.1. La teoría del término modal
Una primera interpretación posible del término probabilidad es aquella que lo identifica con un término modal destinado a reducir el compromiso de quien emite un enunciado lingüístico. El término probabilidad se define aquí pragmáticamente, por su función en la comunicación lingüística[27].
La aseveración de algo como probable es, de tal modo, una afirmación (o una promesa) con una reserva. Pero es, al mismo tiempo, una afirmación que implica al menos algún grado de compromiso. Dicho compromiso es relativo a las razones que, si bien son insuficientes para aseverar incondicionadamente, tornan atendible (permiten), la aserción con reserva[28].
Por ello, el uso del término nos comprometería a que lo afirmado se cumpla en una razonable proporción de los casos. Y eso sería todo lo que se está afirmando de hecho: que hay razones para esperar que tal o cual cosa sea de tal o cual modo, más allá del estado subjetivo de quien lo haga, esto es, independientemente de la creencia que ello implicaría de ser el hablante es sincero (por caso, que se espera, que cree, que confía en que tal o cual cosa será de ese tal o cual modo)[29].
Esta forma de comprender el término probabilidad lo torna categorialmente diverso al de ‘verdad’ en el sentido en que afirmar que algo es probable (o improbable) excluye las afirmaciones simultáneas, del mismo hablante y con los mismos datos, de que eso mismo es verdadero (o falso) [30]. Es por esto que Cohen califica a esta teoría de la probabilidad como manifestación de una lógica con pluralidad de valores[31].
Pero esta diferencia categorial conduce a un paralelismo entre los dos conceptos (i.e. el de probabilidad y el de verdad) que reproduce al menos uno de los problemas que aquí intenta resolverse: el de los criterios para considerar justificados ciertos enunciados. En efecto, del mismo modo que las aserciones con pretensión de verdad han de satisfacer determinados criterios para estar justificadas, las aserciones con pretensión de probabilidad requerirán, a su tiempo, de criterios similares. Y ha de recordarse que es justamente la búsqueda de criterios de la primera clase la que nos trajo hasta aquí. Queda claro con esto que esta noción de probabilidad lejos está de resultar adecuada (como criterio pertinente) para dar sustento a los razonamientos de tipo inductivo.
Muy por el contrario, Toulmin sostiene que tales criterios de sustento, ya sea para efectuar una afirmación sin reservas (i.e. como verdadera), ya sea para hacerlo con reserva de probabilidad, dependerán de los diversos campos de argumentación de que se trate y de las razones que en ellos sean relevantes. Respecto de las aserciones probables, asumirán relevancia, por caso, todos aquellos que los filósofos han tratado erróneamente como conceptos de probabilidad. No ya como distintos significados del término, sino como diversas clases de criterios justificativos de la aserción probabilística.
Si esos criterios no se respetasen, el argumento quedaría desacreditado como incorrecto. Pero ello es, en todo caso, independiente de que el resultado calificado, previsto como probable, se cumpla o no[32]. Así, la corrección de una pretensión tal dependería, sostiene Toulmin, por lo menos, de las credenciales de quien la sostiene, de las razones disponibles y de las efectivamente analizadas, del momento en que la pretensión se sostiene, etc.[33]. Si esas razones son satisfactorias, la aserción es aceptable en ese momento, es correcta (o mejor, es producto de un razonamiento correcto), más allá de que más tarde se muestre errónea (i.e. no se produzca el hecho previsto).
De tal modo, ‘probabilidad’ no es más que un término definido por sus implicaciones prácticas. Ellas se observan en el uso del término en expresiones complejas dependientes del campo argumentativo. En esos contextos y sobre la base de la experiencia es donde habría de buscarse el criterio de atendibilidad del juicio de probabilidad.
En definitiva, desde este punto de vista el término probable no sería un término ambiguo, tal como pretenden la gran mayoría de los filósofos que se han ocupado del tema. Su significado sería invariable dada la invariabilidad de su uso. Ello así aun cuando los criterios de uso cambien de acuerdo con los contextos argumentativos en que aparece. En otras palabras, lo cambiante son solo las razones idóneas en cada contexto para ofrecer apoyatura y tornar atendible un enunciado ‘afectado’ por el uso del término modal. Pero la función de éste último es en todos los casos idéntica: dar sustento a compromisos con reservas respecto a ciertas aserciones.
Por todo ello, las teorías de la probabilidad que se tratan a continuación no son excluidas por la visión toulminiana, sino más bien absorbidas por ella. Todas esas nociones encarnarían diversas razones o clases de razones potencialmente relevantes a favor de aserciones con reserva. Pero precisamente por esto, se ha sugerido ya, queda todavía sin resolver nuestro problema central, a saber: el relativo a los criterios sobre la base de los cuales evaluar si nuestras razones son suficientes para garantizar nuestras aserciones (sean afirmadas como verdaderas o como probables). Y esto no ha sido pasado por alto por los filósofos que se han ocupado de las ideas de Toulmin:
Toulmin has not erased evidential support as a factor in the situation but he seems to have convinced himself that when it is associated with backing rather than probability the old problems disappear[34].
Siendo esto así, los problemas que provoca la ausencia de criterios para sostener que una aserción es verdadera (o probable) a los que antes se refirió, ya no solo no son resueltos mediante la noción de probabilidad, sino que se reproducen en el seno del uso de dicho término.
III.2. Probabilidad como frecuencia relativa
La teoría de la probabilidad como frecuencia relativa de eventos es quizás una de las primeras nociones de probabilidad que se analizó en el campo filosófico. Ella se remontaría a Aristóteles, para quien el término denotaba, precisamente, ‘la frecuencia con que los eventos ocurrían’[35].
Así entendida, la probabilidad deviene necesariamente probabilidad diádica[36], en el sentido en que consiste, por definición, en una relación entre un cierto número de casos de una clase que presentan una característica común (B) respecto a la totalidad de los casos de esa clase (A) observados (i.e. la cantidad de A que son B). La frecuencia estadística así entendida es, para muchos, la base de la generalización (i.e. todos/pocos/algunos/ningún A son/es B)[37].
Esta es una de las dos nociones de probabilidad a las que Carnap dedicó especial atención en tanto concepto empírico, relacional entre dos argumentos que designan propiedades, tipos, clases de eventos, cuyo fundamento ha de estar en la observación de los casos relevantes[38]. Sin embargo, uno de los defensores más fervientes de esta visión, antecedente del propio Carnap, fue Hans Reichenbach.
Para él, una vez descubierta la ley probabilística, se torna insoslayable creer en ella por aplicación del principio inductivo que supone la continuación de la regularidad probabilística verificada. Su argumento, en términos muy generales, consiste en que considerar que dicha regularidad no vale como justificación de la creencia solo tendría sentido si ello pudiese verificarse empíricamente, y esa verificación sólo podría justificarse por medio de una inducción. Y esto último, por su parte, presupone también el principio inductivo[39]. En otras palabras, dicho principio no está justificado como tampoco lo está, por ejemplo, el principio de no contradicción. Sin embargo, ambos se imponen forzosamente.
Quienes así piensan, insisten en buscar en la frecuencia estadística la justificación del razonamiento inductivo, intentando fijar un criterio de suficiencia en algún grado de esa relación entre eventos a partir del cual aceptar el enunciado como inductivamente verdadero (o verdaderamente ‘probable’). Sobre la base de ese grado relacional suficiente estaría justificado, adicionalmente, adoptar una decisión aceptando enunciados fácticos individuales sobre la base de la generalización[40]. En este orden de ideas, la frecuencia relativa de casos observados en que un determinado evento general A tiene la propiedad B en las circunstancias generales C (por caso, 80 de cada 100 A son B en C) podría pretenderse (normativamente) como razón suficiente en favor de la conclusión de que a (particular instancia de A) es B dado que c (particular instancia de C)[41].
Distinto sería el caso en que la frecuencia relativa se presentase, no ya como razón suficiente en favor del razonamiento inductivo cuya conclusión es universal, sino –quizás por no alcanzar la medida de frecuencia exigida– como razón en favor de una conclusión probabilística tal que ‘es probable que a sea b’.
En cualquiera de los casos, de mantenerse la disyunción entre probabilidad inductiva y causal, en el primero de ellos se aseveraría un enunciado fáctico como aproximativamente verdadero (i.e. probable inductivamente); mientras que, en el segundo caso, el enunciado fáctico sería aseverado como aproximativamente probable (i.e. probable inductiva y causalmente)[42].
Claro que, si probable significase solamente frecuencia relativa, la conclusión sería una tautología (i.e. ‘frecuentemente p’ sería lo mismo que ‘probablemente p’). Pero podría ser el caso que el significado de ‘probable’ asumiese otra entidad en el enunciado conclusivo. Por caso, el que se trata en el apartado que sigue (i.e. probabilidad como propensión o tendencia), o quizás simplemente el tratado en el apartado precedente (como término modal, de reserva). La frecuencia relativa sería solo una razón (inductiva) en favor del enunciado probabilístico (causal) y no ya la probabilidad[43]. O más aún, alcanzados determinados grados de frecuencia, quizás ella fuere razón suficiente para sostener el enunciado sin reservas.
No obstante, en ambos casos se presenta la necesidad de justificar el paso de la observación frecuentista a la conclusión consistente en una previsión fundada en esa frecuencia, esto es, el principio inductivo. Las opciones tradicionales a ello dirigidas han sido principalmente dos: la regla directa de Hume (por la cual si se observaron retornar del océano 19 de 20 barcas la previsión de que la próxima barca retorne es de 19/20), o la regla de sucesión de Laplace[44].
Sea como fuere, la capacidad de la frecuencia relativa para ofrecer sustento inductivo a un razonamiento en particular ha sido objeto de varias objeciones. La primera de ellas consiste en que la frecuencia estadística debe considerarse impotente para asignar probabilidad a eventos individuales[45]. Ello porque cada hecho individual se encuentra incluido en una larga serie de eventos generalizados por compartir una o varias propiedades, al tiempo que nada garantiza que esas propiedades son determinantes, ni que lo son con exclusividad y, mucho menos, que lo son en el caso particular[46].
En efecto, como puede verse en el ejemplo de Cohen, ninguna de las reglas aplicables presta atención a la relevancia de la muestra ni en términos generales ni en términos individuales. En el primero de los sentidos, la frecuencia (de 19 sobre 20 barcas) es igualmente relevante como muestra ante un total de 20, de 2000, o de infinitas barcas. En el segundo sentido, la frecuencia es prueba igualmente idónea para la previsión del retorno de una barca en estado calamitoso, que parte en condiciones climáticas desfavorables, frente a una muestra de 20 barcas en excelente estado que partieron y retornaron en buenas condiciones climáticas. Siempre la probabilidad será de 19/20 para cualquier individuo que sea una barca. Esto es aquello que se conoce como el problema de la sustituibilidad sobre el que más adelante se volverá.
Estas paradojas son las que guiaban la fuerte resistencia que, a esta interpretación de la probabilidad como frecuencia, ofrecía Bruno de Finetti. Para él, de hecho, se trataba de la peor interpretación posible, dado el indeseable colapso que implica entre dos nociones esencialmente distintas: la de frecuencia y la de probabilidad:
Tale confusione è molto più difficile da superare a causa dell’inganno terminologico, sfortunatamente così diffuso, di chiamare ‘eventi’ non i singoli eventi, ma alcune vagamente definite ‘specie’ di cui i singoli eventi sono ‘prove’. Così, la ricca e sfumata varietà di analogie, le somiglianze e dissomiglianze, le possibili correlazioni (e così via) tra i singoli eventi, negligentemente trascurate[47].
En este último sentido, el problema que presentan las frecuencias estadísticas es que ellas indican una relación numérica entre eventos sin que de ello se siga que esa relación haya de sustentar, en igual o en alguna medida, la relación entre proposiciones (que antes se denominó inductiva). La probabilidad frecuentista no podría, o al menos no debería, garantizar la ‘probabilidad lógica’, ofrecer el grado de apoyo inductivo al enunciado. Lo único que la frecuencia garantizaría es una relación entre funciones proposicionales o conceptos de clase[48]. Cuál sea la relevancia inductiva de esas relaciones es algo que todavía requiere de mayor reflexión[49].
III.3. Probabilidad como propensión
Entender al término probabilidad como término modal o como expresión de una frecuencia no compromete necesariamente con una específica ontología[50]. Por el contrario, hay quienes consideran que las frecuencias con que los eventos se manifiestan responden a una propensión real, a propiedades ínsitas, ya no a clases de eventos, sino a eventos en particular[51].
Las frecuencias relativas, tales las tratadas en el parágrafo precedente, serían una mera manifestación de esas propiedades, de esas tendencias naturales, que relacionan determinadas circunstancias y determinados objetos tal que disponen a éstos a actuar de determinados modos en esas circunstancias[52]. La probabilidad se presenta así como una realidad física y los enunciados que la afirman como hipótesis que, por lo demás, refutarían el determinismo causal. Ello así, desde que algunos eventos serían intrínsecamente imprevisibles[53].
La idea de propensión o tendencia permite, al menos conceptualmente, asignar probabilidades a eventos individuales, según sus bases categoriales [categorical basis[54]] a diferencia de lo que ocurría respecto a la teoría de la frecuencia relativa.
Sin embargo, la teoría de la probabilidad como propensión no ofrece ningún criterio del cual partir para descubrir cuáles son las tendencias que caracterizan a un objeto determinado[55]. Es una noción inobservable, que solo se manifestaría en sus efectos[56]. Frente a ello, una posibilidad a los fines de identificar la propensión como propiedad ontológica de determinados objetos o eventos, sería buscarla en la frecuencia con que ellos se comportan del modo relevante. Pero esto reproduce buena parte de los problemas que presentaba la teoría frecuentista. En especial los dos siguientes.
En primer lugar, el relativo a la incertidumbre sobre la serie de repeticiones a partir de la cual podría considerarse puesta de manifiesto la propensión. Se ha propuesto a estos fines utilizar un procedimiento convencional como criterio de guía que permita establecer cuándo una serie de repeticiones puede ser considerada significativa para el campo de que se trata. Si se contase con una observación de una serie tal, se sostiene, podría decirse que la probabilidad real no variará (o no variará en gran medida) en repeticiones sucesivas[57]. En segundo lugar, aún cuando hubiese acuerdo en torno a la significancia de una muestra, la asignación de probabilidades se basaría en una mera generalización, una vez más, ajena a la contemplación de potenciales variaciones en los casos individuales según diversas circunstancias.
III.4. La probabilidad subjetiva
En el extremo opuesto al de la concepción realista de la probabilidad como propensión aparece el de probabilidad como categoría puramente mental, ideal. Los subjetivistas asignan al término probabilidad el significado de grado de creencia en la ocurrencia de un evento[58]. Para quienes ven a la probabilidad de este modo, aquellos que defienden conceptos de probabilidad objetivos como aptos para sustentar la inducción estarían incurriendo en un grave error. Ellos presupondrían que la medida de la probabilidad (objetiva) en que hacen foco, debería de impregnarse en la medida de la creencia racional sobre el enunciado inductivo[59].
Del rechazo de esta presuposición parten los esfuerzos por ofrecer una teoría capaz de medir los grados de creencia, única noción de probabilidad que, desde esta posición, resulta plausible para la justificación de la inducción[60]. Y ello así independientemente de cualquier noción objetiva[61].
En la búsqueda de una tal teoría Ramsey estratificó esta noción de probabilidad dentro de una escala tal que fuere posible la aplicación de los axiomas de la teoría matemática de la probabilidad. De tal modo, para él la medida de la creencia (i.e. la probabilidad) ocupa un valor intermedio en la escala del 0 al 1 donde la certidumbre, o creencia total en la proposición (h), se identifica con el número 1 y la creencia total en su negación (¬h) con el 0[62].
Pero todavía era necesario encontrar algún elemento tangible al que pudiera anclarse la creencia a los fines de ser medida. Ramsey encontró a estos fines dos posibles candidatos: el ‘sentimiento de creencia’ y la ‘disposición para actuar’, ambos como propiedades causales de la creencia. Luego de rechazar la primera salida, fijó el criterio del que en la actualidad parten buena parte de los subjetivistas. En efecto, para ellos, la medida de la creencia está en la disposición para actuar, y más específicamente, para apostar en la verdad de la proposición.
De tal modo, el grado de creencia se calcula sobre la más baja apuesta que el individuo está dispuesto a aceptar en relación con la verdad de la proposición creída[63]. Esto es, mientras menos esté dispuesto a ganar y más a perder, mayor ha de considerarse su creencia en la verdad (i.e. la probabilidad) de la proposición.
Sin embargo, los propios subjetivistas se percataron de que no todos los grados de creencia así calculados resultan (al menos intuitivamente) racionales[64]. Ello llevó a Ramsey, y más aún a algunos de sus seguidores, a limitar su método a aquellos sistemas de racionalidad coherentes[65]. Pero lo cierto es que aún en estos casos las creencias de los individuos ante las mismas circunstancias parecen poder ser radicalmente diversas y todavía racionales.
Estas dificultades motivaron a quienes conciben a la probabilidad en términos subjetivos a recurrir al llamado teorema de Bayes[66]. La aplicación de este teorema, pretenden los ahora llamados bayesianos, permitiría eludir la objeción precedente por cuanto las creencias iniciales de los individuos, a pesar de cualquier divergencia, convergerán mediante su aplicación en una probabilidad uniforme[67]. El teorema sería idóneo entonces, al menos, para mostrar la racionalidad del evolucionar de la creencia de quien lo aplica a medida que se enfrenta con nuevos elementos de juicio.
Según el método bayesiano, la probabilidad de una hipótesis (pH) se calcula asignando inicialmente un valor de probabilidad a su ocurrencia[68]. En la misma orientación, desde el inicio se ha de asignar un valor a la probabilidad diádica de un dato desconocido (E1) suponiendo la verdad de la hipótesis (H). Esto es, se genera una probabilidad condicionada de que ese dato sea verdadero asumiendo que es verdadera la hipótesis (p(E1/H)). Si se asignase además un valor a la probabilidad monádica de que se presente ese dato (p(E1)) entonces se tornaría posible calcular el grado de apoyo el dato (E1) ofrece a la hipótesis (H). A partir de allí, se puede iniciar la valoración de los ulteriores elementos de juicio que, por aplicación del teorema, harían racional la evolución de la creencia[69].
Los sostenedores de esta teoría sostienen que la aplicación del teorema a largas secuencias lleva a homogeneizar los valores probabilísticos, independientemente de que las probabilidades inicialmente asignadas sean divergentes. Pero esto presenta varios problemas[70]. Uno de ellos es el de la ausencia de todo criterio para la asignación de probabilidades iniciales, sin perjuicio de que la teoría de la homogeneización funcione[71]. En segundo lugar, hay una indeterminación de la secuencia mediante la cual se tendería a la unificación. En este sentido, ella depende de la aplicación del método en la valoración de cada nuevo elemento de prueba. Pero dado que los elementos potencialmente relevantes no parecen determinables, el que los grados de creencia se tornen homogéneos y la medida de tal homogeneidad, pasa a depender del punto en que la valoración de las pruebas se dé por finalizado. Esto reproduce el problema de las secuencias relevantes mencionado respecto de las frecuencias relativas y de las propensiones. Por último, y por todo ello, el procedimiento bayesiano parece quedar limitado al control de la racionalidad (o una forma de racionalidad) de una inferencia probatoria vinculada al sistema de creencias de un individuo en concreto. Sus defensores plantean que tal debe ser el caso si se pretende una justificación racional de tales creencias. Por lo tanto, la relevancia de este procedimiento en lo que a la justificación de la decisión judicial respecta requiere de la aceptación del procedimiento como debido, y no parece ser éste el caso en el campo argumental al que aquí se está haciendo referencia[72].
Pero el mayor problema de la noción subjetiva de probabilidad a la luz del contexto judicial de decisión es, precisamente, su subjetividad. En este orden de ideas, si la fijación de la suficiencia probatoria se estableciese acudiendo a nociones subjetivas, a estados mentales o emocionales, el sistema de valoración racional de la prueba se vería fuertemente amenazado. De hecho, si así estuviere fijado el umbral de suficiencia habríamos abandonado al sistema de valoración racional para pasar a uno de íntima convicción. Una serie de críticas en esta orientación pueden encontrarse en los trabajos de Larry Laudan quien da por hecho que, si los estándares de prueba se fijan en términos probabilísticos, la noción de probabilidad involucrada será la subjetiva:
Mi resistencia se debe al hecho de que finalmente cualquier [estándar de prueba] entendido en términos probabilísticos sufrirá del mismo problema de subjetividad que (...) demostró estar dentro de las principales deficiencias del estándar BARD[73].
Dos son las razones que Laudan ofrece para descartar la técnica probabilística de formulación de estándares de prueba. La primera de ellas apunta a las dificultades que implica estimar la probabilidad de nuestras creencias, i.e. a graduarlas probabilísticamente, en contextos como el del proceso judicial. Así, a diferencia de lo que podría suceder, por ejemplo, respecto de la creencia de que una moneda arrojada al aire caerá del lado de la cruz, en contextos como el que nos ocupa un cálculo tal parece imposible[74]. Si el estándar estuviere formulado de ese modo, dice Laudan, se nos estaría imponiendo embarcarnos en una operación que «ni yo ni ningún otro miembro del jurado podríamos llevar a cabo con algún grado de fiabilidad»[75].
La segunda de las razones es mucho más terminante y, por ello, más relevante a nuestros fines, pues conduce a la conclusión de que cualquier estándar formulado en términos probabilísticos, BARD incluido, lógicamente, constituyen
... una parodia de un sistema de prueba... En lugar de especificar que la confianza que los miembros del jurado puedan tener en la culpabilidad del acusado depende de que se hayan ofrecido o no pruebas robustas, el derecho procesal penal hace que el [estándar de prueba] sea parasitario del nivel de confianza que el investigador o juzgador de los hechos (en este caso, el jurado) tenga en la culpabilidad del acusado. De modo que, para el derecho, tenemos una prueba de la culpabilidad del acusado cuando los miembros del jurado se sienten fuertemente persuadidos de ello (o cuando asignen a la hipótesis de la culpabilidad una probabilidad mayor a x, en el caso de un estándar probabilístico). Sin importar cómo hayan llegado a tener ese alto nivel de confianza, está probado. Esto pone las cosas precisamente del revés[76].
El problema en cuestión es que todos estos estándares de prueba no nos dicen nada acerca de lo que debe contar como una prueba de la culpabilidad. Sea que se especifique el estándar como [más allá de toda duda razonable], como íntima convicción o como algún nivel particular de probabilidad, todos descansan en la misma equivocación[77].
Así las cosas, toda vez que un pretendido estándar esté formulado en estos términos, ya no se tratará de un auténtico criterio de suficiencia probatoria sino de un recurso a un estado mental, interno, subjetivo, acaso a lo que sienten quienes juzgan. En esos casos, el parámetro no serviría siquiera para controlar cómo se alcanzan esos estados mentales, ni tampoco si su presencia puede considerarse racionalmente justificada o no.
El sistema no ofrece al jurado ningún estándar de prueba neutral u objetivo. En lugar de ello, se les comunica a los miembros del jurado que la intensidad de su confianza subjetiva en la culpabilidad del acusado determina si condena o absuelve. Para empeorar las cosas, el sistema no establece controles sobre cómo el jurado llega a ese nivel subjetivo de confianza. Al contrario, se les da rienda suelta para evaluar las pruebas como les plazca, con tal de que al final, si deciden condenar, afirmen que se encuentran genuinamente persuadidos de que el acusado cometió el delito que se le imputa[78].
III.5. La probabilidad lógica
La última noción de ‘probabilidad’ que aquí se tratará es aquella tradicionalmente conocida como ‘logicista’, según la cual el término denota en realidad una relación lógica entre dos proposiciones. Esto es lo que antes se ha identificado como ‘probabilidad inductiva’ por contraposición a la causal.
Desde este punto de vista, se dice, «la probabilidad es relativa a la evidencia»[79] en el sentido en que consiste en el grado de soporte lógico que cada pieza de evidencia ofrece a la hipótesis[80]. Este es el sentido del término en el que Carnap centró prioritariamente su atención[81], tratando de idear un sistema tal que pudiese satisfacer el cálculo matemático de probabilidad. Para él, el rasgo distintivo de la lógica inductiva estaba en que, mientras la deductiva se agota en relaciones de implicación, aquella consistiría en relaciones de confirmación[82].
El sistema que Carnap creó a los fines de aplicar el cálculo matemático a este tipo de relaciones excede los límites de este trabajo por varias razones. Una de ellas es la complejidad y abstracción que lo caracterizan y su impotencia descriptiva en relación con los problemas que aquí se tratan[83]. Se intentará de todas maneras dar una idea general, aunque seguramente por demás rudimentaria, de su pensamiento para poner esta y algunas otras cuestiones de manifiesto[84].
Carnap parte de la idealización de un lenguaje que contiene, por un lado, constantes individuales (individuos, a, b, c, etc.) y, por la otra, predicados monádicos de primer orden (F, G, H, etc.). La asignación de un predicado a una constante se denomina ‘enunciado atómico’, por caso Fa, que podría significar, ‘Juan es Argentino’.
La conjunción de la totalidad de los enunciados atómicos posibles, sin sus veritativo-funcionales, se identifica como descripción de estado (un ‘mundo posible’). La conjunción de descripciones de estado donde un enunciado es verdadero (o, más rigurosamente, en aquellas en que sería verdadero si tuviese realmente la propiedad atribuida en esa descripción) hacen al dominio del enunciado.
Para Carnap era posible asignar a cada descripción de estado una medida numérica tal que la suma de las medidas de todas las descripciones de estado sea 1. La medida del dominio de un enunciado (m(e)) sería el resultante de la suma del valor de cada descripción de estado en que el enunciado es verdadero[85]. De tal modo, la medida en que un enunciado (probatorio e) apoya a otro (h), es una función [c-function] que resulta de dividir la conjunción de sus respectivas medidas (m(e & h)) de dominio por la medida del dominio del enunciado probatorio (m(e))[86].
Pero la teoría de Carnap se enfrenta con una buena cantidad de problemas. En primer lugar, el de la asignación de valores a priori a las descripciones de estado cuyo valor no tiene por qué ser el mismo en todos los casos. En segundo término, el de la impotencia para justificar generalizaciones dado que las hace depender del dominio de cada individuo. Pero, sobre todo, y en lo que aquí importa, dada su impotencia para resolver los resultados contraintuitivos a los que conducen las reglas de complementación para la negación y multiplicación para la conjunción.
A todo ello se suma la crítica más general que apunta a la poca atención que estas teorías habrían prestado a la cuestión relativa a la definición de la relación lógica que el término probabilidad denotaría:
es un hecho notable que ninguna de las teorías del primer tipo [las teorías lógicas] elaboradas hasta ahora suministra una definición explícita general de la probabilidad (o grado de confirmación) de una hipótesis H con respecto a un conjunto de elementos de juicio E; todas ellas se limitan esencialmente a la construcción de un sistema postulacional no interpretado de probabilidad lógica[87].
Se dejarán de lado en lo que sigue teorías que, como la de Carnap o Keynes, se esfuerzan por presentar a la ‘probabilidad lógica’ de modo tal que pueda satisfacer las exigencias del cálculo matemático de probabilidad, y esta será tratada como ajena a sus axiomas. Veremos a continuación los argumentos que se han dado en favor de que solo esta línea de pensamiento, la de tradición baconiana ajena a ese cálculo, resulta plausible a los fines de analizar la justificación del razonamiento inductivo, en especial, aquél ínsito en la inferencia probatoria[88].
Esto así, no solo por las objeciones que antes, aunque superficial y rudimentariamente, se han querido explicitar respecto de la imposibilidad de medir el sustento de un razonamiento inductivo por medio del cálculo matemático de probabilidad. El rechazo se debe, además y sobre todo, a que desde un punto de vista descriptivo, la práctica [y quizás no solo la judicial] parece desconocer a esas teorías toda idoneidad justificativa de las inducciones involucradas en la premisa fáctica[89].
III.6. La unidad de medida del apoyo inductivo
El problema por resolver a los fines de decidir si un enunciado fáctico está probado o no es el usualmente identificado como problema de la ‘justificación de enunciados individuales hipotéticos’ (por caso, Hj). Esa justificación cuenta con: (i) un enunciado relacional, ya entre proposiciones ya entre eventos (i.e. una probabilidad diádica de cualquier hipótesis Hx dado cualquier enunciado probatorio Ex), que no es otra cosa que una ‘máxima de experiencia’, y (ii) un enunciado probatorio Ej que denota a las pruebas (o elementos de juicio) con que realmente se cuenta. Tomando con algunas modificaciones un ejemplo de Cohen:
Hipótesis general Hx: Un individuo x superará los 65 años de edad.
Enunciado probatorio general Ex: Un individuo x trabaja como contador.
Probabilidad diádica del darse la hipótesis siendo verdadero el enunciado probatorio general p(Hx/Ex)=85%: desde que 85 de cada 100 contadores superan los 65 años[90].
Enunciado probatorio (o indicio) Ej: Juan es contador.
Hipótesis individual Hj: Juan tiene el 85% de probabilidades de superar los 65 años.
Tal como Cohen pone de manifiesto, al menos intuitivamente, el apoyo inductivo (i.e. la razonabilidad, verosimilitud, confirmabilidad, etc.) con que cuente Hj parece depender de la cantidad de datos relevantes que se hayan incluido en Ex. En efecto, basta imaginar el caso en que, al ser x contador se agregasen los datos relativos a que x fuma más de 3 atados de cigarros al día y de que x practica caída libre tres veces por semana. La intuición indica que la previsión no debería ser la misma entre dos contadores, uno de los cuales fuma en esas cantidades y practica dicho deporte con esa frecuencia, frente a otro, abstemio y cuya actividad más riesgosa consiste en dormir la siesta de 13 a 18[91].
El problema (característico de la noción de ‘frecuencia relativa’ como criterio justificativo de enunciados fácticos) se conoce como el de la ‘sustituibilidad’ de instancias dentro de clases. En este sentido, enunciados como aquellos que indican que para cualquier Hx, dado cualquier Ex, la probabilidad es n (en nuestro caso el 85%) son conocidos como ‘enunciados explícitamente generales’. Esto quiere decir que, sin referir ellos a ningún individuo concreto, cualquier individuo de una determinada clase puede ocupar los espacios de x siendo siempre n la probabilidad resultante (i.e. son sustituibles). Cuando los enunciados no se presentan abiertos en este sentido, sino con un contenido preciso en x (por caso, Juan) ya no son generales sino individuales (gramaticalmente singulares), al contener una referencia precisa. Pero los enunciados individuales lo pueden ser explícita o implícitamente. En el primer caso, sea cual fuere el individuo de referencia, éste puede ser sustituido por cualquier otro de la clase manteniéndose inalterada la probabilidad. En el segundo caso, por el contrario, tal sustitución no es posible. Y esta última pareciera ser la situación del ejemplo donde sustituir a Juan (contador, fumador, practicante de deportes extremos) con Pedro (contador, abstemio, practicante regular de largas siestas) no resulta intuitivo a los fines de la previsión que se pretende. Sin embargo, a la luz de algunas teorías ambos ‘tendrían’ el 85% de probabilidad de superar los 65 años.
Eran estos resultados contraintuitivos los que exigían contar con alguna noción adicional que permitiese evaluar la aceptabilidad de determinados enunciados fácticos individuales frente a las ‘máximas de experiencia’ y las pruebas disponibles. Cohen encontró tal unidad de medida en la noción que Keynes llamaba ‘peso’ probatorio[92]: ella permitiría dar cuenta de la relación de sustento entre evidencia y enunciado individual (i.e. de que ‘Juan superará los 65 años’ o de que ‘Pedro superará los 65 años’)[93].
En tal sentido, Cohen adopta la idea de peso probatorio aplicándola a las generalizaciones empíricas a modo de soporte inductivo. Para él, tal soporte consiste en la fuerza que la totalidad de las pruebas acumuladas ejercen sobre una o varias hipótesis generales compatibles con dichas pruebas (i.e. que ‘todos [o la mayoría] de los contadores superan los 65 años’). El soporte es una unidad de medida esencialmente diversa respecto a cualquier noción de ‘probabilidad pascaliana’, aún cuando alguna de estas nociones pudiese resultar relevante desde el punto de vista del peso probatorio para brindar apoyo a la hipótesis.
La diversidad entre las nociones se evidencia en el hecho relativo a que el aumento del sustento a favor de una hipótesis (el aumento acumulativo) no implica la disminución de la probabilidad de la negación de ella, tal como sucedería si rigiera la regla de complementariedad para la negación. El sustento inductivo de una hipótesis y el de su negación corren aquí por carriles distintos y paralelos, no en una escala de complementación entre 0 y 1, sino en escalas independientes que, para cada hipótesis, parten de 0. La prueba ‘pesa’ del mismo modo (aunque, seguramente, no con la misma intensidad) para ambas[94]. Esto no implica, como se adelantó, que devengan irrelevantes las posibles probabilidades pascalianas. Por el contrario, bien podría ser el caso que una probabilidad tal aparezca como un elemento de apoyo inductivo más (por caso los 85 contadores sobrevivientes sobre 100 del ejemplo). Claro que esos datos tendrán diversa relevancia según la probabilidad de que se trate y el campo de argumentación pertinente[95].
Ahora bien, el soporte inductivo no puede ser medido numéricamente. Si se lo supeditase a la reiteración de observaciones colapsaría en la frecuencia relativa y en sus problemas. Y tampoco puede quedar supeditado, al menos no exclusivamente, a la relevancia de cada prueba introducida[96].
Ese soporte ha de encontrarse, en cambio, en la diversidad o variedad de elementos relevantes con que se cuente, siendo más fuertes las hipótesis sometidas a la alteración de mayor cantidad de variables relevantes sin ser eliminadas. Por su parte, dichas variables son características cuya alteración, por hipótesis, se presenta como potencialmente determinante para falsar la hipótesis[97]. De tal modo, las hipótesis generales aumentan su fundamento inductivo a medida que superan ‘esclusas’ cada vez más exigentes suponiendo una corroboración de la hipótesis en ‘circunstancias normales’.
El primer nivel de complejidad consistirá en alterar una primera variable y así en adelante. La alteración de esas variables va acompañada de una predicción tal que si la hipótesis es correcta, las cosas serán de tal o cual modo luego del experimento, y el cumplimiento de la predicción ofrece apoyo inductivo[98]. Las circunstancias normales (o los estadios ulteriores a que la hipótesis acceda sin ser refutada), por su parte, sirven de escenario para la corroboración de la hipótesis mediante la reiteración de los experimentos[99].
El grado de soporte inductivo con que una hipótesis general cuenta, depende entonces del nivel de complejidad de las variables relevantes cuya alteración haya superado sin ser falsada. Una hipótesis contará siempre con el grado de sustento inductivo correspondiente al nivel más básico que haya superado. Ese nivel puede ser, por caso, el relativo a la alteración de la primera variable relevante en circunstancias de normalidad (n1), o cualquiera ulterior (n2, n3, n4... nn). Pero aún en caso de resultar falsada en un nivel superior (por caso n5); la hipótesis contará todavía con el grado de apoyo inductivo del nivel [inferior] más alto que haya superado antes de dicha falsación (en el caso, n4). En consecuencia, habrá una pluralidad de hipótesis en competencia con diversos grados de apoyo que podrán ser comparativamente ordenadas a los fines de la elección de una de ellas. Por lo demás, la escala de complejidad o de jerarquía entre las variables relevantes constituye, a su tiempo, una hipótesis siempre pasible de ser falsada[100].
.. the support that E gives H – denoted by the dyadic functor ‘s[H,E]’ – is to be graded in accordance with the complexity of the most complex appropriate test that, in effect, E reports H as passing[101]
También Karl Popper ponía de manifiesto la necesidad de contar con criterios de selección de hipótesis tales como el que aquí se analiza. Lo hizo sobre todo al modificar las ideas que había expuesto en su obra La lógica de la investigación científica de 1959[102]. En efecto, en Conjeturas y Refutaciones, Popper introduce el concepto de ‘verosimilitud’ al que distingue cuidadosamente de cualquier noción de ‘probabilidad’[103]. Para él, que defendía el concepto semántico de verdad, la verosimilitud de la hipótesis era una función dependiente de su grado de correspondencia con ella:
... in questa sede riuniamo le nozioni di verità e di contenuto in una sola – quella di un grado di migliore (o peggiore) corrispondenza alla verità, o di maggiore (o minore) conformità ad essa; ovvero, per usare un termine già precedentemente usato (in contrapposizione a probabilità) la nozione di (gradi di) verosimiglianza[104]
De tal modo, luego de construir una entera metodología al margen de todas las tentativas de ‘racionalizar’ la inducción, Popper parece introducir disimuladamente una propuesta a eso dirigida que no difiere mayormente de la idea de soporte inductivo. En idéntica dirección parece ir el concepto de confirmación de Carl G. Hempel como noción intencionalmente más abarcativa que la de verificación. Para él, como para tantos otros, ésta última es impracticable y, sin embargo,
...un conjunto finito de datos atinentes a la cuestión puede ‘estar de acuerdo’ con la hipótesis y, así, constituir elementos de juicio confirmatorios de ella.[105]
Pues bien, desde el punto de vista de Cohen, es posible trasladar el soporte inductivo con que cuenta una hipótesis general a la instancia de sustitución particular: la hipótesis individual. Ese soporte trasladado constituye aquello que él denomina probabilidad inductiva y que aquí se ha convenido en llamar grado de apoyo inductivo por las razones ya expuestas[106].
De esta manera, el grado de apoyo inductivo de una hipótesis individual deviene una función del soporte inductivo (o peso de las pruebas) con que cuenta la hipótesis general en la cual aquella es subsumida. Ergo, una función de la complejidad de las variables relevantes revisadas a los fines de la formulación de la hipótesis general, asumiendo que en la hipótesis individual todas las demás circunstancias relevantes se mantienen normales. Las pruebas en favor de la generalización (i.e. su soporte inductivo) son una función de las contrastaciones empíricas (experimentos u observaciones) relacionadas con las variables relevantes. La relación entre los enunciados referentes a indicios y la hipótesis individual ya no es una relación empírica sino una relación de tipo lógico:
... una relación entre dos oraciones, una de las cuales describe los elementos de juicio dados y la otra expresa la hipótesis.[107]
Hemos visto hasta aquí distintos sentidos a la luz de los cuales puede entenderse el término ‘probabilidad’. Hemos llegado a la aparente conclusión de que el único sentido que puede dar cuenta de la noción de razón suficiente ínsita en la idea más amplia de SCR es la de probabilidad como grado de apoyo inductivo. Una noción de probabilidad que señala una relación de carácter lógico entre proposiciones y que permite tan solo a una comparación entre hipótesis en competencia.
Para las ciencias, así como para la filosofía de la ciencia y la epistemología, que solo podamos contar con criterios comparativos puede quizás no resultar tan trágico: si lo único que interesa es el conocimiento, el solo hecho de poder identificar una mejor explicación de entre varias en competencia es algo sumamente valioso. En el ámbito de decisión judicial, en cambio, la cuestión se torna algo más preocupante. Al menos desde el siglo XVIII se ha venido imponiendo en las distintas culturas jurídicas la idea según la cual para condenar a las personas hacen falta hipótesis especialmente robustas desde el punto de vista epistémico, no siendo suficiente con que se trate de la mejor de entre las hipótesis posibles. Después de todo, la mejor explicación podría ser una explicación mala o no tanto mejor que otra alternativa[108]. Esta idea responde a la intuición moral según la cual las consecuencias posibles de la decisión judicial (por ejemplo, enviar a alguien a la cárcel, quitarle la patria potestad, impedirle tener contacto con cierta gente, ejecutarle ciertos bienes, etc.) exigen un esfuerzo epistémico especialmente agravado que no puede conformarse con la mejor explicación.
La hoy denominada ‘epistemología jurídica’, i.e. la disciplina que reflexiona sobre el razonamiento probatorio en el marco del derecho, se encuentra en una encrucijada que deriva precisamente de mantener simultáneamente estas dos pretensiones. Por un lado, la pretensión de mantener una concepción de la prueba donde el sistema de valoración sea exclusivamente el de SCR, un sistema donde lo que determina la suficiencia probatoria sean exclusivamente criterios epistémicos, i.e. una medida del grado de apoyo inductivo. Por el otro lado, la epistemología jurídica pretende asegurar que, al menos a efectos de ciertas decisiones (e.g. condenar imputados en sede penal), las hipótesis tendrán una medida de apoyo especialmente agravada, alta. Cuán agravado haya de ser ese apoyo depende, por su parte, de un juicio moral relativo a la importancia de los valores en juego. Sin embargo, tal como vimos, el mayor aporte que la epistemología parece ofrecer en términos de grado de apoyo inductivo es el de mostrar cuál es la mejor hipótesis de entre las que están en competencia.
En estas circunstancias, la única manera en que podrían satisfacerse ambas pretensiones sería fijando umbrales de suficiencia agravados acudiendo a criterios pura y exclusivamente epistémicos. Este es, hoy en día, el gran desafío de la epistemología jurídica[109]. La encrucijada se da porque, de no ser factible establecer estándares agravados recurriendo a criterios exclusivamente epistémicos (i.e. a una medida del grado de apoyo inductivo), habrá que resignarse a una de dos: o bien a abandonar la pretensión de asegurar a la ciudadanía que las premisas fácticas de ciertas decisiones judiciales tendrán un apoyo epistémico que supera a la mejor explicación; o bien a abdicar del sistema de valoración de SCR en su comprensión clásica, en términos de «criterio metodológico negativo».
Austin, J. L. (1975), How to do Things with Words, Cambridge - Massachusetts, Harvard University Press.
------- (1979), «Performative Utterances», en Urmson, J. O. & Warnock, G. J. U., Philosophical Papers, Oxford, Oxford University Press, págs. 233-252.
Bayón Mohino, Juan Carlos (2009), «Epistemología, moral y prueba de los hechos: hacia un enfoque no benthamiano», Analisi e diritto, 2008, págs. 15-34.
Carnap, Rudolf (1951a), «The foundation of quantitative inductive logic: the regular c- functions», en Logical foundations of probability, London, Routledge and Kegan Paul, págs. 293-345.
------- (1951b), Logical foundations of probability, London, Routledge and Kegan Paul.
------- (1951c), «The problem of inductive logic», en Logical foundations of probability, London, Routledge and Kegan Paul, págs. 161-292.
------- (1951d), «The two concepts of probability», en Logical foundations of probability, London, Routledge and Kegan Paul, págs. 19-51.
------- (1971), «Probabilità e induzione», en Analiticità, significanza, induzione, Bologna, Il Mulino, págs. 475-494.
Cohen, Jonathan L. (1985), «Twelve Questions about Keynes's Concept of Weight», British Journal for the Philosophy of Science, 37, págs. 263-278.
Cohen, L. Johathan (1977), The probable and the provable, Oxford, Clarendon Press.
Cohen, L. Jonathan (1998), Introduzione alla Filosofia dell'induzione e della probabilità, Milano, Giuffrè.
Comanducci, Paolo (1987), «Osservazioni in margine», en Comanducci, P. & Guastini, R., L'Analisi del ragionamento giuridico: materiali and degli studenti, Torino, G. Giappichelli, págs. 265-275.
Cooley, J.C. (1959), «On Mr. Toulmin's Revolution in Logic», The Journal of Philosophy, 56, 7, págs. 297-319.
de Finetti, Bruno (1993 [1973]), «Bayesianesimo: il suo ruolo unificante per i fondamenti e le applicazioni della statistica», en Monari, P. & Cocchi, D., Probabilità e induzione, Bologna, Cooperativa Libraria Universitaria Editrice Bologna, págs. 205-228.
Dei Vecchi, Diego (2014), «Acerca de la fuerza de los enunciados probatorios: El salto constitutivo», Doxa: Cuadernos de filosofía del derecho, 34, págs. 237-261.
Díez, José A. & Moulines, C. Ulises (1999), Fundamentos de filosofía de la ciencia, Barcelona, Ariel.
Ferrajoli, Luigi (2002), Diritto e ragione: teoria del garantismo penale, Roma-Bari, Laterza.
Ferrer Beltrán, Jordi (2005), Prueba y verdad en el derecho, Madrid Barcelona, Marcial Pons.
------- (2007), La valoración racional de la prueba, Madrid, Marcial Pons.
------- (2013), «La prueba es libertad, pero no tanto: una teoría de la prueba cuasibenthamiana», en Vázquez, C., Estándares de prueba y prueba científica, Madrid - Barcelona - Buenos Aires - Sao Paulo, Marcial Pons, págs. 21-39.
------- (2018), «Prolegómenos para una teoría sobre los estándares de prueba. El test case de la responsabilidad del Estado por prisión preventiva errónea», en Papayannis, D. M. & Pereira Fredes, E., Filosofía del derecho privado (en prensa), Madrid-Barcelona-Sao Paolo-Buenos Aires, Marcial Pons, págs. 401-230.
Garbolino, Paolo (1997), I Fatti e le opinioni: la moderna arte della congettura, Roma, Laterza.
Gascón Abellán, Marina (2003), «Concepciones de la prueba. Observación a propósito de Algunas consideraciones sobre la relación entre prueba y verdad, de Michele Taruffo», Discusiones, 3, págs. 43-54.
------- (2004), Los hechos en el derecho: Bases argumentales de la prueba, Madrid- Barcelona, Marcial Pons.
González Lagier, Daniel (2005), Quaestio facti: ensayos sobre prueba, causalidad y acción, Lima-Bogotá, Palestra-Temis.
Hájek, Alan (2009), «Interpretations of Probability», The Stanford Encyclopedia of Philosophy.
Hempel, Carl Gustav (2005), La explicación científica: estudios sobre la filosofía de la ciencia, Barcelona, Paidos.
Jackson, Frank & Pargetter, robert (1982), «Physical Probability as a Propensity», Noús, 16, 4, págs. 567-583.
Kneale, William (1952), Probability and induction, Oxford, Clarendon Press.
Laudan, Larry (2006), Truth, error, and criminal law: an essay in legal epistemilogy, Cambridge, Cambridge University Press.
------- (2011a), «Aliados extraños: la inferencia a la mejor explicación y el estándar de prueba penal», en Laudan, L., El estándar de prueba y las garantías en el proceso penal, Buenos Aires, Hammurabi, págs. 89-115.
------- (2011b), «Por qué un estándar de prueba subjetivo y ambiguo no es un estándar», en Laudan, L., El estándar de prueba y las garantías en el proceso penal, Buenos Aires, Hammurabi, págs. 57-86.
------- (2013), Verdad, error y proceso penal: un ensayo sobre epistemología jurídica, Madrid, Marcial Pons.
------- (2016), The Law’s Flaws. Rethinking Trials and Errors?, Milton Keynes, Lightning Source.
Lindley, Dennis V. (1971), Making decision, London, Wiley Interscience.
Pardo, M (2009), «Second-Order Proof Rules», Florida Law Review, 61, págs. 1083-1113.
Pardo, Michael S. (2013), «Estándares de prueba y teoría de la prueba», en Vázquez, C., Estándares de prueba y prueba científica, Madrid - Barcelona - Buenos Aires - Sao Paulo, Marcial Pons, págs. 99-118.
Pardo, Michael S. & Allen, Ronald J. (2008), «Juridical proof and the best explanation», Law and Philosophy, 27, 3, págs. 223 - 268.
Pérez Barberá, Gabriel (2006), Causalidad, Resultado y Determinación: El problema del presupuesto ontológico de los delitos de resultado en ámbitos estadísticos o probabilísticos. In dubio pro reo y "certeza" en la determinación probabilística., Buenos Aires, Ad-Hoc.
Popper, Karl (2011 [1959]), «The propensity interpretation of probability», en Eagle, A., Philosophy of probability: contemporary readings, New York, Routledge, págs. 488-497.
Popper, Karl R. (2009), Congetture e conflutazioni: lo sviluppo della conoscenza scientifica, Bologna, Il Mulino.
Popper, Karl Raimund (1980), La lógica de la investigación científica, Madrid, Tecnos.
Ramsey, Frank Plumpton (1954), «Truth and Probability», en Braithwaite, R. B., The foundations of mathematics and other logical essays, London, Routledge & Kegan Paul, págs. 156-198.
------- (1964 [1926]), «Verità e probabilità», en I fondamenti della matematica e altri scritti di logica, Milano, Feltrinelli, págs. 173-215.
Reichenbach, Hans (1968 [1930]), «Causalità e probabilità», en Reichenbach, M., La nuova filosofia della scienza, Milano, Bompiani, págs. 99-114.
Russell, Bertrand (1951 [1948]), La conoscenza umana: Le sue possibilità e i suoi limiti, Milano, Longanesi & C.
Schauer, Frederick (2008), Di ogni erba un fascio: generalizzazioni, profili, stereotipi nel mondo della giustizia, Bologna, Il Mulino.
Searle, John R. (1969), Speech Acts. An Essay in the Philosophy of Language, Cambridge, Cambridge University Press.
Shapiro, Barbara J. (1983), Probability and certainty in seventeenth-century England : a study of the relationships between natural science, religion, history, law and literature, Princeton (N.J.), Princeton University Press.
Strawson, Peter F. (1962), «Freedom and resentment», en Watson, G., Proceedings of the British Academy, Volume 48: 1962, Oup Oxford, págs. 1-25.
Taruffo, Michele (1992), La prova dei fatti giuridici: nozioni generali, Milano, Giuffre.
------- (2003a), «Algunas consideraciones sobre la relación entre prueba y verdad», Discusiones, 3, págs. 15-41.
------- (2003b), «Algunos comentarios sobre la valoración de la prueba», Discusiones, 3, págs. 81-97.
------- (2009), La semplice verità: il giudice e la costruzione dei fatti, Bari, Laterza.
Tillers, Peter, Green, Eric D. & Mura, Alberto (2003), L'Inferenza probabilistica nel diritto delle prove: usi e limiti del bayesianesimo, Milano, Giuffrè.
Toulmin, Stephen (1975 [1958]), Gli usi dell'argomentazione, Torino, Rosenberg and Sellier.
Twining, William L. (1990), Rethinking evidence: exploratory essays, Cambridge, Basil Blackwell.
von Wright, Georg Henrik (2001 [1951]), A treatise on induction and probability, London, Routledge.
Wróblewski, Jerzy (1974), «Legal Syllogism and Rationality of Judicial Decision», Rechtstheorie, 5, págs. 33-46.
------- (2008), Sentido y hecho en el derecho, México, Distribuciones Fontamara.
[1] El presente texto proviene del § 6.3.1 de la tesis doctoral titulada Las formas procesales coercitivas y la libertad del imputado. Un enfoque desde la óptica de la justificación de decisiones judiciales, finalizada en diciembre de 2012 y defendida en marzo de 2015 en la Facultad de Derecho y Ciencias Sociales de la UNC. Una síntesis de ese trabajo fue publicado en el año 2017 por la editorial Ad-Hoc, pero el apartado del que este texto se extrae no fue incluido en esa publicación. Ese apartado consistía en un estudio acerca de los distintos sentidos que al término ‘probabilidad’ se ha dado en la filosofía, en especial en la filosofía de la ciencia. Ello reportaba un doble beneficio a la luz del trabajo más amplio del que el estudio formaba parte. Por un lado, permitía aclarar la noción de peligrosidad procesal [periculum libertatis], una noción central para el objetivo de ese trabajo. Por otro lado, permitía explorar en qué consiste el ‘grado de apoyo inductivo’ con que deben contar las premisas fácticas de la decisión judicial a fines de ser tenidas como ‘probadas’. A efectos de esta publicación se han eliminado las referencias a la peligrosidad procesal y se pondrá el foco de atención en lo primero. Por lo demás, el texto se mantiene prácticamente inalterado respecto de su versión original, salvo por lo relativo a la introducción y a la conclusión. Aunque se trata de un trabajo ya algo antiguo y quizás deslucido en demasía, espero pueda servir como material introductorio a una discusión sumamente compleja. De allí que no pretendo que sea visto más que como una puesta a disposición de una serie de apuntes.
[2] C.S.J.N. “Casal, Matías Eugenio y otro s/ robo simple en grado de tentativa”, 20 de septiembre de 2005 (328:3399).
[3] Comanducci 1987: 266. Traducción propia.
[4] Al menos desde los trabajos de Wróblewski 1974, Wróblewski 2008.
[5] Caracciolo 2000.
[6] Véanse Searle 1969, Alston 1964, Alston 2000. La noción de acto de habla, antes, en Austin 1975, Austin 1979.
[7] Para la noción de ‘razones del tipo adecuado’ Strawson 1962.
[8] Gascón Abellán 2004: 158. «‘Free proof’ means an absence of formal rules that interfere with free enquiry and natural or commonsense reasoning» (Twining 1990: 195).
[9] En rigor de verdad, la inducción puede ser analizada ya como método de descubrimiento, ya como método de justificación. En el primer caso se trata de analizar una serie temporal de observaciones de eventos y sus relaciones. En el segundo se trata de presentar atemporalmente una serie de relaciones entre proposiciones. Éste último es el sentido en que aquí se hablará de inducción (Cohen 1998: 13, von Wright 2001 [1951]: 22, Hempel 2005: 19).
[10] Díez & Moulines 1999: 54.
[11] El reconocimiento explícito de esta circunstancia en la historia del pensamiento, se ha dicho, significó un paso adelante respecto a la tolerancia política y religiosa (Shapiro 1983). En la misma orientación Popper 2009: 20.
[12] Ferrajoli 2002: 26-27.
[13] Reichenbach 1968 [1930]: 100.
[14] Esto por varias razones que no se tratarán aquí, pero principalmente por aplicación del llamado ‘principio de razón insuficiente’. La irrelevancia puede, por lo demás, fundarse ya en la negación de existencia de factores causales relevantes (i.e. los resultados son ontológicamente aleatorios) o en la negación de la posibilidad de conocerlos (i.e. hay o puede haber tales causas pero son inaccesibles epistemológicamente).
[15] Para una crítica a esta teoría, entre otros, Cohen 1998: 54-55, Russell 1951 [1948]: 550, Toulmin 1975 [1958], cap. II, von Wright 2001 [1951]: 168.
[16] p(A) + p(¬A)= 1.
[17] p(A&B) = p(A) x p(B).
[18] Las iniciativas consistentes en aplicar los cálculos de probabilidad ‘pascaliana’ a la inducción de tradición ‘baconiana’ (que ignoraba dicho cálculo de probabilidad), se remontarían a los trabajos de J.S. Mill, especialmente a System of Logic (ver al respecto, Cohen 1998: 16, 34, Ferrer Beltrán 2007: 121-122).
[19] Lo cual en el discurso jurídico genera el problema adicional de mostrarse en conflicto con la presunción de inocencia por cuanto siempre se estaría dando un mínimo grado de probabilidad inicial a la hipótesis sobre la culpabilidad (Ferrer Beltrán 2007: 118-120).
[20] «Un tale principio [el de la complementación para la negación] è certamente in azione se il concetto di negazione che abbiamo in mente in relazione con la credibilità di A è l’incredibilità di A. Come la credibilità di A crese, l’incredibilità di A diminuisce, e viceversa. Ma un principio di complementazione non si applica se la negazione che abbiamo in mente in relazione con la credibilità di A, nel senso della misura di quanto A meriti di essere creduta, non è l’incredibilità di A, ma la credibilità di non-A, nel senso della misura di quanto non-A meriti di essere creduta» (Cohen 1998: 19-20). Esto se amplía en la nota 97 y el texto al que ella acompaña.
[21] Sobre los problemas que estas nociones generan ver especialmente Ferrer Beltrán 2007: 115-120, Cohen 1998: 19-24, 114, 185-186, Cohen 1977: 58-81.
[22] Por todos, Ferrer Beltrán 2007: 115-120. Ello sin perjuicio de la, para nada irrelevante, iniciativa [normativa] que postula la aplicabilidad al razonamiento inductivo del teorema de Bayes, sobre lo que se volverá más adelante. Al respecto puede verse, Tillers, Green & Mura 2003. Sobre los problemas generales del cálculo matemático de probabilidad aplicado al razonamiento inductivo en general así como al razonamiento jurídico en particular, además del autor citado, entre otros, Cohen 1977, Cohen 1998, Gascón Abellán 2004, González Lagier 2005.
[23] Como se verá, esta es la clase de críticas que Toulmin dirige a teorías de un alto grado de sofisticación como son las de Carnap o Kneale (Toulmin 1975 [1958]: 44). Esto no era pasado por alto por el segundo de ellos: «[i]n the theory of probability, on the other hand, the business of the philosopher is not to construct a formal system with consistency and elegance for his only guides. His task is to clarify the meaning of probability statements made by plain men...» (Kneale 1952: 158).
[24] Se ha dicho a este respecto que «[i]t is not to be expected that in all these context it should have one and the same meaning or stand for one and the same concept» (von Wright 2001 [1951]: 167). En el mismo sentido Russell 1951 [1948]: 484.
[25] Cohen 1998: 51. Entre estas últimas teorías aparecen las llamadas lógicas para las cuales la probabilidad de una proposición depende de su relación con las premisas, relación que depende de las reglas del lenguaje. Representantes de esta escuela son, entre otros, Keynes, Carnap y Hintikka. Los tres intentaron medir el sustento inductivo mediante el cálculo matemático de probabilidad aunque de modos poco satisfactorios, al menos para los objetivos aquí propuestos. Una presentación genérica sobre ellas en la obra recién citada de Cohen. Por lo demás, puede verse Carnap 1951b, Carnap 1971. Una presentación de las ideas de Keynes también en Russell 1951 [1948]: 535 y sgts.
[26] Véase Cohen 1977.
[27] Es la teoría expuesta en Toulmin 1975 [1958]: capítulo II. Para él es éste el significado ordinario del término, confusamente tratado por los filósofos. Una crítica directa a esta pretensión y en general a toda su teoría en Cooley 1959. Para este último «the confusion consist of not using Toulmin’s language».
[28] «A questo punto, comincia ad entrare nel quadro l’uso del termine modale ‘probabilmente’ per indicare lo standard di qualità inferiore dei dati e dell’argomentazione a disposizione di chi parla» (Toulmin 1975 [1958]: 50, las cursivas son del original).
[29] Por cierto, esta es la objeción de Toulmin a los subjetivistas. Dicha objeción se basa en la distinción entre lo que se dice de hecho y lo que ello implica.
[30] Esto se relaciona, naturalmente, con la distinción preliminar entre probabilidad inductiva y causal presente en el discurso de los juristas. Así, se ha dicho por ejemplo «… entre “seguro” y “probable” hay una relación de grado, pero alguna vez la distinción es de índole. En ese ámbito en que la diferencia es de índole, demostrar que algo no es probable sino seguro, o viceversa, implica falsar el enunciado que afirma lo contrario» (Pérez Barberá 2006: 83, nota 165).
[31] Cohen 1998: 83-87. Una crítica a las ideas de Toulmin en pág. 72.
[32] Toulmin distingue entre ‘pretensiones incorrectas’ y ‘pretensiones erradas’: «Una critica intesa ad attaccare (screditare, respingere) una pretesa di sapere o di aver saputo qualcosa, al contrario della correzione (modificazione, revisione) alla luce degli eventi, deve, in primo luogo, attaccare non le conclusioni che si pretende di conoscere ma l’argomentazione che conduce ad esse o le qualifiche della persona che avanza la pretesa» (Toulmin 1975 [1958]: 55).
[33] Recuérdese que los enunciados afirmados como verdaderos, sin reserva, pueden ser aceptables de acuerdo con los criterios pertinentes y ser, todavía, falsos por no correspondientes con la realidad. Aquí la situación no es idéntica desde que el enunciado probabilístico solo puede ser juzgado sobre la base de las razones en que se basa y no en una verificación empírica (tal como Carnap resaltaba). Las razones son lo que hace verdadero al enunciado probabiliístico.
[34] Cooley 1959: 303.
[35] Tomo la cita de von Wright 2001 [1951]: 169. En sentido contrario, Carnap 1951c: 182, quien sostiene que el significado original del término es el que denota la relación lógica entre dos proposiciones. Este es el sentido en el que Taruffo, entre los procesalistas, parece entender la verosimilitud, como aquello id quod plerumque accidit, pero es un sentido del todo distinto respecto a aquél en el cual aquí se entenderá a este vocablo (Taruffo 2009: 88-90). Ver también Hempel 2005: 20, para quien ésta (i.e. la de frecuencia estadística) es la noción más técnica de ‘probabilidad’.
[36] La contrapartida de la probabilidad diádica está en la probabilidad monádica, a la que antes se aludió, consistente en la probabilidad de ocurrencia de un evento independientemente de cualquier otro.
[37] Una defensa del uso de este tipo de criterios a los fines de sustentar enunciados universales en el campo jurídico en Schauer 2008.
[38] Carnap 1951d: 33.
[39] Reichenbach 1968 [1930]: 113
[40] A esto apunta Schauer al evaluar la justificación de las decisiones adoptadas sobre la base de leyes estadísticas según el valor esperado de la decisión lo cual parecería más bien una tesis normativa respecto a la aceptación de determinados enunciados (Schauer 2008: 89). Discute explícitamente estos argumentos, Ferrer Beltrán 2007: 105.
[41] Apuntando al conocimiento científico, se ha señalado como objeción a esta postura que, cuando la conclusión es universal en el sentido aludido, se da la situación paradojal consistente en que el sustento que ofrece una determinada frecuencia relativa a una hipótesis (i.e. todos los cisnes son blancos) será mayor cuanto menos investigaciones del mismo tipo hayan sido efectuadas (i.e. generalizaciones sobre la base de la observación del plumaje). Y aquellos campos donde más cantidad de investigaciones se hayan efectuado, por el contrario, resultarán menos seguros por cuanto, muy probablemente, más falsificaciones se habrán producido (Cohen 1998: 140).
[42] En igual sentido, González Lagier 2005: 69. Este tipo de inferencias suelen llamarse ‘cuasi-silogismos’, ‘inferencia estadística’.
[43] Así, Toulmin 1975 [1958]: 74).
[44] Según ella, cuando en una muestra de n B el número de A es m, la probabilidad de que el próximo B sea un A es m+1 / n+2. Con esto se evitan algunos problemas de la regla directa, en particular aquél relativo a que cuando la proporción de B que son A es igual a 1 (i.e. todos, en el caso 20 de 20 barcas), se evita que la previsión lo sea con el mayor grado de probabilidad (i.e. certeza de que la barca 21 retornará). No pueden tratarse aquí los problemas que esto genera. Remito a Cohen 1998: 115-118, a quien se sigue en la presentación del asunto.
[45] Por todos, Cohen 1977: 74, Cohen 1998: 58, Ferrer Beltrán 2007: 98, Taruffo 1992: 197.
[46] Ver también Ferrer Beltrán 2007: 103, nota 78.
[47] De Finetti 1993 [1973]: 214.
[48] Esta es la terminología que utiliza Ramsey para quien en este sentido la teoría es sumamente intuitiva (Ramsey 1964 [1926]: 175, Ramsey 1954: 159. En adelante citaré el trabajo en lengua original y entre corchetes los números de página de la versión italiana de la obra).
[49] En el ámbito del proceso judicial se han dirigido críticas a la admisión indiscriminada de datos estadísticos señalando el efecto negativo de multiplicación de testigos estadísticos especializados, muchos de ellos, proveedores de pruebas ‘basura’ con fines lucrativos (Gascón Abellán 2004: 170).
[50] Incluso lo primero negaría toda ontología a dicho término.
[51] Defienden esta teoría, entre otros, Jackson & Pargetter 1982, Popper 2011 [1959].
[52] Popper 2011 [1959]: 491.
[53] Cohen 1998: 65.
[54] «Fragility is a feature of the glass just if the nature of the glass (...) is such that if the glass is knocked then it breaks. This nature is the categorical basis» (Jackson & Pargetter 1982: 571).
[55] Cohen 1998: 66.
[56] Jackson & Pargetter 1982: 571
[57] Ello se basa en una ley aplicada al campo de la probabilidad matemática que indica que con el crecer de las observaciones, la frecuencia relativa se acercará al valor de la probabilidad real calculado a priori (en este caso a la probabilidad real identificada con la tendencia). Esta ley se conoce como la ley de los grandes números o teorema de Bernoulli por cuanto fue Jacques Bernoulli quien lo formuló a principios del s. XVIII. Sobre el punto Garbolino 1997: 81-87.
[58] Esta es la terminología mediante la cual explica esta posición von Wright 2001 [1951]: 169, para quien la noción es ‘notoriamente oscura’.
[59]«When it is said that the degree of the probability relation is the same as the degree of belief which it justifies, it seems to be presupposed that both probability relations, on the one hand, and degrees of belief on the other can be naturally expressed in terms of numbers, and then that the number expressing or measuring the probability relation is the same as that expressing the appropriate degree of belief» (Ramsey 1954: 160 [176-177]).
[60] La cual no es sino «quella sensazione che ci rendepiù o meno fiduciosi o dubbiosi o scettici circa la verità di un’asserzione, il successo di un’impresa, l’accadere di uno specifico evento, e ci guida, consciamente o no, in tutte le nostre azioni e decisioni» (de Finetti 1993 [1973]: 215).
[61] Ramsey 1954: 166 [182-183] cuyo precursor sería De Morgan (así lo sostiene de Finetti 1993 [1973]: 212).
[62] Ramsey 1954: 168 [184]. Este es un buen centro de críticas ya que de la ausencia de creencia en p no se sigue creencia en ¬p, y viceversa.
[63] Cohen 1998: 70.
[64] El ejemplo clásico es el de la ‘apuesta holandesa’ donde cualquiera sea el resultado el apostante pierde. Sobre este punto pueden verse, una vez más, Ferrer Beltrán 2007: 108-120.
[65] Ramsey 1954: 184 y sgts. [201 y sgts.].
[66] Esto es, «la teoría relativa al modo en el cual nuestras opiniones (o creencias) deben ser modificadas (de acuerdo al teorema de Bayes) cuando nueva información es obtenida» (de Finetti 1993 [1973]: 205). En este sentido, se ha dicho, es erróneo identificar al teorema de Bayes o al llamado ‘modelo bayesiano’ con la probabilidad subjetiva. En rigor, «el teorema de Bayes es un aspecto de la teoría de la probabilidad matemática cuya aplicación no se limita al concepto de probabilidad subjetiva...» (Gascón Abellán 2004: 164, nota 139)
[67] Obsérvese bien, el punto de vista bayesiano hace referencia solamente a la adaptación de las creencias a los nuevos elementos de juicio. El método bayesiano, no necesariamente aplicado sobre la base de aquél punto de vista, refiere a la técnica estandarizada para la mensuración de aquellas adaptaciones de creencias y sus respectivas evoluciones. Por lo demás, conviene tener presente que el nivel de discurso que sus defensores asumen respecto a la aplicación de éste método es explícitamente normativo (por todos, Lindley 1971: 3-4).
[68] Por cierto, esta asignación inicial, a priori, no se identifica en absoluto con la probabilidad matemática en su versión tradicional cuyas probabilidades a priori, se ha visto, se fundaban en la presuposición de equiprobabilidad de resultados posibles. Aquí se trata siempre de probabilidades subjetivas. Resalta esta diferencia, de Finetti 1993 [1973]: 211.
[69] Esto por cuanto p(H/E1) = p(E1/H) x p(H) / p(E1/¬H). Por cierto, no pretendo aquí más que un esbozo de estas ideas. Remito para un tratamiento más amplio, entre otros, a los trabajos de Cohen 1998: 80-82, Garbolino 1997: 93-98, de Finetti 1993 [1973]: 207 y sgts.. Quizás sea útil una vez más traer a colación un ejemplo utilizado por Cohen para explicar el método bayesiano. Este autor recurre a la hipótesis consistente en que ‘mañana llueve’ y al dato inicial de que ‘hay nubes negras’. Si se asignase un valor probabilístico subjetivo inicial a que ‘mañana llueve’, otro al hecho que ‘hay nubes negras dado que mañana llueve’ y, por último, también un valor independiente a que ‘hay nubes negras’; podría entonces calcularse mediante el teorema de Bayes qué apoyo brinda el que ‘hay nubes negras’ a la hipótesis de que ‘mañana llueve’.
[70] A los cuales se suma, por cierto, la falta de sustento empírico de tal pretensión (Ferrer Beltrán 2007: 113, nota 88).
[71] En un sentido esto es una ventaja frente a otras teorías que parten de la equiprobabilidad o de asignación de valores a través de criterios sumamente problemáticos. Tales, por ejemplo, los de ‘descripción de estado’ de Carnap o el recurso a la ‘ley de uniformidad de la naturaleza’ de Keynes. Pero el dejar las asignaciones iniciales a la ‘caja negra’ de la mente humana es más ignorar el problema que resolverlo (esta es la posición de Cohen 1998: 161).
[72] Un volumen completo dedicado a la aplicación de éstas ideas al campo del razonamiento probatorio en sede judicial en Tillers, Green & Mura 2003.
[73] Laudan 2013: 121.
[74] Me atreveería a decir que se trata de contextos donde el razonamiento a efectuar es el abductivo pero creo que Laudan negaría esta ‘traducción’. Sea como fuere, él refiere a ciertos escenarios en que han de aceptarse o no ciertas hipótesis empíricas, como sucede en un juicio penal o en ciertas áreas de investigación empírica como la paleontología, etc. En esos escenarios, dice, asignar probabilidades a creencias resulta sospechoso (Laudan 2013: 122).
[75] Laudan 2013: 122. En la misma orientación, aunque con implicancias claramente distintas, decía más recientemente que «[t]he trouble here is that there is plenty of empirical research indicating that ordinary citizens don’t have a very solid grasp on how to calibrate their degrees of confidence quantitatively» (Laudan 2016: 108).
[76] Laudan 2013: 126. Algunas críticas a la interpretación subjetiva de la probabilidad y la eventual aplicabilidad del teorema de Bayes en Cohen 1998: 80-82, Garbolino 1997: 93-98, Bayón Mohino 2009: 27, Pardo 2013: 111, Cohen 1998: 19-20, Ferrer Beltrán 2007: 118-120.
[77] Laudan 2011b: 70.
[78] Laudan 2013: 126. Este es el modo en que suele entenderse y criticarse a la noción de prueba como persuasión: véanse Taruffo 2003a, Gascón Abellán 2003, Taruffo 2003b.
[79] Kneale 1952: 9-10. En el mismo sentido Carnap 1951d: 31.
[80] Hájek 2009.
[81] ‘Probabilidad1’, por contraposición al de probabilidad2 identificada con la frecuencia relativa de eventos.
[82] Que Carnap simbolizaba como c(h, e), esto es, el grado de confirmación que la evidencia e ofrece a la hipótesis h (Carnap 1951a: 297).
[83] En parte por las mismas razones que obstan a la aplicación de cualquier concepto de probabilidad que suponga el cálculo matemático. Por lo demás véase, Cohen 1977: 87-92.
[84] Se sigue aquí también la presentación de Cohen 1998: 87-95.
[85] Cohen utiliza el término ‘válido’ para resaltar que el que el enunciado pertenezca a la descripción de estado no implica todavía su verdad. Ella depende más bien del mundo.
[86] El grado en que e confirma h, esto es, c(h, e) = m(e & h) / m(e) (una clara explicación de la teoría de Carnap y, en especial una exposición de las objeciones como teoría justificativa del razonamiento inductivo en Cohen 1998: 90-91 y 143-153).
[87] Hempel 2005: 20-21.
[88] Una exposición más completa de estos argumentos puede encontrarse en el trabajo de Jordi Ferrer Beltrán (Ferrer Beltrán 2007: 120-138).
[89] «As their over-all objective many of them now apparently seek the systematization of their own intuitions rather than the rational reconstruction of the language of science. Moreover this widespread retreat from empiricist aims and principles seems to have been carried out with surprising insouciance» (Cohen 1977: 124).
[90] Claramente, se está tomando como relevante una ‘probabilidad’ entendida como frecuencia relativa, sobre la que algo se dirá en el apéndice.
[91] Cohen 1977: 225. Problemas similares se presentan si se pretende aplicar el teorema de Bayes, pero no puede tratarse esto aquí (Cohen 1998: 120). El problema es, en este punto, idéntico al ejemplificado entre las barcas en buen estado que habían partido y aquellas que habían regresado respecto a la barca individuo de la previsión en estado calamitoso.
[92] Noción a la cual Keynes habría dado menos importancia de la que realmente tenía (Cohen 1998: 114).
[93] Ver sobre el punto Cohen 1985.
[94] Recuérdese que los elementos en favor de la credibilidad de h disminuyen la incredibilidad de h, pero no necesariamente aumentan la credibilidad en ¬h: «[v]ale la pena señalar que la decisión de no tener por verdadera la proposición p no debe confundirse con la decisión de tenerla por falsa. Ésta es otra diferencia entre el valor de verdad de p y el hecho de que sea tenida por verdadera por alguien. En el primer caso sólo dos opciones son posibles: la proposición es verdadera o falsa. En el segundo, en cambio, existe una tercera posibilidad intermedia: puede considerarse a p como verdadera, como falsa (es decir, como verdadera “no-p”) o no atribuirle valor de verdad. Esto último puede suceder, por ejemplo, si no se dispone de elementos de juicio suficientes a favor ni en contra de la proposición p» (Ferrer Beltrán 2005: 74, sobre este punto también, Ferrer Beltrán 2007: 123). Se trata, en definitiva, de una aplicación de la distinción entre negación interna (‘está probado que no p’) y negación externa (‘no está probado que p’).
[95] Así, por ejemplo, una frecuencia relativa sobre la cantidad de contadores (o fumadores de más de 3 atados diarios) que superan los 65 años (y la prueba de que Juan lo es), puede ser relevante para apoyar un razonamiento que concluya en que Juan superará los 65 años de edad; pero parece irrelevante para apoyar el enunciado relativo a que, por ejemplo, ‘Juan es católico’ (incluso si el 90% de los católicos fuman de ese modo). Y en términos similares respecto a teorías subjetivistas (bayesianas) y en torno a nociones como la de propensión (Cohen 1998: 125-126).
[96] Cohen 1985: 271. Esto es así porque el peso, como ya se adelantó, es una función del cúmulo probatorio y supeditarlo a la relevancia de cada nueva prueba introducida provocaría que el mismo enunciado pueda recibir diversos grados de apoyo a partir de los mismos enunciados probatorios. En efecto, las distintas secuencias en que estos enunciados podrían ser presentados, lo cual es una cuestión del todo contingente, daría por resultados diversas medidas de peso. Ello es así dado que la relevancia de un elemento probatorio varía según el momento secuencial en que es presentado, y una prueba a muy relevante en ausencia de otra b, puede ser poco relevante habiendo ya sido introducida la última.
[97] Claro que esta relevancia potencial es ella misma una hipótesis. Por lo demás, lo que aquí llamo ‘relevancia’ siguiendo a Cohen parece coincidir con lo que Hempel llama ‘atingencia’: «un hallazgo empírico es atinente a una hipótesis si, y sólo si, constituye un elemento de juicio favorable o desfavorable a ella; en otras palabras, si confirma o desconfirma la hipótesis» (Hempel 2005: 17)
[98] En rigor de verdad, esto depende de que se dé la conjunción entre condiciones iniciales, supuestos adicionales y la hipótesis (Ferrer Beltrán 2007: 131-132 ). Sobre el papel y la complejidad de las predicciones en el ámbito de la confirmación de hipótesis especialmente Hempel 2005: 45-50.
[99] De tal modo, se otorga así cierta relevancia también a la repetición de observaciones a la que otras teorías, o bien ponen en el centro de la escena inductiva, o bien niegan toda racionalidad.
[100] Cohen 1998: 174.
[101] Cohen 1977: 133.
[102] Allí Popper, inversamente que Carnap, daba más valor a las hipótesis con menor grado de probabilidad en sentido pascaliano (Popper 1980: 391).
[103] Popper 2009: 391-407.
[104] Popper 2009: 399. Taruffo invierte estos términos, creo, de un modo sumamente confuso. Para él, verosimilitud parece ser ‘frecuencia relativa’: ‘aquello que normalmente sucede’. Probabilidad, por el contrario, parece identificarse con apoyo inductivo suficiente. En este sentido, el autor dice que «si può operare una distinzione tra verosimiglianza e probabilità in quanto – come si è visto poc’anzi – il giudizio di verosimiglianza [aquello que normalmente sucede] non fornisce alcun elemento di conoscenza intorno a la verità o alla falsità di un enunciato, mentre la probabilità attiene all’esistenza di valide ragioni per ritenere che un enunciato sia vero o sia falso» (Taruffo 2009: 90, el agregado me pertenece). E inmediatamente: «Si potrà allora dire che questo enunciato risulta essere “probabilmente vero”, a condizione di intendere con questa espressione che le prove acquisite al processo forniscono ragioni sufficienti per far ritenere confermata l’ipotesi che quell’enunciato sia vero» (Taruffo 2009: 91, el resaltado me pertenece).
[105] Hempel 2005: 16.
[106] «The better supported the generalization, the higher the probability derivable from it» (Cohen 1977: 202).
[107] Hempel 2005: 40. Véase también Cohen 1977: 203.
[108] Laudan 2011a.
[109] Para distintos tipos de propuestas véanse Laudan 2006, cap. III, Laudan 2016, Ferrer Beltrán 2007, Ferrer Beltrán 2013, Ferrer Beltrán 2018, Pardo & Allen 2008, Pardo 2009. Cfr. Bayón Mohino 2009, Dei Vecchi 2014, Dei Vecchi 2018, González Lagier 2018.