03 Gnoseología



Descargar 2.18 Mb.
Página1/8
Fecha de conversión01.05.2018
Tamaño2.18 Mb.
Vistas176
Descargas0
  1   2   3   4   5   6   7   8

Cap. 03 Gnoseología

ñ Volver al Índice
Introducción general

El Método Hipotético Deductivo

 Introducción

 Contenido

Método Inductivo.

Método hipotético deductivo.

El criterio de acercamiento a la verdad.

Versión compleja

 Ejemplo

Ecuaciones generales.

Cálculos generales.

Resultados.

 Conclusiones

El conocimiento

El Dominio de lo Probable (Virtualidad)

 Introducción

 La probabilidad condicionada

 Lo probable en el pensamiento

 El fenómeno de lo probable

 La influencia de la psique

La Epiesteme-logos (la Ciencia Universal u Objetiva)

La Psi-episteme (la Ciencia Particular o Subjetiva)

Los Hemisferios Cerebrales

Principio de Homogeneidad

Lo racional y lo irracional

La cognición

 Generalidades

 La estructuración cognitiva

 La operativa cerebral

 La teoría de la «intencionalidad»

 Especulación sobre la funcionalidad cognitiva

El problema de la Autoaplicabilidad

La verdad

Conclusiones

Bibliografía


Introducción general

Se estudiará el conocer y su acto. Ambos, siendo diferentes entre sí, se relacionan porque el segundo ejerce su cometido en el tiempo como hecho o suceso, atemporal o no. Con atemporal no nos estamos contadiciendo, sino que cuando el fenómeno existe como instante de infinitud, es decir, dentro y fuera del mismo tiempo, podemos decir que es un estado, y por consiguiente, es temporizable también.

Este acto de conocer, suele entendérselo asimismo como acto gnoseológico, epistemológico o de la teoría que se aplica a su estudio (Gnoseología, Epistemología o Teoría del Conocimiento, respectivamente).

Toda epistemología se sustenta en un fundamento, a saber, en aquello que nos resulte convincente y nos calme, es decir, que no nos asombre y produzca por ello displacer. Aquí la conversión autotransformadora de la duda al pensamiento y de ella a la creencia y acción que explica Peirce52 cobra coherencia. Lamentablemente, toda explicación dirigida a los presuntos fundamentos últimos de la física natural pintan de utópicos, y toda la historia pretendida científica ha demostrado ser un continuo cambio de paradigmas ajenos a sus esperados propósitos. Dudar de todo nos aconsejaba Descartes, y nadie escapa de ello. Escuchemos las palabras del distinguido Eddington24a:


"Cuando estamos parados, las moléculas del suelo nos sostienen golpeando las suelas de nuestros zapatos con una fuerza equivalente a más o menos 70 kilos. [De hecho] no habría que sorprenderse si nuestros sentidos se resintieran de semejante [comprensión] y nos dieran del mundo una idea equivocada. Debemos considerar nuestros cuerpos como instrumentos científicos para examinar el mundo. [...]"
Así dadas las cosas, debemos preguntarnos no sólo el qué del conocimiento, sino también el cómo. Esta segunda concepción nos introducirá en otro dominio, en aquél desafío del conocimiento indirecto de las cosas, es decir, en el de poder conocer a través de los efectos que un algo produce.

Si bien se repara en la máxima abrumadora de Berkeley10a:


"[...] poder conocer un espíritu como conocemos un triángulo, es algo tan absurdo como si esperáramos llegar a ver un sonido."
sabemos que podemos, sin embargo, tener una somera idea de la fuente de lo que percibimos. Ya Descartes adelantaba este método17a. Y nosotros, humildemente, hemos pensado en que si nos impidieran la vista de una máquina motora por ponerla tras una pared, pero se nos permitiese escuchar sus sonidos, e implementáramos instrumentos sofisticados para aguzar nuestras percepciones sensibles del efecto, podríamos inferir la ubicación de cada una de sus piezas y obtener un bosquejo gráfico, visual, de aquello que no vemos directamente.

Ha sido Feuerbach quien avanzara en estos dominios psicológicos cuando dice26a:


"Antes de pensar la cualidad, se siente la cualidad."
Así las cosas, como no se puede escuchar el color, y ni tampoco se puede ponderar lo que no se mide; el error de la filosofía en querer explicar la existencia de lo inefable es justamente ésa. Ya Dilthey (comprensión vs. explicación) y Wittgenstein78 se adelantaron:
"«[...] lo que no puede ser expresado por proposiciones, sino sólo mostrado; creo que éste es el problema cardinal de la filosofía.» (Carta de Ludwing Wittgenstein a Bertrand Russell. Cassino, 18.8.1919)"
y Hartmann no se quedó atrás32a:
"[...] La forma originaria de todo conocimiento apriórico, aun la del trascendente-apriórico, es más bien una interna aprehensión, contemplación o, expresándolo objetivamente, la evidencia de una situación real existente en sí. [...]"
Será necesario por ello implementar un cambio de variable: ya no debemos usar más la información para comprender puesto que esta es inútil; será entonces necesario apropiar el dominio del sentir para lograr la transcripción de lo comprensivo a lo explicativo.

Aun los escritos bíblicos, milenarios en el conocimiento humano, ponen en evidencia esta dicotomía. Veamos lo que nos dice el sabio Salomón64:


Inclina tu oído y oye las palabras de los sabios,

Y aplica tu corazón a mi sabiduría;


como asimismo las interpretaciones católicas de Anselmo04a.
"[...] aquello infinito, no puede existir sólo en el entendimiento. Pues si sólo existe en el entendimiento, aquello infinito es lo mismo que aquello finito [...]. Existe, por tanto, fueras de toda duda, algo mayor que lo cual nada puede pensarse, tanto en el entendimiento como en la realidad. [...] Luego existe verdaderamente algo mayor que lo cual nada puede pensarse, y de tal modo que no puede pensarse que no exista."
Volviendo a los principios del qué, repararemos entonces primeramente en el conocimiento como tal. Plantearemos una hipótesis al respecto; a saber: que el conocimiento no es más que la homogeneidad, afinidad, sintonía, conjugación, etcétera, entre dos entidades, ya sean éstas biológicas o no. Russell acota al respecto62a:
"Cuando decimos que una cosa es «independiente» de otra, queremos decir, o bien que a una le es posible existir lógicamente sin la otra, o bien que no hay relación causal entre ambas, como sería el caso si una ocurriera como efecto de la otra. La única manera, hasta donde yo entiendo, en que una cosa puede ser lógicamente dependiente de otra es aquella en que esta otra es parte de la primera. [...] En este sentido, la pregunta: [...] «¿podemos conocer la existencia de cualquier realidad de la cual no es parte nuestro yo?» formulada de esta manera, [...] creo que, cualquiera sea la forma en que el «yo» pueda ser definido, [...] nunca se lo puede suponer como parte del objeto inmediato de los sentidos [...]. La cuestión de la dependencia causal es mucho más difícil. [...]"
De esta manera e introduciéndonos en tema y a modo de corolarios, distinguimos en esta vida (entre otros) dos principios irrefutables y que a continuación detallamos: el de homogeneidad y el de la adimensionalidad del sentir. El primero, tal cual se refiriese Schopenhauer68c, muestra nuestra posibilidad del conocimiento del synolon por la facultad de nuestra percepción sensible; o bien que los efectos de los sistemas causalistas que sólo son detectables por transductores implementados para esos fines; o que conocemos la tierra por la tierra y el aire por el aire como dijera Empédocles, etc. El otro, seguramente nuevo y crítico para muchos de nuestros lectores, implica la certeza de la imposibilidad de gradificar lo que sentimos; es decir, que definiendo a lo cualificable como aquello que adjetiviza lo mensurable, se halla entonces éste fuera del espacio, del tiempo y de la materia en general; como por ejemplo la intensidad del amor, como poder sentir algo sin estar emocionados (y no viceversa) puesto que esto último es lo visceral y mensurable material, etc.

Por ejemplo, así podremos decir que un niño podrá conocer las propiedades algebraicas avanzadas si se encuentra en un estadío piagetiano adecuado ya toda su estructura cerebral le permite el efecto; o bien, que nuestra calculadora de bolsillo podrá darnos a conocer un resultado si no le falta la tecla apropiada que elabore este proceso. Así, mecánica y biológica, sustentan ellas un marco afín, a saber: la posibilidad de homogeneizarse con las cosas. Es esto lo que la filosofía ortodoxa ha interpretado como sujeto-objeto.

La robótica contemporánea es un buen ejemplo de lo que hablamos. Si ésta solamente se basara en la programación computable entonces el conocimiento no se daría, pero, como se le adosa las posibilidades de las redes neuronales que estudia la inteligencia artificial, la cosa ya cambia; hay entonces una posibilidad o sustrato estocástico que demarca el evento del conocimiento de la máquina.

Avanzando ahora en el cómo es posible el conocimiento, se observará que el mismo podrá sustentarse en la mejor de las políticas kantianas; a saber: como "condiciones de posibilidad". Es decir, que se apoya en esas causas que determinan a las probabilidades.

Así, a lo largo de toda la flecha del tiempo histórico los cerebros humanos desde su constitución primitiva han ido evolucionando con una faceta de progreso —tal vez hegeliana— y, en cada uno de sus individuos, ha depositado todo el material ya condicionado. Es decir, el intelecto humano se entiende es, aparte de lo adquirido luego de nacer, el producto de una consideración filogenética de la especie tal cual lo sería en un «único animal» que va creciendo desde pequeño a adulto a lo largo de la evolución de la especie; es decir, que esta «especie de animal es la especie misma», tal cual lo viera Schopenhauer.

Casi toda nuestra síntesis es mayéutica. La arquitectura de la fachada de las casas que hacemos (como reflejo de los rostros), la fabricación de vehículos, las tecnologías electrónicas implementadas (sincronismo del televisor, transcepción de FM sin ruido, etcétera), y demás. Es todo una expresión de nosotros mismos y que muestra que somos una extensión de la Naturaleza, y por ello debemos ser optimistas en el conocimiento. No hacemos otra cosa que los actos de nuestras potencialidades aristotélicas —probabilidades potenciales, tal cual los «condiciones de posibilidad» de lo trascendental kantiano.

Si luego del qué y del cómo nos preguntamos en el porqué, entonces entramos en otro mundo. En un dominio que puede ser tanto físico como metafísico. Este último, fuente de toda nuestra inquietud filosófica, se sustenta en el fin y/o comienzo de las cosas, es decir, en lo que los griegos denominaron como telos. Y esto, como fruto de los extremos de todo régimen causal, se encuentra fuera del tiempo y del espacio, tal cual Aristóteles observara y Kant sistematizara42:
"[...] fin final es únicamente un concepto de nuestra razón práctica y no puede deducirse de ningún dato de la experiencia [...]."
y más tarde Schopenhauer explicara69B:
"La falta de entendimiento [es la] torpeza en la aplicación de la ley de causalidad; [...]. El hombre imbécil no ve el enlace de los fenómenos físicos; [...]."
Preguntarnos de dónde venimos o vamos, porqué somos, etc., son siempre posturas causales y que incluyen telos. Ellas, por medios científicos son inabordables. Sólo cuadra preguntarnos el qué/cómo es esto o qué/cómo somos, como pregunta temporal y espacial, pero nunca el porqué del telos que no es causal —neurofísicamente cerebral.

No hay porqué ni razón de la existencia, puesto que ésta es trascendente y no-causal. Sólo la línea comprensiva podrá satisfacer inquietudes —obsérvese que no decimos explicaciones a respuestas. Veamos al respecto lo que nos dice La Mettrie48:


"¿Quién sabe, por otra parte, si la razón de la existencia del hombre no estará en su existencia misma? Quizás ha sido arrojado al azar en un punto de la superficie terrestre, sin que se pueda saber el cómo y el porqué, sino solamente que debe vivir y morir, [...]."
Por otra parte, en cuanto a la verdad de los temas del conocimiento, es este un tema crítico. Sabemos, hoy en día, parafraseando a Sócrates, que ni siquiera sabemos que podemos hablar de ella. Es decir, que no sabemos a ciencia cierta, si es que hay una verdad, o más aun un criterio de acercamiento a un pseudoconcepto de ella.

De momento, y a la ligera, es bueno aconsejar una metodología práctica para definir posturas gnoseológicas en cuanto a la diversidad de opiniones, científicas o no, del tema de la verdad. Así diremos, y tal cual presentara Descartes18, que la pretendida verdad entre interlocutores, posturas, etcétera, surgiendo como fuerza motriz que la busca19a, la tendrá (si es que hay una) aquella que pueda ponerse en el lugar de las demás.

Queremos decir con esto que cuando, por ejemplo, dos personas entablan una discusión abogando una verdad, la tendrá aquél que conozca ambas "verdades": la suya y la del otro. Esto determina su peso fuerte porque entonces conoce algo más que lo propio. Así, el mayor conocimiento consiste en conocer la diferencia de los extremos, y no en los extremos necesariamente, habiendo en ello un "justo medio" que se orientará a una de las dos posturas. Por ejemplo, el paciente internado psiquiatricamente lo es porque no sabe ser cuerdo, y el cuerdo que está afuera también lo es porque no sabe ser demente como el internado; sólo aquél que puede asumir el rol de uno y/o el otro, es decir el que conoce la diferencia, se encuentra en la ventajosa posición del conocimiento total.

No incluiremos en nuestros cometidos de verdad a la denominada fe. Ésta es opuesta a la ciencia21. Larga sería aquí su discusión. Empero sin embargo, destacaremos dos tipos de verdades, a saber: aquellas que son lógicas y aquellas que no lo son; es decir, aquellas que son racionales y aquellas que son irracionales, siendo estas últimas el cobijo de muchos de los aspectos naturales50a.

Ofrecida la epistemología de esta manera, podemos entrar con ella en una dicotomía. Estaremos seguros de afirmar que aquella parte del conocimiento que abriga verdades lógicas, es decir, racionales, se sustentan en una episteme-logos; mientras que aquellas que no lo son, sino que se fundamentan en una irracionalidad del sentir interno nuestro, lo son fruto de una psi-episteme (Feuerbach26b, 27a, Diderot 22, Schelling67a).

Ahora bien, nos preguntamos también: ¿qué paradigma aceptar para dirigir y encaminar la ciencia, es decir un conocimiento lo más fidedigno a la realidad posible? Aquí propondremos uno, a saber: aquella que cumpla un paradigma de "verdades" más general, más eficiente y rico, que brinde la mayor cantidad de respuestas al ser humano.

De esta manera, la respuesta total a una problemática epistemológica estará dada por la convergencia de los distintos resultados en una conformación final dada por los siguientes puntos:
1) Corresponderá a la intersección lógica de los resultados obtenidos (que de acuerdo con la teoría de los conjuntos será aquél común a todos ellos, es decir, a todas las experiencias). O sea que dadas las empíricas { A, B, ... } definen éstas la verdad que podemos denominar «v»:
v = { A . B . ... }
2) No significará la verdad absoluta (ni en el sentido correspondentista, ni en la coherentista ni en la pragmatista), sino en la medida que los excluyentes sean mínimos. Como se comprenderá será conveniente que la negación de la verdad «-v»:

debiera ser lo más pequeña posible.

3) Que la falsación popperiana y sus elementos ad hoc no impliquen la totalidad de los excluidos (estos falsadores potenciales estarán ubicados dentro del excluyente anterior «-v» y serán las combinaciones entre las experiencias las que ofrecerán los términos ad hoc). Aunque resulte obvio tal vez, se recalca el hecho de que todos estos excluidos, aunque formen un solo punto, es decir, un "mínimo adimensional" de refutación, nos alejan de toda verdad pretendida y nos embarcan en la transformación a la verosimilitud.


Por todo esto, resultará necesario replantearnos los paradigmas khunianos46, y ver que serán necesarios adjuntarlos con la sabia mira de Comte por la interdisciplina. Es decir, será menester ir en busca del superparadigma. Observemos por ejemplo el vocablo "causa"; éste será comprensible para las disciplinas del derecho, pero para insertar este término en la filosofía debemos hablar de "causa eficiente", en biología como "estímulo", en psicología como "motivo", en física como "excitación", y en ingeniería como "entrada". En fin, si no nos ponemos de acuerdo en estas pequeñas cosas, menos en las demás y, por cierto, esto muestra la necesidad emergente de la interdisciplina.

El aporte de Popper sabemos que ha sido muy importante. Con su idea de falsación o refutabilidad ha sugerido definir dentro de la ciencia todo aquello que pueda ser cuestionado; es decir, que dentro de las cuestiones empíricas o disciplinas fácticas, es ciencia todo aquello que pueda ser opinable. Así, toda subjetividad bien intencionada será considerada como tal, es decir, como no-objetiva y, por ende, no-universal o no-científica.

A su vez, sobre todo lo dicho, si Popper no lo dijera, bien puede plantearse ahora. Hace falta una seriedad sobre todas las cosas que se sostenga sobre la máxima de la falzación (seriedad y despeje de ignorancia): "Bienaventurados aquellos no refutados o con ad-hoc, y también equivocados, puesto que eliminan las investigaciones infructuosas". Por ello la falsación popperiana lo que busca en el fondo no es lo "científico", sino guardarlo de los filosofastros y especuladores pseudocientíficos. Así la ciencia vista, no es más que un gran edificio llena de científicos "locos" que buscan, desesperadamente, mostrar que están equivocados, despejando de esta manera el camino hacia aquella luz de la incógnita de la verdad; a cada error publicado, hacen chillar sus copas de champagne.

No quisiera dejar esta introducción sin mencionar a Kant. Pensamos que este excelente autor ha cometido fallas, como lógicamente todo ser humano tenemos, y quien les escribe también tendrá las suyas. Entendemos que analizó el conocimiento parcial de las cosas y que él mismo confiesa39b:


"[...] este autor se compromete a extender el conocimiento humano más allá de todos los límites de la experiencia posible, cosa que desborda por completo mi capacidad, lo confieso humildemente. [...]"
Nada aportó Kant las percepciones extrasensoriales (P. E. S.) del miedo, la hipnosis, la demencia, etc. Para nosotros ha sido este autor un buen intento de mediador gnoseológico, aunque en verdad, no ha dejado nunca su empirismo sino que siempre se sustentó en las percepciones sensoriales (P. S. o intuiciones kantianas). Por consiguiente, sospechamos que nos ha enfrascado en un degeneramiento gnoseológico total, es decir, que produjo una patología del conocimiento. Hizo nada más que un conocimiento ingenuo. Esto es debido a que su análisis parcial gnoseológico deforma el totalista u holístico que se merece la vida. En suma, su enfoque, siendo parcial, no incluye otra cosa que lo sensorial y, como tal, desfigura la realidad. La misma ciencia contemporánea se opone al parcialismo; veamos en esto lo que nos dice Hawking33a:
"El objetivo final de la ciencia es el proporcionar una única teoría que describa correctamente todo el universo. [...] Es muy difícil construir una única teoría capaz de describir todo el universo. En vez de ello, nos vemos forzados, de momento, a dividir el problema en varias partes, inventando un cierto número de teorías parciales. [...] Puede ocurrir que esta aproximación sea completamente errónea. Si todo en el universo depende de absolutamente todo el resto de él de una manera fundamental, podría resultar imposible acercarse a una solución completa investigando partes aisladas del problema. [...]"
olvidando un tinte del «algo más que la suma de las partes», como lo afirmaran tenazmente el idealista Schopenhauer69a y el positivista Eddington24b:
"[...] el materialismo, ese sistema brutal, restaurado de nuevo a mediados del siglo XIX y que creyéndose original por ignorancia, quiere negar estúpidamente la fuerza vital y explicar los fenómenos de la vida por fuerzas químicas y físicas, [...]. Si la cosa fuera realmente factible, entonces todo estaría explicado y conocido; [...]."69a
"[...] El materialista, que está convencido de que todos los fenómenos surgen de los electrones, los cuantos y otras entidades parecidas, gobernados por fórmulas matemáticas, probablemente abrigará la creencia de que su esposa es una ecuación diferencial harto cumplida; pero no hay duda que tendrá suficiente tino como para no exteriorizar esta opinión en la vida doméstica. [..]"24b
Tampoco es que se esté en contra del empirismo, ni a favor de él, sino que se está en miras de la mediación. Porque, con la mano en nuestro corazón, razonemos serenamente en lo siguiente: el empirista habla de estímulos que perciben los sentidos del hombre, pero, ¿qué es el hombre? ¿es acaso algo diferente de los estímulos? Si fuera así, entonces el empirista se hace racionalista (que no es otra cosa que la crítica de Leibniz a Locke). Y, de hecho, debe serlo puesto que toda percepción es un «aferente  integración  eferente» y en este proceso no hay sino "el vacío coordinador de la gacela de Abentofáil" que reproducimos seguidamente01:
«[Abrió, por tanto, su pecho] lo que consiguió con no poca dificultad y repugnancia, tras multiplicados y penosos esfuerzos, dejando ya el corazón al descubierto; como le viera macizo por todas sus partes, observó si notaba en él algún defecto aparente o manifiesto, y no encontró en él cosa alguna; pero habiéndole comprimido con su mano, vino en conocimiento de que había en él alguna cavidad, y dijo: «Tal vez el objeto último de mis investigaciones precisamente esté en el interior de este miembro, y yo no he llegado a él todavía». Rajó, pues, sobre él, y encontró allí dos cavidades, una del lado derecho y otra del lado izquierdo; la del lado derecho llena de sangre coagulada y la del lado izquierdo vacía, no había en ella cosa alguna, y dijo: «No hay la menor duda que el asiento de la cosa que busco sea uno de estos dos receptáculos». [Y se dijo:] «En cuanto a esta sangre, ¿cuántas veces al herirme las bestias, peleando con ellas, fluyó de mi cuerpo con abundancia? Y, sin embargo, ni esto me ha perjudicado, ni me ha impedido en lo más mínimo ninguna de mis acciones. No es pues, este receptáculo donde se halla el objeto ansiado. Por lo que respecta al receptáculo del lado izquierdo, veo que se halla vacío, [y no] me avengo a pensar sino que el objeto por mí buscado estaba en él, y que, al separarse de allí, lo dejó vacío; y que por esta causa sobrevino a este cuerpo la paralización que se apoderó de él, privándole de los sentidos y anulando sus movimientos». Y cuando vio que aquello que se alojaba en dicho receptáculo se ausentó antes de la destrucción de éste, y que le abandonó cuando aun se hallaba en buen estado, comprendió que con más razón no volvería a él después de la destrucción y disección de que había sido objeto.»


El Método Hipotético Deductivo

Introducción
Nos encontramos con un amigo y nos dice: "Vi caer un plato volador y salir de él un marciano". ¿Está usted en condiciones de aceptar semejante supuesto?... ya sea la respuesta que sea ¿no le interesaría conocer un método para poder "medir la verdad" de lo que se expresa? Esta, sin más, será la pretensión del presente trabajo.

Supongamos que se descubre una vacuna, o que se pretende haber descubierto una nueva ley física, o cualquier otra cosa. Seguramente nos preguntaremos cuál es la seguridad de que se dispone al afirmarla, o bien cuál será la evidencia suficiente para aceptarla. Nos proponemos en este estudio dar respuesta a este cometido.

A lo largo de la historia del ser humano sabemos que se han producido invenciones, descubrimientos, y toda una gama de procederes que se atribuyen a la ciencia. También hemos visto que muchos de estos descubrimientos han sido equivocados, es decir, que llevados a la práctica se han refutado. Todo esto da que pensar en el hecho de que no se tiene a ciencia cierta una metodología inequívoca para conocer con veracidad supuesta del mundo que nos rodea y que también nos encontramos expuestos a errores en sus interpretaciones, ya sean estos humanos o de la propia metodología.

La filosofía estudia entre otras cosas estas cuestiones. Hay una rama de la misma que se ocupa de la ciencia y de justificar sus descubrimientos a partir de las suposiciones (conjeturas, hipótesis y teorías) hechas por los científicos. A esta rama de la filosofía se la denomina Filosofía de las Ciencias.

En el siglo pasado ha habido una gran cantidad de gente seria al respecto que desarrolló metodologías y propuso criterios serios con este fin —aunque contemporáneamente se ven complicados trabajos que lo único que pretenden es mantener ocupados a los epistemólogos desocupados de las universidades, puesto que estudian y enseñan metodologías que jamás se aplican en la práctica. Podemos distinguir en ello a las figuras de Hempel34, Popper56,57, Klimovsky43,44, etc., entre otros. Ellos nos han dejado —y continúan haciéndolo— fundamentalmente ciertos criterios básicos y necesarios a tener en cuenta al investigar el mundo que nos rodea, y que podríamos abreviar del modo siguiente:
1º— no existe una verdad absoluta, sólo habrá criterios de acercamiento a una posible verdad.

2º— es necesario que las hipótesis científicas sean contrastadas (experimentadas) en la práctica para tener la convincencia de su realidad.

3º— las refutaciones (negaciones) de las hipótesis o teorías presupuestas no deben considerarse como pesimistas en el desarrollo de la ciencia, sino por el contrario, que aportarán un espíritu optimista. Esto significa que los fracasos encontrados nos permitirán ir avanzando sobre un descarte de equivocaciones, o sea sobre una eliminación de conjeturas falsas y por lo tanto de un acercamiento a la posible verdad.
Así, el simple chequeo experimental (comparación, testeo o contrastación) de una conjetura científica inducirá una generalización si el resultado es satisfactorio. A esta postura se la ha denominado metodología inductivista. Pero, un examen más exigente de contrastación y negación de los supuestos implicará la metodología que nos proponemos estudiar y que se ha denominado como método hipotético deductivo. Es decir, que a partir de hipótesis científicas se irán confirmando las mismas luego de sucesivas pruebas contrastadoras positivas.

Ahora bien, no se conoce hasta el momento ningún criterio que permita dar un valor numérico a este procedimiento. Esto, dicho en otras palabras, quiere significar que la actitud humana frente a los aciertos o no de la investigación sigue caminos ambiguos, comúnmente intuitivos y que no se los evalúa con ningún rigor sino sólo con lo subjetivo, o sea con lo propio del razonamiento íntimo de cada ser humano y/o consenso social. Es aquí donde intervenimos nosotros estudiando dicha abstracticidad del lenguaje e intencionalidad humana proponiendo un método para poder cuantificarla, de tal manera que tengamos una mínima seguridad de lo que se está investigando, de lo que se está haciendo al ensayar las hipótesis y compararlas en una investigación científica.

Claro estará que posiblemente el tema en cuestión se mantenga todavía confuso e insostenible, de una naturaleza tan abstracta como lo que se quiere estudiar, pero es justamente aquí donde cobra importancia el presente trabajo. Se cuantificará al mismo proceder humano. Se hará un control de las investigaciones, es decir, haremos una meta-investigación. Investigaremos al investigador.

¿Cómo se hace esto?, bien, para ello tendremos que tener en cuenta ciertos conocimientos previos que se estudian en algunas disciplinas científicas como lo son la Cibernética, la Teoría de la Información, la Lógica, etc. Sumaremos a ello conceptos de algunos temas y tendremos las herramientas suficientes como para subir a este vehículo que les proponemos compartir.

Nace la solución en el mismo análisis del lenguaje. Sabemos que una hipótesis consiste en un enunciado lingüístico, como por ejemplo lo que diría cierto laboratorio bioquímico al encontrar una supuesta vacuna contra una enfermedad en el ganado: "Tiene éxito sobre el 80 %" y el resto se muere. Esto podría ser importante —omitiendo consideraciones bioéticas— comercialmente o no, además de que es un enunciado que provee una taza que sabemos que no es del todo siempre exacta y regular. ¿Qué pasaría si se aplica esta vacuna a todo el ganado de un país?; ¿y si esta afirmación del laboratorio se encuentra equivocada? Sabemos que el laboratorio ha obtenido su estadística de un cierto lote y que es mínimo con respecto al de toda una nación. Proponemos entonces aquí establecer un criterio de acercamiento a la verdad que pueda medirse, acotarse, configurarse en una seguridad mayor, y ¿de qué manera?, bien, la solución será del tipo escéptica. Esto equivale a considerar menos optimista los resultados del laboratorio a través de una ponderación numérica que dispongamos sobre la prueba y error de nuestra metodología contrastadora.

En resumen, dado un supuesto científico que ha sido determinado por el método inductivo (experimentación estadística ordinaria), se avanzará sobre un acercamiento a la verdad a través del método hipotético deductivo y que consistirá en seguir chequeando este enunciado a lo largo de ciertas exigencias que dispondrá convenientemente la comunidad científica. Dichas cuestiones, relacionadas con las probabilidades que llevan, son factibles de matematizarlas con el fin de tener exigencias de verificabilidad mayor que el enunciado original. Siguiendo con el ejemplo antedicho, si el laboratorio estimara la seguridad de su producto en un valor del 99 % determinado por las razones de experiencia que tuviera en el mercado con otros productos que previamente hayan comercializado al ponerla en circulación, podríamos con nuestra matemática aplicada llegar a conocer nuestra nueva seguridad.

Así, el ejemplo antedicho consistiría en una propuesta como la siguiente:

"Tiene éxito sobre el 80 %".

Seguridad de la hipótesis: 99 %.
y luego de ciertas otras experiencias se observa que no es tan bueno el producto:
"Tiene éxito sobre el 70 %".
comprometiéndome en demostrar en el presente estudio de que podremos llegar a conocer el nuevo acercamiento a la verdad. Por ejemplo que halla sido:
Seguridad de la hipótesis: 86 %.
Esta actitud escéptica permitirá encontrarnos más seguros de lo que se implementará en el mercado, como también el de poder anticipar una estipulación legal de acercamiento a la verdad necesaria como para que el producto brindado por los laboratorios que trabajen en el tema se ajusten y mejoren.

Quiere remarcarse aquí que estamos trabajando en la seguridad (o necesidad) de los enunciados cinetíficos, es decir, en aquél análisis que demarcara Kant como a priori de los juicios académicos, con la mira de obtener progreso en ellos, es decir síntesis hacia una posible verdad.

En realidad el ejemplo tomado es un caso particular de un sin fin de posibilidades que se le puede otorgar al criterio desarrollado. Como se dijera, no solamente aspectos productivos en cuanto a marketing, tecnologías, etc., sino también a los estudios analíticos y teóricos que realizan las ciencias físicas, las biológicas y por qué no las psico-sociales también. Se ha pretendido, y como se dijera precedentemente, cuantificar la postura racional y comportamiento humanos frente a la incertidumbre de la Naturaleza del mundo que nos toca vivir.

Contenido
Como adelantáramos, se propone estudiar el método hipotético deductivo desarrollado por la Filosofía de las Ciencias a través de un enfoque cibernético dado por la Teoría de la Información. El mismo permitirá cuantificar las hipótesis a contrastar desde una interpretación informática, es decir, desde la incertidumbre que poseen dichas hipótesis como enunciado lógico.

Se observarán también algunas características del método, y finalmente se brindará un ejemplo ilustrativo como conclusión.

Dada una hipótesis H, sabemos que la misma resultará verificada o no según el método inductivo M.I., o bien refutada o confirmada (corroborada) según el método hipotético deductivo M.H.D. Si bien en el presente estudio nos valdremos de aquellos casos en que el conocimiento aumenta, es decir, de aquellos casos exclusivos de verdad o confirmación, respectivamente, resultará interesante de todas maneras poder generalizar la situación.

Sabemos que es factible a una H otorgarle un porcentaje de probabilidad ya que la misma es un supuesto. Este es un punto importante y de difícil implementación; se necesitará para lograrlo algún criterio de adopción de dicha probabilidad.

Con sencillez Balmes ha explicado este punto08a:
"Todo aquello cuyo opuesto no implica contradicción es contingente. [...]"
y Poincaré54f:
"Toda generalización es una hipótesis; [...]. Es preciso igualmente tener cuidado entre las distintas clases de hipótesis. Hay, en primer lugar, aquellas que son completamente naturales y de las cuales no se puede de ningún modo prescindir. [...] Hay una segunda categoría de hipótesis que calificaré de indiferentes. [...] Las hipótesis de tercera categoría son las verdaderas generalizaciones [y son] ellas las que la experiencia debe confirmar o invalidar. [...]"
Entrando en tema, llamaremos Pi a esta probabilidad inicial de una hipótesis Hi inicial. Al resultado de la experiencia confirmatoria lo denominaremos como una nueva hipótesis final Hf, y que conllevará entonces una cierta probabilidad Pf mayor que la anterior ya que el conocimiento aumentó, o lo que es similar, su certidumbre —su seguridad, su acercamiento a la verdad.

Si consideramos seguidamente un enfoque según la Teoría de la Información, podremos denominar a las cuestiones antecedentes en función de las informaciones I que las acompañan. De hecho, unívocamente a la Hi le corresponderá una información Ii inicial (contenido empírico popperiano) y a la Hf otra If final, de tal manera que se relacionen según las conocidas expresiones:


Ii = log Pi -1 [Hartley]

If = log Pf -1 [Hartley]


por lo que se considera ahora que denominaremos a las H no en función de su certidumbre, sino en el de su incertidumbre (información que contenga el mensaje o enunciado lógico).

Una cierta Hi a contrastar podemos considerarla que resulta aceptada luego de una experiencia testadora, sea esta contrastadora o no. De igual modo, su información que la acompaña Ii resultará entonces más o menos confirmada según el canal informático por donde se la transfiera. Dicha transferencia, meramente empírica, podrá considerarse entonces como un canal informático de valor G que se encuentra acreditándola en mayor o menor grado y que satisfacerá las siguientes ecuaciones (ver a la Fig.1):


G = If / Ii

0  G  1



donde G = 0 para el caso en que no se de-confirme la Ii, o lo que es lo mismo decir que sí se confirma perfectamente la Hi ya que tendremos una incertidumbre If nula a la salida —certidumbre total de la Hf. Para los otros casos de G se obtendrán resultados no tan optimistas de conocimiento pero que son, en la realidad, los casos comunes y donde se aprecia que la certidumbre de Hf es mayor que la inicial Hi. No se contempla el caso de que G = 1 ya que no indica confirmación hecha alguna, es decir, de que no se ha realizado ninguna experiencia de testeo.

Método Inductivo.
Hasta ahora se ha explicado solamente al M.I., es decir, a aquél que dada una Hi se la verifica con una experiencia. Los casos posibles que se desprenden de ello como se sabe son dos para la metodología inductivista verificacionista (Bacon, Mill, etc.):
G  1 If  Ii falibilidad

G  1 If  Ii verificabilidad



Método hipotético deductivo.
Veamos seguidamente en qué consiste la metodología inductivista confirmacionista (Hempel) o su versión refutacionista (Popper) del M.H.D. según nuestro enfoque.

Para lograr esto se deberá realimentar el sistema metodológico, y he aquí el gran aporte —implícito— que nos han dejado estos autores. Ello consiste en tomar la incertidumbre If obtenida y reincorporarla a la entrada Ii con el fin de disminuirla; es decir, de producir un error cibernético de información que le garantice un conocimiento escéptico mayor con respecto de la If provista por el M.I. Dicho de otra manera, lograr una incertidumbre menor —o mayor certidumbre— como fruto de la contrastación —refutarla o falsarla— que la Ii original.



Debido a esto, se implementa un canal  refutador retroalimentante que confirme la incertidumbre final realimentada Ifr a la entrada Ii (Fig. 2). Como todos sabemos, la salida será:
Ifr = [ G / ( 1 - G. ) ] . Ii = [ G / ( 1 - G ) ] . Ii

siendo aquí los casos posibles los siguientes:
G = 1 Ifr  refutación

G  1 Ifr  Ii corroboración (Popper)



G  1 Ifr  Ii confirmación (Hempel)
donde, de la Lógica observamos que la ecuación a su vez se puede interpretar como un enunciado lógico de la forma (el producto se toma como una disyunción):
Ifr = baja confirmación de Ii = alta no-confirmación de Ii
Cada período T de la experiencia contrastadora, dependiendo su valor de cada Hi a contrastar, irá determinando un escalonamiento de las incertidumbres respectivas como lo muestra la Fig. 3. Cada salto se lo ha denominado orden de la contrastación empírica. En ella se ha representado un umbral mínimo Iu aceptable para cada paradigma de investigación científica y que éste determinará como conveniente; es decir, que le permitirá fijar de antemano la incertidumbre mínima suficiente que deberá aceptarse para operar con cierta utilitariedad optimista una hipótesis científica.


De todo esto se desprendería también la necesidad de ordenar un poco nuestras apreciaciones de vocabulario aplicado. Así, en lugar de denominar al M.I. como tal, se entiende que sería más propio considerarlo como método hipotético experimental M.H.E.; y al M.H.D. como método hipotético experimental realimentado M.H.E.R.

Por otra parte, si pensamos bien, no se ha hecho más que seguir los pasos de Aristóteles: la dialéctica entre deducciónno-deducción. O bien, a disgusto de muchas interpretaciones, de Bacon también con su experienciacausasexperiencia07a:


"[...] la inducción que procede por enumeración simple es una cosa pueril, sus conclusiones son precarias y expuestas al peligro de un hecho contradictorio y las más de las veces decide por un número de hechos menor de lo debido y por sólo aquellos que están a la mano. Mientras que la inducción que ha de ser útil para el descubrimiento y demostración de las ciencias y de las artes, debe analizar la naturaleza por debidas eliminaciones y exclusiones; y luego, tras un número suficiente de negativas, concluir sobre hechos afirmativos; [...]." (§ 105)

"[...] Pero es que mi método y procedimiento [...] es éste: no extraer obras de obras y experimentos de experimentos (como los empíricos), sino de obras y experimentos extraer causas y axiomas y a su vez, de causas y axiomas extraer nuevas obras y experimentos (como hacen los legítimos intérpretes de la naturaleza)." (§ 117)


y que no es más que la armonía entre las posturas filosóficas racionalista-empirista —deducción-inducción, o ejemplificación-generalización respectivamente. Por otro lado, Poincaré comenta al respecto54e:
"¿Cuál es la naturaleza del razonamiento matemático? ¿Es realmente deductivo como realmente se cree? Un análisis profundo nos muestra que no es así; que participa en una cierta medida de la naturaleza del razonamiento inductivo, y que por eso es fecundo. [...]"
Así, vemos que el método hipotético deductivo se fundamenta en demostrar que quitamos errores del camino hacia una pseuda y supuesta verdad, pero no se basa en aciertos.
El criterio de acercamiento a la verdad.
El denominado criterio de acercamiento a la verdad de Popper consiste aquí en lo asintótico de la envolvente de los órdenes de las contrastaciones con el eje de la abscisa de la Fig. 3, es decir, en la posibilidad que tenemos de obtener una Ifr nula. La posición escéptica de Laudan en cuanto a este punto podría superársela estableciendo convenientemente este umbral Iu, es decir, considerando una pseudo-verdad a priori.

Para ser más claro, si se obtiene una función empírica de distribución estadística F (siendo asintótica su posibilidad de tender a un valor final y constante) como por ejemplo se ilustra en la Fig. 4 (aquí Pv es la probabilidad límite o de la verdad), podrá definirse una probabilidad P de acercamiento a la aproximada verdad:


P  F / Pv

donde el umbral estará dado entonces por


Iu = log Pu -1
Como resumen tenemos que el M.H.D. se acerca a la verdad con un criterio menos optimista que el M.I. Véase la Fig. 5.

Versión compleja
Hemos visto la versión simple del M.H.D.; es decir, cuando hay una sola Hi a contrastar. La versión compleja considera que acompañan a la misma una serie de hipótesis extras. Ellas configuran lo denominado estrato de premisas, y son las siguientes:
- H presupuestas

- H colaterales subsidiarias

- H colaterales auxiliares

- H ad hoc

- Datos observacionales varios
de tal manera que ahora se tienen que tener presente. A todas ellas las designaremos h y la acompañarán de esta manera:
h = [ Hpres. Hcolat. etc. ] T

Hi total = [ Hi h ] T

y su información

 P  1


i = Ipres. + Icol. + ...

Ii total = Ii + i



Ifr total =  Ifr
Será de esperar ahora que la versión de la Fig. 2 se cambiará por la de la Fig. 6. El canal confirmatorio ahora estará sujeto a un temperamento estratégico de conservación como normalmente se sugiere, y dado por los  específicos para cada premisa del estrato.

Es interesante observar que podrían implementarse otros dos métodos más que el visto. Nos referimos a las posibilidades que ofrece la Teoría de Control de Sistemas en cuanto a que retroalimenta el estado del canal de de-confirmación o bien al de su estimación. Seguidamente presentamos los tres métodos:








Ejemplo
Sea el siguiente examen estadístico: Se mide el calzado de un lote de 10 niños de un colegio y los resultados obtenidos son los siguientes
número de calzado 35 36 37 38

cantidad de niños 03 05 02 01

porcentaje F [%] 30 50 20 10
y se propone entonces la Hi siguiente: "El 50 % de los niños calzan 36."

De esto podría desprenderse la siguiente implicación contrastadora: "Si experimentamos 100 niños, 50 calzarán 36.", etc.

Supongamos que se hace la experiencia y se obtienen los siguiente resultados observacionales:
"De 100 niños experimentados, 60 calzaron 36."

"De 1000 niños experimentados, 650 calzaron 36."

"De 10000 niños experimentados, 6800 calzaron 36."

Ecuaciones generales.
Pv probabilidad estimada de verdad

Pi Fi / Pv probabilidad de verdad inicial

Ii = log Pi -1

Pf = Fi+1 / Pv probabilidad de verdad experimentada (sin confirmar o realimentar)

If = log Pf -1

G = If / Ii de-confirmación dada por la experimentación (optimista o ingenua del M.I.)

G / ( 1 - G ) de-confirmación dada por la refutación (pesimista o no-ingenua del M.H.D.)

Ifr = [ G / ( 1 - G ) ] . Ii

Pfr = ( antilog Ifr ) -1 probabilidad de verdad confirmada

Cálculos generales.
Expresada gráficamente la F en la Fig. 7 se obtiene aproximadamente para la Pv un 70%.

Para los distintos órdenes de contrastación tendremos:





Compartir con tus amigos:
  1   2   3   4   5   6   7   8


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

enter | registro
    Página principal


subir archivos