Munné, F. (2007) ¿La explicación del comportamiento humano debe ser lo más simple posible o lo más compleja posible?



Descargar 43.28 Kb.
Fecha de conversión01.01.2018
Tamaño43.28 Kb.
Vistas134
Descargas0

1 Munné, F. (2007) ¿La explicación del

comportamiento humano debe ser lo más simple posible o lo más compleja posible? Encuentros en Psicología Social (Universidad de Málaga), 4, 3-10. (Y en prensa en: Revista de la Facultad de Psicología de la Universidad de Puerto Rico.)
¿LA EXPLICACIÓN DEL COMPORTAMIENTO HUMANO DEBE SER

LO MÁS SIMPLE POSIBLE O LO MÁS COMPLEJA POSIBLE?

THE EXPLANATION OF HUMAN BEHAVIOR, SHOULD BE THE SIMPLEST OR THE MOST COMPLEX POSSIBLE?
Frederic Munné

Departamento de Psicología Social



www.ub.es/dppss/pg/fmunne.htm

fmunne@icab.cat
RESUMEN. La tradición de la ciencia dominante es buscar la explicación más simple posible. Por su parte, las nuevas teorías de la complejidad generan un paradigma epistemológico que cambia sino invierte el sentido de muchos conceptos fundamentales (como causalidad, predicción, control, incertidumbre, etc.) e invita a buscar la explicación más compleja posible. Las ciencias del comportamiento individual y social se juegan su futuro en esta cuestión.
PALABRAS CLAVE: Complejidad. Epistemología. Explicación psicológica. Incertidumbre.
ABSTRACT: The tradition in dominant science is the pursuit of the simplest explanations. Even thought, complexity theories generate an epistemological paradigm that changes -if not reverses- the sense of many basic concepts (such as causality, forecast, control, uncertainty, etc.), making an invitation to search for the most complex explanation. Social and individual behavior sciences just venture their future in this query.
KEY WORDS: Complexity. Epistemology. Psychological explanation. Uncertainty
UNA CUESTION CLAVE PARA LA PSICOLOGÍA Y LA PSICOLOGIA SOCIAL DEL SIGLO XXI
Cuenta el crítico musical y compositor norteamericano Deems Taylor que fue a entrevistar en su casa al compositor alemán Richard Strauss, autor entre otros del poema sinfónico Así hablaba Zaratustra, inspirado como su título indica en el Superhombre de Nietzsche. Le recibió en el jardín y al entrar en la casa, Strauss se limpió cuidadosamente los zapatos sobre un felpudo húmedo, avanzó y luego volvió a limpiárselos sobre otro felpudo seco. Después de atravesar el umbral los limpió por tercera vez sobre un felpudo de goma. Sabía, comenta Taylor, que estaba ante un gran compositor y un buen director de orquesta a quien respetaba, pero comprendí que jamás podría temerle: Strauss no era un titán ni un semidiós, era tan sólo un hombre casado. (Vela del Campo, 2004).
Esta deliciosa anécdota invita a reflexionar sobre la complejidad del comportamiento humano. Porque resulta que el conocimiento de un dato más, en principio insignificante, hace cambiar abruptamente la impresión y comprensión que uno tiene del personaje: un hombre casado como interpreta el crítico musical que cuenta la anécdota (o un hombre maniático de la limpieza como otro podría interpretar), dato que en cualquier caso condiciona la interacción con aquél.
¿Por qué ocurre esto? En términos de complejidad, estamos ante una manifestación de lo que en los sistemas complejos se llama “información faltante”, sobre lo cual volveremos. Por de pronto, considerar que nuestro comportamiento es complejo, plantea la cuestión de cómo debe ser aprehendido y explicado. Porque caben dos posiciones opuestas al respecto, que podemos calificar de reduccionismo y antirreduccionismo. Se puede sostener que, precisamente por ser complejo, hay que aprehender el comportamiento del modo más simple posible, es decir prescindiendo de cuánto no es esencial. Y también puede sostenerse que lo esencial es precisamente la complejidad, por lo que en vez de intentar eliminarla hay que investigar e intervenir sobre el comportamiento respetando al máximo esa complejidad. Si la primera posición es propia de la ciencia dominante, la segunda resulta de la emergencia actual de un enfoque epistemológico según el cual es caer en una trampa ver lo esencial en lo más simple, cosa que sucede cuando no elevamos a categoría lo presuntamente anecdótico.
Es lo que ocurre en la anécdota contada, ya que se reduce una persona a gran compositor… hasta que el conocimiento de una información faltante evita súbitamente que aquélla siga despojada de su condición cotidiana de ser humano. Este efecto se agrava cuando en vez de la cotidianidad se refiere al conocimiento científico, dado que el reduccionismo genera intencionalmente información faltante. La pregunta es ¿por qué la ciencia va en busca de la explicación más simple posible del comportamiento humano? La respuesta desde el enfoque ofrecido por el paradigma de la complejidad es clave, para la psicología y la psicología social del siglo XXI.
Dicho paradigma basado en las llamadas teorías de la complejidad, tiene un alcance enorme, pues afecta tanto a lo teórico y lo metodológico como a la aplicación y la intervención, de cualquier ámbito del conocimiento. Y, como se verá, conduce a explicaciones que cambian en muchos aspectos el sentido de los problemas y por consiguiente también de las soluciones.

EL PROBLEMA DE LA EXPLICACIÓN MÁS SIMPLE POSIBLE
La búsqueda de un conocimiento de la realidad que sea lo más simple posible es una conditio sine qua non de lo que se considera hoy ciencia. Como enfoque epistemológico, arranca de los mismos inicios de la filosofía griega, esto es ya en los presocráticos, cuando se sobreentiende que lo esencial se encuentra en lo simple (ver Munné, 2004). Sin embargo, es a partir del siglo XIV que este supuesto fundamental es explicitado y aplicado directamente a la teoría y al método de la ciencia, cuando tres dicta desarrollaron y consolidaron la simplicidad como principio que otorga al conocimiento y a una explicación el calificativo de científicos.
El primer dictum es el de Ockham, por su defensa de que hay que suprimir cuantos elementos son innecesarios en una explicación o argumentación científicas. El segundo corresponde al precepto y la meditación cartesianos relativos a la claridad de las ideas, que exige entre otras cosas que éstas sean analizadas por partes. Y el tercero, a la regla leibniziana según la cual hay que someter la explicación al principio de razón suficiente.
El filósofo nominalista inglés de comienzos del siglo citado, William de Ockham, es famoso por su criterio conocido como “la navaja o el rasero de Ockham”. Hoy se entiende como un principio epistemológico según el cual deben evitarse por inútiles las hipótesis complejas, en particular las no apoyadas por la experiencia, por ejemplo las nociones de espacio y tiempo como entes autónomos diferentes de la extensión y el movimiento, o la noción de la quintaesencia por no ser verificable empíricamente (Vattimo, 1992).
Un especialista en Ockham (Abbagnano, 1966), recuerda que la formulación original de dicho principio dice: “la pluralidad no debe ser usada sin necesidad” (“pluralitas non est ponenda sine necessitate”) y “es inútil hacer con mucho lo que se puede hacer con poco” (“frustra fit per plura quod potest fieri per pauciora”), reglas que el ockhamismo posterior sintetizó en una sola: “los entes no deben ser multiplicados sin necesidad” (“Entia non sunt multiplicanda praeter necessitatem”). Y el mismo comentarista añade que Kant interpretó este dictum en el sentido de que hay que buscar en la naturaleza la máxima simplicidad y la máxima unidad.
Referido a la investigación científica, el principio de Ockham consagra la economía explicativa, que suele ser presentada como la virtud de la parsimonia que debe acompañar a todo buen investigador (y podríamos añadir: también a todo buen profesional).
Pero el impulso decisivo hacia la simplicidad como paradigma adoptado por el conocimiento científico se debe a Descartes. En su Discurso del método (1637) da cuatro reglas famosas “para dirigir bien la razón y buscar la verdad en las ciencias”, como reza el subtítulo de su obra, reglas que especificará en las Meditaciones (1641).
Dejando aparte la regla primera, sobre la evidencia como criterio de claridad, la segunda preceptúa “dividir cada cuestión en tantas partes como sea posible”, la tercera “conducir ordenadamente los pensamientos, comenzando por los objetos más simples y fáciles de conocer para ir ascendiendo poco a poco como por grados hasta el conocimiento de los más compuestos” (algunos traductores confunden el término francés “composez” y lo entienden referido a los objetos más complejos) y la misma regla continúa: “suponiendo un orden aún entre aquellos que no se preceden naturalmente unos a otros”, y la última regla es “hacer en todo enumeraciones tan completas y revisiones tan generales que se esté seguro de no omitir nada”.
Estas reglas, que toman como referencia la lógica, la matemática y la geometría como formas modélicas de razonamiento, se inspiran en la concepción galileana de la ciencia y en el método inductivo de su contemporáneo inglés Francis Bacon
En cuanto a Leibniz, dio el tercer gran paso hacia la consolidación de la simplicidad en la construcción del conocimiento científico. Aparte de complementar a Descartes especificando que simple es lo que no tiene partes, formula a fines del siglo XVII el principio de razón suficiente, que en general afirma que nada puede existir o acontecer, ni ninguna proposición puede ser verdadera, sin que sea así y no de otro modo (La monadologie, 1714). Tiene varios sentidos: ontológico, teológico y lógico.
Como principio lógico de la ciencia, se considera un desarrollo de los principios aristotélicos de contradicción y de tercio excluido. Rige específicamente las verdades de hecho (en las de razón o lógicas, el principio rector es el de contradicción), y se basa en precedentes como la ley del equilibrio de Arquímedes (no hay razón para que un platillo de una balanza se incline más que el otro si en ambos hay pesos iguales). También llamado “principio de la inteligibilidad universal”, ha sido interpretado como causa (Kant) y sobre todo como fundamento (Heidegger), y más como lo posible (o sea referido a lo contingente) que como lo necesario.
Sintetizando los tres principios expuestos, la explicación científica no debe ir más allá de lo necesario, lo esencial y lo suficiente. Hasta aquí, todo parece incontrovertible. Pero ¿qué hay que entender por necesario, por esencial y por suficiente? y ¿qué no debe ser considerado innecesario, no esencial e insuficiente? Cuando se intenta aclarar esos criterios, entran en cuestión así como el principio de simplicidad subyacente a los mismos.
Entre las consecuencias del dictum de Ockham está el asociar la complejidad con lo que se compone de un gran número de elementos y es de difícil manejo y comprensión. Entender así lo complejo, está profundamente arraigado en lo cotidiano y en lo científico. Basta con citar dos diccionarios con autoridad, uno referido al lenguaje coloquial y otro al especializado. En efecto, tanto el Diccionario de la Real Academia de la Lengua Española como un diccionario clásico de filosofía, el de André Lalande (1962), definen la voz “complejo” como lo que comprende muchos elementos. Esta concepción, de base cuantitativa, confunde lo complejo y lo complicado. En el contexto sociológico, esta confusión está presente en la tesis de Niklas Luhmann (1990) quien sostiene que las sociedades complejas tratan de reducir su complejidad. Acertadamente, el psicólogo portugués Jesuino en un debate con aquél (en Morin, 1984) le replicó que tal afirmación no puede significar que las sociedades globales se vuelvan menos complejas sino que su complejidad aumenta, porque más que la complejidad lo que aquellas intentan reducir es la complicación.
La navaja de Ockham al exigir la economía en la investigación científica arrasa con cuanto desde una perspectiva cuantitativa se estime innecesario, tanto en lo metodológico como en lo teórico. Así, las mejores teorías acaban siendo las más sencillas en su formulación y frugales en su aplicación. Pero lo cuantitativamente innecesario puede no serlo cualitativamente. Si desde la óptica de la simplicidad todo lo que va más allá de lo simple resulta innecesario, desde la complejidad y precisamente para no perder ésta, es necesario ir más allá de lo simple.
Pasemos a las reglas cartesianas. A mi modo de ver y tomadas como principios generales, son discutibles en el contexto de la complejidad. Porque presuponen: 1) que es posible no omitir nada, o sea que el conocimiento puede ser completo o exhaustivo; 2) que cabe encadenar los pensamientos en una perfecta continuidad, lo cual significa que el razonamiento siempre se desarrolla sin saltos, por deducción secuencial; y 3) que el razonamiento es troceable, esto es que el objeto de conocimiento es analizable y recomponible, o dicho con un término de moda que es “desconstruible” (y por lo tanto reconstruible), y expresado de un modo gráfico que es desmontable (y montable), sin problema alguno. Sólo releídas desde una lógica compleja, las reglas cartesianas pueden ser aplicadas con sentido.
En cuanto al principio de razón suficiente, a mi juicio lo problemático de la regla leibniziana radica en la suficiencia como criterio del conocimiento con valor de verdad. Como en Ockham con respecto a la necesidad, también aquí se pone un límite a la razón, que cercena la complejidad. Porque cuando una razón encontrada o alegada se estima suficiente, por definición debemos prescindir de más razones, explicaciones o justificaciones. La cuestión está en si lo suficiente es para entender algo de un modo simple o de un modo complejo. Y en el segundo caso, de qué modo hemos de desacotar la explicación para ir más allá de la simplicidad.
CONOCIMIENTO E INCERTIDUMBRE
Epistemológicamente consideradas, las teorías de la complejidad no se refieren a lo complicado (enfoque de Ockham) ni a lo compuesto (enfoque de Descartes) ni a lo excesivo (enfoque de Leibniz). En ellas, la complejidad es un fenómeno cualitativo, que depende no de la cantidad de elementos, partes o componentes sino de la naturaleza de sus interrelaciones.
Ciertamente, el concepto cualitativo de la complejidad ya fue intuido por la primera sistémica (von Bertalanffy) y por la cibernética de primer orden (Wiener), pero la complejidad está resultando ser, valga la redundancia, mucho más compleja de lo que cabía esperar. Ahora sabemos más: hay sistemas con feed-backs heteroestáticos (von Foerster), sistemas lejos del equilibrio con sendos procesos emergentes (Prigogine), sistemas borrosos o que carecen de límites precisos (Zadeh), etcétera, y también sabemos que tales sistemas no son excepcionales sino que constituyen la mayoría de los sistemas de acción que se encuentran en la realidad, material e inmaterial.
Lo que llamo la “complejidad fuerte” (Munné, 2005) lo forman, hoy aún en los balbuceos de las investigaciones sobre los sistemas complejos, básicamente las teorías sobre el caos que en cierto modo incluyen teorías más específicas sobre la emergencia, la autoorganización, las catástrofes, etc., la teoría de los objetos y procesos fractales y, en otro orden de cosas, la teoría de los conjuntos borrosos (he explicado estos fenómenos en Munné, 1995). Más allá del ámbito disciplinar en el que cada una ha surgido, lo importante de estas teorías es que configuran un paradigma orientador del conocimiento y la explicación científicos que subvierten aspectos fundamentales de la ciencia imperante.
¿Qué dicen, muy brevemente, estas teorías? Según la teoría del caos, un sistema caótico es capaz de autogenerar orden, a través de un proceso cuyo desarrollo o comportamiento es impredecible. Tal sistema es hipersensible a la variación de las condiciones en que se da, puede mantenerse lejos del equilibrio, etc.
La teoría de las catástrofes muestra que un sistema complejo puede mantener su estabilidad gracias a permanecer inestable.
La teoría de las catástrofes muestra que un sistema complejo puede mantener su estabilidad gracias a permanecer inestable.

Uno de los sentidos epistemológicos de la teoría fractal es que en un sistema dinámico complejo hay procesos iterantes, que se repiten de forma paradójica ya que son lo mismo pero distinto. Por lo tanto, la identidad de tal sistema tiene continuidad aunque sea discontinuo.


En fin, la teoría de los conjuntos borrosos se refiere a sistemas cuyos límites son ilimitados. Una consecuencia de esto es que cualquier definición cerrada digamos que descomplejifica el sistema al que se refiere.
En términos de causalidad, el marco común a todas estas teorías es la no linealidad, concepto que alude a una relación de causa y efecto que puede no ser proporcional. Es lo que se conoce como “efecto mariposa”: el aleteo de una mariposa en Brasil puede ocasionar un tornado en Texas” (Lorenz, 1993).
Sin duda, el lector habrá advertido ya que los fenómenos descritos son difícilmente asumibles desde los postulados tradicionales de la lógica de la ciencia. No obstante, en la medida en que el ser humano es un sistema complejo de comportamiento, esas teorías y el paradigma subyacente no pueden ser obviadas en la investigación, teorización e intervención psicológicas y sociales. Y si en un comportamiento individual o social hay autoorganización, fractalidad, caos, borrosidad, etc., debe ser explicado en términos de complejidad.
El problema está en que para esto hay que asumir la causalidad no lineal, la incertidumbre consecuente y muchas otras cosas no admitidas por el pensamiento científico establecido. Por esto, dar entrada a las teorías mencionadas y a sus consecuencias epistemológicas, sobre todo en el ámbito de las ciencias humanas, provoca grandes recelos, recelos que desde la perspectiva de la complejidad han sido calificados de mitos desde la sociología (Eve, 1997), a la par que desde la psicología pueden ser interpretados como resistencias, y como prejuicios desde la psicología social (y no se olvide aquí la frase de Einstein: “Triste época la nuestra: es más fácil desintegrar un átomo que un prejuicio”).
En principio se comprende que extrapolar fenómenos como la autoorganización química (Prigogine y Stengers, 1984) o la fractalidad geométrica (Mandelbrot, 1982) al comportamiento de las personas, o la dinámica de una red de tendido eléctrico a una revolución social resulte extraño y se considere un disparate, pero no lo es más que lo fue aplicar a los procesos psicológicos individuales y a los fenómenos sociales la realimentación ingenieril (Wiener) o el concepto fisiológico de homeostasis (Cannon), o la teoría de la Gestalt que comenzó estudiando la percepción con figuras geométricas carentes de significado.
Otro recelo nace de la creencia de que si las teorías de la complejidad invaden las ciencias llamadas blandas se favorece, más si cabe, al imperio de las ciencias duras sobre ellas. Pero si se tiene en cuenta que el paradigma de la complejidad se ha generado a partir de una matemática, una física y una química interesadas más en lo cualitativo que en lo cuantitativo, más bien son las ciencias duras las que se aproximan a las ciencias humanas, tradicional y fundamentalmente cualitativas. En este sentido, la transdisciplinariedad del nuevo paradigma más bien difumina la nefasta separación epistemológica que viene partiendo en dos el mundo de la ciencia.
Probablemente el mayor recelo contra el paradigma de la complejidad se debe a la incertidumbre que conlleva, incertidumbre que desde el establishment de la simplicidad es un conocimiento negativo que hay que eliminar. Resulta aleccionador examinar, a la luz de la complejidad, el tratamiento que Descartes hace de la duda, vertiente psicológica de la incertidumbre.
Es sabido que el argumento cartesiano del cogito ergo sum recibió duras críticas desde sus inicios. Su contemporáneo Gassendi ya le objetaba que el “yo existo” puede inferirse no sólo del hecho de pensar sino a partir de cualquier actividad. Como

comenta irónicamente el filósofo escéptico inglés Matthew Stewart (2002), Descartes hubiera podido también argumentar “bebo luego existo”. Por otra parte, un antecedente reconocido de la formulación cartesiana ya se encuentra en Agustín de Hipona. En Civitas Dei afirma “si me engaño, existo” (si fallor sum) (XI, 26), interesante fórmula que en vez del pensar vacío y abstracto de Descartes recurre a la posibilidad de autoengañarse o según como se mire al error como hecho positivo en tanto que mostrativo del existir propio. (Para otros antecedentes críticos: Blanchet, 1920).


A mi juicio, desde el paradigma de la complejidad es posible hacer a Descartes una crítica previa a las ya conocidas. Según él mismo cuenta, finge dudar para así poder pensar si existe o no, y es al advertir que está pensando cuando deja de dudar porque percibe que existe. Con ello, la evidencia queda situada en el pensamiento o mejor en la claridad de este pensamiento. Sin embargo, Descarte ha necesitado la duda para dar sentido a su pensamiento. La pregunta es: ¿Por qué no basó su existir ya en la misma duda sobre su existencia?
La respuesta la encuentro en el reduccionismo de su visión dicotómica, no sólo presente en la dualidad res extensa y res cogitans sino en su reducción del ser humano como un ser pensante que excluye ipso facto su dimensión de ser sintiente. Es la misma reducción que está en la base de la dura acusación que le hace Damasio (1994) de despreciar la afectividad humana cuando dice que ”el error de Descartes” fue olvidar la emoción, y más específicamente la importancia y el papel de las pasiones y los sentimientos. El racionalismo cartesiano es una vieja acusación, pero Damasio, que además le acusa de invertir la secuencia real (“existo luego pienso”), aporta por primera vez numerosos datos psiconeurológicos que certifican aquel error.
Ahora bien, el error de fondo es epistemológico más que psiconeurológico, ya que Descartes no sólo reduce la duda a un mero instrumento metodológico sino que la desprecia como fuente de conocimiento per se. Es más, aparte de ser provisional como él mismo reconoce, su duda es aparente, porque no es sentida sino simplemente razonada. En definitiva, la duda cartesiana, abstracta, inhumana y falsa por no ser existencial, resulta de la simplificación con que trata al ser humano.
Si Descartes hubiese dudado de verdad (con una incertidumbre positiva abierta a la complejidad) hubiera planteado la cuestión de otro modo. La evidencia de existir, la prueba de su existencia hubiera estado en la misma paradoja de no poder dudar que dudaba, o sea en la afirmación “dudo luego existo”. Al no hacerlo, el sentimiento quedó sometido al pensamiento (si dudo pienso y si pienso existo). La incertidumbre dejaba de valer por sí misma como fuente sentida de conocimiento. Y el conocimiento cierto lo buscó Descartes ingenuamente en el pensamiento, mejor dicho en la claridad del pensamiento más simple posible.
Pese a la decisiva influencia de Descartes, su rechazo de la incertidumbre no ha podido evitar que ésta anide en muchas teorías posteriores de la filosofía y la ciencia. Por ejemplo, en la ontología fenomenológica de Husserl, que suspende el conocimiento teorético para dejar paso a los datos indudables de la experiencia; en la epistemología popperiana, cuando proclama el carácter constitutivamente abierto del conocimiento; en el conocimiento como ficción, base de la filosofía del “como sí” (als-Ob) de Vaihinger; etcétera. Y adquirió nuevas dimensiones con el principio cuántico de incertidumbre (Heisenberg), con la indecidibilidad última de cualquier sistema lingüístico (Wittgenstein) y con la incompletitud de cualquier sistema axiomático (Gödel).
Los sistemas complejos, cuya no linealidad genera incesantemente información ex novo, producen una dosis irreducible de incertidumbre, que está presente en fenómenos como la indeterminación causal, la posibilidad o la borrosidad.

OBSESIONES Y ESTRATEGIAS PARA ELUDIR LA INCERTIDUMBRE
La ciencia establecida tiene el mismo problema que Descartes. El culto que rinde a la simplicidad, le obliga a “limpiar” el camino de desviaciones y multiplicidades, de posibilidades ínfimas o lejanas, en pro de una inteligibilidad cognitiva lo más directa y secuencial posible para instalarse en un conocimiento considerado claro y seguro. Esto no sólo no evita sino que aumenta la incertidumbre, porque considerados desde la simplicidad, los fenómenos complejos son imposibles de entender o son malinterpretados, por ejemplo considerando aleatorios los procesos caóticos cuando estos están determinados sin dejar de ser impredecibles. De ahí que se hable del caos determinista, ell conocimiento del cual siempre es aproximado.
La tentación de esquivar la incertidumbre para llegar a la explicación lo más simple posible es muy fuerte, y está avivada además por el agobiante sentimiento de duda, que es insostenible por ser vivido como un desconocimiento. Todo ello provoca tres obsesiones en el quehacer científico:
La primera es la obsesión de predecir. Hasta el extremo de que ha llegado a afirmarse (caso del físico Horgan, 1996) que los modelos no predictivos no pueden ser tomados en serio. Se sobreentiende que una causa mayor producirá un mayor efecto y una causa menor un efecto menor. Si no se encuentra proporcionalidad en la relación no es posible predecir y se prescinde de la relación como carente de significado o de relevancia.
Segunda obsesión: regular, esto es someter a reglas. Si el mundo se considera predecible, pueden descubrirse, formularse y en su caso imponerse las reglas que lo hacen predecible para el ser humano. Hay más: una vez establecida una regla todo cuanto se aparta de ella, o no es regulable como norma, pasa a considerarse anormal y a ser explicado como anómalo, esto es como raro o extraño. Las teorías psicosociales sobre la reacción social al comportamiento desviado (Lemert, Becker, Goffman) van en este sentido.

Y tercera obsesión: controlar. Si el mundo es predecible y regulable, puede y debe ser controlado. Y lo que no puede ser controlado debe ser reducido al mínimo posible para evitar el descontrol.


La tríada “predecir, regular y controlar”, que se alimenta a sí misma, proporciona en principio un mundo ordenado y por lo tanto seguro por predecible. Constituye un triple marco cuya presunta eficacia requiere eliminar el conocimiento incierto, es decir que cualquier explicación debe encajar en ese marco. Pero ¿cómo eliminar la incertidumbre en el conocimiento? A través de la razón, que lo tiene fácil: sólo necesita emplear estrategias reduccionistas, como la dicotomización y la totalización.
Por dicotomizar entiendo categorizar las cosas polarmente o cuasipolarmente, lo cual conduce a explicaciones mutuamente excluyentes. Por totalizar, unificar diferentes cosas en un solo conjunto, lo cual conduce hacia una autosuficiencia explicativa de tal modo que los elementos carecen de entidad propia, pasando a ser partes de un todo cuyo sentido es absoluto. Los conceptos y razones relativos al todo y sus partes se impermeabilizan en vez de abrirse a nuevas posibilidades. Como operaciones cognitivas, tanto la dicotomización como la totalización disuelven la incertidumbre: el contraste de la dicotomía produce una claridad cegadora y la totalización la ilusión de abarcar toda la información integrada considerada relevante.
En ambos casos hay un fundamentalismo epistemológico: La dicotomía, porque establecida una oposición, por ejemplo individuo versus sociedad, cognición vs afecto, verdad vs error o bondad vs maldad, sujeto vs objeto, la elección de un polo niega el otro polo, obteniéndose un conocimiento de la realidad sospechoso de sesgo, salvo en casos límite. Y la totalización, porque el considerar cualquier conjunto en sí mismo tiende a ser absolutivizado. El mismo concepto de todo resulta de la dicotomía todo vs. nada. Salvo excepciones, el precio de acudir a la dicotomización y la totalización es muy caro. Al dicotomizar se despeja lo intermedio o se le reduce a meros matices, y al totalizar se descarta cuanto queda fuera como ajeno, extraño e incluso patológico, o se le ignora como inexistente.
Llegados a este punto, acude a mi memoria lo que dijo el filósofo Emilio Lledó, en una entrevista de hace unos años (en González Sainz y de Llorens, 1985) comentando la aportación de los sofistas griegos: los seres humanos “somos historias ambiguas en las que caben la razón y la sinrazón, el logos y el mitos, la suerte y la mala suerte, la bondad y la maldad, la justicia y la injusticia, y el lenguaje es eso y no se puede resecar en un discurso monolítico y uniforme”. En relación con lo anterior, diría que escamotear la ambigüedad mediante la dicotomización como estrategia elusiva de la incertidumbre es, por ejemplo, ver solamente la razón o la sinrazón y no el fenómeno conjunto al que responden ambos aspectos. Un profundo aforismo de Juan Ramón Jiménez es aquí oportuno: “Perfecto e imperfecto: completo.” ¿Entiende el lector?
La incertidumbre dicotómica obliga a elegir. Es el problema de Hamlet: una vez que éste se ha planteado la situación en términos de to be or not to be cae en la trampa de la dicotomía y a partir de entonces su incertidumbre ya es una duda patógena por irresoluble. Por su parte, la incertidumbre totalizadora obliga a excluir: es la explicación psiquiátrica de la personalidad creadora de van Gogh, porque entendida ésta desde una psicología de la complejidad su creatividad genial no es inteligible totalizando su persona como un loco y por lo tanto como resultado del desorden. Para la explicación compleja, la creación emerge: no surge de la locura sino del caos creador.
(Una reflexión sobre el valor de la dicotomía: La informática y otros avances tecnológicos se basan en la dicotomía si-no, mostrando la eficacia de las alternativas. Nuestro sistema neural también funciona en términos si-no, pero solamente en la transmisión puntual de la información, porque en la elaboración de la misma trabaja en red, sistema complejo donde hay muchos síes y noes posibles, que es lo que parece harán los futuros ordenadores cuánticos.)
Una cuestión no colateral sino nuclear a la dicotomización es la relación entre la complejidad y la simplicidad. Teorías como la de la críticalidad autoorganizada o la del borde del caos (edge of chaos) se ocupan de ella, e incluso se ha propuesto un nombre específico para designar los estudios sobre esa relación: la pléctica (Gell-Mann, 1994). Pues bien, alguna vez se me ha hecho la objeción de que el paradigma de la complejidad critica la dicotomización pero cae en ella al presentarse como una alternativa al paradigma de la simplicidad. Es una crítica sutil, que supone que asumir la complejidad es renunciar a la simplicidad.
Esto sólo sería así si la relación fuera dicotómica. Pero la complejidad no está en oposición con la simplicidad, la incluye. Lo relevante de la ecuación fractal de Mandelbrot (1982) está tanto en su sorprendente simplicidad, como en la complejidad que contiene, dando lugar cuando es desarrollada al que se ha calificado de objeto matemático más complejo que existe. Por esto es un mito creer que la teoría del caos y de la complejidad intenta reemplazar los paradigmas existentes en las ciencias sociales (Eve, 1997). La situación es parecida a la creada por la física de Einstein en relación con las leyes del movimiento de la física de Newton, no demolidas por la teoría de la relatividad pero que han pasado a ser un caso particular de ésta.
Lo que ocurre es que la relación entre lo simple y lo complejo no es simétrica, porque lo simple es una manifestación extrema o límite de lo complejo. Con otras palabras: lo simple no es la regla general sino la excepción, y es como tal que integra la complejidad.
En términos de explicación, la relación entre la complejidad y la simplicidad es un continuum, o sea que una explicación puede ser más o menos compleja (o simple), según que la aproximación a lo explicado o explicable contenga más o menos “información faltante”. Se deduce que cualquier explicación es borrosa o cuestión de grado. Y no me refiero a la vertiente cuantitativa de la explicación, a su alcance en términos de generalidad explicando más o menos casos, sino a su vertiente cualitativa dada por la profundidad de cada explicación.
En cuanto a la simplicidad, cuando una explicación procura ser accesible, clara y comprensible lo más posible tiende cada vez más a desprenderse de la complejidad.
Digamos que va pasando de una “simplicidad compleja” a una “simplicidad simplificadora”. En aquélla subyace lo complejo, dando lugar a una explicación dentro del contexto de la complejidad. Es el caso del algoritmo del ADN: siendo relativamente simple contiene esto tan complejo que llamamos vida. En cambio, en la simplificación, la explicación tiende a desgajarse de lo complejo y si conserva una huella de la complejidad está caricaturizada. Lo que no se integra, pues, en la complejidad es la simplificación.

HACIA UNA EXPLICACION LO MÁS COMPLEJA POSIBLE

La simplificación tiene un enorme poder de fascinación y esto dificulta la explicación compleja, porque requiere renunciar a la desnudez del conocimiento claro y a la radicalidad de la economía explicativa. Por otra parte, requiere aprehender la incertidumbre como conocimiento positivo, y por consiguiente que la predicción, la regulación y el control dejen de protagonizar el conocimiento científico. ¿Es factible? Sí, porque las relaciones causales no proporcionales minimizan la predecibilidad pero maximizan la previsibilidad, o dicho de otro modo en ellas la probabilidad deja paso a la posibilidad. Y esto abre la puerta a otra tríada más potente: prevenir, orientar y promover. En el nuevo contexto, prevenir es más importante que predecir, en consecuencia orientar lo es más que regular y lo mismo sucede con promover en relación con controlar. Ahora la explicación lineal cede el paso a la no linealidad y a su compañera de viaje, la incertidumbre. Y el conocimiento científico se aproxima al conocimiento cotidiano, en el cual habitan la duda y lo posible y está menos condicionado por un orden previo. Se dirá que si esto libera de unas obsesiones es para caer en otras, pero la nueva tríada no elimina a la hoy monopolizadora sino que la circunscribe a los casos de predominio lineal.


Antes de seguir, dos observaciones sobre la previsión: Una, para recordar que Auguste Comte ya había otorgado a la previsión un papel central en la ciencia con su famosa sentencia “saber para prever, prever para poder” (Curso de Filosofía positiva, 1830). Pero en el positivismo comtiano la previsión depende rigurosamente de la predicción y se dirige a la formulación de una ley, en cambio en el contexto de la complejidad (tanto en un sistema caótico y en un proceso fractal, como en un conjunto borroso) la previsión se basa en las posibilidades de la causalidad no lineal dominante lo cual apunta no a leyes sino a tendencias.
La segunda observación sobre la previsión es para destacar su papel en el contexto de la complejidad. El antes citado Lorenz (1993), uno de los “padres” de la teoría del caos, escribe: “Si el aleteo de una mariposa puede contribuir a generar un tornado, igualmente puede actuar para prevenirlo”.
En tanto que la nueva tríada es una inversión epistemológica, comporta replantear los problemas de la psicología y demás ciencias del comportamiento desde el enfoque de la complejidad y por consiguiente con la lógica que se desprende del mismo, lógica que difiere a la del pensamiento simple en aspectos fundamentales. Por citar algunos:
En primer lugar, se sobrepasan las fronteras creadas e impuestas por los tres criterios clásicos de la simplicidad. Esto es, el conocimiento y la explicación van más allá de lo necesario, lo suficiente y lo esencial mediante lo que llamo “un análisis de aspectos” (de los aspectos cualitativos de la complejidad: no linealidad, caoticidad, fractalidad, borrosidad, etc.), y no un análisis de partes que trocea el objeto y el sujeto. En consecuencia, la ciencia psicológica debería “poner al día” los artificiosos dictados de Ockham, Descartes y Leibniz inhibidores de las explicaciones complejas, porque la simplicidad explicativa al cuantificar desvirtúa los aspectos cualitativos, al analizar fragmenta y al limitarse a lo esencial cierra la puerta a lo considerado apriorísticamente “no esencial”.
En segundo lugar, la lógica compleja es una lógica paradójica, lo cual potencia la explicación. El razonamiento complejo diluye las dicotomías. Busca, por ejemplo, la continuidad de la discontinuidad (como es el caso de la pertenencia grupal); la irregularidad de lo regular (como es el caso de la desviación social); la diferencia de lo igual (como es el caso de la identidad individual o grupal); la imprecisión de lo preciso; o la simplicidad de la complejidad (para esto último: Gribbin, 2004.)
Proposiciones como éstas tienen sentido cuando se invierten las dos estrategias reduccionistas antes indicadas. Es decir, cuando en vez de dicotomizar se difumina, lo cual supone categorizar sin discontinuidad, o sea de un modo ni excluyente ni incluyente, generándose una incertidumbre borrosa que no conduce a elegir sino a matizar. Y cuando en vez de totalizar se globaliza, esto es, el pensamiento y la explicación se organizan en red, forma de organización en la que nada es ajeno a nada, a diferencia de la organización total.
Todo ello tiene importantes consecuencias en cuanto a la conceptualización y la teorización. Aunque conceptos fundamentales como causa, identidad, definición, totalidad, igualdad, contradicción, incertidumbre, etc., no son derribados, muchos cambian de sentido: la causalidad generalmente es no lineal, lo idéntico es semejante, las definiciones carecen de límites nítidos, la unidad (cualquier “todo”) es plural, etc. Esto afecta nuclearmente a la interpretación de las teorías. Por ejemplo, la teoría de la balanza (Heider, 1944) y la de la disonancia cognitiva (Festinger, 1957), ambas sobre el cambio de actitudes, se basan respectivamente en el principio del equilibrio y el principio de coherencia, pero si reconociendo lo complejo de un sistema actitudinal uno y otro principio son entendidos desde el enfoque de la complejidad, o sea respectivamente como principio del no equilibrio y principio de no coherencia (a distinguir del desequilibrio y la incoherencia), cambia el sentido y alcance de ambas teorías pues explican más exhaustivamente el sistema dinámico actitudinal real, que cotidianamente es caótico y borroso. Un segundo ejemplo, referido a modelos teóricos: Los principales modelos disponibles sobre el comportamiento del consumidor (ver Quintanilla, 2002) son poco más que ejercicios especulativos de escaso interés, incluidos los que recurren a mecanismos en feed-back, y en el mejor de los casos sólo permiten confirmaciones puntuales y una aplicación parcial, por lo cual provocan quebraderos de cabeza por la falta de racionalidad e impredecibilidad de aquél comportamiento. En cambio, entendidos como sistemas no lineales de información y de decisión tendrían un poder descriptivo y explicativo mucho más acorde con la realidad del comportamiento del consumidor. Aunque en otro ámbito, esto se confirma con los modelos lineales al uso sobre el bienestar psicológico, ya que se ha comprobado en un modelo referido a la adolescencia, que basarse en la no linealidad, la indeterminación y la impredecibilidad es mucho más enriquecedor (González, 2005).
En tercer lugar, la lógica compleja invierte la dirección de la explicación privilegiando el razonamiento emergente. En éste, la explicación va “de abajo a arriba” (bottom up) (Johnson, 2001) y no al revés (top down) como tiende a operar la lógica simple. La explicación desde arriba tiene sentido para las creaciones o productos del ser humano como las máquinas, cuya construcción requiere una idea o plan previos, pero no para la naturaleza que es emergente y no intencional. Por ende, la lógica emergente cuestiona tanto las viejas teorías teleológicas, pongamos por caso la hipótesis del Punto Omega del paleontólogo y jesuita Theillard de Chardin (1955) en la que Dios no estaba como principio sino como fin, como la hipótesis del diseño inteligente hoy de moda entre los creacionistas, que ha llevado a hablar incluso del “gen de Dios”.

Desde la filosofía se han aclarado las diferencias entre ver y entender en términos causales los fenómenos de arriba-abajo o de abajo-arriba. En el primer caso se genera una explicación causal ascendente, que es la manera en que desde Galileo o Newton nos hemos acostumbrado a pensar los bloques de construcción y/o los elementos de un sistema; en cambio cuando se ven de abajo a arriba, como privilegia el enfoque de la complejidad, la explicación causal es descendente y permite comprender cómo un sector de la realidad emerge de otro sector de nivel anterior, por ejemplo cómo los sistemas vivos surgieron de los físicos y químicos (Riofrío Rios, 2001). Por supuesto, cuando se trata de entender las interacciones entre lo que ya ha emergido y lo que va emergiendo deben combinarse ambas explicaciones.


En cualquier caso, las interacciones tienden a desarrollarse no linealmente, de forma expansiva y en red, lo cual hace proliferar la incertidumbre por doquier, siendo una fuente inagotable para el conocimiento complejo. Así, en el campo de la psicología de las organizaciones, la aplicación de modelos que tratan éstas como sistemas adaptativos complejos indica que una organización compleja puede funcionar mejor cuando no reduce su emergencia y espontaneidad (Navarro, 2005). Un buen ejemplo es la organización de Google como empresa (Vise y Malseed, 2005). Por esto hoy interesa integrar la dinámica de los procesos emergentes como la autoorganización, con los procesos evolutivos como la selección natural (Gómez Jacinto, 2005).
Para finalizar, veamos desde la complejidad la explicación psicológica de un caso experimental, concretamente el experimento ya clásico realizado por Salomón Asch (1952) sobre la formación de las impresiones. Este gestaltista social dió una información idéntica a dos sujetos sobre la personalidad de un conferenciante excepto en un dato que difería en cada uno. Había, pues, dos listas con los mismos adjetivos calificativos sobre aquél excepto uno (por ejemplo, donde en una lista se leía que el conferenciante era una persona fría” en el trato, en la otra ponía “cálida”). El resultado fue que en un porcentaje significativo los sujetos con la lista A percibían a aquél de un modo globalmente muy diferente a los sujetos con la lista B. Este efecto no ocurría con otros calificativos, como puntual e impuntual. (En otra situación experimental, Asch presentó un mismo texto a dos sujetos cambiando sólo el nombre del autor y cada sujeto daba un sentido completamente distinto al texto en función, por ejemplo, de si era atribuido a Marx o a Lincoln.)
La explicación de Asch fue que el par “frío-cálido” transmitía más información relevante sobre la persona que otros pares de adjetivos. Así que concluyó que el efecto dependía de si la información diferencial era central o periférica, esto es si tenía un significado esencial (organizador, en el sentido gestáltico) o secundario. Años después, conocidos e investigados otros procesos cognitivos, como la atribución y la categorización, la explicación ya no era tan sencilla, pero el efecto Asch continuaba y continua siendo incomprensible en el fondo.
Puede darse un paso más hacia una explicación de una situación presuntamente simple si se entiende el comportamiento interactivo que tiene lugar en la misma como un sistema no lineal “sensible a las condiciones iniciales”. Este fenómeno, indicador del comportamiento caótico, consiste en la hipersensibilidad que muestra un sistema de acción cuando pequeñísimas variaciones son capaces de provocar un cambio desproporcionado en los procesos subsiguientes de interacción. En el primer experimento de Asch, ello vendría dado por el trato con el conferenciante en otras situaciones, sin ir más lejos tomando un café con él, y en el experimento de la autoría de un texto, por la comprensión de otro u otros pasajes del mismo libro. Si los resultados cambian, lo que aparecía como central se refiere tan sólo a unos efectos inmediatos y circunstanciales, mientras que lo considerado periférico, secundario o mínimo puede llegar a ser fundamental o decisivo. Entonces, la explicación requiere el contexto de la complejidad: lo relevante ya no es la categorización dicotómica “central versus periférico” sino si se trata o no de información más o menos sensible a las condiciones iniciales. Y esto es precisamente lo que ocurre en la anécdota inicial sobre Richard Strauss: este es “reducido” a gran compositor hasta que una ínfima información faltante sobre su cotidianidad produce un insight y aquél es “potenciado” a persona humana, lo que indica que la cuestión es hipersensible a la variación de las condiciones iniciales.
Ahora bien, esto no se puede conocer a priori, porque es a posteriori cuando una información hasta entonces faltante se revela como sensible, o sea capaz de cambiar ipso facto las condiciones de una situación dada y generar una nueva comprensión de ésta. Y es que la información faltante lo es no porque la información sea incompleta sino porque en un sistema complejo es emergente.
¿Son erróneas la explicación simple de los resultados de Asch y la explicación asimismo simple del crítico sobre Strauss,? Sin ser correctas tampoco son del todo erróneas. Su sentido es poco más que “aquí y ahora”. O sea, que como conocimiento complejo es a la vez cierto e incierto, porque se refieren a situaciones borrosas. ¿Hace falta recordar lo ya dicho de que desde la complejidad, la incertidumbre no es desconocimiento sino fuente de conocimiento? O en otro aspecto, que es un conocimiento en cierne, un protoconocimiento que como tal es conocimiento impreciso, todavía no recortado en su potencial autogenerador sino nutrido aún con la ambigüedad como valor. Puede ilustrar este punto el análisis borroso del self, aplicado por Codina (2005), en el que el propio sujeto va categorizando secuencialmente sus respuestas, dado que este procedimiento partiendo de la incertidumbre autogenera información cada vez más compleja.
A la vista de todo lo expuesto ¿es arriesgado concluir que la psicología y la psicología social se están construyendo en condiciones epistemológicamente adversas? Tanto la investigación como la intervención del comportamiento humano orientadas por la simplicidad extreman (polarizan) los fenómenos y exageran (simplifican) la realidad, generando muchos más problemas que los que tratan de resolver. Sólo en la medida en que se encuentren explicaciones lo más complejas posible podrá profundizarse en el conocimiento y el tratamiento científicos del ser humano. Y para que las ciencias del comportamiento no se alejen de la realidad, asuman la incertidumbre y puedan avanzar en tales explicaciones deben reconocer paradójicamente, en un acto de humildad, que los seres humanos somos (afortunadamente) menos predecibles, controlables y regulables de lo que presupone la ciencia lineal y las explicaciones basadas en ella. Paradójicamente, porque se trata de comprendernos como simplemente complejos, para lo cual deberíamos tener presentes aquellas hermosas palabras de Gauguin para explicar su pintura: “A menudo me remonté en el tiempo, más que a los caballos del Partenón, al caballito de madera de mi infancia”.


REFERENCIAS
Abbagnano, N. (1966) Storia della filosofia. Torino: Utet. (Historia de la filosofía. Barcelona: Montaner y Simón. 1992.)

Asch, S. (1952) Social psychology. Englewood Cliffs, N.J.: Prentice-Hall. (Psicología social. Buenos Aires, Eudeba, 1964.)

Blanchet, L. (1920) Les antécedents historiques du “je pense, donc je suis”. París: Alcan.

Codina, N. (2005) La complejidad del self y análisis empírico de su borrosidad. Encuentros en psicología social, 3(2), 36-44.

Damasio, A.R. (1994) Descarte’s error. Emotion, reason and the human brain. Nueva York: Putnam. (El error de Descartes. La emoción, la razón y el cerebro humano. Barcelona: Crítica, 1996.)

Eve, R.A. (1977) Afterword: So where are we now? A final word. En Eve, R.A., Horsfall, S. Y Lee, M.E. (Eds.): Chaos, complexity, and sociology. Myths, models, and theories.Thousand Oaks, Ca.: Sage.

Festinger, L. (1957) A theory of cognitive dissonance. Stanford, California: Stanford University.

Gell-Mann, M. (1994) The quark and the jaguar. Adventures in the simple and the complex. Nueva York: Freeman. (El quark y el jaguar. Aventuras en lo simple y lo complejo. Barcelona: Tusquets, 1995.)

Gómez Jacinto, L. (2005) Un enfoque evolucionista y dinámico de la psicología social cultural. Encuentros en psicología social, 3(2), 24-35.

González, M. (2005) Una metodología para el análisis no lineal del bienestar psicológico en la adolescencia. Encuentros en psicología social, 3(2), 59-70.

González Saínz, J. A. y de Llorens, I. (1985) Escarceos por el pensamiento griego. Conversación con Emilio Lledó. En Porque nunca se sabe. Barcelona, Laia.

Gri Gribbin, J. (2004) Deep simplicity. Chaos complexity and the emergence of life. London: Penguin. (Así de simple. El caos, la complejidad y la aparición de la vida. Barcelona: Crítica, 2006)

Heider, F. (1944) Social perception and phenomenal causality. Psychological Review, 51, 358-374.

Horgan, J. (1996) The end of science. Facing the limits of knowledge in the twilight of the scientific age. Londres: Addison-Wesley. (El fin de la ciencia. Los límites del conocimiento en el declive de la era científica. Barcelona: Paidós, 1998.)

Johnson, S. (2001) Emergence. The connected lives of ants, brains, cities and software. New York: Free. (Sistemas emergentes o que tienen en común hormigas, neuronas, ciudades y software. Madrid y México: Turner y F.C.E., 2003.)

Lalande, A. (1962) Vocabulaire technique et critique de la philosophie. Paris: PUF.

Lorenz, E.N. (1993) The essence of chaos. Seattle: University of Washington Press. (La esencia del caos. Madrid: Debate, 1995.)

Luhmann, N. (1990) Die Wissenschaft der Geselschaft. Frankfurt a. M.: Suhrkamp.

Mandelbrot, B. (1982) The fractal geometry of nature. Nueva York: Freeman. (La geometría fractal de la naturaleza. Barcelona: Tusquets, 1997.)

Morin, E. y otros (1984) O problema epistemológico da complexidade. Portugal: Europa-America.

Munné, F. (1995) Las teorías de la complejidad y sus implicaciones en las ciencias del comportamiento. Revista Interamericana de Psicología, 29 (1), 1-12.

Munné, F. (2004) El retorno de la complejidad y la nueva imagen del ser humano. Hacia una psicología compleja. Revista Interamericana de Psicología. 38 (1), 21-29.

Munné, F. (2005) ¿Qué es la complejidad? Encuentros de Psicología Social. Número monográfico sobre La complejidad en la psicología social y de las organizaciones. Coordinado por F. Munné, 3 (2), 6-17.

Navarro, J. (2005) La psicología social de las organizaciones desde la perspectiva de la complejidad. Revisión y estado actual de una relación prometedora. Encuentros en psicología social, 3(2), 78-87.

Prigogine I. e I. Stengers (1984) Order out of chaos. Man’s new dialogue with nature. Nueva York: Bantam.

Quintanilla, I. (2002) Psicología del consumidor. Madrid: Prentice Hall.

Riofrío Rios, W. (2001) ¿Complejidad o simplicidad? En busca de la unidad de la ciencia. A parte rei. Revista de Filosofía, julio, núm. 16. http://serbal.pntic.mec.es/AParteRei

Stewart, M. (1997) The truth about everything. An irreverent history of philosophy with illustrations. Loughton, Essex: Prometheus. (La verdad sobre todo. Una irreverente historia de la filosofía, con ilustraciones. Madrid: Santillana, 2002.)

Teillhard de Chardin, P. (1955). Le Phénomène Humain. París : Le Seuil.

Vattimo, G. Ed., (1992) Enciclopedia Garzanti di filosofía. Milano: Garzanti.



Vela del Campo, J. (2004) Poemas sinfónicos de Richard Strauss, El País, XX noviembre.

Vise, D.A. y Malseed, M. (2005) The Google story. Inside the Hottest Business, Media and Technology of Our Time. Nueva York: Bantam Dell. (Historia de Google. Secretos del mayor éxito empresarial de nuestro tiempo. Madrid: La Esfera, 2006.)


Compartir con tus amigos:


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

enter | registro
    Página principal


subir archivos