No dejarse engañar con las estadísticas


NO DEJARSE ENGAÑAR POR LAS ESTADÍSTICAS



Descargar 0.69 Mb.
Página2/2
Fecha de conversión07.09.2018
Tamaño0.69 Mb.
Vistas48
Descargas0
1   2
NO DEJARSE ENGAÑAR POR LAS ESTADÍSTICAS

TRABAJO DE GRADUACIÓN PRESENTADO POR:



ROSA MIRIAM SALAMANCA CRUZ
PARA OPTAR AL GRADO DE

MÁSTER EN ADMINISTRACIÓN FINANCIERA

AGOSTO 2010



CIUDAD UNIVERSITARIA, EL SALVADOR, CENTROAMÉRICA

UNIVERSIDAD DE EL SALVADOR



AUTORIDADES UNIVERSITARIAS
RECTOR : MÁSTER RUFINO ANTONIO QUEZADA SÁNCHEZ

SECRETARIO GENERAL : LIC. DOUGLAS VLADIMIR ALFARO CHÁVEZ



AUTORIDADES DE LA FACULTAD DE CIENCIAS ECONÓMICAS

DECANO : MÁSTER ROGER ARMANDO ARIAS ALVARADO

VICEDECANO : MÁSTER EDGARDO CALERO RODAS

SECRETARIO : MÁSTER JOSÉ CIRIACO GUTIÉRREZ CONTRERAS

ADMINISTRADOR ACADÉMICO: LIC. EDGAR ANTONIO MEDRANO MELÉNDEZ

ASESOR : MÁSTER GERARDO ALFONSO BARAHONA MORALES

TRIBUNAL EXAMINADOR : MÁSTER GERARGO ALFONSO BARAHONA MORALES

MÁSTER GUILLERMO VILLACORTA MARENCO

AGOSTO DE 2010

SAN SALVADOR EL SALVADOR CENTROAMERICA



INDICE


INTRODUCCIÓN……………………………………………………………………………………………………….….

iv

I: CALIDAD DE ANÁLISIS









1

EXTINCIÓN POR INSTINTO…………………………………………………………………………….

1




2

PARÁLISIS POR ANÁLISIS……………………………………………………………………………..

2

II: VENTAJA COMPETITIVA









1

VOLATILIDAD…………………………………………………………………………………………….

4




2

TENDENCIAS DE CRECIMIENTO……………………………………………………………………….

4




3

COMPLEJIDAD……………………………………………………………………………………………

5

III: RIESGOS ESTADÍSTICOS









1

RIESGO MORAL…………………………………………………………………………………………...

5




2

RIESGO DEL MODELO …………………………………………………………………………………..

7

IV: SIMULACIÓN







1

SIMULACIÓN MONTE CARLO ………………………………………………………………………….

10




2

VENTAJAS DE LA SIMULACIÓN……………………………………………………………………….

11




3

DESVENTAJAS DE LA SIMULACIÓN………………………………………………………………….

11

V: DISTRIBUCIONES DE PROBABILIDADES









1

EL PROMEDIO (CAMPANA DE GAUSS) ……………………………………………………………….

12




2

LA LARGA COLA (THE LONG TAIL) …………………………………………………………………..

13




3

FRACTALES……………………………………………………………………………………………….

15

VI: CISNE NEGRO









1

OBJETIVISMO Y SUBJETIVISMO………………………………………………………………………

21




2

VARIABLES ESCALABLES Y NO ESCALABLES……………………………………………………..

22




3

FALACIAS LÓGICAS……………………………………………………………………………………..

23




3.1

FALACIA NARRATIVA…………………………………………………………………………………..

24




3.2

FALACIA TENDENCIA A LA CONFIRMACIÓN……………………………………………………….

25




3.3

FALACIA DE LA EVIDENCIA SILENCIOSA …………………………………………………………...

26




3.4

FALACIA POST HOC ERGO PROPTER HOC ………………………………………………………….

26

CONCLUSIONES …………………………………………………………………………………………………………..

29


REFERENCIAS BIBLIOGRÁFICAS………………………………………………………………………………………

31




INTRODUCCIÓN
El título de ésta investigación es “No dejarse engañar por las Estadísticas” y tiene como objetivo reducir al mínimo el uso indebido de las estadísticas e identificar los controladores que se encuentran detrás de las variables para interpretar y establecer su causalidad.

Actualmente las empresas, los trabajadores, el Estado, entre otros generan una cantidad exagerada de datos con el fin de cuantificarlo todo; y los consumidores de dicha información se ahogan entre tanto número, pero existen diversas formas para filtrar o introducir interferencias en los datos de origen, lo cual permite hacer uso y abuso de las estadísticas.

El primer capítulo se refiere a la Calidad de Análisis que es determinante en la toma de decisiones y donde los CEOs se enfrentan ante dos situaciones extremas que es la Extinción por Instinto y la Parálisis por Análisis. La primera se relaciona con gerentes impulsivos e intuitivos y la segunda con personas atraídas naturalmente por los números. El segundo capítulo identifica los elementos que proporcionan Ventaja Competitiva a las organizaciones como lo son: Volatilidad, Tendencias de Crecimiento y Complejidad. La subestimación o sobrestimación de cada uno de estos elementos permite alcanzar en mayor o menor cantidad los beneficios esperados. El tercer capítulo analiza los Riesgos Estadísticos, destacando el Riesgo Moral y el Riesgo del Modelo, donde el primero resalta la necesidad de no solo calcular datos con precisión, gráficos y curvas; sino también de inyectarle una dosis de carácter ético a la información. El Riesgo del Modelo hace énfasis a la utilización de modelos matemáticos de medición y control de inversión, de tal forma que las conclusiones se analicen partiendo de un contexto limitado por los supuestos. El capítulo cuatro se refiere a la simulación, una vez construido el modelo se inicia el proceso de ensayar una alternativa. La simulación ha permitido trabajar con distribuciones de probabilidad y no solo con valores únicos, para cada uno de los escenarios potenciales determinando un rango de probables resultados. El capítulo quinto se refiere a las aplicaciones de las distribuciones de probabilidad más utilizadas en el sector económico y financiero como son: El promedio o Campana de Gauss, Teoría de larga Cola y Los Fractales. El capítulo sexto identifica los Cisnes Negros que sostiene que la historia no está dominada por lo predecible sino por lo altamente improbable. También se trata del mito del Subjetivismo y Objetivismo que coexisten en dominios separados. Las variables Escalables y No Escalables y la gran brecha que las separa. Así como también de las diferentes falacias lógicas que nos dificultan identificar los eventos con probabilidades mínimas de ocurrir.

Con ello se busca que las estadísticas y los datos con los cuales son generados sean utilizados por aquellas personas que los comprenden y usan correctamente para que los resultados estén más apegados a la realidad y contribuyan al objetivo esperado. Por lo tanto, los administradores deben hacer uso eficaz de los números que generan. El conocimiento acerca de cómo se obtienen los datos debe ser una responsabilidad de los usuarios e investigadores de tal manera que representen una muestra aleatoria.




  1. CALIDAD DE ANÁLISIS

  2. Generalmente en la industria de la manufactura y en otras áreas como educación, gobierno e industrias de servicios; donde lo operativo es fundamental se hace especial énfasis a los términos “calidad total” y “cero defectos”, ya que las definiciones de calidad aplicadas a los productos de manufactura son aplicables a la calidad de servicio porque “deben satisfacer o exceder las expectativas del cliente, convirtiéndose en los estándares para la prestación del servicio. Sin embargo, al referirse al análisis cuantitativo vale la pena preguntarse si se mantienen los estándares de calidad elevados de manera que los gerentes se conviertan en rigurosos usuarios y generen el ambiente adecuado para obtener un análisis eficiente, libre de defectos lógicos o metodológicos. La importancia en la calidad de la información entregada por las compañías y entidades gubernamentales responde al hecho que los mercados reaccionan inmediatamente a las publicaciones sobre la información económica y muchas veces ésta puede ser muy pobre y existir una gran diferencia entre una fuente y otra respecto a las diferentes definiciones.

  3. Es increíble pero las fallas en los análisis cuantitativos no son inusuales y se encuentran asociados a elementos básicos como: pobre selección de parámetros, inconsistencias en la modelación, falacias lógicas, simples errores, uso inadecuado de modelos específicos, etc...

  4. Durante el proceso de toma de decisiones, los CEOs también se enfrentan con dos tipos de situaciones extremas, una que está relacionada con las decisiones caprichosas o arbitrarias; conocida como “extinción por instinto” y la otra que se refiere a una obsesión enfermiza por las cifras, el análisis y los informes; denominada “parálisis por análisis”.



  1. Extinción por instinto.

  1. Este fenómeno generalmente se da cuando los tomadores de decisiones trabajan estrechamente y llegan a desarrollar un alto grado de solidaridad al punto que nubla su visión, conduciéndolos a suprimir sus sentimientos negativos sobre las propuestas correspondientes. Las situaciones donde se observa un análisis insuficiente y que tiene relación con el grupo pensante puede conducir a la “extinción por instinto” y se caracterizan por: a) Débiles controles y equilibrios en el proceso, b) Ausencia o temporalmente suspendido el poder o disposición a desafiar opciones y c) La organización converge muy rápidamente en una única visión. La “extinción por instinto” resulta de una participación muy íntima o estrecha en las decisiones, la presencia de un poder muy centralizado y un estilo de liderazgo dominante. Si el gerente no es cuestionado fuertemente puede cometer graves errores. Sus colegas pueden volverse indulgentes y los grupos pensantes serán quienes tomen las decisiones. Por otra parte, un CEO dominante no puede descubrir sus errores y debilidades; esto hace que los empleados temerosos retengan la información pendiente. Para un CEO exitoso puede ser muy difícil admitir la posibilidad de error.

  2. Para disminuir este problema es necesario que el líder vele por los intereses de la organización, tenga valores éticos y capacidades cognoscitivas para tomar decisiones. Cuando la organización está siendo mal conducida por un líder, lo más recomendable es adoptar una de las siguientes estrategias: promover su salida o dejarlo que abandone la organización, intentar forzar cambios desde adentro y la lealtad para admitir las cosas tal como son. Para protegerse de los riesgos de un liderazgo dominante y evitar las trampas y tentaciones del poder absoluto se debe asegurar que ese poder nunca se vuelva absoluto, contando con personas seguras e independientes donde prevalezca el consenso y debate en cada decisión.



  1. Parálisis por análisis.

  1. La organización se somete a un intercambio casi interminable de documentos e informes entre niveles jerárquicos que discrepan fundamentalmente. Algunos consideran que saben qué deben hacer y realizan análisis para justificar así sus propuestas, pero a la hora de incluir el problema en la agenda corporativa no lo hacen porque los participantes de otros niveles se muestran indiferentes o claramente opuestos. Este análisis es la primera vía para obtener una aprobación, por ello, las personas continúan preparando más informes aunque sospechen que serán ignorados. Por otra parte, los gerentes en otros niveles les resulta más fácil inquirir por más datos en vez de rechazar categóricamente las propuestas. En las organizaciones donde el poder no se concentra en la cima, el diálogo improductivo se vuelve endémico al punto que paraliza la comunicación entre los niveles y crea una frustración general. Al final los gerentes se quejan del tiempo mal invertido en la preparación de tantos estudios y otros impugnan supuestas faltas de rigor o imaginación perpetuando un problema que no resulta tanto del estilo cognoscitivo sino que de la falta de confianza entre diferentes niveles. Es de tener en cuenta que un análisis por más creíble que sea, necesita de fuentes informales de influencia o autoridad. Los mandos medios en las organizaciones tienen un rol muy importante en las comunicaciones verticales ya que actuando como barreras ante los niveles más altos, su credibilidad dependerá de la calidad de los proyectos que apoyen. Por eso no es sorprendente que a veces soliciten más información para tomar una decisión para estar seguros de responder ante cualquier inquietud de parte de los niveles más altos. Paradójicamente los gerentes de nivel medio que fallan en exigir normas muy altas en la preparación de los proyectos pueden generar indirectamente más parálisis a medida que esos proyectos encuentran resistencia en los más altos niveles.

  2. En síntesis la “parálisis por análisis” se asocia a las personas atraídas naturalmente por los números; en cambio la “extinción por instinto”, se relaciona a los gerentes impulsivos y con estilos muy intuitivos. El exceso o poca utilización del análisis formal depende del estilo cognoscitivo de cada persona, sus aptitudes y preferencias individuales, ya sea por el pensamiento analítico o intuitivo.



  3. En el análisis cuantitativo las computadoras y los software sirven de apoyo en las decisiones, lo cual puede ser utilizado como una gran oportunidad y por otra parte implica riesgos si el análisis resultante falla. El hecho de que los gerentes y analistas dispongan de los recursos no significa que tengan las habilidades para hacerlos efectivos, ya que existe una tendencia sobre la “pobre calidad” de los análisis que aún subsiste en el mundo de los negocios.

  4. Para mejorar la calidad de análisis de los gerentes y analistas se sugiere tener en cuenta las recomendaciones que se presentan en el siguiente esquema:









  5. Esquema N° 1 Calidad de Análisis



  6. Existen muchos números disponibles para los inversionistas pero éstos resultan difíciles de interpretar, desde los relacionados con el desempeño corporativo hasta los de la economía general; y esto se debe a que los modelos funcionan únicamente cuando se adaptan a una situación en particular. Actualmente los criterios de inversión que mejor han tenido resultados vienen de quienes han reconocido que los modelos derivados del pasado ya no funcionan ni resultan relevantes.





  7. VENTAJA COMPETITIVA



  8. ¿Qué tipo de interpretación se vincula más con un alto desempeño corporativo?

  9. Al parecer las compañías más exitosas son conducidas por CEOs que tienen una mezcla paradójica de modestia y optimismo; y que no se ajusta a los estereotipos normales que creemos hace a un gran director.



  10. Los gerentes juzgan sus industrias por medio de tres elementos que le proporcionan ventaja competitiva1:

  1. Volatilidad

  1. Mide la confiabilidad de los pronósticos para determinar la magnitud de riesgo asociada a la inversión. En el mundo de los mercados financieros, la volatilidad2 es una variable con una enorme importancia. Para los operadores financieros entender la volatilidad, predecirla adecuadamente y actuar en base a esas predicciones es uno de los aspectos más importantes y complicados de su trabajo. Existen diferentes estudios sobre la volatilidad. Se considera como clave para muchas decisiones de inversión, porque ayuda a calcular el riesgo asociado a ellos o que es el parámetro más importante en la creación de productos derivados. Esta se puede interpretar como una medida de la vulnerabilidad de una economía y de sus mercados financieros. Otra evidencia de la importancia de su estimación se hace ver cuando los principales gobiernos y bancos nacionales necesitan tenerla en cuenta para muchas de sus políticas monetarias. Es de suma importancia la volatilidad en la economía y en los mercados financieros que muchos académicos y expertos en las últimas décadas han creado múltiples modelos para su modelado y predicción y es de esperar que se continúe desarrollando. Algunos modelos utilizados para medir la volatilidad son: Modelo de Volatilidad Histórica (HISVOL), familia ARCH, Volatilidad estocástica, Volatilidad implícita, entre otros.

  2. En los mercados derivados la volatilidad es clave a la hora de hacer el “pricing” sobre las opciones, donde la prima pagada depende de la volatilidad prevista para su activo subyacente. En las industrias altamente inestables las empresas invierten en muchas pero pequeñas inversiones elegidas de un conjunto de opciones muy riesgosas. Por otra parte, las más estables y predecibles, como la mayoría que pertenecen al servicio público se caracterizan por inversiones mucho más grandes debido a que los riesgos asociados en cualquier opción son relativamente pequeños. La ventaja competitiva está a favor de las segundas ya que tienen una percepción más exacta de la volatilidad al crear su cartera de opciones estratégicas.

  1. Tendencias de crecimiento.

  1. Esta determina el balance de las inversiones de su compañía ya sea entre las orientadas al crecimiento o al control de costos. El nivel de ventas de un negocio comparadas con el crecimiento de toda la industria captura el grado en el cual los clientes valoran y demandan los productos o servicios de una compañía en relación a sus competidores. De la misma forma, ese crecimiento comparado con los respectivos beneficios de operación indica el grado en que una compañía puede sostener o mejorar una ventaja de eficiencia por encima de sus competidores.

  1. Complejidad.

  1. Se relaciona con los recursos de la industria y la distribución de los mismos, determinando la interdependencia estratégica de una compañía con respecto a sus competidores. En industrias relativamente dispersas los recursos se encuentran fragmentados entre un gran número de competidores, por lo que, se centran en sus propios y característicos modelos de negocios. Contrario cuando los recursos se concentran en pocas manos, cada compañía necesita anticiparse a los movimientos de sus competidores y trabajar su estrategia.

  2. Sobreestimar la volatilidad, las tendencias de crecimiento y la complejidad generalmente conduce a un mayor desempeño que al subestimarlas. Las percepciones altamente precisas del crecimiento de la industria se asocian a beneficios menores. Por lo tanto, subestimar esas tendencias mejoran los beneficios de forma leve, mientras que sobreestimarlas conduce a beneficios más significativos. Para mejorar el desempeño corporativo de manera eficaz se debe invertir en la formación de modelos interpretativos, con el objetivo que los líderes sean optimistas ante las oportunidades y no confiar demasiado en sus capacidades por controlarlas. Una correcta orientación interpretativa, a diferencia de una información precisa, se constituye como una ventaja competitiva.



  3. RIESGOS ESTADÍSTICOS

  1. Riesgo moral.

  1. La crisis económica que surgió en los Estados Unidos de Norteamérica el año 2008 hizo que el gobierno invirtiera billones de dólares de los contribuyentes para recapitalizar a las instituciones financieras más grandes del país y dar apoyo también a otras industrias claves. Ello demuestra la magnitud en que la fatídica burbuja deformó a la economía y al sistema financiero global. Históricamente se sabe que cuando los gobiernos tomaban medidas para amortiguar las consecuencias adversas de las burbujas, en beneficio de empresas o sectores de la economía, surgía de entre los sectores más conservadores del mundo económico y financiero un gran revuelo relacionado con el riesgo moral porque esto suponía que la sobreprotección por parte de los funcionarios del gobierno solo sirve para estimular la toma de riesgos imprudentes. Sin embargo, dichos funcionarios justificaban esto diciendo que el peligro de ese riesgo moral era menor que el riesgo que la economía tendría que soportar si el gobierno no hacia algo. Curiosamente, es el mismo tipo de argumentos que se utiliza en la actualidad.

  2. Los criterios de los bancos y aseguradoras que generaron la burbuja de la crisis económica actual, han sido rescatados casi impunemente y sin costo para ellos, pero con un elevado costo para los contribuyentes. Parece ser que la falta de consenso significa más tolerancia hacia ese riesgo moral, pero sus consecuencias pueden ser más catastróficas porque cualquiera puede pensar que los CFOs ya no se molestarán en calcular los riesgos/retornos al tomar decisiones si saben que ante cualquier situación catastrófica serán rescatados. Lo anterior no necesariamente quiere decir que estamos condenados a un sistema económico de alta inflación, incontrolable y a gerentes excesivamente propensos al riesgo.

  3. ¿Puede sostenerse que exista un ambiente económico percibido como de bajo riesgo cuando eso mismo puede conducir a que muchos inversionistas asuman riesgos elevados y que sobrevaloren los activos riesgosos procurando altos retornos?3 Friedrich Hegel4, decía que los cambios cuantitativos al final devienen en cualitativos, entre más riesgo asumamos porque creemos que el ambiente esencialmente es de bajo riesgo, menos probable es que el ambiente continúe siendo de esa manera. Entre más se enfatice que el riesgo del ambiente es reducido, más se puntualiza y explica sus características y hay más inclinación a pensar que se ha comprendido hacia donde se orienta ese ambiente. Con todo lo singular y único que él pueda ser, más se debilita la normal y racional inclinación a lo que puede ser la aversión al riesgo y con ello y nuestros actos más se alteran las características de ese ambiente. Una mayor liquidez probablemente conduzca a las empresas a obtener más préstamos que antes; pero los niveles de endeudamiento significan incrementar su vulnerabilidad a los tiempos malos y a los eventos negativos dentro de un ambiente siempre cambiante. Cuando hay menos liquidez eso conduce a las compañías a prestar mucho menos que antes, reduciendo así su vulnerabilidad a los tiempos malos y a los eventos negativos del mundo volátil. Por ésta razón, la estabilidad inevitablemente conduce a su situación adversa que es la inestabilidad.

  4. Se puede decir que esa dinámica inversa es la que termina contrarrestando los efectos de los rescates en el mundo de las finanzas. Los incentivos para los gerentes se imponen ante el temor que se repita otro desastre económico relacionado con la conducta de las corporaciones y la política económica, bajo un esquema sumamente renuente al riesgo. Por otra parte, es de considerar que muchas crisis no tienen ningún precedente, por lo tanto, hay que tomar en cuenta que la historia es mucho menos relevante que antes; y puede ser preferible que las cosas continúen de la misma forma.

  5. La información que se obtiene de la industria de los productos y servicios financieros se encuentra plagada de abundantes gráficos de probabilidades que cubren los pronósticos sobre ganancias relativas y argumentos acerca de si conviene comprar o vender así como también de los beneficios de alguna operación relacionada con aspectos impositivos o regulatorios en una “short extensions”. Pero no se encuentra nada sobre los beneficios de adoptar decisiones éticas y buscar la forma de mantener la confianza de los clientes, ya que lo más importante para los clientes no consiste únicamente en la habilidad de calcular números precisos y en la configuración de gráficos y curvas, sino también de presentar facetas de carácter ético.

  1. Riesgo del modelo.

  1. Históricamente el modelo de valoración de opciones fue un problema de aproximadamente siete décadas, el cual encontró solución con la contribución de Black, Merton y Scholes por su vinculación a la importancia teórica y práctica de su método de análisis. Este modelo desde su aparición tuvo auge en el uso de derivados para diseñar innovadoras estrategias de negociación para protegerse contra los riesgos financieros o para especular con ellos en los mercados modernos, el cual ha sido reconocido como la herramienta matemática capaz de generar millones de dólares de rendimientos en períodos cortos de tiempo, pero también, como responsable de grandes pérdidas en pocas horas.

  2. Algunas catástrofes financieras5 han ocurrido por utilizar ciertos modelos matemáticos y de acuerdo a los especialistas se debe a la utilización de modelos en situaciones en las cuales no se cumplen los supuestos, se asignan todas las decisiones importantes sobre una persona, falta de conocimiento del modelo y exceso de confianza de un software, ignorando sus limitaciones. La quiebra del fondo de cobertura Long Term Capital Management (LTCM) dirigido por John Meriweather y que tenía entre sus inversores y asesores a dos premios nobel: Myron Scholes y Robert Merton, se declaro en quiebra en septiembre de 1998, teniendo que ser rescatado por la Reserva Federal Americana en una polémica decisión de su presidente Alan Greenspan. Las opiniones citadas por los expertos hicieron énfasis en que los errores cometidos por el LTCM se relacionaban al uso indiscriminado de modelos matemáticos que permitían perder de vista el tiempo en que se tarda en deshacer la posición en un mercado, y ésta variable no fue incluida en dicho modelo, así también que su tamaño desmesurado distorsionaba los precios haciendo imposible liquidarlo por su precio de mercado cuando así se considerase conveniente. Por tanto los modelos matemáticos de gestión del riesgo funcionan en condiciones normales pero dejan de hacerlo en las anormales, que es cuando realmente hacen falta y ello es debido al riesgo de liquidez, donde se volvió a repetir este problema con las fuertes caídas bursátiles del lunes 21 de enero de 2008. Sin duda, algunos casos se han debido a la ambición desmedida de poder económico. Pero indiscutiblemente no son los modelos los que fallan, sino el uso indiscriminado de ellos.

  3. El riesgo del modelo se refiere a las pérdidas monetarias producidas por el empleo de modelos matemáticos defectuosos de medición y control de inversión. Se considera un riesgo industrial de segundo orden porque se asocia con la dinámica competitiva e innovadora de los mercados de servicios financieros avanzados. El riesgo del modelo es un componente esencial en la valoración y el comercio de productos financieros “derivados”. Los profesionales de la gestión de riesgos financieros lo conocen como “riesgo de modelización” o “riesgo del modelo”6. Los expertos en riesgos financieros hacen referencia a la probabilidad de incurrir en pérdidas de negociación bursátil o “trading losses” directamente asociada con la utilización de un determinado modelo computacional de valoración de activos de capital por los gestores y operadores de un banco o sociedad de inversiones. Las metodologías para medir el riesgo tienen diversas utilidades, sirven para informar a la alta dirección sobre la tendencia en inversiones realizadas, también por agentes interesados en la gestión activa del riesgo de mercado que tienen su portafolio sometido a él. Generalmente sus usuarios son desde instituciones financieras hasta cualquier empresa de carácter no específicamente financiero. Por tanto, el valor en riesgo comunica sobre determinados tipos de riesgos financieros a las entidades y a sus grupos de interés. Con éstos modelos no se debe esperar una solución definitiva al problema que representa el riesgo del mercado, pero sí se deben considerar como un instrumento de medición que permite identificar y tomar posiciones ante dichos riesgos. La habilidad para usar opciones y otros derivados con el objetivo de manejar riesgos, es un activo muy valioso. Las innovaciones financieras se orientan hacia una efectiva compra-venta de volatilidad.

  4. Los modelos económicos tienen cuatro componentes básicos. Los “inputs”, “outputs”, “la técnica matemática y/o estadística aplicada” y los “supuestos”. Cada uno de éstos tiene vital importancia para el desarrollo del modelo y sobre todo para la lectura e interpretación final de los resultados y la elaboración de conclusiones y su análisis. Los “inputs” son las variables exógenas que alimentan el modelo y tienen impacto en los resultados finales; los “outputs” son los resultados o variables endógenas, determinadas dentro del modelo, es el producto final; la “matemática o estadística aplicada” actúa como canal conductor, es la técnica mediante la cual se procesan los inputs, fluyendo bajo ciertos supuestos para generar los “outputs”; los “supuestos” constituyen el punto de partida que sostienen al modelo y se asume como válido. Son explicaciones teóricas cuyas implicaciones se deducen de la lógica y tratan de validarse empíricamente mediante observaciones.

  5. La definición de los “supuestos” se basa sobre aspectos que tienen que ver con descripciones de conductas individuales y sociales de los agentes económicos, de comportamientos o relaciones entre variables basadas en hechos históricos: correlación, beta, entre otros. Las características de los “supuestos” son:

  • No están sujetos a deducción a partir de otros principios más básicos. Esto significa que si la teoría postula que existe una conducta o relación y la realidad lo valida razonablemente, se acepta sin pretender conocer su origen.

  • Son razonablemente verdaderos a partir de las observaciones pero no necesariamente comprobadas en su totalidad.

  • Funcionan como premisas generales en las estructuras lógicas, continuando su aplicación hacia niveles más bajos y particulares de esa estructura.

  1. Por tanto, la relevancia de los supuestos en los modelos es tan grande que un cambio o eliminación de uno de ellos deja sin efecto cualquier resultado obtenido, aunque se haya sido extremadamente preciso en la selección de los inputs e implecables en la sofisticada matemática. Los supuestos además de ser la base del modelo, actúan como límites al mismo; ya que su modificación o eliminación invalida cualquier resultado e invalida al modelo en su totalidad. Algún cuestionamiento sobre un modelo, es más probable que se deba más por la validez de un supuesto y no cómo se aplica la matemática. Hay que recordar que las conclusiones son sujetas al cumplimiento de los supuestos.

  2. Existen muy buenas herramientas económicas-financieras que usamos a diario, sin embargo, hay que ser más exigentes en la interpretación de los modelos y sus conclusiones. Ello implica no solo mirar el resultado final obtenido por las matemáticas, sino también analizar las conclusiones en un contexto que sabemos está limitado por los supuestos, sin olvidar que éstos son abstracciones simplificadoras de la realidad y que hay muchos factores que están fuera del modelo, pero incluidos en el sistema real y que no conocemos o sospechamos que existan. Lo importante de la modelización se centra en la construcción de modelos donde se realiza un estudio con el fin de obtener conclusiones aplicables al sistema real. Una vez construido el modelo, al proceso de ensayar en él una alternativa se le llama “simular”.



  3. SIMULACIÓN

  4. La humanidad siempre ha intentado adivinar el futuro, conocer con anticipación lo que sucederá ante un determinado hecho histórico. Para ello la simulación ofrece sobre ciertas bases, esa predicción del futuro, condicionada a supuestos previos. El objetivo de la simulación es averiguar qué pasaría en el sistema si acontecieran determinadas hipótesis.



  5. ¿Qué es simulación? La simulación es reproducir el ambiente, las variables (rasgos, apariencia, características, contexto) de un sistema real.

  6. En un modelo de simulación hay componentes que explican nuestra incapacidad de predecir en forma precisa un evento futuro, sus componentes son:

  • Riesgo: efecto aleatorio propio del sistema bajo análisis. Se puede reducir alterando el sistema.

  • Incertidumbre: nivel de ignorancia del evaluador acerca de los parámetros que caracterizan el sistema a modelar.

  • Variabilidad total: la combinación de riesgo e incertidumbre.

  1. Tanto el riesgo como la incertidumbre se describen mediante distribuciones de probabilidad. Por lo tanto, una distribución de probabilidad puede reflejar en parte el carácter estocástico del sistema analizado y en parte la incertidumbre acerca del comportamiento de la variable. Los resultados que se obtengan de un modelo de simulación reflejan la variabilidad total.



  2. La importancia de la simulación radica en el hecho que se puede transferir el trabajo a la computadora. Los modelos con una mayor complejidad pueden ser tratados con supuestos y obtener una representación más fiel del mundo real, que si se manejan con el análisis de la matemática pura. Al cambiar los parámetros podemos examinar las interacciones y la sensibilidad del sistema a diversos factores. Los experimentadores pueden utilizar una simulación para proporcionar una respuesta numérica a una pregunta, asignar un precio a un activo determinado, identificar la óptima configuración de parámetros controlables, examinar el efecto de variables exógenas, o identificar cuál de los escenarios es más eficiente o más rentable. Además, la variable que tiene el mayor efecto en un sistema puede ser aislada y utilizar la simulación para verificar los resultados obtenidos a partir de una solución analítica.

  1. Simulación Montecarlo.

  1. Un método muy popular es la simulación de Monte Carlo como una herramienta de investigación, que viene desde el trabajo de la bomba atómica durante la Segunda Guerra Mundial. Este trabajo involucraba la simulación directa de problemas probabilísticos de hidrodinámica concernientes a la difusión de neutrones aleatorios en material de fusión.

  2. La idea básica del método de Monte Carlo consiste en escribir la integral requerida como el valor esperado de alguna función con respecto a alguna distribución de probabilidad, lo cual sugiere una solución estadística al problema de integración. La simulación de Monte Carlo fue creada para resolver integrales que no se pueden resolver por métodos analíticos, para resolver estas integrales se usaron números aleatorios. Actualmente se utiliza para cualquier esquema que emplee números aleatorios, usando variables aleatorias con distribuciones de probabilidad conocidas, el cual es usado para resolver ciertos problemas estocásticos y determinísticos, donde el tiempo no juega un papel importante. Se le considera como una técnica cuantitativa que hace uso de la estadística y los ordenadores para imitar, mediante modelos matemáticos. Es imitar una situación del mundo real en forma matemática.

  3. La clave de la simulación Monte Carlo consiste en crear un modelo matemático del sistema, proceso o actividad que se quiere analizar, identificando aquellas variables (inputs del modelo) cuyo comportamiento aleatorio determina el comportamiento global del sistema. Una vez identificados dichos inputs o variables aleatorias, se lleva a cabo un experimento consistente en:

  1. Generar con ayuda del ordenador muestras aleatorias para dichos inputs.

  2. Analizar el comportamiento del sistema ante los valores generados. Tras repetir n veces este experimento, se dispone n observaciones sobre el comportamiento del sistema, lo cual es de utilidad para entender el funcionamiento del mismo. El análisis será tanto más preciso cuanto mayor sea el número n de experimentos que se lleven cabo.



  1. Ventajas.

  • En las finanzas, hay una buena cantidad de incertidumbre y riesgo que implica la estimación del valor futuro de las cifras o cantidades en la amplia variedad de posibles resultados. Permite equivocarse sin provocar efectos en el mundo real, ayuda a reducir la incertidumbre en la estimación de resultados futuros y puede ser aplicado en la gestión de riesgos, gestión de cartera, derivados de la fijación de precios, la planificación estratégica, planificación de proyectos, los modelos de costes y otros campos.

  • Está ampliamente disponible y es muy utilizada en áreas tan diversas, al punto que las empresas crecientemente están adoptando software que les permitan simular incertidumbres, generando miles de valores posibles para un escenario dado.

  • Se le ha considerado como el más poderoso para medir el riesgo del mercado, que incluye el riesgo de precios no lineales y el riesgo de volatilidades. De ésta forma se pueden incorporar las valoraciones de la volatilidad en el tiempo, la existencia de colas de distribuciones más altas de lo normal (the long tail) y escenarios extremos7.

  • Es particularmente útil cuando se necesita calcular el riesgo de productos financieros derivados como futuros, opciones y swaps.

  • En algunos casos la simulación es el único método disponible.

  1. Desventajas.

  • El mayor inconveniente del método es su alto costo de implementación en cuanto a su infraestructura de sistemas, además de requerir personal muy calificado.

  • Se basa en un modelo estocástico para generar el precio de los activos que componen un portafolio, así como en modelos de valoración de activos complejos como opciones o títulos hipotecarios. Esto permite que exista un cierto riesgo de modelización y para comprobar si los resultados son fiables con respecto a cambios en los modelos, los datos obtenidos de la simulación deberían complementarse con algún tipo de análisis de sensibilidad8.

  • Si no se consideran ciertas variables, éstas pueden cambiar completamente los resultados en la vida real que la simulación no previó, ya que en ingeniería los riesgos se minimizan no se evitan.

  • Cada modelo de simulación es único. Las soluciones e inferencias no son usualmente transferibles a otros problemas.

  • Para gente que aún funciona con valores únicos, es tiempo de cambiar ya su mentalidad. En tal sentido, en lugar de pedir “un valor único” en sus informes deberían mejor pedir “una distribución” para sus simulaciones.

  1. Por lo tanto, las distribuciones de probabilidad son de gran utilidad en los modelos matemáticos para predecir un evento futuro por medio de la simulación. Estas herramientas de simulación permiten administrar el riesgo y estimar los indicadores relevantes de las empresas frente a cada uno de los escenarios potenciales, determinando un rango de probables resultados.



  2. DISTRIBUCIONES DE PROBABILIDAD

  1. El promedio (Campana de Gauss).

  1. Los promedios pueden ser engañosos si no se utilizan con cuidado, esto no constituye una razón para rechazar las estadísticas. En lugar de mirar sólo un número, es necesario una serie de datos junto con la información cualitativa. Algunos ejecutivos ya han percibido la importancia de mejor actuar dentro de un rango de cifras relevantes, o sea una distribución de probabilidades, más que en valores únicos expresados por el promedio, la mediana y la moda.

  2. El promedio conocido también como media de una distribución de probabilidades, es una estimación del promedio de la población, pero al decir que es una estimación significa que está sujeta a error. La media exacta de la población no la conocemos, pero si podemos estimar entre qué límites extremos se encuentra, esto a partir de la media de una muestra y de la desviación estándar de la población.

  3. La campana de Gauss es un modelo de distribución de probabilidad descrito por el matemático y físico alemán Carl Friederich Gauss, es una curva con forma de campana también conocida como distribución normal, con eje de simetría en el punto correspondiente al promedio del universo. La distancia entre el eje de simetría de la campana y el punto de inflexión de la curva es igual a la desviación estándar de la población. El mundo en que vivimos prácticamente está regido por un patrón Gaussiano ya que se cree que es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentales:

  • Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.

  • Es límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades.

  1. El aspecto principal de la “Campana de Gauss” es que la mayor parte de las observaciones se sitúan en torno a la media, mientras que las probabilidades de una desviación disminuyen de forma cada vez más rápida (exponencialmente) a medida que nos alejamos de la media. Cuando realizamos mediciones de altura o peso, las características de éste tipo de situaciones son que cada individuo influye muy poco en el total, los extremos son raros ya que siempre existen excepciones pero a medida que nos alejamos de la media las probabilidades son menores y las consecuencias mínimas, por lo tanto, las variaciones individuales no alteran el promedio significativamente. Caso contrario ocurre cuando deseamos medir el promedio de los ingresos de las personas, debido a que la diferencia entre una persona y otra pueden ser considerablemente significativos y por consiguiente el promedio resulta ser un perfecto error.

  1. Teoría de larga cola (The long tail)

  1. Durante mucho tiempo, el sistema económico nos ha estado educando en la uniformidad, generalizando la idea de que estábamos regidos por el mismo patrón, de tal forma, que se adoptara una cultura de masas que permitiera asumir un modelo de comportamiento que giraba alrededor de un mismo patrón, que coincidía con lo más frecuente en determinado momento. La representación gráfica de esa realidad era la campana de Gauss. Sin embargo, la expresión de la ley de Pareto, un italiano, preocupado por la inequidad en su país, desarrolló una teoría que señala, entre otras cosas, que el 80% de los beneficios de las empresas están en el 20% de los clientes y productos; y que la manera más eficaz de hacer negocios era aplicando su famosa regla del 80/20.

  2. Recientemente ha tomado auge la “teoría de larga cola” que paradójicamente es una representación de la distribución de Pareto, en la cual se ha modificado su principio, es decir, la deducción. Es un concepto desarrollado por Chris Anderson que se utiliza para denominar ciertos modelos económicos y de negocios. La expresión la “larga cola o la larga estela” se utiliza, en general, para ciertas distribuciones estadísticas en las cuales la alta frecuencia o alta amplitud de las poblaciones es seguida por baja frecuencia o baja amplitud. Lo esencial de estas distribuciones es que aunque los mayores valores se concentran en unos pocos puntos, al sumar el resto de  volúmenes y concentraciones de la cola (distribución decreciente que le sigue), ésta puede llegar a ser muy significativa. Por lo tanto, la “cola” puede pesar tanto o más que la “cabeza”.

  3. Dicho de otra forma, la famosa Ley de Pareto, enuncia que la mayoría de ventas, debe ser a lo que vale la pena ponerle atención y que se encuentra en unos pocos productos demandados por muchos; en cambio con la “teoría de larga cola” hay muchas oportunidades de vender pocas cantidades a innumerables clientes y ese es un modelo que está funcionando actualmente.

  4. ¿Contradice la “teoría de larga cola” el análisis tradicional de Pareto?

  5. No, lo que pasa es que operan en condiciones muy diferentes. La “larga cola” nos dice que analizando cada uno de los productos minoritarios, parece que no vale la pena venderlos; pero si tenemos miles de estos productos  y sumamos la demanda de todos ellos, podría representar una cantidad aún mayor que la de los productos estrella, que son los que tienen una gran demanda en ese momento. La idea principal es que se cuente con una gran cantidad de productos minoritarios de tal manera que se alargue la “cola”.  La “teoría de larga cola” ha tenido vida por medio de Internet; ya que empresas como Amazon, Netflix y Rhapsody tienen bajos costos de almacenaje y distribución, lo que les permite disponer de un catálogo de productos muy amplio, que cubre una gama extensa de gustos e intereses. Tan solo en éste sentido Internet vino a cambiar la forma tradicional de entender el negocio de ventas, motivo por el cual hay que ponerle atención a Internet y a las empresas que están creciendo a través de esta valiosa herramienta.

  6. La aplicación de dicho modelo se puede ver fácilmente también en la distribución de riquezas en las sociedades humanas poco desarrolladas, donde unos centenares de miembros poseen la mayor parte del capital y el resto de la población vive en la miseria incluyendo el área de negocios.

  7. Las entidades financieras tienen una gran variedad de productos y servicios: préstamos, créditos, seguros, fondos de inversión, entre otros; con cientos de variaciones, es decir, una “larga cola”. Una minoría de estos productos son conocidos por los clientes y usuarios, pero la mayoría son ignorados y pasan desapercibidos. A veces los bancos piensan en términos tradicionales y buscan los productos estrella, las superventas, y diseñan su estrategia comercial y publicitaria focalizada en ellos, olvidando la “larga cola” de sus productos menos conocidos que podrían generar más valor que los populares. Ofrecer una mayor variedad de productos, una oferta diferente a la que ofrecen los demás, dirigida a nichos de mercado diversos, es una estrategia de negocio complementaria a la que se centra sólo en la cabeza de la curva de distribución. Los productos usuales o más populares no son los únicos, y ya no es necesario centrarse únicamente en ellos. De esta forma se puede complementar el negocio financiero clásico. Por ejemplo el Kenya, Equity Bank9 ha llegado a los segmentos no bancarizados del país, y aunque obtienen un menor margen por transacción, realizan tantas que se han convertido en un caso exitoso, brindando servicios financieros a un 94% de la población.

  8. Otra forma como se ha implementado en los negocios la “larga cola” es por medio de las iniciativas mediante móviles, que permiten llegar a toda la población y convertirse en negocios rentables a través del cobro de pequeñas comisiones, a un costo de distribución de casi cero. La “teoría de larga cola” se refleja donde unos pocos acontecimientos desastrosos son capaces de hacer la mayor parte del daño, mientras que cuanto más pequeña es la tragedia más frecuente resulta, pero menos dañina. La cantidad de daño realizada por los grandes desastres forma en el gráfico una “larga cola” que tiende al infinito, de ahí el nombre de la teoría. Estamos anclados en una mentalidad de superéxitos pensamos que si algo no es un superéxito, no se venderá y no se recuperarán los costes de su producción. Asumimos, en otras palabras, que solamente los productos estrellas merecen existir. No obstante, Van-Adibé al igual que otros ejecutivos en iTunes, Amazon y Netflix han descubierto que los “fracasados” normalmente también se venden. Y dado que hay tantos casos más en éste grupo, los ingresos correspondientes pueden rápidamente llegar a sumar y representar significativamente un nuevo mercado.

  9. Las ventajas son aplicadas de forma amplia y principalmente para la industria del entretenimiento, Hay que tener en cuenta el beneficio cultural obtenido al permitir que llegue una mayor diversidad al público y que éste sea finalmente liberado de un siglo de limitaciones impuestas por la distribución física y la tiranía de los grandes éxitos.

  10. El nuevo modelo económico de la “larga cola” cuestiona las economías de escala basadas en la escasez de oferta, transforma la tradicional curva de la demanda, pues la aplana y la prolonga casi hasta el infinito. También desafía el principio de Pareto que predomina en la vieja economía, según el cual se aplica la ley del 20-80, es decir que un 20% de los productos genera el 80% de las ventas y alarga el ciclo de vida de los productos, como bien demostró el libro “Tocando el vacío” del alpinista Joe Simpson, que pasó sin pena ni gloria por las librerías en su primera edición, pero que 15 años después se convirtió en un Best Seller gracias al sistema de libros relacionados de Amazon y a las recomendaciones de los usuarios de Internet.

  11. En los modelos financieros la polémica radica en la “cola” de las distribuciones estadísticas, en la utilización de distribuciones no normales y en la observación de la realidad implícita del mercado frente a la realidad histórica, que no ayuda a la predicción del futuro. Las colas explican los hechos inesperados en un mundo regulado o vigilado por diferentes entidades como Basilea, Bancos Centrales, Securities and Exchange Commission (SEC), The Financial Services Authority (FSA), Comisiones Nacionales de Mercados de Valores y Agencias rating.

  1. Fractales.

  1. Los modelos tradicionales de los mercados financieros no sólo muestran una visión simplificada de su funcionamiento, sino que también se basan en supuestos que no tienen fundamento empírico y en consecuencia no han sido capaces de explicar los movimientos de los mercados financieros, especialmente con los movimientos bruscos que ocurren con más frecuencia a lo predicho por los modelos tradicionales. La hipótesis de mercados eficientes presenta un mundo poblado de agentes racionales de manera agregada y que son aversos al riesgo dónde los precios de los activos reflejan toda la información disponible. A partir de esto el mercado sigue un modelo lineal, en el cual no queda memoria del pasado para justificar el uso de las estadísticas y la econometría para determinado estudio y análisis.

  2. Tim Harford10 propone como programa de la ciencia económica y de toda ciencia social, la investigación de la “elección racional”. Es cierto, que no todas las decisiones son racionales, pero la ciencia debe proceder simplificando la realidad, a fin de avanzar en la comprobación de hipótesis. Entonces al suponer que la gente hace un cálculo racional de los costos y beneficios, hay que investigar cuales son los incentivos más útiles para obtener los mejores resultados. Por lo tanto, la elección racional se refiere a que “La gente racional responde a estímulos: cuando resulta más costoso hacer algo, la gente tenderá a hacerlo menos; cuando resulta más fácil, económico o beneficioso, se inclinará a hacerlo con más frecuencia”. Cuando sopesan sus opciones, las personas tienen presentes las limitaciones globales de las mismas: no solo los costes y beneficios de una elección en particular, sino su presupuesto total. Y también considerarán las consecuencias futuras de las elecciones presentes.

  3. La suposición de que la gente es racional nos conduce a algunas teorías claras y verificables de cómo funciona el mundo. Si los índices de delincuencia son elevados en algunas zonas, entonces la teoría de la elección racional indica que allí los delitos carecen de castigo; debemos entonces buscar la manera de elevar el coste o reducir los beneficios de cometer delitos. Si los adolescentes no tienen una buena educación, la teoría de la elección racional nos dice que esos jóvenes tal vez creen que los costes de la obtención de educación son mayores que los beneficios que produce conseguirla; tenemos que determinar si tienen razón y brindarles otro tipo de estímulo. Y así sucesivamente. Una visión rigurosamente simplificada del mundo puede ser útil incluso cuando se le simplifica en exceso, porque la simplicidad hace más fácil detectar las consecuencias inesperadas de nuestras ideas, descubrir incoherencias de nuestro modo de ver el mundo y contrastar nuestras ideas con las pruebas.

  4. Con la aparición y gran desarrollo de las nuevas tecnologías, la física y las matemáticas han experimentado un gran avance, y eso ha abierto nuevas perspectivas especialmente en el mercado financiero. Una de las ramas con mayor desarrollo es la “teoría del caos” que incluye el “modelo fractal”. Benoit Mandelbrot11 creador del “modelo fractal”, establece que la naturaleza es económica y con respecto al mercado financiero señala que los precios en los mercados competitivos a veces se mueven lentamente, pero de vez en cuando se produce una gran explosión y luego de nuevo se mueven lentamente.

  5. ¿Qué es un fractal? es una estructura compuesta por pequeñas partes, las cuales son parecidas a la figura original, y se repiten en diferentes escalas, desde el nivel micro hasta el macro, bien sea en mediciones espaciales (longitud o superficie) o temporales (frecuencia). En otras palabras “un fractal contiene copias de sí mismo dentro de sí mismo”. Estamos acostumbrados a pensar en las matemáticas utilizando las formas idealizadas de la geometría de Euclides12, que tendemos a olvidar que la realidad que nos rodea como el perfil de las costas, los nervios de la hoja de un árbol, el clima, nuestro propio sistema circulatorio, son irregulares. Las superficies que tocamos son más bien rugosas y no lisas. Los “fractales” son la representación matemática, y en buena medida gráfica, de esa rugosidad de la naturaleza.

  6. Para los analistas técnicos hay una explicación racional y es que los gráficos de cotización son representaciones del cuerpo humano. Sin embargo también está la dificultad que tenemos las personas en captar con precisión formas complejas lo cual hace que intentemos simplificar las figuras reduciéndolas a formas euclidianas como: triángulos, rectángulos, etc. para poder operar en ellas con cierta fiabilidad. ¿Los mercados financieros tienen evoluciones continuas, suaves y sus movimientos diarios son independientes? o ¿son de naturaleza caótica y “fractal” que tienden a continuar tendencias una vez empezadas con abruptos movimientos?

  7. La mayoría de los economistas, cuando construyen modelos sobre el comportamiento de los mercados, tienden a eliminar las fluctuaciones importantes y dan por sentado que son anomalías. Las subidas y bajadas de los precios son, en realidad, inevitables. Lo que se lee en la mayoría de manuales de teoría económica casi no guarda similitud con lo que se observa en la realidad.

  8. De acuerdo al “modelo fractal” en la bolsa de valores las variaciones de los precios del mercado son aleatorias, pero dependientes entre si a diversas escalas temporales, particularmente las variaciones más grandes tienden a coincidir en un mismo intervalo temporal donde la distribución de probabilidad de las variaciones de los precios no es de tipo “normal” sino tipo “ley de potencia” y la propiedad importante de estas distribuciones es que los eventos con variaciones de precios muy alejadas del valor medio son mucho más probables. Por lo tanto, las variaciones de precio presentan la propiedad de auto-similitud como todos los “fractales” ya que gráficamente una variación de precios de un día presenta el mismo aspecto que una variación mensual, anual e incluso por década.

  9. En las imágenes se muestran las variaciones relativas de los precios generados con una simulación de presupuestos ortodoxos (figura Nº 1), también los precios generados por una simulación de los mercados basada en la geometría fractal (figura Nº2) y por último las variaciones de precios del modelo fractal (figura Nº 3).





  10. Figura N° 1 Figura N° 2 Figura N° 3

  11. Con el modelo fractal los precios se ajustan a la “ley de potencia” permitiendo que episodios dónde las desviaciones grandes respecto al valor medio sean mucho más habituales ya que existe una probabilidad de 1/10 ó 1/30. Contrario a la teoría estándar en la cual la posibilidad de llegar a quebrar al invertir en la bolsa es casi imposible.

  12. Un analista o inversionista que decide invertir debe tener presente que si invierte en un solo valor está corriendo un gran riesgo y por ello es mejor invertir en carteras, de tal forma que ésta cartera contenga un conjunto de valores seleccionados de forma que cuando uno caiga el otro pueda subir, y así, en promedio se compensen las pérdidas. Ésta es la clave para valorar la seguridad de una cartera, ya que en el pasado los inversionistas tendían a mantener portafolios demasiado concentrados y hasta muy recientemente se está haciendo una diversificación más amplia de los activos y una distribución ponderada por países, de tal manera, que datos recientes indican un renovado interés por acciones extranjeras.

  13. Los portafolios diversificados nacionales aumentan el riesgo completamente porque están expuestos al riesgo económico nacional y del mercado. Sin embargo, en un mercado global bien diversificado, el mercado interno tiene un mayor riesgo específico de mercado y económico, el cual varía de acuerdo al tamaño del mercado y su composición en relación al mercado global. Entonces, entre mayor es la relación del mercado global con el mercado interno y mayor la diferencia entre el mercado global y el mercado interno, mayor será la necesidad de la diversificación internacional porque el riesgo específico de un determinado mercado está sesgado al perfil de asignación de dicho mercado. La asignación internacional diversificada es necesaria para reducir el riesgo económico nacional y el del mercado incrementa el riesgo del desempeño por debajo del mercado, crea el tipo de riesgo asociado con los portafolios eficientes expuestos a acciones de riesgos específicos. Por lo tanto, la asignación global también proporciona rendimiento, así como una forma de gestionar el riesgo, capaces de gestionar esta asignación. Estos riesgos específicos no solo tienen una cartera de mercado diversificado, sino también una exposición en el mercado mundial, que expone de manera efectiva a alguna de las características de rendimiento de riesgo específico.

  14. Otra alternativa de inversión son los fondos mutuos indexados que consiste en comprar la totalidad del portafolio existente en determinado mercado de acciones. Su gran ventaja es que tiene una amplia diversificación que se constituye por el límite bien establecido de los gastos de administración que le permite reducir sus costos para alcanzar mayores beneficios y entregar todos los rendimientos posibles.

  15. Vanguard13 es una empresa dedicada a la gestión de inversión a largo plazo que está consciente que uno de los mayores enemigos de los inversionistas son los gastos. Por lo tanto, sus fondos están fácilmente disponibles, sin recargos y sin comisiones por venta ya que el papel principal de los fondos mutuos es servir a sus inversionistas, porque cuanto más tomen los administradores, menos ganancias tendrán los inversionistas.

  16. Los mercados financieros son mucho más arriesgados de lo que se estima de manera común, ya sea por la gran correlación temporal como por la relativa frecuencia de eventos catastróficos o eventos raros, por lo que, dicho riesgo debe tenerse siempre en consideración. Otro punto importante para los inversores de la bolsa es el “azar” ya que éste tiene un papel fundamental en todo lo relacionado con los mercados financieros, debido a que el precio de una acción, una opción futura o algún producto, es una cantidad completamente subjetiva que depende del valor que los compradores y vendedores le asignen. La predicción de los mercados financieros constituye la piedra filosofal buscada no sólo por los economistas sino también por algunos científicos, motivo por el cual se está utilizando cada vez más el “modelo fractal” sumado al desencadenamiento de la última crisis financiera, bajo el criterio que las hipótesis fundamentales del modelo económico estándar no están acorde a la realidad particularmente con el mercado de valores.

  17. Los mercados muchas veces no obedecen a nuestros modelos sencillamente porque la base que utilizamos en las finanzas no es la correcta. La distribución de riesgos que subyacen a los modelos utilizados para poner precio a todos los activos financieros: préstamos, bonos, acciones, pólizas de seguro, productos derivados, entre otros; son simples y generalmente subestiman el nivel de probabilidad de resultados alejados de la media esperada. Resultan equivocados por asumir la curva de distribución normal como patrón de distribución de la probabilidad de eventos futuros. La normal es una distribución adecuada para describir fenómenos dónde sólo hay para cada evento individual dos resultados posibles y en algunos juegos de azar con límites establecidos, pero no lo es para casos dónde los resultados posibles no tienen en principio límite externo alguno.

  18. Los supuestos de la hipótesis de los mercados eficientes14 de Peters aúnan realidad financiera y teoría desde la óptica de los “fractales”, sin oponerse totalmente a dicha hipótesis, intentando refinarla y adaptarla a los nuevos desarrollos en diversos campos como la física, la estadística y las matemáticas, para lograr una mejor comprensión de los movimientos en los mercados financieros.

  19. ¿Cual es la diferencia entre el modelo de Gauss y el modelo fractal?

  20. El “modelo de Gauss” tiene una noción de medio, de centro, de normalidad y todo gira en función de la normalidad, castigándose incluso a quienes se aparten mucho de esa “normalidad”. El “modelo fractal” se basa en la ley de potencias. En realidad no se puede medir un centro, porque la totalidad está cambiando continuamente y en consecuencia su media. No hay una pre-configuración a donde se quiere llegar sino que a medida que se crece o evoluciona se va configurando la figura “fractal”. Otra propiedad de los “fractales” es que no se les puede medir, ya que su medida depende de la sensibilidad del instrumento con que se mida, no es lo mismo medir el largo de una mesa con una regla, con un calibre o con un microscopio. Lo importante de esto es que si buscamos reducir la complejidad a espacios normalizados y tenemos en cuenta que hay posibilidades de que pueden llevarse a cabo “eventos raros” o nacer “cisnes negros”, nos atendremos a las consecuencias de la reducción de la complejidad efectuada. Si en cambio nos paramos en un mundo más extremista pero más real, las posibilidades del “cisne negro” estarán de alguna manera contempladas. Es recomendable utilizar la aleatoriedad “fractal” ya que ésta describe lo irregular y tiene mediciones numéricas y estadísticas que son preservadas a través de las escalas. Los “fractales” no resuelven el problema del “cisne negro” y no convierten todos los “cisnes negros” en eventos predecibles, pero mitigan significativamente el problema haciendo que tales eventos sean concebibles: los hace grises; es decir, hace que algunos cisnes parezcan posible, haciéndonos concientes de sus consecuencias.



  21. CISNE NEGRO

  22. Antes del descubrimiento de Australia, los europeos pensaban que todos los cisnes eran blancos, pero cuando desembarcaron en esas costas descubrieron que los cisnes negros eran relativamente comunes, por lo que, tuvieron que reajustar sus ideas. Esto evidencia que hay una asimetría fundamental en este problema, porque un millón de cisnes blancos no son suficientes para probar la teoría.

  23. Karl Popper15 sostiene que una teoría se mantendrá en pie hasta que sea refutada, pero no podrá demostrarse nunca que sea verdadera, ni incluso probable y las teorías se fundamentarán en conjeturas y se formularán de forma provisional. Además, su defensa por el razonamiento crítico le lleva a negar cualquier predicción sobre el progreso del conocimiento, como tampoco existen leyes que determinen la historia humana, a pesar de tantas aparentes incertidumbres.

  24. Nassin Nicholab Taleb16 sostiene que la historia no está dominada por lo predecible sino por lo altamente improbable, por los eventos no previstos denominados “cisnes negros”. Estos tienen gran repercusión ya que su incidencia produce un efecto desproporcionadamente grande, las probabilidades son imposibles de calcular porque aunque exista una pequeña probabilidad es difícil de calcularla en base a la información disponible antes de ser percibido el hecho y también tiene un efecto sorpresa ya que en un momento dado de la observación no hay ningún elemento convincente que indique que el evento vaya a ser más probable. El “cisne negro” más reciente es la crisis financiera global que comenzó en octubre de 2008, cuando las principales economías del mundo entraron en recesión y a la fecha no se sabe hasta cuando se estará hablando de depresión porque hay un decrecimiento prolongado que no se había repetido desde la crisis de 1929. Otros “cisnes negros” que han tenido una gran repercusión en la historia han sido el ataque terrorista del 11 de septiembre de 2001 en las Torres Gemelas del World Trade Center, el lunes negro del 19 de octubre de 1987 cuando la bolsa de valores de New York cayó más de 40% en un solo día y las ganancias de muchas instituciones financieras acumuladas en 50 años se perdieron en unas cuantas horas. Pero también hay “cisnes negros” positivos que le han dado forma a la historia de la tecnología, la ciencia, los negocios y la cultura. Invenciones que han cambiado el mundo como la computadora personal, el láser e Internet, son descubrimientos fruto de la investigación pero que en realidad, son accidentales y que generalmente se han dado a conocer mucho tiempo después de su descubrimiento.

  25. Identificamos los cisnes negros hasta después que ocurren y es porque el mundo está dominado por el riesgo, lo desconocido y lo improbable y el ser humano invierte mucho tiempo en lo conocido y lo trivial, se concentra en el pasado y simplifica en demasía. Conforme más aleatoria es la información, más amplias son sus dimensiones, y, por tanto, es más difícil hacer un resumen de ella. En el afán por ordenarla cada vez más se le resta aleatoriedad. De ahí la condición que nos hace simplificar los sucesos, nos empuja a pensar que el mundo es mucho más ordenado de lo que realmente es. Existe la creencia que se puede predecir el futuro, que se puede conocer lo que va a suceder en el mundo porque se considera también que el riesgo puede ser medido y gestionado.

  26. Un método que consiste en encontrar enunciados generales de leyes o teorías a partir de un conjunto de observaciones de datos particulares es la inducción17. Se basa en el hecho que entre más veces se repita un evento, éste en el futuro volverá a repetirse. La matemática estadística, el cálculo de riesgos y las distribuciones de probabilidad, resultan afectadas por el hecho de pensar que a mayor frecuencia de ocurrencia de un hecho hay menor sensibilidad frente a lo inesperado. La mente humana sufre la ilusión de que conoce lo que está pasando, la distorsión de la retrospectiva y el exceso de información. Además las simplificaciones, los esquemas mentales, la heurística, las influencias, la propia desilusión no son una molestia en el sistema cognitivo, sino una característica útil que le permite a la mente humana concentrarse en las tareas manuales y no agobiarse por una cantidad infinita de datos, sin embargo, éstos mecanismos de simplificación humana tienen su costo. 

  27. No cabe duda que la globalización tenga muchos efectos positivos, pero al analizar detenidamente los efectos de la misma, no se puede asegurar que no tenga consecuencias adversas para la economía. Actualmente se está creando un ambiente muy frágil en el cual se reduce la volatilidad con tal de brindar una ilusión de estabilidad. Ante la globalización se tiene la creación de un “cisne negro” bajo la amenaza de un colapso global ya que las instituciones financieras se han fusionado hasta el punto de que exista un número reducido de bancos de alto nivel. Esto permite que haya correlación entre todos los bancos, por lo tanto, al caer un banco caen todos, lo que indica que cada vez se sabe menos ante la posibilidad de una crisis. La gran concentración entre bancos parece crear menos probabilidades para una crisis financiera, pero cuando éstas suceden el impacto es muy fuerte y lo hacen globalmente. La diversificación de los pequeños bancos pasa a ser un sistema homogéneo de empresas que operan de forma similar, lo cual permite que haya menos crisis pero mucho más graves. Los modelos matemáticos para calcular la probabilidad de los “cisnes negros” y protegerse frente a la incertidumbre son necesarios, pero algo que no debe faltar es una buena dosis de “sentido común” ya que nunca llegaremos a conocer lo desconocido.

  1. Objetivismo y subjetivismo.

  1. Generalmente se piensa que el hecho de no ser objetivo se debe a que se está siendo subjetivo, ya que creemos en verdades absolutas o en nuestra propia imaginación. En la cultura de la ciencia se da por supuesto la existencia de una verdad absoluta desechando totalmente la subjetividad y arbitrariedad. Por otra parte, los que se identifican con el subjetivismo consideran que todo éxito sobre el objetivismo es una victoria de la imaginación sobre la ciencia.

  2. El mito del subjetivismo18 sostiene que para todas las actividades cotidianas nos fiamos de nuestros sentidos y desarrollamos intuiciones en las cuales confiar y éstas son las que mejor orientan nuestras acciones. Lo más importante en la vida son los sentimientos, las sensibilidades estéticas, las prácticas morales y la conciencia espiritual. La conciencia se logra a través de la imaginación y no de la razón.

  3. En cambio, la objetividad ignora los aspectos más relevantes de nuestra experiencia a favor de lo abstracto, universal e impersonal. No hay formas objetivas o racionales para acceder a nuestros sentimientos y sensibilidades estéticas. La ciencia no sirve cuando se trata de las cosas más importantes de nuestras vidas. Por tanto, el objetivismo y el subjetivismo necesitan uno del otro para poder existir, se contraponen. El primero toma como base la verdad científica, la racionalidad, la precisión, la justicia y la imparcialidad. Por otra parte, el subjetivismo tiene como aliados a las emociones, la imaginación, lo propiamente humano, el arte y una verdad superior. Coexisten en dominios separados ya que cada persona tiene dominios en su vida donde corresponde ser objetivo y otros donde corresponde ser subjetivo.

  1. Variables escalables y no escalables.

  1. Para tomar una decisión relacionada con la incertidumbre se debe centrar principalmente en las consecuencias que podamos conocer, más que en la probabilidad, porque las probabilidades de los cisnes negros no son computables pero si se puede tener una idea muy clara de sus consecuencias. Un error muy común consiste en confundir variables escalables y no escalables ya que desde el punto de vista matemático esto es un completo suicidio.

  2. Para efectos de identificar los términos “escalable” y “no escalable” se relaciona dicho término a las profesiones.

  • Trabajos escalables: independientemente del esfuerzo que se realice el nivel de ingresos puede ser muy elevado, profesiones dónde un único esfuerzo tendría una rentabilidad muy elevada, representando saltos cuantitativos. Se caracterizan por tener grandes niveles de incertidumbre y donde la frontera entre el éxito y el fracaso es muy clara. Ejemplos: músicos, escritores, actores, especuladores.

  1. El esfuerzo de escribir un libro es el mismo si lo lee una persona que si lo leen veinte millones y por tanto los ingresos serán totalmente diferentes.

  2. Las profesiones “escalables” están orientadas al individualismo, al golpe de suerte, a la disparidad entre esfuerzo y recompensa, con la característica de que unos pocos son los que se llevan la mayor parte del pastel y el índice de fracasos en las profesiones de éste tipo es mucho mayor que en las profesiones de tipo no escalable.

  • Trabajos no escalables: son aquellos que están sometidos a la gravedad, todo tipo de profesiones en los que el tiempo limita el nivel de ingresos. En este tipo de trabajos la constancia y cantidad de trabajo serán proporcionales a los ingresos. Son entornos de baja incertidumbre donde cada uno es dueño de sus acciones. Ejemplos: los dentistas, cocineros, consultores, masajistas, entre otros. Un dentista sólo puede atender un número determinado de pacientes.

  1. El trabajo “no escalable” requiere sacrificio, habilidad manual, fuerza de voluntad, organización, dedicación, formación continua, capacidad de análisis y solución de problemas y trabajo en equipo.

  2. Para no hacer mal uso de las distribuciones estadísticas, principalmente en los modelos matemáticos de finanzas se deben tener en cuentas las siguientes características:





    1. Mediocristan

    1. Extremistan

    1. No escalable

    1. Escalable

    1. Leve aleatoriedad

    1. Extrema aleatoriedad

    1. La mayoría se inclina a la media

    1. No se inclina a la media

    1. Ganador se lleva una pequeña porción

    1. El ganador se lleva todo

    1. Histórico

    1. Moderno

    1. Sujeto a la amortiguación

    1. Sujeto a la aceleración

    1. Físico

    1. Informativo

    1. Total= muchos eventos pequeños

    1. Total= un par de grandes eventos

    1. La tiranía de la colectividad

    1. La tiranía de lo accidental

    1. Fácil de predecir

    1. Difícil de predecir

    1. Rastreo histórico

    1. Salto histórico

    1. Curva de Gauss

    1. Curva de Pareto



















  3. Tabla N° 1. Características de Mediocristan y Extremistan

  4. Extremistan, es un escenario donde se dan de forma natural los “eventos raros” o “cisnes negros” y usar una distribución gaussiana se debe considerar en definitiva un fraude intelectual, en donde el mundo es injusto. Alguien que apenas es marginalmente mejor que otros se queda con todo, dejando a los demás con nada. Los resultados aleatorios, o una situación arbitraria, puede también explicar el éxito y proveer el empuje inicial que conduzca a un resultado de tipo "El ganador se queda con todo". Una ventaja inicial sigue a uno a través de la vida. Análogamente, es más fácil para el rico volverse más rico, y para el famoso volverse más famoso. El fracaso también es acumulativo: los perdedores probablemente seguirán perdiendo en el futuro. La suerte es el gran igualador, porque casi todos pueden beneficiarse de ella. Es mucho más igualitaria que incluso la inteligencia, la gente no elige sus habilidades. El azar19 tiene el efecto beneficioso de barajar las cartas de la sociedad.

  5. Sucesos extraños tan impactantes ocurren con mayor frecuencia de la esperada, por tanto, en el mercado financiero es posible obtener ganancias importantes mediante la compra de opciones “deep out of the money”, las cuales son muy baratas, las pérdidas son mínimas por muchas veces y proporcionan un retorno espectacular si los mercados se distorsionan. A este tipo de ganancias se les conoce como escalables. En ninguna parte es más relevante el problema de la “inducción” que en el de la intermediación bursátil, pero cabe destacar que en ninguna parte ha sido tan ignorado como en ésta.

  1. Falacias lógicas.

  1. Por lo tanto, los humanos tenemos dificultades para identificar los eventos con escasísimas probabilidades de ocurrir o basados puramente en el “azar”, porque nos enfrentamos a muchos problemas relacionados con la formación del conocimiento e interpretación de la información. Estas reciben el nombre de “falacias”.

    1. Falacia narrativa.

  1. Consiste en construir una idea o un modelo y tomarla como una realidad, sin comprobarla del todo. El ser humano tiene una debilidad por aferrarse a historias muy cerradas y compactas, interpretar las cosas de manera exagerada; es decir, a reducir el mundo a construcciones ideológicas simples. Esto es perjudicial sobre todo cuando ocurre un “evento raro”, basta un solo evento o una sola observación para tirar abajo una teoría científica o social, una política económica, una forma de gobierno, un movimiento, etc.. Esta falacia distorsiona severamente nuestra representación mental del mundo. Surge de una necesidad biológica por reducir la dimensionalidad de un problema al punto que resulta difícil ver una secuencia de hechos y hacer una interpretación o buscar un enlace lógico entre ellas. La percepción de causación tiene un fundamento biológico ya que es el hemisferio izquierdo el encargado de realizar las conjeturas porque allí se encuentra el lenguaje, la deducción y la interpretación de patrones. Por lo tanto, la propensión a imponer significado y conceptos bloquea nuestra consciencia de los detalles que hacen a esa construcción. Sucede por fuera de nuestra consciencia. La percepción de patrones se incrementa con la concentración de dopamina en el cerebro por lo que una alta concentración disminuye el escepticismo.

  2. La información tiene una relación a favor de la “falacia narrativa”, las razones son:

  • Es difícil de obtener y hay que almacenarla.

  • Es difícil almacenar, cuanto más ordenada más fácil resulta almacenarla en la mente.

  • Es difícil de manipular y recuperar.

  • Comprimir es vital para el trabajo realizado conscientemente.

  • Un patrón es más compacto que la información plana, entonces almacenar el patrón parece ser más eficiente.

  • Cuanto más aleatoria sea, mayor será su dimensionalidad y más difícil de resumirla.

  • Cuanto más resumida esté, más ordenada estará porque la misma condición que nos hace simplificar nos empuja a pensar que el mundo es aleatorio.

  1. La narratividad puede afectar el recuerdo de eventos pasados al recordar más fácilmente aquellos hechos que encajan en una narrativa, y descuidar los que no parecen jugar un rol causal en dicha narrativa debido a que la memoria es una máquina de revisión dinámica ya que la última vez que recordamos un evento y sin darnos cuenta, modificamos la historia en cada recuerdo subsiguiente.

  2. La “falacia narrativa” debido a que surge de una necesidad biológica está relacionada con las dos formas de pensar, el “experiencial o Sistema 1” y el “cognitivo o Sistema 2”.

  3. Sistema 1”, es automático, rápido y opaco. Es la intuición, es altamente emocional, precisamente porque es rápido, y produce atajos llamados heurísticas, que nos permiten funcionar con rapidez y efectividad. Reside en el sistema límbico del cerebro. Reacciona ante un peligro antes incluso que la persona sea consciente de este, reside en la parte cortical del cerebro. “ Sistema 2”, es el pensamiento. Requiere esfuerzo, es lento, serial, progresivo, y consciente. Comete menos errores ya que uno sabe como obtuvo el resultado, y uno puede retroceder los pasos necesarios para corregir el razonamiento de forma adaptativa. En el “Sistema 1”, Aprendemos por repetición, a costa de los eventos que no han sucedido antes. Los eventos que no son repetibles son ignorados antes de que ocurran, y sobreestimados por un tiempo después de que ocurren. Luego de un evento raro, como el del 11 de Septiembre de 2001, la gente espera que vuelva a ocurrir cuando en los hechos las posibilidades que se llevara a cabo fueron reducidas. Nos gusta pensar en cisnes negros específicos, cuando la misma naturaleza de la aleatoriedad reside en su abstracción. La forma de escapar a la falacia narrativa es favoreciendo la experimentación sobre la narración, la experiencia sobre la historia y el conocimiento clínico sobre las teorías. Otra forma también es por medio de las predicciones testeables sin olvidarse de llevar la cuenta de ellas.

  4. 3.2 Falacia tendencia a la confirmación.

  5. Cuando la mente actúa como una especie de máquina confirmadora que repite todo lo que uno quiere creer, estamos ante un problema conocido como sesgo o “tendencia a la confirmación”.

  6. En un análisis reciente20 de estudios psicológicos con casi 8,000 participantes se concluyó que la gente tiene dos veces más probabilidades de buscar datos que confirmen sus creencias que de considerar pruebas que pudieran contradecirlas porque sencillamente es mejor centrar nuestra atención en datos que apoyen nuestra hipótesis, en lugar de buscar pruebas que posiblemente la desmientan.

  7. La “tendencia a la confirmación” contamina también a los inversionistas profesionales. Para contrarrestarla se recomienda utilizar las siguientes técnicas:

  • Imaginar que a través de una bola de cristal se mira que la inversión se ha venido abajo, para luego buscar las razones más convincentes que expliquen ese fracaso. Dicho ejercicio puede contribuir a darse cuenta que las convicciones no pueden ser tan sólidas como se cree.

  • Predecir las probabilidades de que el análisis es incorrecto. Por ejemplo imaginarse que se calcula una probabilidad del 20% de que se registrará un resultado adverso, lo que equivale a decir que una de cada cinco veces no se tendrá razón. De ésta forma si la inversión fracasa, se tendrá menos disposición a probar que se tenía razón. Este método provee una excusa psicológica para admitir que se está equivocado.

  1. Confeccionar un portafolio imaginario junto al portafolio real y comprar o vender sin restricciones, sin riesgo alguno de sufrir pérdidas. En Southeastern Asset Management es obligatorio que todos sus analistas y gestores de fondos operen un portafolio en papel y justifiquen cualquier diferencia entre sus activos ficticios y las apuestas que hacen para la firma en el mundo real. Esto ayuda a ver lo que la gente piensa realmente. Luchar contra la “tendencia a la confirmación” es una lucha interminable, pero si no se puede vencer la propia mente, no existe posibilidad de vencer al mercado.
  2. 3.3 Falacia de la evidencia silenciosa.


  3. Percibimos únicamente lo que tiene éxito, lo visible y que ha podido sobrevivir. Este sesgo se debe a la diferencia entre lo que se ve y lo que realmente hay, se cae en un error sistemático de mostrar al fenómeno estudiado teniendo un efecto más positivo o negativo del real. Los historiadores y científicos sociales en general no toman en cuenta la evidencia silenciosa, en cambio los periodistas son productores industriales de ésta distorsión. El efecto de “El ganador se lleva todo”, se da cuando por cada famoso hay miles de talentos que son completamente desconocidos porque no llegaron al público. Se han realizado muchos estudios con el fin de identificar las características del éxito de grandes millonarios, realizando un muestreo en base a los millonarios pero ignoran totalmente a las personas con las mismas características a la población de los millonarios. Cuando lo que realmente separa a unos de otros es el azar o pura suerte. Otro efecto de ésta falacia es que cuanto mayor es el impacto de un riesgo, mejor se esconde, debido a que aquellos que han sido severamente dañados serán eliminados de la evidencia.

  4. La toma de decisiones se realiza de acuerdo a ciertas posibilidades, teniendo en cuenta las consecuencias obvias y visibles, cuando las no visibles y menos obvias suelen ser más significativas. Las consecuencias positivas de una acción se hacen visibles, pero no así las negativas. Una aplicación se puede observar en las medidas de protección del empleo, dónde se hace ver el efecto que tiene sobre aquellos que mejoran su estabilidad y condiciones laborales, pero permanecen ocultas las consecuencias sobre quienes buscan trabajo y no encuentran al disminuir la oferta laboral. Por lo tanto, las estadísticas son visibles y las anécdotas salientes. Para un sobreviviente el hecho de que haya sobrevivido es una condición que debilita la interpretación de las propiedades del proceso, incluyendo la noción superficial de “causa”. Las probabilidades se deben determinar desde el punto que comenzaron todos los participantes del juego y no desde el punto ventajoso del que resulta exitoso. No es fácil encontrar el porqué mirando hacia atrás como hace la historia. Las causas existen, pero no son simples, por lo que debemos formular nuestros "porqué" con moderación y a través de la experimentación.

  5. 3.4 Falacia post hoc ergo propter hoc.

  6. Siempre buscamos explicación a todo, creyendo que todas las causas son identificables y creyendo la explicación más contundente como la razón de lo ocurrido dejando de pensar en otras posibilidades. La falacia “post hoc” se basa en la idea de que cualquier acontecimiento que sucedió primero debe ser el evento particular que causó un acontecimiento bueno o malo después.

  7. Correlación no implica causalidad, porque la primera es necesaria pero no suficiente para establecer una relación causal. La correlación se da cuando dos o más eventos tienden a producirse al mismo tiempo y podrían estar asociadas entre sí, pero no están necesariamente conectados por una relación causa-efecto. Generalmente la causalidad es más difícil de lo que parece. La correlación implica causalidad cuando los datos obtenidos de la correlación se han recopilado por medios experimentales con el cuidado adecuado para evitar la confusión y otras amenazas a la validez interna del experimento. Frecuentemente se cae en el error de buscar una relación causa-efecto, un “porque”.

  8. Un estudio descrito por Steven D. Levitt y Stephen J. Dubner21, durante los años 80, en el cual los criminólogos predijeron una imparable ola de delincuencia juvenil. No obstante, durante la primera mitad de los años 90, se desplomaron los índices delictivos. Los expertos, policías, jueces y políticos que antes auguraron la hecatombe, luego asumieron múltiples explicaciones sobrevenidas como la educación, la bonanza económica, éxito en la represión, estrategias policiales y penitenciarias, incremento de efectivos, envejecimiento de la población y leyes más estrictas sobre armas de fuego. Sin embargo la variable de mayor efecto causal fue la legalización del aborto en 1970, tras el famoso caso Roe vs. Wade en la Corte Suprema. Con ésta legalización se logró que no nacieran niños no deseados ya que un niño que crece sin la educación adecuada o abandonado, sin la protección de los padres, en un orfanato, en una familia no estructurada, etc. tiene más probabilidades de delinquir en un futuro que uno que carezca de estos problemas. Realmente un dictamen cruel sobre una situación del pasado ya que “la moralidad es el mundo como nos gustaría, pero la economía muestra el mundo como es”.

  9. La correspondencia entre abortos en los años 70 y el descenso de la criminalidad en los años 90 se valida con historias contrapuestas como el caso del dictador comunista rumano Nicolai Ceaucescu, que con su prohibición del aborto provocó el aumento drástico de nacimientos. Años después esas personas nacidas gracias al dictador provocarían una revuelta en contra de la mala dirección de gobierno de Ceaucescu, en la que acabó muerto por los mismos; se puede afirmar que murió por la acción de aprobar una ley veintidós años antes. Cada decisión, cada palabra puede tener efecto en nuestro futuro. Los efectos drásticos frecuentemente tienen causas lejanas. La determinación de la naturaleza de la causalidad es muy difícil. Los seres humanos parecen estar dispuestos a asumir que los acontecimientos que están estrechamente vinculados, ya sea espacial o temporalmente también están conectados causalmente. Muchas veces se supone que un evento causa a otro y resulta que ambos son efecto de un tercer evento y éste tercer evento es causa común de los otros dos.

  10. ¿Cómo podemos estar absolutamente seguros de que una correlación entre dos eventos indica una relación causal? No podemos, el conocimiento proporcionado por el método científico no es absolutamente cierto. La ciencia nos obliga a permanecer abiertos a la posibilidad de que nuevas pruebas provocarán un cambio en lo que sabemos y creemos. La ciencia no nos permite caer en la complacencia, suponiendo que ya sabemos todo.







































































  11. CONCLUSIONES



  12. Para los profesionales de finanzas o gestores de negocios, existen diferentes herramientas efectivas para desarrollar modelos de análisis a las cuales se les puede obtener el máximo provecho, pero es nuestra responsabilidad la interpretación integral de los resultados y conclusiones. No hay que rechazar las finanzas cuantitativas sino ser honesto acerca de sus límites, porque los modelos tienen su lugar pero deben ir acompañados de un enfoque más subjetivo del riesgo, tales como pruebas de estrés y planeamiento de escenarios. Las medidas de sensibilidad buscan comprender mejor como se podrían comportar las medidas de riesgo y los modelos de gestión de riesgo dentro de unos mercados volátiles donde se pueden desintegrar las relaciones históricas.



  13. Algunas crisis financieras se relacionan con el riesgo moral y es porque algunos gerentes en el afán de incrementar la rentabilidad, han asumido riesgos de gran magnitud olvidándose de la ética y como consecuencia los gobiernos han tenido que recapitalizar a dichas instituciones. Sin embargo, es de tener en cuenta también que entre más riesgo se asuma creyendo que el ambiente es de bajo riesgo, menos probable es que éste continúe de la misma manera, ya que la estabilidad conduce a la inestabilidad; la cual explica la forma de superar los efectos de los rescates financieros.

  14. Cada uno de los elementos de los modelos económicos son de vital importancia: inputs, output, técnica matemática y los supuestos. Estos últimos deben ser considerados como la base y a la vez límites del modelo; ya que al obviar, modificar y agregar uno de ellos, su impacto es determinante en los resultados.

  15. A la mayoría de los participantes del mercado parece encantarles el concepto de normalidad porque una distribución de Gauss es fácil de modelizar y justificar y generalmente están relacionados con la normalidad, pero existen otros modelos que se ajustan a la realidad y en especial para la inversión de productos financieros, dónde se hace uso de matemáticas mucho menos tradicionales como la geometría fractal , puesto que las distribuciones siguen una ley de potencia, que por cierto han dado origen a tantas ideas económicas importantes como la regla del 80-20 de Wilfredo Pareto y la más reciente larga cola de Anderson.



  16. En el modelo de la campana de Gauss, las probabilidades de una desviación decrecen exponencialmente en la medida que nos alejamos del promedio. Esta declinación nos permite ignorar a los valores extremos.



  17. En el modelo de Mandelbrot de variaciones escalables, la velocidad del decrecimiento de la probabilidad es constante, las nociones de desviación estándar, correlación y regresión no existen. La correlación tiene una inestabilidad severa, depende del período considerado, y es distinta en subperíodos del mismo período. Lo mismo pasa con la desviación estándar, cada subperíodo tendrá una desviación distinta a la del período mayor
  18. Los cisnes negros se han caracterizado por ser sucesos improbables con consecuencias de gran magnitud. Los hay positivos y negativos y cada uno de ellos han marcado la historia de nuestro mundo, los cuales han sido explicados posteriormente de manera que lo imprevisible se acople a un modelo perfecto el cual no ha tomado en cuenta el azar. La dificultad para identificar los cisnes negros se debe a que los humanos nos empeñamos en investigar lo conocido y se nos olvida identificar las oportunidades, ya que contamos con una serie de falacias lógicas que nos permiten: simplificar, narrar, confirmar, entre otras; y difícilmente dedicamos tiempo para imaginarnos lo imposible. Por lo tanto, hay que protegerse de los cisnes negros negativos y a la vez beneficiarse de los positivos.















































  19. BIBLIOGRAFIA

1 The High Cost of Accurate Knowledge; K.M. Suttcliffe & K. Weber, May 2003




2 Sistema Univariante y Multivariante de Predicccion de la Volatilidad para Mercados Financieros; Laurentino Fernández Butragueño

Madrid, septiembre de 2008




3 The Moral Hazard Economy; HBR; Julio-Agosto 2009




4 Wissenschaft der Logik: Hegel, Georg Wilhem Friedrich, 1812-1816




5 Monografias de Juan Mascareñas sobre Finanzas Corporativas: Otros tipos de riesgo; Universidad Complutense de Madrid

Febrero de 2008




6 Model Risk; Emanuel Derman, 1996




7 Valor en riesgo: El nuevo paradigma para el control de riesgos con derivados; Philippe Jorion, 2000





8 Riesgo de mercado y de crédito: Un enfoque analítico; José Luis Martín Marín, Antonio de la Torre Gallegos, María Dolores Oliver, 2000




9 Datos obtenidos de http://technology.cgap.org.





10 La lógica oculta de la vida; Tim Harford, 2007




11 The (Mis) behavior of Markets: A Fractal View of Risk, Ruin, and Reward.
Benoit Mandelbrot and Richard L. Hudson, 2004


12
 Los Elementos: Geometría de Euclides, postulada por Euclides es aquella que estudia las propiedades del plano y el espacio tridimensional.


13
 La Inimitable Habilidad de reconocer lo Evidente; John C. Bogle, 15 de octubre de 2005.



14
 Chaos and order in the capital market;, Peters, Edgar E. (1991)



15
 The Open Society And Its Enemies; Vol. I y II



16
 The Black Swan; Nicholas Nassin Taleb, 2007

Random House, New York


17
 Problems of philosophy; Bertrand Russell.



18
 Two Myths: Objetivism and Subjetivism; University of Chicago Press, 1980. 



19

¿Existe la suerte? Nassin Nicolas Taleb

Editorial Paidos



20
 How to Ignore the Yes-Man in Your Head; JasonZweig, http://online.wsj.com/article



21
 Freakonomics; Steven D. Levitt y Stephen J. Dubner

Grupo Zeta




Compartir con tus amigos:
1   2


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

enter | registro
    Página principal


subir archivos