Vistas de página en total

sábado, 28 de abril de 2012


fuente:
http://www.bbc.co.uk/mundo/noticias/2011/11/111116_algoritmic_trading_tecnologia_mr.shtml

La tecnología que mueve las bolsas

Un corredor de bolsa en el New York Stock Exchange
Adam Smith apostó por una mano invisible; otros, por el criterio de corredores de bolsa calculadores. En la actualidad, ni la invisibilidad ni la frialdad humana parecen ser las fuerzas que rigen los mercados: muchas de las operaciones bursátiles están a cargo de computadoras.
En la búsqueda de la productividad y la eficiencia en el sector financiero, varias bolsas en el mundo realizan un significativo porcentaje de sus operaciones a través del llamado algorithmic trading.
Se trata de un método que se base en algoritmos, los cuales como explica Javier Santomá, profesor de Gerencia Financiera de IESE Business School, no son más que métodos matemáticos de resolución de problemas.
Funcionan como programas de cómputo que han sido diseñados para enviar órdenes de compra y de venta de acciones.
"Se introduce una serie de reglas en una computadora y se deja que se ejecuten automáticamente de acuerdo con parámetros que previamente se han establecido", le explicó a BBC Mundo, Luis Raúl Rodríguez, director de análisis de la Casa de Bolsa Finamex.
Las reglas pueden ser, por ejemplo, que si el precio de una acción X cae al nivel Y, hay que vender, o que si el precio del petróleo subió 3% hay que comprar 100.000 acciones de Z.

Menos personas

"Estos algoritmos son capaces de escuchar, analizar y entender gran cantidad de información y pueden automáticamente responder a eventos del mercado en tiempo real en forma instantánea y continua"
Casa de Bolsa Finamex, México
La consigna es delegar las operaciones bursátiles a modelos informáticos en vez de a personas.
"Estos algoritmos son capaces de escuchar, analizar y entender gran cantidad de información y pueden automáticamente responder a eventos del mercado en tiempo real en forma instantánea y continua", señala en su página web Casa de Bolsa Finamex.
De acuerdo con Rodríguez, con el uso de este tipo de métodos se eliminan los factores emocionales que pudieran afectar las transacciones.
"Normalmente, las personas -incluso los inversionistas de valores más profesionales- están muchas veces guiadas por sus emociones. Un error muy típico que cometemos los traders es que dejas que el precio (de una acción) siga cayendo con la esperanza de que va a rebotar (que se va a recuperar). Algunos llegan al extremo de que meten más dinero con la esperanza de que (el precio) va a rebotar", indicó el economista.
Ese "error muy típico" al que hace alusión Rodríguez puede llevar a que se pierda el doble.
También hay circunstancias que aunque puedan parecer una tontería, como reflexiona el profesor Santomá, son fundamentales.
"Este tipo de software te permite salir de la oficina e ir a comer y si durante tu ausencia se producen las condiciones, la orden se ejecuta. Antes, estábamos acostumbrados a que cuando llegaba la información, la mirabas, la discutías con el jefe y tomabas la decisión a las 2:05 mientras que otros lo hacían a las 2:10", indicó el docente a BBC Mundo.

Ventajas

Un corredor de bolsa en el New York Stock Exchange
Hasta el 70% de los intercambios de Wall Street son ejecutados por las llamadas black box (cajas negras) o algo-trading.
En el mundo financiero, el algorithmic trading ha ganado miles de seguidores.
Uno de los beneficios de ese método, es que se pueden hacer muchísimas más operaciones en cuestión de segundos.
"Es mucho más barato poner un algoritmo a funcionar que tener a cuatro o cinco personas trabajando y analizando qué va a pasar, qué comprar, cómo vender", explicó Rodríguez.
Una de las razones por las cuales surgen sistemas automatizados en las bolsas es porque se busca utilizar la información que llega de diferentes fuentes financieras de la forma más eficiente posible.
"Y ser el más eficiente es ser el primero", dijo Santomá. "Si soy el primero en usar esa información, seré el primero en comprar o en vender y probablemente tendré más margen en el cambio de precio".

Desventajas

Una desventaja evidente es que las máquinas no tienen criterio.
"Si llegas a programar un error, lo van a ejecutar, o si se cae la red o el sistema, te dejan muy vulnerable", señaló el economista mexicano.
"Ha llegado a pasar que, por ejemplo, por alguna razón no se actualizan los tipos de cambio o algún dato básico para que se lleve a cabo el algoritmo, las operaciones se siguen ejecutando y puedes llegar a perder dinero", enfatizó Rodríguez.
Por eso, es clave que alguien lo esté revisando constantemente.

Crisis

"En mercados financieros, solemos decir que la decisión de último momento es muy mala, pues está influida por factores psicológicos"
Javier Santomá, IESE Business School
De hecho, las operaciones bursátiles ejecutadas por computadoras han sido vinculadas a algunas de las crisis bancarias, como por ejemplo la de 1987.
"Efectivamente en aquellos momentos, estábamos hablando más del automated trading (comercio automatizado) que del algorithmic trading", recuerda Santomá.
"Cuando el Dow Jones bajó 500 puntos, había muchos programas de software que decían que si eso pasaba había que vender. De forma automática, hubo una avalancha de órdenes tremenda que lo único que hicieron fue producir otra caída de 500 puntos, con lo cual volvieron a reaccionar los software", dijo el experto.
Fue así como para algunos, el famoso Viernes Negro tuvo sus orígenes en un proceso de cómputo, mientras que para otros, hubo otras variables más importantes que intervinieron en la estrepitosa caída.
Más recientemente, en el llamado Flash Crash (Desplome Repentino) del 6 de mayo de 2010, una caída de cinco minutos en los mercados generó un momento de caos generalizado.
Un operador fue acusado de una caída del 10% en el índice Dow Jones, pero en realidad el culpable fue un programa informático que el operador estaba utilizando.
En sólo 20 minutos el algoritmo vendió 75.000 acciones por un valor de US$4.300 millones, haciendo que otros algoritmos lo siguieran.
"Cuando apagaron los pilotos automáticos y frenaron los sistemas, se restauró el orden y el mercado se recuperó en cuestión de media hora", señaló el experto en Economía de la BBC Richard Anderson.

Futuro

Pero ¿es positivo que se deshumanicen las bolsas de esta manera?
"Sí lo creo. No es sólo positivo sino que es una tendencia global. La competencia entre las casas de bolsa va a ser cada vez más fiera, por eso la tendencia es moverse hacia servicios más eficientes y que les cueste menos a los clientes", dijo Rodríguez.
Una opinión parecida la tiene, en España, Santomá, para quien la deshumanización no tiene que ver con los instrumentos que se usan, sino con los criterios que se aplican.
"Se trata de aprovechar la veracidad de cálculo y de reacción. Hay aspectos muy positivos en el automated trading y en el algorithmic trading. Si los programas son buenos, en el fondo son reglas de decisión que (un experto) ha tenido que formalizar. No tienen que ver con si te levantas de buen humor o de mal humor", indicó el profesor.
Y a quien piensa que una orden se pudo haber frenado si hubiese habido una intervención humana, Santomá tiene una teoría: "en mercados financieros, solemos decir que la decisión de último momento es muy mala, pues está influida por factores psicológicos. Por eso, recomendamos que las decisiones se tomen separadas de la situación actual".

Efectos del modelo Black_Schole en las crisis financieras

fuente:
http://www.bbc.co.uk/mundo/noticias/2012/04/120427_economia_formula_crisis_economica_tsb.shtml

La fórmula matemática acusada de destruir la economía mundial

Ola de números
Algunos culpan a la ecuación Scholes-Black de precipitar la crisis económica global.
No todos los días ocurre que alguien formula una ecuación que puede transformar el mundo. Pero a veces sí ocurre, y el mundo no siempre cambia para bien. Algunos creen que la fórmula Black-Scholes y sus derivadas ayudó generar el caos en el mundo financiero.
La fórmula se escribió por primera vez en los primeros años de la década de 1970, pero su historia comienza muchos años antes, en el mercado de arroz de Dojima en el siglo XVII en Japón, donde se escribían contratos de futuros para los comerciantes del arroz. Un contrato de futuros simple dice que una persona acordará comprar arroz de otra persona en un año, a un precio que acuerdan al momento de la firma.
En el siglo XX, la Bolsa de Comercio de Chicago era el lugar para que los comerciantes negociaran no sólo futuros sino contratos de opciones. Un ejemplo de esto último es un contrato en el que se acuerda comprar arroz en cualquier momento durante un año, a un precio convenido con la firma, pero que es opcional.
Es posible imaginarse por qué uno de estos contratos puede ser útil. Si alguien tiene una cadena grande de restaurantes de hamburguesas, pero no sabe cuánta carne necesitará comprar el próximo año -y está nervioso de que el precio pueda subir- entonces lo único que tiene que hacer es comprar unas opciones en carne.
Pero eso genera un problema: ¿Cuánto debería estar pagando por esas opciones? ¿Cuánto valen? Es precisamente acá donde puede ayudar la fórmula revolucionaria Black-Scholes.

El precio de una hamburguesa

"El problema que trata de solucionar es definir el valor del derecho, pero no de la obligación, para comprar un activo particular a un precio específico, dentro de un periodo determinado o al final de él", dice Myron Scholes, profesor de finanzas de la Facultad de Negocios de la Universidad de Stanford, en Estados Unidos, y -por supuesto- coinventor de la fórmula Black-Scholes.
Wall Street
La llegada de los sistemas cuantitativos transformó a Wall Street.
Una parte del rompecabezas era la pregunta del riesgo: el valor de una opción para comprar carne a un precio, digamos, de US$2 por un kilo depende del precio de la carne y cómo ese precio se está moviendo.
Pero la conexión entre el precio de la carne y el valor de la opción de la carne no varía de una manera sencilla. Depende de qué tan probable sea la utilización de la acción. Eso, a su vez, depende del precio de la opción y del precio de la carne. Todas las variables parecen estar enredadas de manera impenetrable.
Scholes trabajó en el problema con su colega, Fischer Black, y descubrió que si alguien tiene el portafolio de carne correcto, además de las opciones para comprar y vender carne, esa persona tiene un portafolio excelente y totalmente sin riesgos. Como ya conoce el precio de la carne y el precio de los activos libres de riesgo, si mira la diferencia entre ellos puede calcular el precio de esas opciones de carne. Esa es la idea básica. Los detalles son excesivamente complicados.

En la tienda de dulces

El método Black-Scholes resultó ser una forma no sólo para calcular el valor de las opciones pero también todo tipo de activos financieros.
"Éramos como niños en un almacén de dulces, en el sentido que describíamos opciones en todos lados, las opciones estaban presentes en todo lo que hacíamos en la vida", dice Scholes.
Pero Black y Scholes no eran los únicos niños en la tienda de dulces, dice Ian Stewart, cuyo libro argumenta que la Black-Scholes fue una invención peligrosa.
"Lo que hizo la ecuación fue darles a todos la confianza para comerciar con opciones y, de manera muy rápida, con unas opciones financieras mucho más complicadas, que se conocen como derivadas financieras", dice.
Pero a medida que los bancos y fondos de cobertura se basaron cada vez más en sus ecuaciones, se hicieron más y más vulnerables a los errores o simplificaciones en las matemáticas.
"La ecuación se basa en la idea de que los grandes movimientos son en realidad muy, muy raros. El problema es que los mercados reales tienen estos grandes cambios mucho más a menudo de lo que este modelo predice", dice Stewart. "Y el otro problema es que todo el mundo está siguiendo los mismos principios matemáticos, por lo que todos vamos a obtener la misma respuesta."

La llegada de los genios

¿La culpa fue de las matemáticas?

Lehman Brothers
Ian Stewart afirma que la ecuación Black-Scholes cambió el mundo. ¿Pero realmente cree que las matemáticas causaron la crisis financiera?
"Fue el abuso de su ecuación lo que causó el problema, y yo no creo que se puede culpar a los inventores de una ecuación, si alguien viene y lo utiliza mal", dice.
Black-Scholes cambió la cultura de Wall Street, que pasó de ser un lugar donde las personas comerciaban con base en el sentido común, experiencia e intuición, a un lugar donde la computadora decía sí o no.
Pero en realidad, ¿es justo culpar a Black-Scholes por lo que siguió?
"La tecnología Black-Scholes tiene reglas y requisitos muy específicos”, dice Scholes.
"Esta tecnología atrajo o hizo que los bancos de inversión contrataran a personas que tenían habilidades cuantitativas o matemáticas. Eso lo acepto. A continuación, desarrollaron productos y tecnologías propias."
No todas las tecnologías posteriores, dice Scholes, eran lo suficientemente buenas. "[Algunas] tenía supuestos equivocados, o utilizaban datos de forma incorrecta para calibrar sus modelos, o las personas que utilizaban los modelos no sabían cómo hacerlo".
Scholes argumenta que no hay vuelta atrás. "La cuestión fundamental es que las tecnologías cuantitativas en las finanzas sobrevivirán y crecerán, y seguirán evolucionando con el tiempo", dice.
El trabajo de Scholes había inspirado a una generación de genios matemáticos de Wall Street, y en la década de 1990, él ya era un jugador en el mundo de las finanzas, como socio de un fondo de cobertura llamado Long-Term Capital Management.
"La idea de esta empresa era que iba a basar sus transacciones en principios matemáticos, tales como la ecuación de Black-Scholes. Y realmente fue un éxito sorprendente, al comienzo", dice Stewart. "Fue superando a las compañías tradicionales muy notablemente y todo se veía bien."
Pero no terminó bien. Long-Term Capital Management se encontró con, entre otras cosas, la crisis financiera rusa. La empresa perdió US$ 4 mil millones en el curso de seis semanas. Fue rescatada por un consorcio de bancos que habían sido reunidos por la Reserva Federal. Y - en el momento – se convirtió en una noticia muy, muy grande. Todo esto sucedía en agosto y septiembre de 1998, menos de un año después de Scholes había sido galardonado con el premio Nobel.

Lecciones

Stewart dice que las lecciones del caso Long-Term Capital Management son evidentes. "Se demostró la peligrosidad de este tipo de transacciones basadas en algoritmos si no se vigilaban algunos de los indicadores de que las personas más convencionales utilizaban", dice. "Ellos [Long-Term Capital Management] se comprometieron a seguir adelante con el sistema que tenían. Y salió mal."
Scholes dice que eso no es lo que sucedió en absoluto. "No tuvo nada que ver con las ecuaciones y nada que ver con los modelos", dice. "Yo no estaba manejando la empresa, permítanme ser muy claro al respecto. No existía la capacidad para soportar el choque que se produjo en el mercado en el verano y otoño de finales de 1998. Así que fue sólo una cuestión de la asunción de riesgos. No fue una cuestión de modelos".
Esto es algo que la gente se sigue discutiendo una década después. ¿Fue el colapso de Long-Term Capital Management el fracaso de los métodos matemáticos para las finanzas o, como dice Scholes, fue simplemente un caso de operadores financieros que tomaron demasiado riesgo contra el mejor juicio de los expertos matemáticos?
Diez años después de Long-Term Capital Management, Lehman Brothers se derrumbó. Y el debate sobre Black-Scholes es ahora un debate más amplio sobre el papel de las ecuaciones matemáticas en las finanzas.

miércoles, 18 de abril de 2012

Qué son los Fibra y los CKD

http://www.elfinanciero.com.mx/index.php?option=com_k2&view=item&id=15467&Itemid=44

Francisco Ibáñez Cortina

Francisco Ibáñez Cortina es
socio de Consultoría, líder
de la práctica de
Infraestructura, Gobierno y
Servicios Públicos en PwC
México. Cuenta con más de 18
años de experiencia
profesional. En los últimos
años se ha especializado en
la estructuración de

proyectos de Asociación
Público
Privada (PPS) para el
desarrollo de infraestructura
en sectores no tradicionales
(transporte, educación,
salud, prisiones). En este
espacio encontrarás análisis
y comentarios sobre las
asociaciones público

Instrumentos financieros

Miércoles, 18 de Abril de 2012 (06:00)

En el sexenio que termina este año la existencia de instrumentos financieros en el mercado local, como los Certificados de Capital de Desarrollo (CKD) o los Fideicomisos de Inversión en Bienes Raíces (FIBRAS) han permitido que el desarrollo de infraestructura en México haya presentado otro rostro, aunque se requieran adecuaciones para que el número de obras proyectadas y realizadas sea mayor y el presupuesto medio de inversión en infraestructura como porcentaje del PIB vaya más allá del 4.6% estimado para el periodo 2002-2012, el cual es más de un punto superior al del periodo anterior.

El Fondo Nacional de Infraestructura desde su creación en 2008 ha apoyado a más de 22 proyectos de infraestructura y ha participado en 5 CKDs.

Los proyectos se han realizado entorno a 6 rubros:

· Carreteras (13)

· Plastas tratadoras de aguas residuales (5),

· Transporte urbano,

· Residuos sólidos

· Turismo

· Desarrollos urbanos integrales sustentables (1 cada rubro).

En junio de 2009 se emitió la regulación en el régimen de inversión de las Administradoras de Fondos para el Retiro (Afore) para permitir la adquisición de CKDs. Desde ese entonces se han colocado 19 CKDs por un monto de 40,000 millones de pesos, de ellos 11,875 millones se emitieron en 2009 con cuatro instrumentos, en 2010 se colocaron poco más de 21,700, millones con 9 instrumentos y en 2011 6 emisiones por un monto de 6, 422, millones.

Las variaciones en las inversiones indican que se requieren modificaciones para que la tendencia de colocación vaya a la alza.

Se deben proponer cambios para aprovechar los más de 110,000 millones de dólares que administran las Afores (hasta noviembre de 2011), cifra que equivale a 10.7% del PIB. Los cambios también son necesarios para los FIBRA, que en 2004 tuvieron modificaciones fiscales para su promoción. No debemos olvidar que México podría subir 30 posiciones en el Índice de Competitividad Global del Foro Económico Mundial (World Economic Forum), si invirtiera 6% del PIB en infraestructura.

Contacto


viernes, 13 de abril de 2012

Acerca del mercado interno.


Alejandro Gómez Tamez

Licenciado en Economía por el
ITESM Campus Monterrey,
Alejandro Gómez Tamez es M.A.
Development Policy and Public
Administration, por University
of Wisconsin
Madison. Actualmente es
director general del Grupo
Asesores en Economía y
Administración Pública

(GAEAP). Su blog aborda
diversos temas financieros y
macroeconómicos. La coyuntura
deja de serlo en este blog,
que trata los temas más
candentes y actuales de la
economía y las finanzas para
analizarlos a fondo, desde un
punto de vista documentado y
crítico.

Poder adquisitivo y mercado interno

Viernes, 13 de Abril de 2012 (06:00)

Ante los nuevos escenarios de debilitamiento global, se ha vuelto fundamental que las naciones apuesten por el crecimiento de su mercado interno. Y es que los mercados para las exportaciones pueden representar un importante riesgo para las empresas que dependen en exceso de sus ventas al exterior.

Ya vimos que en el año 2009 la economía mexicana fue de las que más sufrió la crisis financiera internacional precisamente porque las exportaciones nacionales representan el 28% del Producto Interno Bruto (PIB) nacional. Y las perspectivas para 2012 no son muy favorables para el comercio internacional, lo cual se constata al ver que la Organización Mundial de Comercio (OMC) ha señalado que la tasa de crecimiento del comercio cayó a un 3.7% en lo que va de 2012, cifra inferior al 5.0% observada en 2011 y 13.8% observada en 2010.

¿A qué se debe lo anterior? En parte a que la mayoría de las economías de Europa se encuentran estancadas, mientras que el crecimiento económico estadounidense es aun débil y con facilidad se podría descarrilar. Y es que la región asiática es la que tiene las perspectivas menos desfavorables a nivel global, ya que de acuerdo con en Banco Asiático de Desarrollo (BAD, ésta crecerá a una tasa de 6.9% en 2012; y en específico se espera que China crezca este año un 8.7%, mientras que la India eleve su producción en 7%.

Con respecto a China cabe destacar que el Banco Mundial ya advirtió que esta economía podría desacelerarse abruptamente y dijo que Beijing debería estar preparado para iniciar un nuevo programa de estímulo su fuese necesario.

En este orden de ideas resulta indispensable que las naciones vean hacía adentro y procuren que los mercados que se pierdan en el exterior sean compensados con ventas en el interior. Esto no implica renunciar a la actividad exportadora, es simplemente una precaución para así evitar caídas mayores en la producción y en el empleo.

Así pues, una condición fundamental para el crecimiento del mercado interno es que el número de personas trabajando y/o el poder adquisitivo de éstas aumente, ya que de esta manera la demanda interna será mayor, las empresas disminuirán inventarios, aumentará la producción y se contratará a más trabajadores, con lo que disminuirá el desempleo. Pero si por el contrario, el número de trabajadores disminuye y/o el poder adquisitivo cae, pues entonces la demanda interna no será suficiente y las empresas se vuelven más dependientes del exterior con la consecuente vulnerabilidad ya explicada ante el debilitamiento de las principales economías del mundo.

En este orden de ideas, a continuación expondré la evolución de cinco indicadores que nos darán luz respecto a lo que ha sucedido con el mercado interno y poder adquisitivo en México durante los últimos años: la Población Económicamente Activa (PEA), la Población Ocupada, la Población Desocupada, el monto del salario promedio de cotización de los trabajadores registrados en el IMSS y el monto del salario mínimo.

De acuerdo a cifras publicadas por el Instituto Nacional de Estadística y Geografía (INEGI), en el año 2006 en México había una PEA de 43,915, 000 personas y una población desocupada que sumaba 1 millón 573, 000 personas, por lo que la Tasa de Desocupación (TD) fue de 3.6% en promedio.

Para el año 2011 (ultimo dato disponible publicado) la PEA de México había aumentado a 49, 170,000 personas y la población desocupada llegó a 2, 561,000 personas, por lo que la TD fue de 5.2%. Esto implica que en el periodo de 2006 a 2011 la población ocupada en México creció en 10.1% al pasar de 42, 342,000 a 46, 609,000 personas; mientras que los desocupados se elevaron en 62.8% al pasar de 1, 573,000 a 2, 561,000 personas. Así pues, en términos nominales vemos que creció más la población ocupada (+4, 267,000) que los desocupados (+988,000), lo que haría que por mero incremento de fuerza laboral el mercado interno mexicano se elevara.

¿Pero que pasó con los ingresos de la población ocupada? En los dos primeros meses del año 2006 el salario base promedio de cotización en el IMSS fue de $199 pesos a nivel nacional y el salario mínimo ascendía a $47.00 pesos en promedio a nivel nacional. En los dos primeros meses de 2012 el salario base promedio de cotización en el IMSS fue de $260.25 pesos a nivel nacional, mientras que el salario mínimo fue de $60.50 pesos en promedio a nivel nacional. Lo anterior implica que en términos nominales entre el 2006 y el 2012 el salario promedio base de cotización en el IMSS creció 30.8%, mientras que el salario mínimo se elevó 28.7%.

Estas cifras harían parecer que el mercado interno mexicano se ha visto muy fortalecido, pero la realidad es que hay que ajustar estos incrementos nominales en el ingreso por la inflación registrada en el periodo. Si tomamos en consideración que entre febrero de 2006 y el mismo mes de 2012 los precios (medidos a través del Índice Nacional de Precios al Consumidor –INPC-) se elevaron 29.3%, pues resulta que en el periodo de referencia el salario promedio base de cotización en el IMSS sólo se elevó 1.1% en términos reales, mientras que el salario mínimo perdió el -0.5% de su poder de compra.

Todo lo anterior implica que (si asumimos la misma composición de número de salarios mínimos percibidos en promedio por persona ocupada entre el 2006 y el 2012) que lo único que ha“fortalecido” al mercado interno mexicano es el incremento en el número de personas trabajando, pero que por cuestión de remuneración no ha habido una mejoría en el mercado interno nacional. Es decir, México tiene un mercado interno grande simplemente porque somos muchos mexicanos, no porque en promedio estemos ganando más que hace 6 años.

Desafortunadamente en el sitio web del INEGI ya no están disponibles las estadísticas de porcentaje de población ocupada por nivel de ingreso, y este dato hubiese sido muy útil para conocer si hubo un incremento o decremento en el mercado interno porque ahora haya un mayor o menor porcentaje de personas ganando más de tres salarios mínimos que antes. Otro aspecto a considerar es que el número de trabajadores asegurados en el IMSS a nivel nacional es de apenas 15.5 millones, mientras que la población ocupada es de 46.6 millones de personas.

A lo que este análisis debe llevarnos es que México tiene un mercado interno que crece de manera inercial (por el mero crecimiento de la población ocupada), y no existen políticas que hagan que los niveles de ingreso de la población crezcan año con año de manera sistemática.

Es fundamental pues que ante el entorno externo cada vez más complicado se implementen políticas que fortalezcan el mercado interno de forma más efectiva, y entre dichas políticas podemos encontrar el tener un tipo de cambio más competitivo (que refleje el valor verdadero de peso y elimine el nivel actual de sobrevaluación) para evitar que sigamos siendo inundados de importaciones de productos que podemos fabricar de manera eficiente en la economía nacional; realizar las reformas estructurales que le den más competitividad y permitan mayor inversión privada en México; erradicar la corrupción y abatir la delincuencia; elevar la productividad de la mano de obra brindando acceso a las micro, pequeñas y medianas empresas a financiamiento para la adquisición de bienes de capital a tasas preferenciales; entre muchos aspectos más.

Es importante darle un fuerte impulso al mercado interno, ojala que el gobierno federal y los representantes del Poder Legislativo así lo entiendan.


Director General GAEAP*

alejandro@gaeap.com

miércoles, 11 de abril de 2012

Keen vs Krugman

http://www.jornada.unam.mx/2012/04/11/opinion/026a1eco

Keen versus Krugman
Alejandro Nadal


La blogósfera está llena de referencias al debate entre Steve Keen y Paul Krugman. Es un duelo apasionante sobre el funcionamiento de una economía capitalista, la inestabilidad y la crisis. El primero piensa que para analizar una economía capitalista se necesita un modelo macroeconómico que incluya a los bancos y el proceso de creación monetaria. El segundo considera que eso es innecesario. Cualquiera que siga de cerca la polémica cambiará su forma de pensar las relaciones económicas más fundamentales de nuestra sociedad.

Keen es profesor de economía de la Universidad de Sydney y autor de uno de los libros más populares de crítica a la teoría económica. Krugman está en la Universidad de Princeton y recibió el Nobel de economía. El debate tiene profundas implicaciones para la teoría y la política económica. Es esencial para comprender el papel del sector financiero y la naturaleza de la crisis global. También revela con claridad las limitaciones de la teoría económica convencional, la que aprendieron los tecnócratas e ideólogos del neoliberalismo.

La discusión comienza con un ensayo de Steve Keen (disponible en ineteconomics.org) sobre la inestabilidad del sistema financiero. Uno de los puntos sobresalientes de ese análisis es que los bancos privados pueden hacer crecer la oferta monetaria en respuesta a la demanda de fondos por parte de consumidores, empresarios o especuladores. Desde esta perspectiva, la inversión no es financiada por ahorro, sino por el otorgamiento de crédito por los bancos. La oferta monetaria no se decide fuera del sistema económico (por ejemplo, por el banco central), sino que responde a la demanda endógena de actores como empresas, consumidores o especuladores.

Esta perspectiva ya se encuentra en la obra de Joseph Schumpeter, uno de los economistas más importantes del siglo XX y maestro de Minsky. Este autor se pregunta ¿de dónde provienen los recursos para que un empresario pueda instalar nueva capacidad productiva? La respuesta convencional es que provienen de los ahorros, pero Schumpeter encuentra que eso es insuficiente y que existe otro método que consiste en la creación de poder de compra por los bancos. Es decir, no se trata de trasladar un poder de compra previamente existente, sino de crear nuevo poder de compra de la nada.

Lo anterior puede sorprender a primera vista. Los economistas neoclásicos (Krugman no es excepción) están convencidos de que en una economía capitalista, primero hay agentes que ahorran y depositan sus ahorros en los bancos. Acto seguido, los bancos realizan su trabajo de intermediación y prestan esos recursos. Esta es la teoría de los fondos prestables: en una economía siempre hay agentes que ahorran y agentes que demandan esos ahorros para invertir o consumir. Los bancos fungen como intermediarios y ponen de acuerdo a estos agentes. La tasa de interés es el precio que compatibiliza la oferta y demanda de crédito. Mucha gente cree que el mundo funciona de esta manera. Se equivocan.

Siguiendo a Minsky-Schumpeter, Keen señala que la inversión es financiada no a través de un ahorro previamente existente, sino por la expansión de la oferta monetaria asociada al otorgamiento de créditos a empresas, expansión que es acompañada del aumento de endeudamiento. Así, la demanda agregada en economía capitalista-monetaria crece porque existe una forma de financiamiento del gasto agregado y porque algunos agentes o sectores pueden financiar su gasto a través de la emisión de deuda. Esta es la teoría monetaria endógena. El trabajo de Keen estaría incompleto si no tuviera una sólida base empírica para confirmar su perspectiva analítica.

Krugman ha respondido (krugman.blogs. nytimes.com) que poco le importa lo que dijo o quiso decir Minsky: estamos haciendo teoría económica, no estudios talmúdicos. Según él, cuando un agente ahorra y presta sus ahorros (por la intermediación de un banco) la demanda agregada permanece inalterada. La reducción en la demanda (debido al ahorro) se compensa con el aumento de la demanda derivado del empleo de los recursos prestados. Por eso el endeudamiento no es importante en el modelo de Krugman. Hay que añadir que en su modelo los mercados convergen al equilibrio siempre y cuando no existan rigideces en el ajuste de precios y fricciones en el ajuste de cantidades.

Steve Keen ha puesto a Krugman en su lugar y ha botado la visión neoclásica a la basura. También ha sentado las bases para una nueva interpretación de la crisis y para repensar las respuestas de política macroeconómica para enfrentarla. Todo esto sirve para atraer la atención sobre un hecho fundamental que permanece escondido (en parte por la estupidez y complicidad de buena parte de la comunidad académica): la creación monetaria no es potestad privativa del banco central, sino que está en manos de los banqueros. A ellos les conviene el endeudamiento creciente (sus ganancias aumentan en paralelo). Conclusión: urge recuperar el control social de la creación monetaria.