miércoles, 27 de mayo de 2015

Hipótesis de los tres sectores



La Hipótesis de los tres sectores es una teoría económica que divide las economías en tres sectores de actividad: la extracción de materias primas (primario), la manufactura (secundario), y los servicios (terciario). Fue desarrollada por Colin Clark y Jean Fourastié.
De acuerdo con esta teoría el principal objeto de la actividad de una economía varía desde el primario, a través del secundario hasta llegar al sector terciario. Fourastié vio el concepto como esencialmente positivo, y en la La Gran Esperanza del Siglo XX escribe sobre el aumento de la calidad de vida, la seguridad social, el florecimiento de la educación y la cultura, una mayor cualificación, la humanización del trabajo y el evitar el desempleo.
Los países con una baja renta per cápita están en un estadio temprano de desarrollo; la mayor parte de sus ingresos nacionales son a base de la producción del sector primario. Los países con un estadio más avanzado de desarrollo, con ingresos nacionales intermedios, obtienen sus ingresos del sector secundario principalmente. En los países altamente desarrollados con elevados ingresos, el sector terciario domina las salidas totales de la economía.

Ley de hierro de los sueldos

La ley de hierro de los sueldos, también conocida como ley de bronce de los salarios, fue una teoría económica expuesta por algunos economistas clásicos a finales del siglo XVIII y principios del siglo XIX, según la cual los salarios reales tienden "de forma natural" hacia un nivel mínimo, que corresponde a las necesidades mínimas de subsistencia de los trabajadores. Cualquier incremento en los salarios por encima de este nivel provoca que las familias tengan un mayor número de hijos y por tanto un incremento de la población, y el consiguiente aumento de la competencia por obtener un empleo hará que los salarios se reduzcan de nuevo a ese mínimo.

Ley de Engel

La ley de Engel es una observación empírica, realizada por primera vez por el estadístico alemán Ernst Engel (1821-1896), que observó que, con un conjunto dado de gustos y preferencias, si aumentan los ingresos, la proporción del ingreso gastado en alimentos disminuye, aún cuando es probable que el gasto real en alimentación aumente en términos absolutos . En otras palabras, la elasticidad ingreso de la demanda de alimentos es menor que 1.
La ley de Engel no implica que el gasto de alimentos se mantenga sin cambios a medida que aumenta la renta, sino que sugiere que los consumidores aumentan sus gastos de alimentos, en proporción, menos de lo que aumentan sus ingresos.
Una consecuencia de esta ley es la pérdida de importancia de la agricultura a medida que un país se enriquece, cuando la demanda de los productos alimenticios no crece al mismo ritmo que la renta nacional. Una aplicación estadística muy controvertida del porcentaje de gasto dedicado a alimentos, es tratarlo como un reflejo del nivel de vida de un país. Si la proporción del "Coeficiente de Engel" es alto, significa que un país es pobre. Por el contrario, si este coeficiente es bajo, denota que nos encontramos ante un país rico.
Al respecto J. M. Mulet expresa que "quizás ello [en relación a una inversión de un porcentaje bajo de los ingresos en alimentación] explique que no apreciemos lo que supone comer todos los días, porque en general, en los países ricos es algo barato"

MODELO MUNDELL-FLEMING

El modelo Mundell-Fleming es un modelo económico desarrollado por Robert Mundell y Marcus Fleming. El modelo es una extensión del modelo IS-LM. Mientras que el tradicional modelo IS-LM está basado en una economía de autarquía (o una economía cerrada), el modelo de Mundell-Fleming trata de describir una economía abierta.
Típicamente, el modelo Mundell-Fleming describe la relación entre el tipo de cambio nominal y la producción de una economía (a diferencia de la relación entre la tasa de interés y el output en el modelo IS-LM) en el corto plazo. El modelo Mundell-Fleming se ha utilizado para argumentar que una economía no puede simultáneamente mantener un tipo de cambio fijo, libre movimiento de capitales y una política monetaria autónoma. Este principio frecuentemente se llama "La trinidad imposible", "La trinidad irreconciliable", o el "triángulo de la imposibilidad"

Ley de la controversia de Benford

La ley de la controversia de Benford es una ley sociológica aplicable especialmente a las discusiones de los foros de Internet, aunque puede aplicarse en general a todo tipo de discusiones entre humanos.
En su formulación original, tal y como la enunció el autor de ciencia ficción Gregory Benford en la novela Cronopaisaje (1980), establece que:
"La pasión asociada a una discusión es inversamente proporcional a la cantidad de información real disponible."
Está fuertemente relacionada con el Efecto Dunning-Kruger.

LEY DE HOTELLING

La ley de Hotelling es la observación, en economía, de que en multitud de mercados es racional para los productores hacer sus productos tan similares como sea posible. A este fenómeno también se le conoce como el principio de mínima diferenciación, e igualmente como el "modelo de ciudad lineal" de Hotelling. La observación fue hecha por Harold Hotelling (1895–1973) en su artículo "Estabilidad en Competencia" publicado en la revista científica Economic Journal en 1929.
El fenómeno opuesto es la diferenciación de producto, que suele considerarse como una ventaja en los negocios si se ejecuta adecuadamente.

JEAN FOURASTIÉ

Jean Fourastié (Saint-Benin-d' Azy, 15 de abril de 1907 - Douelle, 25 de julio de 1990) fue un economista francés, conocido, en particular, por haber acuñado la expresión "Treinta Gloriosos", así designando el período próspero que conoció Francia desde el final de la Segunda Guerra Mundial hasta el primer choque petrolífero (1947-1973).
Fue profesor del 'Conservatorio Nacional de Artes y Oficios' así como del 'Instituto de Estudios Políticos de París', director de estudios políticos de la 'Escuela Práctica de Altos Estudios', consejero económico y técnico de la 'Comisaría General del Plan (1946-1967)', miembro del 'Comité Nacional de Precios (1949-1967)', y miembro del 'Instituto de Francia (Academia de Ciencias Morales y Políticas)' elegido en 1968

TRAMPA DE LA LIQUIDEZ

El término trampa de la liquidez es empleado en la teoría económica para describir una situación en la que los tipos de interés se encuentran muy bajos, próximos a cero en el que la preferencia por la liquidez tiende a hacerse absoluta, es decir las personas prefieren conservar todo el dinero antes que invertirlo, por lo que las medidas tendientes a aumentar la masa monetaria no tienen ningún efecto para dinamizar la economía y las autoridades monetarias no pueden hacer nada para llevar la tasa de interés a un nivel adecuado.
En este caso, se ha sostenido, el aumento de dinero en circulación no tiene ningún efecto sobre la producción o los precios, en contraste con la sugerencia derivada de la teoría cuantitativa del dinero, que sostiene que los precios y la producción son, en términos generales, proporcionales a la cantidad de dinero. La teoría de la trampa de la liquidez es originalmente una propuesta keynesiana, que incluye como solución ante una situación semejante la realización de las inversiones públicas necesarias para conseguir el pleno empleo, aprovechando que el gobierno puede en un momento así tomar dinero prestado a tasas de interés ínfimas.
Lo anterior ha sido descrito como significando que “La curva de preferencia de liquidez se hace infinitamente elástica, debido a la esperanza unánime, por parte de los inversionistas, de que el tipo de interés no puede bajar más, el precio de los títulos valores son tan altos que nadie confía en que sigan subiendo. Como consecuencia de ello, todo el mundo prefiere poseer dinero ocioso y la política monetaria no sirve para nada.”, o “Esto se produce cuando los tipos de interés son tan bajos que los agentes sólo pueden esperar que suban en el futuro. El bajo nivel de los tipos hace que retener activos líquidos en vez de invertirlos tenga un bajo coste. Por otra parte, no sería cauto invertir en bonos, pues su precio es ya muy elevado debido a la caída de tipos, y la previsible subida de éstos en el futuro haría perder valor a la cartera del inversor. Como consecuencia, las inyecciones de liquidez se atesoran en vez de destinarse a la inversión productiva, siendo por completo inefectivas.”
En otras palabras, se postula que en estas situaciones la política monetaria se vuelve inservible para estimular la actividad económica.

TERCERA VÍA

Tercera vía es el nombre que se ha dado a una variedad de aproximaciones teóricas y propuestas políticas que, en general, sugieren un sistema económico de economía mixta, y el centrismo o reformismo como ideología. En la práctica política, estas posiciones rechazan la validez absoluta de las filosofías tanto del laissez faire como del mercado totalmente controlado del marxismo-leninismo (consultar "Condición de Samuelson"); promueven la profundización de la democracia, y enfatizan el desarrollo tecnológico, la educación, y los mecanismos de competencia regulada, a fin de obtener progreso, desarrollo económico, desarrollo social, y otros objetivos socio-económico-políticos igualmente importantes. Las filosofías de la tercera vía han sido a menudo descritas como una síntesis del capitalismo y el socialismo por algunos de sus proponentes.
Dado que el término no se define específicamente, se puede hablar de "terceras vías" en el sentido amplio o en el más estricto de la palabra. La diferencia estaría en que el sentido amplio incorporaría cualquier proposición que buscara obtener o mantener una posición equidistante tanto del comunismo como del capitalismo, a través ya sea de una economía mixta o políticas que rechacen esas percepciones extremas. Sin embargo, no todas esas alternativas pueden ser catalogadas como progresistas sino también algunas deben ser definidas como fuerte o abiertamente reaccionarias.
Consecuentemente, el análisis político moderno hace notar que la tercera vía no debe confundirse con el concepto tercera posición o tercerposicionismo, que es como se autodefinen movimientos diversos que son considerados de orientación fascista o neofascista, opuestos tanto al capitalismo como al socialismo y que no admiten su posicionamiento en el espectro político izquierda-derecha. La tercera vía se suele calificar, por el contrario, de centrista. No obstante, algunos críticos de la tercera vía han utilizado ese paralelismo de terminología.
En la práctica política, los proponentes de la tercera vía en su sentido estricto van desde muchos que apoyan la socialdemocracia a aquellos que apoyan el liberalismo progresista; incluiría también aquellos que proponen la Economía social de mercado, proyecto que busca explícitamente ser un punto medio entre el liberalismo y la socialdemocracia.

TEORÍA GENERAL DEL EMPLEO, EL INTERÉS Y EL DINERO

La Teoría general del empleo, el interés y el dinero es considerada la obra más destacada del economista británico John Maynard Keynes.
En gran medida, creó la terminología de la moderna macroeconomía. Se publicó en febrero de 1936, en una época marcada por la Gran Depresión. El libro desencadenó una revolución en el pensamiento económico, comúnmente denominada la "Revolución Keynesiana", en la forma en la que los economistas pensaban en el fenómeno económico, y especialmente en la consideración de la viabilidad y conveniencia de la gestión del sector público del nivel agregado de la demanda en la economía.
En el libro de Keynes, «Ensayos en Persuasión», el autor recordó sus frustrados intentos por influir en la opinión pública durante la Gran Depresión, a comienzos de los años treinta. La "Teoría General", representó los intentos de Keynes para cambiar la opinión general en el pensamiento que existía en el entorno macroeconómico.

TEORIA DEL SEGUNDO MEJOR

La Teoría del Segundo Mejor, Teoría Del Segundo óptimo, Teorema de la segunda opción (Theory of the Second best en inglés) es uno de los teoremas económicos más importantes avanzados en la segunda mitad del siglo XX. El teorema fue introducido formalmente por Richard Lipsey y Kelvin Lancaster en su "The General Theory of the Second Best" en 1956.
"El teorema establece que si una de las condiciones necesarias para lograr un Óptimo de Pareto no es obtenible, las otras, a pesar de ser teóricamente posibles, dejan de ser deseables. En otras palabras, si una de las condiciones para lograr el óptimo de Pareto no es lograble, sólo es posible conseguir un óptimo abandonando las otras condiciones. El óptimo así logrado puede ser llamado el Segundo Mejor porque se logra sujeto a un constreñimiento que, por definición, previene el logro de un óptimo de Pareto." (Lipsey y Lancaster, op. cit)
Alternativamente, se ha sugerido que “En breve, esta teoría establece, sobre las bases de un argumento matemático, que en una situación concreta caracterizada por cualquier desviación del optimo perfecto, medidas parciales que eliminan solo algunas de esas desviaciones del arreglo optimo pueden resultar en una disminución neta del bienestar social” (nótese que esto no implica que la aproximación a las reformas no deba ser parte por parte o paulatina. “Propondría, en su lugar, que uno debe evitar aproximaciones poco a poco a mejoras que no han sido avaladas por un análisis cuidadoso y el uso extensivo del sentido común. Se podría esperar plausiblemente que muchas políticas produzcan una mejora a pesar que las cosas en otras partes no estén organizadas óptimamente").
O, en las palabras de Robert J. Bloomfield (profesor de economía y administración en la Universidad de Cornell) el teorema "prohíbe" interpretaciones y/o propuestas simplistas: "La teoría general del segundo mejor dice lo siguiente: si usted tiene varias imperfecciones en el mercado, eliminar sólo una de ellos no mejora necesariamente la eficiencia asignativa. Ahora bien, la teoría no es muy popular, a pesar de que es ampliamente reconocida como verdadera, porque no permite argumentos simples. Una regulación que se ocupa de un problema evidente, como la contaminación, no es necesariamente positiva, porque podría tener consecuencias no intencionales que sean peores que el problema que se está tratando de arreglar. De la misma manera, la eliminación de una regulación que obstaculice la libertad no es necesariamente positiva, ya que puede ser esencial para contrarrestar otra imperfección, conducuiendo a un resultado peor con menos libertad"

TEORIA DEL EQUILIBRIO GENERAL

La teoría del equilibrio general es una rama de la teoría microeconómica. La misma trata de dar una explicación global del comportamiento de la producción, el consumo y la formación de precios en una economía con uno o varios mercados.
EL equilibrio general intenta dar una explicación de lo particular a lo general (bottom-up), comenzando con los mercados y agentes individuales, mientras que la macroeconomía, según lo expresado por los economistas keynesianos, emplea una visión de lo general a lo particular (top-down), donde el análisis comienza por los componentes más destacados. Sin embargo, muchos modelos macroeconómicos tienen un 'mercado de bienes' y estudian, por ejemplo, su interacción con el mercado financiero. Los modelos generales del equilibrio suelen incluir diversos mercados de bienes. Los modelos generales modernos del equilibrio son complejos y requieren computadoras para ayudar a encontrar soluciones numéricas.
En un sistema de mercado, los precios y la producción de todos los bienes, incluyendo el precio del dinero y el interés, están relacionados. Un cambio en el precio de un bien, por ejemplo el pan, puede afectar otro precio (por ejemplo, los salarios de los panaderos). Si el gusto del pan depende de quién sea el panadero, la demanda del pan puede verse afectada por un cambio en los salarios de los panaderos y, por consiguiente, en el precio del pan. En teoría, calcular el precio de equilibrio de un solo bien requiere un análisis que considere todos los millones de diversos bienes que están disponibles

TEORIA DE LAS EXPECTATIVAS RACIONALES

La teoría de las expectativas racionales es una hipótesis de la ciencia económica que establece que las predicciones sobre el valor futuro de variables económicamente relevantes hechas por los agentes no son sistemáticamente erróneas y que los errores son aleatorios (ruido blanco). Una formulación alternativa es que las expectativas racionales son «expectativas coherentes en torno de un modelo», es decir que, en un modelo, los agentes asumen que las predicciones de éste son válidas. La hipótesis de las expectativas racionales es usada en muchos modelos macroeconómicos contemporáneos, en teoría de juegos y en aplicaciones de la teoría de la elección racional.
Dado que la mayoría de los modelos macroeconómicos actuales estudian decisiones a lo largo de varios períodos, las expectativas de trabajadores, consumidores y empresas sobre las condiciones económicas futuras son parte esencial del modelo. Ha habido mucha discusión sobre cómo modelar estas expectativas y las predicciones macroeconómicas de un modelo pueden diferir dependiendo de los supuestos sobre las expectativas. Asumir expectativas racionales es asumir que las expectativas de los agentes económicos pueden ser individualmente erróneas, pero correctas en promedio. En otras palabras, aunque el futuro no es totalmente predecible, se supone que las expectativas de los agentes no están sistemáticamente sesgadas y que éstos usan toda la información relevante para formar sus expectativas sobre variables económicas.
Esta forma de modelar las expectativas fue originalmente propuesta por John F. Muth en 1961 y se hizo popular cuando fue usada por Robert Lucas y otros. Modelar las expectativas es crucial en todos los modelos que estudian cómo un gran número de individuos, firmas y organizaciones realizan elecciones en situaciones de incertidumbre. A modo de ejemplo, las negociaciones entre trabajadores y empresas estarán influidas por el nivel esperado de inflación y el valor de una acción dependerá del ingreso futuro esperado de dicha acción.

TEOREMAS FUNDAMENTALES DE LA ECONOMÍA DEL BIENESTAR

Hay dos teoremas fundamentales de la economía del bienestar. El primero afirma que cualquier equilibrio competitivo o walrasiano lleva a una situación de asignación de recursos económicos que es eficiente de acuerdo con Pareto. El segundo teorema es el inverso del primero. Afirma que cualquier asignación eficiente u óptimo de Pareto es obtenible por (y sostenible en) un equilibrio competitivo.
A pesar de la aparente simetría de ambos teoremas, en realidad el primero es mucho más general que el segundo, requiriendo supuestos más débiles.

TEOREMA DE INCOMPLETITUD

Los teoremas de incompletitud de Gödel son dos célebres teoremas de lógica matemática demostrados por Kurt Gödel en 1931. Ambos están relacionados con la existencia de proposiciones indecidibles en ciertas teorías aritméticas.
El primer teorema de incompletitud afirma que, bajo ciertas condiciones, ninguna teoría matemática formal capaz de describir los números naturales y la aritmética con suficiente expresividad, es a la vez consistente y completa. Es decir, si los axiomas de dicha teoría no se contradicen entre sí, entonces existen enunciados que no pueden probarse ni refutarse a partir de ellos. En particular, la conclusión del teorema se aplica siempre que la teoría aritmética en cuestión sea recursiva, esto es, una teoría en la que el proceso de deducción pueda llevarse a cabo mediante un algoritmo.
La prueba del teorema es totalmente explícita y en ella se construye una fórmula, denotada habitualmente G en honor a Gödel, para la que dada una demostración de la misma, puede construirse una refutación, y viceversa. Sin embargo, la interpretación natural de dicha sentencia en términos de números naturales es verdadera.
El segundo teorema de incompletitud es un caso particular del primero: afirma que una de las sentencias indecidibles de dicha teoría es aquella que «afirma» la consistencia de la misma. Es decir, que si el sistema de axiomas en cuestión es consistente, no es posible demostrarlo mediante dichos axiomas.
Los teoremas de incompletitud de Gödel son uno de los grandes avances de la lógica matemática, y supusieron —según la mayoría de la comunidad matemática— una respuesta negativa al segundo problema de Hilbert

TEOREMA DE LA TELARAÑA

El teorema de la telaraña explica el modelo general que sigue la formación de los precios de los productos cuya oferta se establece en función del precio de mercado observado en el período inmediatamente anterior (sea este un día, semana, temporada, año, etc).

El modelo de tela de araña es considerado por los partidarios de la teoría de las expectativas racionales como uno de los mejores ejemplos para ilustrar el por qué la comprensión de formación de expectativas es tan importante para el estudio de la dinámica económica, y por qué las expectativas son un tema tan controvertido en la teoría económica reciente.
Considerese el caso general. Suponiendo que los productores consideran los precios más recientes con el fin de predecir los precios futuros puede parecer muy razonable, pero este pronóstico retrospectivo (que se llama Teoría de las Expectativas adaptativas) resulta ser crucial para las fluctuaciones predichas por el modelo.
En el caso estable, esto no es difícil de aceptar, ya que los errores de predicción de los productores (la diferencia entre el precio que ellos esperan y el precio que realmente ocurre) se hacen cada vez más pequeños, convergiendo, por lo menos teóricamente, en el precio de equilibrio. Esto no es muy diferente del tâtonnement walrasiano o un putativo proceso de ensayo y error que posiblemente determina los precios en realidad, con una oscilación, más o menos grande, alrededor de un precio putativamente estable.
Pero considerese el caso inestable, los errores de los productores se hacen más grandes en cada período. ¿cómo es que no se dan cuenta que el precio de un período pasado no es un buen predictor del precio del presente y futuro? Esto parece indicar que las expectativas de adaptación es una suposición errónea.
El hecho de que agentes con expectativas adaptables pueden cometer errores cada vez mayores a través del tiempo ha llevado a muchos economistas a concluir que es mejor asumir la Teoría de las expectativas racionales, es decir, las expectativas basadas en toda la información disponible. Sin embargo, la hipótesis de expectativas racionales es polémica, ya que puede exagerar la comprensión de los agentes económicos.
Consecuentemente algunos proponen que el modelo refleja o explica mejor decisiones tomadas de acuerdo a la teoría de la Racionalidad limitada. Desde este punto de vista los productores utilizarían una regla heurística simple: el precio del periodo pasado refleja la tendencia actual, relativamente estable, de la demanda. Si, por ejemplo, el precio del petróleo o del trigo están bajando/subiendo, esa situación refleja una tendencia en la demanda que los productores ignoran a su riesgo.
Un mecanismo a lo largo de esas líneas parece explicar por lo menos en parte las burbujas económicas
Consecuentemente algunos postulan la existencia de expectativas “débilmente racionales” a mediano plazo.

PRINCIPIO DE RAZÓN SUFICIENTE

El principio de razón suficiente es un principio filosófico según el cual todo lo que ocurre tiene una razón suficiente para ser así y no de otra manera, o en otras palabras, todo tiene una explicación suficiente.

El principio de razón suficiente admite diversas formulaciones, todas ellas pueden ser reducidas a alguna de las formas siguientes:
  • Para toda entidad X, si X existe, entonces hay una explicación suficiente de por qué "X existe".
  • Para cada evento E, si E ocurre, entonces hay una explicación suficiente por la cual "E ocurre".
  • Para cada proposición P, si P es cierta, entonces hay una explicación suficiente de por qué "P es cierta".
Aquí "explicación suficiente" puede entenderse como un conjunto de razones o de causas, aunque muchos filósofos de los siglos XVII y XVIII no distinguieron entre estos dos tipos de "explicaciones suficientes". El resultado del principio, sin embargo, es muy diferente según se intérprete una "explicación suficiente" de una u otra manera.
En la actualidad sigue siendo una cuestión abierta si el principio de razón suficiente puede ser considerado un axioma en una construcción lógica como en una teoría matemática o en una teoría física, porque los axiomas son proposiciones que se aceptan sin necesidad de tener una justificación dentro del propio sistema

PRINCIPIO DE PETER

El principio de Peter o principio de incompetencia de Peter, está basado en el «estudio de las jerarquías en las organizaciones modernas», o lo que Laurence J. Peter denomina «hierachiology» («jerarquiología»). Afirma que las personas que realizan bien su trabajo son promocionadas a puestos de mayor responsabilidad, tal que cuando no pueden formular ni siquiera los objetivos de un trabajo, alcanzan su máximo nivel de incompetencia. Este principio, formulado por el catedrático de ciencias de la educación de la Universidad del Sur de California en su libro The Peter Principle, de 1969, afirma que:
En una jerarquía, todo empleado tiende a ascender hasta su nivel de incompetencia: la nata sube hasta cortarse.
Laurence J. Peter
Según algunas fuentes, el primero en hacer referencia a este concepto fue José Ortega y Gasset quien en la década de 1910 dio forma al siguiente aforismo: "Todos los empleados públicos deberían descender a su grado inmediato inferior, porque han sido ascendidos hasta volverse incompetentes".
Como corolario de su famoso principio, Laurence J. Peter deduce los dos siguientes:
  • Con el tiempo, todo puesto tiende a ser ocupado por un empleado que es incompetente para desempeñar sus obligaciones.
  • El trabajo es realizado por aquellos empleados que no han alcanzado todavía su nivel de incompetencia.

El principio de Peter fue deducido del análisis de cientos de casos de incompetencia en las organizaciones y da explicación a los casos de acumulación de personal, según el cual el incremento de personal se hace para poner remedio a la incompetencia de los superiores jerárquicos y tiene como finalidad última mejorar la eficiencia de la organización, hasta que el proceso de ascenso eleve a los recién llegados a sus niveles de incompetencia.
Como última reflexión en su libro, Peter manifiesta su esperanza de que algún filántropo le facilitará una cátedra de «jeraquiología» en una universidad importante: «Al haber demostrado, en mis empeños actuales, estar capacitado, estoy preparado para el puesto».
El principio de Peter forma parte de la llamada «Literatura P», que abarca las obras de Peter, C. Northcote Parkinson, Potter y Putt, y que pretende explicar cómo funcionan las jerarquías sociales.

PRINCIPIO DE DILBERT

El principio de Dilbert alude a una observación satírica de los años 1990 que afirma que las compañías tienden a ascender sistemáticamente a sus empleados menos competentes a cargos directivos para limitar así la cantidad de daño que son capaces de provocar.
El término fue acuñado por Scott Adams, un graduado MBA de la Universidad de Berkeley y creador de la tira cómica Dilbert. Adams explicó el principio en un artículo del Wall Street Journal de 1996. Adams amplió entonces su estudio del principio de Dilbert en un libro satírico de 1996 con el mismo título, que es lectura obligatoria o recomendada en algunos cursos de gestión y MBA. Se han vendido más de un millón de ejemplares del libro y permaneció 43 semanas en la lista de los más vendidos del New York Times.
Aunque los académicos pueden rechazar la veracidad del principio, señalando que contradice las técnicas de gestión de recursos humanos tradicionales, se originó como una forma de sátira sobre un asunto muy discutido en el mundo empresarial. Desde entonces la teoría ha cosechado cierto apoyo de negocios y gestores. Por ejemplo, Guy Kawasaki de Apple Computer dijo:
Hay dos tipos de compañías, las que reconocen que son exactamente como la de Dilbert y las que también lo son pero aún no lo saben.
El principio de Dilbert es una variación del principio de Peter, que trata sobre la práctica de las organizaciones jerárquicas de usar los ascensos como forma de recompensar a los empleados que demuestran ser competentes en sus puestos actuales, afirmando que, debido a esta práctica, un empleado competente terminará siendo ascendido a un puesto en el que será incompetente, y donde permanecerá. El principio de Dilbert, de otra forma, indica que los empleados incompetentes son ascendidos intencionadamente para evitar que produzcan daños (como reducir la calidad del producto, ofender a los clientes, a los empleados, etcétera). El Principio de Dilbert utiliza la idea de que en determinadas situaciones, los puestos superiores de una organización pueden tener muy poca relevancia en la producción real y que la mayoría del trabajo productivo y real en una compañía se hace por personas de la parte baja de la escala de poder. Es también posible ver ambos principios simultáneamente en una misma organización

NET 30

Net 30 es una forma de comercio que especifica que el pago de un crédito se espera recibir en su totalidad 30 días luego de que los bienes fueran entregados. Los términos Net 30 son usualmente asociados con un crédito por pago temprano: por ejemplo, la notación "2% 10, net 30" indica que un descuento del 2% es dado si el pago es recibido durante los 10 días de la entrega de la mercadería, y que el pago completo es esperado dentro de 30 días.

Por ejemplo, si se escribe "$1000 2/10 net 30" en una factura, el comprador puede tomar un descuento del 2% ($1000 x .02 = $20) y hacer un pago de $980 dentro de 10 días, ...
Si se ofrece un término de pago de "2/10, net 30", el costo aproxiamdo de no tomar el descuento y pagar al fin del período del crédito sería de la siguiente manera:
[2/(100-2)]*[365/(30-10)]=0.3724 en porcentage = 37.24%

LEY DE OCKHAM

La navaja de Ockham (a veces escrito Occam u Ockam), principio de economía o principio de parsimonia (lex parsimoniae), es un principio metodológico y filosófico atribuido al fraile franciscano, filósofo y lógico escolástico Guillermo de Ockham (1280-1349), según el cual:
"en igualdad de condiciones, la explicación más sencilla suele ser la correcta".
Esto implica que, cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja.
En ciencia, este principio se utiliza como una regla general para guiar a los científicos en el desarrollo de modelos teóricos, más que como un árbitro entre los modelos publicados. En el método científico, la navaja de Ockham no se considera un principio irrefutable, y ciertamente no es un resultado científico. «La explicación más simple y suficiente es la más probable, mas no necesariamente la verdadera», según el principio de Ockham. En ciertas ocasiones, la opción compleja puede ser la correcta. Su sentido es que en condiciones idénticas, sean preferidas las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría. Así pues, de acuerdo con este principio, una teoría más simple pero de menor evidencia no debería ser preferida a una teoría más compleja pero con mayor prueba.
Qué ha de tenerse en cuenta para medir la simplicidad, sin embargo, es una cuestión ambigua. Quizás la propuesta más conocida sea la que sugirió el mismo Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la teoría que postule la menor cantidad de (tipos de) entidades. Otra manera de medir la simplicidad, sin embargo, podría ser por el número de axiomas de la teoría.
La navaja de Ockham se aplica a casos prácticos y específicos, englobándose dentro de los principios fundamentales de la filosofía de la escuela nominalista que opera sobre conceptos individualizados y casos empíricos.

LEY DE WALRAS

La Ley de Walras es, en la teoría del equilibrio general, un principio que establece que la suma de la demanda (o demanda agregada) (D) debe igualar a, tomando en consideración los precios (p), la suma de la oferta (S). Es decir, Σ pD - Σ pS = 0.
De lo anterior, siguen dos corolarios:
  • Si en un sistema de n mercados hay equilibrio en n − 1 mercados, el n-ésimo mercado estará en equilibrio.
  • Si en un sistema de mercados hay un exceso de demanda positivo en algún sector, entonces debe haber el menos algún otro en el cual hay un exceso de demanda negativo

LEY DE UN PRECIO

Una relación de equilibrio que se impone mediante arbitraje. La ley establece que los precios del mismo producto ofrecidos en dos mercados diferentes nunca deben diferir en más que el coste de transportar el producto entre los dos mercados (después de ajustar el tipo de cambio entre los dos mercados, si los precios están determinados en distintas divisas). Las infracciones de la ley de un precio pueden suponer barreras al comercio.

LEY DE TURGOT

La ley de Turgot o de los rendimientos decrecientes expresa que, dados los factores de producción tierra, capital y trabajo (todo lo que necesitamos para la agricultura), al mantenerse fijo el factor tierra, el aumento de los otros capital y trabajo producirá un incremento de rendimiento limitado, llegando a un punto en que, de aplicarse en mayor cantidad, el rendimiento decrecerá en lugar de aumentar.
Veamos un ejemplo: si tenemos una hectárea de cultivo de maíz y aplicamos 200 kg de fertilizante y la mano de obra de dos personas, obtendremos un rendimiento determinado. Si a esta misma superficie le aplicamos 2.000 kg de fertilizante y el trabajo de veinte personas, el rendimiento no aumentará proporcionalmente, y lo más probable es que disminuya y económicamente será desastroso.

LEY DE SAY

En economía, la ley de Say es un principio atribuido a Jean-Baptiste Say que indica (1803) que no puede haber demanda sin oferta. Cuantos más bienes (para los que hay demanda) se produzcan, más bienes existirán (oferta) que constituirán una demanda para otros bienes, es decir, la oferta crea su propia demanda. Expresado en palabras del mismo Say:
Un producto terminado ofrece, desde ese preciso instante, un mercado a otros productos por todo el monto de su valor. En efecto, cuando un productor termina un producto, su mayor deseo es venderlo, para que el valor de dicho producto no permanezca improductivo en sus manos. Pero no está menos apresurado por deshacerse del dinero que le provee su venta, para que el valor del dinero tampoco quede improductivo. Ahora bien, no podemos deshacernos del dinero más que motivados por el deseo de comprar un producto cualquiera. Vemos entonces que el simple hecho de la formación de un producto abre, desde ese preciso instante, un mercado a otros productos.
J.B. Say, 1803
La ley de Say también es conocida como la «ley de los mercados». Ésta propone que la producción total de bienes en una sociedad o sistema económico determinado implica una demanda agregada que es suficiente para comprar todos los bienes que se ofrecen. Es decir, hay una continuidad en el dinero circulante. Una implicación importante de lo anterior es que una recesión no ocurre por un fallo en la demanda o por carencia de dinero: dado que el precio de venta de cada producto genera ingresos o beneficios suficientes para comprar otro producto sigue que nunca se puede dar una insuficiencia de la demanda puesto que aunque las personas ahorren en el presente deberán usar (ya sea consumir o invertir) ese dinero más adelante. Incluso en el caso en que muchos guarden su dinero, la situación no se modificará en lo substancial: los precios bajarán y se adaptarán al menor flujo de ingresos, sin afectar mayormente el empleo de recursos económicos (de la misma manera que un aumento del circulante no incrementa la demanda, una reducción del circulante no la disminuye; sólo los precios cambian).
Otra implicación de importancia es que la prosperidad debe ser aumentada estimulando la producción, no el consumo. En las palabras de James Mill: “Si el poder de compra de una nación se mide exactamente por el producto anual ... cuanto más se incremente el producto anual, más - por ese mismo acto - se expandirá el mercado nacional, el poder de compra y las compras reales de la nación”.
De acuerdo a von Mises es importante entender el contexto más general de la proposición de Say. Ese contexto sería el debate iniciado por Malthus acerca de la crisis que se derivaría producto del incremento de la población (lo que llevaría no solo a crecientes demandas sobre los recusos naturales sino también, eventualmente, a un "exceso" de población, exceso que no se podría emplear productivamente). Es en relación a eso que el argumento de Say adquiere su significado: «El dinero es solamente el medio de intercambio generalmente empleado; desempeña sólo el papel de intermediario. Lo que, en definitiva, el vendedor quiere recibir a cambio de las mercancías vendidas son otras mercancías». Es decir, agrega von Mises, «Las mercancías se pagan en última instancia no con dinero, sino con otras mercancías» (op cit).
En otras palabras, la ley de Say se puede resumir en la proposición que la oferta crea su propia demanda, En parte su intención es explicar la imposibilidad de una situación de sobreproducción y/o desempleo de recursos productivos. Adam Smith sugiere esto pensando que por el simple hecho de sacar un producto al mercado este ya tenía su venta garantizada, no en el sentido que el productor podía entonces ignorar lo que quiere el consumidor sino de que “los recursos productivos no permanecerán indefinidamente ociosos por falta de demanda agregada”. Para él, eso produce una situación en la cual todos están interesados que el sistema funcione tan bien como es posible, una en la cual el uso de los recursos económicos tiende al máximo. Es decir, no puede haber una situación de «exceso de población». Estos fueron los primeros esbozos de solución al problema del equilibrio económico.
Este es también el primer paso en las teorías clásicas, tanto de Smith como de Marx, etc., del valor. En efecto, si el proceso de producción de un bien crea riqueza o valor, vale preguntarse exactamente que es lo que ha sucedido, en qué momento o a consecuencia de cuál acción específica ese valor aparece.

LEY DE PETTY-CLARK

La ley de Petty es una ley económica que propone que, en la medida que el progreso técnico reduce los costos de transporte, el mercado para bienes no agrícolas se ampliara, lo que induce la reasignación de la mano de obra de la agricultura a actividades no agrícolas.
Posteriormente Colin Clark concluyó que una de las formas principales en que se manifiesta el progreso económico es en la continua transferencia de trabajo del sector primario al secundario, y de éste al terciario. Posteriormente se abandonó esa terminología para sustituirlo por la de sector agrícola, industrial y de servicios.
Ambas propuestas son generalmente consideradas en conjunto (Ley de Petty y Clark) y se entienden como implicando que el mecanismo propuesto da origen a transformaciones estructurales que debilitan a las fuerzas de dispersión social originada en las economías básicamente agrícolas y fortalecen las fuerzas de aglomeración generados por los trabajadores no agrícolas. Por lo tanto, una disminución sustancial en los costos de transporte da lugar a la aglomeración de las actividades no agrícolas y la expansión de centros urbanos y, eventualmente, del sector de servicios.
Esta ley establece que el progreso de una economía se aprecia fundamentalmente a través del creciente volumen de la población que se dedica a los servicios, dado que la importancia relativa de los sectores económicos se va desplazando desde el sector primario, a través del industrial, hacia el terciario, el cual llega a ser el punto clave del crecimiento
Ambas leyes presuponen o implican la validez de la Ley de Engel, de acuerdo a la cual el desarrollo técnico conduce a la disminución de los costos de transportes, lo que tiene el efecto de aumentar los ingresos (o poder de compra de los mismos) de la población en general, lo que conduce a un incremento en la demanda de productos que no son básicos o esenciales para vivir, es decir, un desplazamiento de la demanda de productos agrícolas a los no agrícolas (o manufacturados en su sentido original: aquellos producto del trabajo humano).

LEY DE PARKINSON

La 'Ley de Parkinson, enunciada por el británico Cyril Northcote Parkinson en 1957, afirma que "el trabajo se expande hasta llenar el tiempo disponible para que se termine".
En una burocracia, esto es motivado por dos factores:
  1. 'un funcionario quiere multiplicar sus subordinados, no rivales', y
  2. 'los funcionarios se crean trabajo unos a otros.'
Cyril Northcote Parkinson la enunció en el libro del mismo nombre como resultado de su extensa experiencia en el Servicio Civil Británico (British Civil Service). Las observaciones científicas que contribuyeron al desarrollo de la ley incluyeron notar que a medida que el Imperio Británico declinaba en importancia, el número de empleados en la Oficina Colonial (Colonial Office) aumentaba.
Parkinson también notó que el total de aquellos empleados dentro de una burocracia aumenta en un 5-7 por ciento por año "independientemente de las variaciones en la cantidad de trabajo (si las hay) que debe hacerse".
Para muchos, cuando más tiempo se tenga para hacer algo, más divagará la mente y más problemas serán planteados.
La "Ley de Parkinson" también se usa para referirse a otra relacionada con los sistemas informáticos: "Los datos se expanden hasta llenar el espacio disponible para el almacenamiento". De esta forma, comprar más memoria incentiva el uso de técnicas de programación que usan la memoria de forma más intensiva. Se ha observado en los últimos 10 años que el uso de memoria de los sistemas ha mostrado una tendencia a duplicarse aproximadamente una vez cada 18 meses. Afortunadamente, la densidad de memoria disponible por un dinero constante también tiende a duplicarse cada 12 meses (ver ley de Moore). Desafortunadamente, las leyes de la física garantizan que esto no puede seguir indefinidamente.
Las tres leyes fundamentales de Parkinson son:
  1. "El trabajo se expande hasta llenar el tiempo de que se dispone para su realización".
  2. "Los gastos aumentan hasta cubrir todos los ingresos".
  3. "El tiempo dedicado a cualquier tema de la agenda es inversamente proporcional a su importancia" (Parkinson la llamaba ley de la trivialidad).
Estas tres leyes, al igual que otras que Parkinson formuló, como la ley de la dilación o el arte de perder el tiempo y la ley de la ocupación de los espacios vacíos: por mucho espacio que haya en una oficina siempre hará falta más, son leyes extraídas de la experiencia cotidiana, mediante las cuales, al tiempo que se describe o pone de manifiesto una determinada realidad, se denuncia la falta de eficiencia del trabajo administrativo.

LEY DE OKUN

La llamada ley de Okun, es una observación empírica que señala la correlación existente entre los cambios en la tasa de desempleo y el crecimiento de una economía. Fue propuesta en 1962 por el economista norteamericano Arthur Okun en el artículo "Potential GNP: Its Measurement and Significance".
Okun señaló que para mantener los niveles de empleo, una economía necesitaba crecer cada año entre el 2,6% y el 3%. Cualquier crecimiento inferior significaba un incremento del desempleo debido a la mejora de la productividad. La ley de Okun señala además, que una vez mantenido el nivel de empleo gracias al crecimiento del 3%, para conseguir disminuir el desempleo es necesario crecer dos puntos porcentuales por cada punto de desempleo que se quiera reducir.
Esta "ley", es solo una observación empírica, ya que no es posible demostrarla. Okun se basó en datos de los años 1950 en Estados Unidos, y además avisó que esta teoría sólo es efectiva cuando la tasa de desempleo está entre el 3 y 7'5 %. A pesar de eso, la regla se ha cumplido aproximadamente en la mayoría de casos, y por eso es considerada como una observación muy fiable en macroeconomía. El porcentaje exacto depende del período y país considerados, aunque lo normal es que esté alrededor del 2,5 % (entre 2 y 3). El hecho de que el coeficiente no sea predecible hace que algunos consideren a esta regla poco apropiada.

LEY DE LOS GRANDES NÚMEROS

En la teoría de la probabilidad, bajo el término genérico de ley de los grandes números se engloban varios teoremas que describen el comportamiento del promedio de una sucesión de variables aleatorias conforme aumenta su número de ensayos.
Estos teoremas prescriben condiciones suficientes para garantizar que dicho promedio converge (en los sentidos explicados abajo) al promedio de las esperanzas de las variables aleatorias involucradas. Las distintas formulaciones de la ley de los grandes números (y sus condiciones asociadas) especifican la convergencia de formas distintas.
Las leyes de los grandes números explican por qué el promedio de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la media de la población completa.
Cuando las variables aleatorias tienen una varianza finita, el teorema central del límite extiende nuestro entendimiento de la convergencia de su promedio describiendo la distribución de diferencias estandarizadas entre la suma de variables aleatorias y el valor esperado de esta suma: sin importar la distribución subyacente de las variables aleatorias, esta diferencia estandarizada converge a una variable aleatoria normal estándar.
La frase "ley de los grandes números" es también usada ocasionalmente para referirse al principio de que la probabilidad de que cualquier evento posible (incluso uno improbable) ocurra al menos una vez en una serie, incrementa con el número de eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotería es bastante baja; sin embargo, la probabilidad de que alguien gane la lotería es bastante alta, suponiendo que suficientes personas comprasen boletos de lotería.

LEY DE GRESHAM

Es el principio según el cual, cuando en un país circulan simultáneamente dos tipos de monedas de curso legal, y una de ellas es considerada por el público como "buena" y la otra como "mala", la moneda mala siempre expulsa del mercado a la buena. En definitiva, cuando es obligatorio aceptar la moneda por su valor facial, y el tipo de cambio se establece por ley, los consumidores prefieren ahorrar la buena y no utilizarla como medio de pago.
Este enunciado es uno de los pilares de la economía de mercado. El hombre que llegó a tal conclusión fue sir Thomas Gresham. Gresham, importante financiero y mercader de su época, se dio cuenta de que, en todas las transacciones que llevaba a cabo, la gente prefería pagar con la moneda más débil del momento y ahorrar la más fuerte, para, llegado el caso, exportala o fundirla, pues tenía mayor valor como divisa o como metal en lingotes.
Este fenómeno ya se había observado por mercaderes, financieros y hombres de Estado con anterioridad al siglo XVI. Cuando sir Thomas Gresham manifestó este hecho, no desarrolló ninguna formulación teórica de su idea, y no fue hasta finales del siglo XIX, cuando este principio comenzó a conocerse como la ley de Gresham.

LEY DE GOODHART

La ley de Goodhart enuncia, aunque puede expresarse con diversas formulaciones, que cuando un indicador socioeconómico u otra medida sustituta se convierte en el objetivo de políticas socioeconómicas, pierde el contenido informativo que podía cualificarla para jugar ese papel. Su promotor, Charles Goodhart, que fuera asesor del Banco de Inglaterra y profesor emérito de la London School of Economics, dio nombre a la ley.
Goodhart enunció en un artículo la ley por primera vez en 1975, ganando popularidad con el intento por parte del gobierno del Reino Unido de Margaret Thatcher de dirigir la política monetaria en base a los objetivos de la masa monetaria en sentido amplio y estrecho, aunque tal idea fuese mucho más antigua. Ideas muy similares se conocen con otros nombres, e.g., la ley de Campbell (1976) y la crítica de Lucas (1976). La ley está implícita en la idea económica de las expectativas racionales. A pesar de que se originó en el contexto de las respuestas del mercado, la ley tiene implicaciones profundas para la selección de los objetivos de alto nivel en las organizaciones.
Se ha enunciado que la estabilidad de la recuperación económica que tuvo lugar en el Reino Unido bajo el gobierno de John Major a finales de 1992 y en adelante fue el resultado de la ley de Goodhart inversa: si la credibilidad económica de un gobierno está suficientemente dañada, entonces sus objetivos se ven como irrelevantes y los indicadores económicos recuperan su fiabilidad como guía para las políticas económicas

LEY DE CAMPBELL

La ley de Campbell es un adagio desarrollado por el científico social Donald T. Campbell en 1976 durante su investigación en el campo de la metodología de la investigación.
Esta ley sugiere que cuanto más utilizado sea un determinado indicador social cuantitativo para la toma de decisiones, mayor será la presión a la que estará sujeto y más probable será que corrompa y distorsione los procesos sociales que, se supone, debería monitorear. Se puede interpretar como el principio de incertidumbre de las ciencias sociales, pues podemos optar por tomar un indicador para medir o por asignar recursos, pero no para cumplir ambas tareas con él.

HIPOTECA INVERSA

Hipoteca inversa es una operación financiera especialmente diseñada para mayores de 65 años y personas dependientes, con la que se posibilita convertir a dinero el valor patrimonial que representa la propiedad de su vivienda, sin perder la titularidad.
La hipoteca inversa se define como un préstamo o crédito hipotecario del que el propietario de la vivienda realiza disposiciones, periódicas o en forma de cobro único, hasta un importe máximo determinado por un porcentaje del valor de tasación en el momento de la constitución, y al alcanzarse dicho porcentaje se deja de disponer de la renta aunque la deuda sigue generando intereses.
La hipoteca inversa debe ser concedida por una entidad de crédito o una entidad aseguradora y el solicitante y los beneficiarios que éste pueda designar deben ser mayores de 65 años o afectados de dependencia severa o gran dependencia.

DINERO FIDUCIARIO

El dinero llamado fiduciario es el que se basa en la fe o confianza de la comunidad, es decir, que no se respalda por metales preciosos ni nada que no sea una promesa de pago por parte de la entidad emisora.
Es el modelo monetario que manejamos actualmente en el mundo, y es el del dólar estadounidense, el euro y todas las otras monedas de reserva. Esta tendencia, originaria del siglo XI en China, y responsable de la expansión de las dinastías Yuan y Ming, comenzó contemporáneamente con el Nixon Shock de 1971, que terminó con el sistema de respaldo en metales preciosos del dólar estadounidense, iniciándose también con ello la fluctuación de las divisas, que basan su valor en relación al valor de las demás, y con ello el altamente voluble y lucrativo mercado de divisas, que mueve alrededor de 3 billones de dólares al día.
Las monedas y billetes fiduciarios no basan su valor en la existencia de una contrapartida en oro, plata o cualquier otro metal noble o valores, ni en su valor intrínseco, sino simplemente en su declaración como dinero por el Estado y también en el crédito y la confianza (la fe en su futura aceptación) que inspira. Sin esta declaración, la moneda no tendría ningún valor: el dinero fiduciario sería entonces tan poco valioso como el pedazo de papel en el que está impreso

La curva de PHILIPS

La curva de Phillips, en macroeconomía, representa una curva empírica de pendiente negativa que relaciona la inflación y el desempleo.
Los estudios posteriores de la Curva de Phillips han reflejado que aunque a corto plazo se puede mantener una relación estable entre inflación y desempleo, a largo plazo esa relación se torna inestable y poco sistemática.
La teoría del modelo neoclásico, de las expectativas justifica esta inestabilidad explicando que la inflación imprevista puede provocar a corto plazo un aumento de la producción y el empleo, pero a largo plazo, cuando desaparece esta ilusión monetaria, no existe intercambio entre inflación y desempleo

Conferencia de GÉNOVA

La Conferencia de Génova fue la Segunda Conferencia Monetaria Internacional convocada por la Sociedad de Naciones que tuvo lugar en la ciudad italiana de Génova del 10 de abril al 19 de mayo de 1922. Se reunieron allí 34 países en búsqueda de acuerdos para la reconstrucción del comercio y el sistema financiero internacional, tras la Primera Guerra Mundial. La propuesta que se derivó de la conferencia fue la instauración del denominado patrón cambio oro.
El plan resultante de la Conferencia de Génova establecía la convertibilidad al oro, la creación de bancos centrales independientes, la disciplina de la política fiscal, la asistencia financiera a los países en determinadas situaciones y la cooperación de los bancos centrales en la administración del sistema financiero internacional, todas estas medidas se materializaron en la siguientes resoluciones

EFICIENCIA DE PARETO



La eficiencia de Pareto, también conocido como óptimo de Pareto u optimalidad de Pareto, es un concepto de la economía que tiene aplicaciones en ingeniería y diferentes ciencias sociales. El término recibe su nombre a partir del economista italiano Vilfredo Pareto, quien utilizó este concepto en sus estudios sobre eficiencia económica y distribución de la renta.
Dada una asignación inicial de bienes entre un conjunto de individuos, un cambio hacia una nueva asignación que al menos mejora la situación de un individuo sin hacer que empeore la situación de los demás se denomina mejora de Pareto. Una asignación se define como "pareto-eficiente" o "pareto-óptima" cuando no pueden lograrse nuevas mejoras de Pareto.
La eficiencia de Pareto es una noción mínima de la eficiencia y no necesariamente da por resultado una distribución socialmente deseable de los recursos. No se pronuncia sobre la igualdad, o sobre el bienestar del conjunto de la sociedad.

ILUSIÓN MONETARIA

Es una ilusión que sucede a causa de una mala utilización de los indicadores económicos, que no tienen en cuenta por lo general variaciones en el índice de precios, en los tipos de cambio o en la inflación entre otras.
Un ejemplo es el efecto de un incremento anual de los salarios (los precios de los recursos productivos en general), acompañado por una muy alta inflación. Se genera una ilusión porque, una vez restada la inflación, el incremento real de los salarios puede ser muy reducido o incluso negativo. A la inversa, si sólo se toma en cuenta el índice de inflación, ignorando el aumento nominal de los salarios (el cual puede ser superior en términos de poder adquisitivo real), también se está frente a una ilusión monetaria.
En resumen, es la impresión que tienen los individuos y empresas de haber aumentado o disminuido su capacidad de compra al haber sufrido un cambio sus rentas nominales o los precios, cuando de hecho no toman en cuenta la inflación (que produce una pérdida del poder adquisitivo real) y/o los incrementos salariales (que pueden superar en términos reales a la inflación).

GERTRUDIS

EFECTO GERTRUDIS
Se trata del régimen publico donde se prometen determinadas tasas de remplazo beneficios pensionales y contribuciones se le llama efecto de Gertrudis  al que disfruto de una pensión de su marido durante la suma de 106 años, disfruto la herencia de dicha pensión durante 76 años  y su marido la había disfrutado 30 años der hecho a esta época como vemos en el caso de Gertrudis para uno pensionarse debe cotizar mucho tiempo y la calidad de vida de los colombianos ya no da para que varias personas disfruten de una pensión por las reformas pensionales que se hicieron.

BILDERBERG

  • ¿Qué es el grupo BILDERBERG?
    Es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas para debatir, se intercambian ideas, propuestas y puntos de vista.
    Los miembros de este grupo se reúnen en complejos de lujo ubicados en Europa y Norteamérica donde la prensa no tiene ningún tipo de acceso, y sus oficinas están en Leiden (Holanda). El nombre de este club procede del primer hotel en el que tuvo lugar la primera reunión, en los Países Bajos.
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista. El Club se ha reunido en España en dos ocasionesLas conferencias del Club Bilderberg se programan como discusiones informales sobre las principales cuestiones que afronta el mundo. Los participantes pueden hacer uso de lo que se ha dicho en la conferencia, pero con la condición de no identificar nunca al ponente

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista. El Club se ha reunido en España en dos ocasionesLas conferencias del Club Bilderberg se programan como discusiones informales sobre las principales cuestiones que afronta el mundo. Los participantes pueden hacer uso de lo que se ha dicho en la conferencia, pero con la condición de no identificar nunca al ponente

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263

    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263V
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263
    El Club Bilderberg es una reunión anual privada a la que asisten importantes personalidades de los países más desarrollados del mundo y representantes de los grandes organismos internacionales. Durante varios días se fijan una serie de temas de debate sobre los que se intercambias ideas, propuestas y puntos de vista. El Club se ha reunido en España en dos ocasionesLas conferencias del Club Bilderberg se programan como discusiones informales sobre las principales cuestiones que afronta el mundo. Los participantes pueden hacer uso de lo que se ha dicho en la conferencia, pero con la condición de no identificar nunca al ponente

    Ver más en: http://www.20minutos.es/noticia/2154969/0/club-bilderberg/que-es/quien-compone/#xtor=AD-15&xts=467263