miércoles, 1 de junio de 2011

TEORÍA DE DECISIONES

La teoría de decisión permite seleccionar una decisión de un conjunto de alternativas cuando existe incertidumbre sobre el futuro. Una decisión es una elección consciente y racional, orientada a conseguir un objetivo, que se realiza entre diversas posibilidades de actuación (o alternativas). Antes de tomar una decisión deberemos calcular cual será el resultado de escoger una alternativa.





TOMA DE DECISIONES BAJO CERTIDUMBRE
En la toma de decisión con certidumbre se asume que está disponible la información completa, de tal manera que el decisor conoce exactamente cuál será el resultado de cada alternativa que tome. El decisor es, pues, un previsor perfecto del futuro.

TOMA DE DECISIONES BAJO RIESGO
Una decisión con riesgo (también conocida como situación de decisión probabilística o estocástica) es tal que el decisor puede considerar varios estados de la naturaleza, cada uno con probabilidad dada de que ocurra. Así pues, en las situaciones de riesgo se asume que la totalidad de las probabilidades de ocurrencia de los estados de la naturaleza (y sus respectivos condicionales) se conocen o pueden estimarse.


TOMA DE DECISIONES BAJO INCERTIDUMBRE
En los procesos de decisión bajo incertidumbre, el decisor desconoce cuáles son los posibles estados de la naturaleza, aunque no dispone de información alguna sobre cuál de ellos ocurrirá. No solo es incapaz de predecir el estado real que se presentara, sino que además no puede cuantificar de ninguna forma esta incertidumbre

CRITERIOS DE DECISIÓN
Los criterios de decisión utilizados son:
·         Criterio Maximin
·         Criterio Maximax
·         Criterio Arrepentimiento Min Max
·         Valor esperado
·         VEIPER

CRITERIO MAXIMIN (lo mejor de lo peor).
El decisor de este criterio es completamente pesimista, puesto que asume que pasará lo peor cuando haya seleccionado una alternativa. Para protegerse, el decisor seleccionará aquella alternativa que tenga un mayor valor siguiendo esta presunción pesimista. El tomador de decisiones incurre en una perdida por no escoger la mejor decisión.

CRITERIO MAXIMAX
El decisor optimista asume que ocurrirá el mejor resultado y seleccionará la alternativa con el mayor valor posible. Así pues, el decisor busca el mejor valor posible para cada alternativa. Este lo localiza en una nueva columna en la derecha de la tabla de decisión. Se selecciona la alternativa con el mejor valor en esta nueva columna.

CRITERIO DE ARREPENTIMIENTO MIN MAX
El criterio de arrepentimiento minimax utiliza el concepto de costo de oportunidad para llegar a una decisión. Consiste en que para cada acción y cada estado del mundo, se compara lo mejor que pudo haber sucedido en cada situación con lo que realmente sucedió.

CRITERIO VALOR ESPERADO
El decisor de este criterio asume que todos los estados de la naturaleza son igualmente propensos a ocurrir; luego asigna a todos la misma probabilidad. Se calculan los valores esperados y se selecciona la alternativa con mejor valor esperado.
CRITERIO VEIPER: VALOR ESPERADO CON INFORMACION PERFECTA.
Límite superior que usted pagaría por un estudio de mercado

Veamos el siguiente ejemplo:
Suponga que una vendedora de periódicos desea saber cuántos periódicos pedir. Ella paga por cada periódico $20 y el precio de venta es igual a $25. Los periódicos que no se venden no tienen ningún valor. Se sabe que puede vender entre 6 y 10 periódicos al día, cada uno con una probabilidad de 0.2

Si la vendedora compra periódicos a $20 y vende estos periódicos a $25, entonces la ganancia será de $5.

Aplicando el criterio maxi-min se escogerá lo mejor de lo peor como sigue:


Aplicando el criterio maxi-max se escogerá lo mejor de lo mejor.



Aplicando el criterio de arrepentimiento se halla la matriz de arrepentimiento que es lo que se estaría dejando de ganar en cada acción.





De igual manera se procede con los demás.
En cuanto al VEIPER se calcula de la siguiente manera, escogiendo los valores perfectos:

 




lunes, 30 de mayo de 2011

TEORÍA DE JUEGOS

HISTORIA


La teoría de juegos como tal fue creada por el matemático húngaro John Von Neumann (1903-1957) y por Oskar Morgenstern (1902-1976) en 1944 gracias a la publicación de su libro “The Theory of Games Behavior”. Anteriormente los economistas Cournot y Edgeworth habían anticipado ya ciertas ideas, a las que se sumaron otras posteriores de los matemáticos Borel y Zermelo que en uno de sus trabajos (1913) muestra que juegos como el ajedrez son resolubles. Sin embargo, no fue hasta la aparición del libro de Von Neumann y Morgenstern cuando se comprendió la importancia de la teoría de juegos para estudiar las relaciones humanas.

 

Von Neumann y Morgenstern investigaron dos planteamientos distintos de la Teoría de Juegos. El primero de ellos el planteamiento estratégico o no cooperativo. Este planteamiento requiere especificar detalladamente lo que los jugadores pueden y no pueden hacer durante el juego, y después buscar cada jugador una estrategia óptima.
En la segunda parte de su libro, Von Neumann y Morgenstern desarrollaron el planteamiento coalicional o cooperativo, en el que buscaron describir la conducta óptima en juegos con muchos jugadores. Puesto que éste es un problema mucho más difícil, sus resultados fueran mucho menos precisos que los alcanzados para el caso de suma cero y dos jugadores.
En los años 50 hubo un desarrollo importante de estas ideas en Princeton, con Luce and Raiffa (1957), difundiendo los resultados en su libro introductoria, Kuhn (1953) que permitió establecer una forma de atacar los juegos cooperativos, y por fin Nash (1950) quien definió el equilibrio que lleva su nombre, lo que permitió extender la teoría de juegos no-cooperativos más generales que los de suma cero.

John Forbes Nash (1928- ) es el nombre más destacado relacionado con la teoría de juegos. A los 21 años escribió una tesina de menos de treinta páginas en la que expuso por primera vez su solución para juegos estratégicos no cooperativos, lo que desde entonces se llamó "el equilibrio de Nash", que tuvo un inmediato reconocimiento entre todos los especialistas.
El punto de equilibrio de Nash es una situación en la que ninguno de los jugadores siente la tentación de cambiar de estrategia ya que cualquier cambio implicaría una disminución en sus pagos. Von Neumann y Oskar Morgenstern habían ya ofrecido una solución similar pero sólo para los juegos de suma cero. Para la solución formal del problema, Nash utilizó funciones de mejor respuesta y el teorema del punto fijo de los matemáticos Brouwer y Kakutani.

TEORÍA DE JUEGOS



La palabra juego hace referencia a divertimiento y también a actividades en que los participantes sometidos a reglas que hay que cumplir intentar ganar, pero pueden perder. Son muy conocidos los juegos de mesas como el poker y el ajedrez. En este juego, cada jugador intenta conseguir el mejor resultado posible (maximizar su utilidad), pero teniendo en cuenta que el resultado del juego no depende solamente de sus acciones, sino también de las acciones de los otros jugadores. La teoría de juegos se ocupa del análisis riguroso y sistemático de estas situaciones.

domingo, 29 de mayo de 2011

TEORÍA DE JUEGOS: CONCEPTOS CLAVES

MATRIZ DE PAGO:
Es una matriz donde se incluyen todos los resultados del juego para las posibles combinaciones que puede haber.
La matriz de pago de un juego bi-personal de suma cero tiene renglones etiquetados por las acciones  del jugador renglón y columna etiquetadas por las acciones de su contrincante, el jugador columna. La entrada ij de la matriz es el pago que gana el jugador renglón en caso de que el jugador renglón use acción i y el jugador columna use acción j.


JUEGOS DE SUMA CERO:


Suma cero describe una situación en la que la ganancia o pérdida de un participante se equilibra con exactitud con las pérdidas o ganancias de los otros participantes.
Se llama así; porque si se suma el total de las ganancias de los participantes y se resta las pérdidas totales el resultado es cero. El ajedrez, el póker  son ejemplos de juegos de suma cero.


ESTRATEGIAS
La estrategia de un jugador es un plan de acción completa para cualquier situación que pueda acceder, determina completamente la conducta del jugador. Son las distintas acciones que puede tomar un jugador, cada uno de los cuales lleva un valor numérico asociado a ella y conducente al valor del juego, dependiendo de las combinaciones de las estrategias.
·         Estrategias Puras: Proporciona una definición completa para la forma en que un jugador pueda jugar un juego. En particular, define para cada elección posible la opción que toma el jugador. El espacio de la estrategia de un jugador es el conjunto de estrategias puras disponibles al jugador.

·         Estrategias Aleatorizada: Es una asignación de la probabilidad a cada estrategia pura. Define una probabilidad sobre las estrategias y refleja que, en lugar de elegir una estrategia pura en particular, el jugador elegirá en función de la distribución dada por la estrategia mezclada.


ESTRATEGIA DOMINANTE

Una estrategia dominante es aquella elección que realiza el jugador independientemente de lo que haga el otro. En el juego representado en la matriz, la estrategia dominante para A es elegir “abajo”, mientras que la estrategia dominante para B es elegir “izquierda”. Estas estrategias dominantes dan como resultado el equilibrio de estrategias dominantes del juego.



VALOR DEL JUEGO:
Es el resultado numérico final que se obtiene cuando cada jugador define sus estrategias. Es el pago que un jugador tiene garantizado que puede recibir un juego si toma una decisión racional, independiente de las decisiones de los demás jugadores.
El valor de un juego justo suma cero.
·         PUNTO DE SILLA,
Un punto de silla es un pago que es simultáneamente un mínimo de su renglón y un máximo de su columna. Para encontrar puntos de silla, rodear los mínimos renglón y meta en caja los máximas columna. Los puntos de silla son aquellas entradas que son simultáneamente rodeados y en caja.
  





Tomado de: Fundamentos de Investigación de Operaciones para Administración:
http://books.google.com/books?id=CL3E0b_6F_cC&pg=PA63&dq=matriz+de+pago+teoria+de+juegos&hl=es&ei=bBfwTaztE4jHgAe78ICVDw&sa=X&oi=book_result&ct=result&resnum=4&ved=0CD0Q6AEwAw#v=onepage&q&f=false

Tomado de la página de internet:

sábado, 28 de mayo de 2011

TEORÍA DE JUEGOS: DINÁMICA DEL VALOR DEL JUEGO

JUEGOS ESTRICTAMENTE DETERMINADOS
Un juego es estrictamente determinado si tiene por lo menos un punto de silla. Las siguientes condiciones se aplican a los juegos estrictamente determinados:
    1. Todos los puntos de silla en un juego tienen los mismos valores de pago.
   2. Elegir el renglón y la columna que pasan por cualquier punto de silla de estrategias minimax para ambos jugadores. Es decir, el juego es solucionado por el uso de estas estrategias puras.
 El valor de un juego estrictamente determinado es el valor del punto de silla. Un juego justo tiene un valor igual a cero, si no, es injusto o parcial.

VALOR DEL JUEGO PARA JUEGOS ESTRICTAMENTE DETERMINADOS
Para encontrar el valor de un juego estrictamente determinados, utilizamos las estrategias minimax y maximin de la siguiente manera:
1.      Identificamos los mínimos del jugador renglón.
2.      Identificamos los máximos del jugador columna.
3.      Seleccionamos de los minimos el mayor.
4.      Seleccionamos de los máximos el menor.
Si el maximin y el minimax coinciden en su valor decimos que el juego es estrictamente determinado.
Veamos los siguientes ejemplos:



El valor del juego es 2



El valor del juego es 4


      
JUEGOS ESTRICTAMENTE NO DETERMINADOS
Esta clase de juegos tiene más de una alternativa de juego por lo que los jugadores podrían ganar, por lo que no están obligados siempre a jugar con la misma estrategia, no presentan un punto de silla por lo que el número menor de todos los máximos de las columnas no es igual al número mayor de los menores renglones, dando como resultado un juego estrictamente determinado.

Veamos el siguiente ejemplo:


Para resolver este juego hacemos uso del método gráfico:
·         PARA EL JUGADOR COLUMNA
De la tabla anterior tabla salen las siguientes expresiones para la estrategia I:



Despejando de la segunda P2 y se reemplaza en la primera:


Si P1 =0  P(0)= -1
SI P1=1  P(1)= 3

De la tabla anterior tabla salen las siguientes expresiones para la estrategia II:



Despejando de la segunda P2 y se reemplaza en la primera:



Si P=0   P(0)=5
Si P=1  P(1)=-2

Lo anterior se ilustra en la siguiente gráfica:



Para hallar el punto donde se interceptan las dos ecuaciones  solamente las igualamos:

Por lo que el valor esperado para el jugador columna esta dado por:



·         PARA EL JUGADOR RENGLÓN
De la tabla anterior tabla salen las siguientes expresiones para la estrategia I:






Si Q1 =0  Q(0)= -2
SI Q1=1  P(1)= 3

De la tabla anterior tabla salen las siguientes expresiones para la estrategia II:


Despejando de la segunda P2 y se reemplaza en la primera:



Si Q=0   Q(0)=5
Si Q=1  Q(1)=-1

Lo anterior se ilustra en la siguiente gráfica:




Para hallar el punto donde se interceptan las dos ecuaciones  solamente las igualamos:



Por lo que el valor esperado para el jugador columna esta dado por:



Éste valor no solo representa que ganara el juego sino también que se llevara el premio con mayor valor.



Otra forma para hallar que estrategia permitirá obtener una ganancia para cada jugador, es dándole probabilidades a cada estrategia para calcular el valor esperado.
Tomemos a manera de ilustración el anterior ejemplo. Supongamos que tienen las siguientes probabilidades







Es decir que el jugador renglón gana con respecto al jugador columna cuanto utiliza la estrategia I.
 


viernes, 27 de mayo de 2011

REDUCCIÓN DE UNA MATRIZ

Esta situación es bastante especial, en ella se puede obtener la respuesta con sólo  aplicar el concepto de  estrategia dominada  para eliminar una serie de estrategias  inferiores hasta que quede sólo una para elegir.  Específicamente, se puede eliminar una estrategia cuando está dominado por otra, es decir, si existe otra estrategia que siempre  es al menos tan buena como ésta, sin importar lo que hace el oponente.
Consideremos el siguiente ejemplo:



sábado, 14 de mayo de 2011

CADENAS DE MARKOV

ANDRÉI MARKOV

 
Riazán, 1856 - San Petersburgo, 1922) Matemático ruso que desarrolló la moderna teoría de procesos estocásticos. Trabajó en la casi totalidad de los campos de la matemática. En el campo de la la teoría de la probabilidad, profundizó en las consecuencias del teorema central del límite y en la ley de los grandes números. En su honor, lleva su nombre un tipo muy especial de procesos estocásticos.
Markov, graduado en la Universidad de San Petersburgo en 1878, fue alumno de Pafutny Chebyshev, quien ejerció una gran influencia en sus investigaciones. Impartió clases de matemáticas en esta Universidad desde 1886. Sus primeras investigaciones versaron sobre análisis y teoría de números, en particular sobre las fracciones continuas, límites de integrales, teoría de aproximaciones y convergencia de series. En 1900 estudió la teoría de probabilidades. Demostró a partir de supuestos muy generales el llamado teorema central del límite, que establece que la suma de un número grande de variables aleatorias independientes se aproxima a una distribución Gaussiana.
Tras este trabajo, estudió las variables dependientes e introdujo el concepto de sucesos encadenados. Markov extendió los resultados clásicos de sucesos independientes a cierto tipo de sucesos encadenados, conocidos como sucesos markovianos, que son aquellos cuyo estado en un instante de tiempo depende de uno o varios estados cronológicamente anteriores. Este estudio, desarrollado por su discípulo Andrei Kolmogorov y por Norbert Wiener, se convirtió en una teoría general de procesos estocásticos y se ha aplicado con éxito en campos tan dispares como la biología, la sociología y la lingüística.

 

CADENAS DE MARKOV
Una cadena de Markov es un tipo especial de proceso discreto en el tiempo. Se supone que en cualquier instante el proceso estocástico discreto en el tiempo puede estar en un número infinito de estados identificados con 1,2…n.
Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Una cadena de markov, por tanto,  representa un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del sistema.
Los estados son una caracterización de la situación en que se halla el sistema en un instante dado. El estado en un sistema t es una variable cuyos valores solo pueden pertenecer al conjunto de estados del sistema. El sistema modelizado por la cadena es, por tanto, una variable que cambia de valor en el tiempo, cambio al que llamamos transición. Por ser el sistema estocástico, no se conocerá con certeza el estado del sistema en un determinado instante, sino tan solo la probabilidad asociada a cada uno de los estados.

miércoles, 11 de mayo de 2011

CADENAS DE MARKOV : CONCEPTOS

MATRIZ DE TRANSICIÓN
Esta es una matriz  cuadrada, donde el número de renglones y de columnas será igual al de estados que tenga la cadena de Markov, siendo cada elemento de la matriz, la probabilidad de transición respectiva de pasar del estado que encabeza el renglón donde está ubicado el elemento hacia el estado encabezado por la columna.
Miremos el siguiente ejemplo:


Se observa que para el primer renglón las probabilidades de transición indican que habrá un 50% de los clientes fieles a la marca A, por su parte un 30% cambiara de A a  B y un 20% cambiara de A a C. Obsérvese que la suma se probabilidades de cada renglón es igual a 1.
Una manera de visualizar mejor la tabla dada anteriormente es a través de un diagrama de estado. Aquí los estados se indican a través de círculos y las flechas que salen de ellos son las probabilidades de que sus clientes cambien a otro estado. Es decir, las flechas que regresan al mismo estado del que salen, señalan las probabilidades de que los clientes sean retenidos por esa marca en particular.


CALCULO DE PROBABILIDADES DE LA MATRIZ DE TRANSICIÓN

Para hallar las probabilidades de los estados dentro de la matriz de transición en un periodo determinado procedemos de la siguiente manera como se muestra en el siguiente ejemplo:
Las granjas de cierta región se pueden clasificar con 3 tipos: agrícolas, pecuarias o mixtas. Actualmente 30% son agrícolas, 40% pecuarias y 30% son mixtas. La matriz de transición de un año al siguiente es:


De acuerdo a la información dada, el Po es:

Para hallar el valor de las probabilidades en el año siguiente hacemos uso de la multiplicación de las matrices, como sigue
Para el estado A:


Por lo que el vector para el año siguiente es:

De igual manera calculamos el porcentaje para cada tipo de granja para el periodo 2, 3, 4 y 5

Obsérvese que el valor de la probabilidad de un estado n esta dado por la siguiente expresión:



MATRIZ DE TRANSICIÓN EN ESTADO ESTABLE
Un estado es estable cuando ya no hay cambios en el sistema, es decir que se alcanza el equilibrio. Una manera posible de obtener las condiciones del sistema para el estado estable es repetir iterativamente los cálculos para cada periodo con el fin de hallar el periodo con aquellas probabilidades que se mantienen constantes o no cambian.
Sin embargo también es posible utilizar los métodos para resolver sistemas de ecuaciones que nos permiten encontrar directamente estas probabilidades de estado estables.


Dado el ejemplo anterior acerca de los tipos de granjas, calcularemos los estados estables a través de los métodos para sistemas de ecuaciones.
En primera medida lo que hacemos es hallar la traspuesta de la matriz de transición, es decir:
El sistema de ecuaciones quedaría así:

Esta ultima ecuación es agregada siguiendo la propiedad de que la sumatoria las probabilidades de los estados debe ser igual a 1.

Utilizando el método de eliminación, restamos las ecuaciones (1) y (2) eliminando z.

Ahora sumamos las ecuaciones (3) y (4), multiplicando la ecuación 4 por 0.2 con el fin de eliminar z
Despejando de la ecuación (6) y y reemplazando en (5), tenemos:

Reemplazando x en (6)
MATRIZ REGULAR Y MATRIZ ERGODICA

Una  matriz de transición T se dice que es regular si para algún elemento positivo de k la matriz Tk no tiene elementos iguales a cero. Además debe tener comunicación directa con los demás estados.

Si los estados de una cadena  son recurrentes, aperiódicos y se comunican entre sí, se dice que la matriz es ergódica.



CLASIFICACION DE LOS ESTADOS DE LA CADENA DE MARKOV
Los estados de una cadena de Markov se clasifican dependiendo de la fracción de tiempo que la cadena pasa en cada uno de ellos.
Los estados de una cadena de Markov pueden ser:
Ø  Transitorios: Un estado es transitorio si después de haber entrado a este estado, el proceso no regresara a él.
Ø  Recurrentes: Se dice que un estado es recurrente si después de haber entrado a este estado el proceso definitivamente regresara a ese estado. Por consiguiente, un estado es recurrente si y solo si no es transitorio.
Ø  Absorbentes: Un estado se llama absorbente si después de haber entrado ahí el proceso nunca saldrá de ese estado. Por consiguiente, el estado i es un estado absorbente si y solo si Pij=1.