包络定理1.假设f(x,a)是x和a的一个函数。其中a解释为决定于所研究问题之外的一个参数(外生变量),x解释为我们所希望研究的变量(内生变量)。对于每一个不同的a值,都会有不同的x的昀优选择。我们再定义(昀优的)值函数,M(a)=f(x(a),a)。它告诉我们,对于不同的a值,f的昀优值是什么。在经济学中,我们通常对在参数a变化时昀优值如何变化感兴趣。于是,有了计算这一变化的简化方法。根椐定义,我们有()((),)Mafxaa对恒等式两边求微分,我们有()((),)()((),)dMafxaaxafxaadaxaa由于x(a)是能够使f昀大化的x值,我们知道((),)0fxaax把它代入上面的表达式,我们有()((),)dMafxaadaa记之为*()()((),)xxadMafxaadaa换句话说,值函数关于参数的全导数,等于在昀优点求导的偏导数。这就是包络定理的昀简洁形式。为什么会这样呢?当a变化时,有两个结果:a的变化直接影响f,a的变化影响x然后影响到f。但如果x是昀优选择,x的微小变化对f没有影响,所以间接效果消失了,只剩下直接效果。以利润昀大化问题为例,厂商在价格既定条件下的利润昀大化的优化问题为:(,)(,)MaxKLPQKLwLrK我们可以把利润函数看作是值函数,P,w和r是外生参数,则昀优利润对外生参数求导,就等于目标函数的偏导数在昀优选择处取值,则直接可以得到**Qp,**Lw,**Kr这就是说所谓的HotellingLemma。直接证明。(,)(,)MaxKLPQKLwLrKF.O.C0kPQrK0LPQwL得到*(,;)KKrwP和*(,;)LLrwP***=(,)((,,),(,,))(,,)(,,)KLPQKrwPLrwPrKrwPwLrwP********QKQLKLPPQrwKLPPPPP******()()KQLQPrPwQQKLPP(昀后一个等号是因为代入了一阶条件)*******()QKQLKLPPrLwwKwL******()()KQLQPrPwLLwKwL(昀后一个等号是因为代入了一阶条件)2.考虑如下形式的一个参数化的极大化问题121,2()max(,,)xxMagxxas.t.12(,,)0hxxa这一问题的拉格朗日函数为:1212(,,)(,,)LgxxahxxaF.O.C110ghxx220ghxx12(,,)0hxxa(1)这些条件决定昀优选择函数12((),())xaxa,该函数又决定极大值函数12()((),(),)Magxaxaa(2)包络定理给出了在极大化问题中值函数关于一个参数的导数的公式1212()()()()(,)(,,)(,,)xxaxxaxxadMaLxagxxahxxadaaaa求偏导数,特别注意它们是g和h在保持x1和x2于其昀优值不变的条件下对a的导数。包络定理的证明为一直接的计算。微分恒等式(2),得1212dMgdxgdxgdaxdaxdaa运用一阶条件(1)进行替代,得1212dMhdxhdxgdaxdaxdaa(3)现在看到,昀优选择函数必须恒满足约束12((),(),)0hxaxaa。对这一恒等式关于a求微分,我们有12120hdxhdxhxdaxdaa(4)将(4)代入(3),得dMhgdaaa这就是所求的结果。以效用极大化为例,12(,)MaxUuxx..st1122PxPxM121122(,)()MaxLuxxPxPxM直接套用包络定理,就得到:**LM,****111LuxPP,****222LuxPP证明:**LM,****111LuxPP,****222LuxPP******11221212111212212((,,),(,,))(,,)((,,)(,,))LuxPPMxPPMPPMPxPPMPxPPMM********1212***11221212()(1)LuxuxxxPxPxMPPMxMxMMMM*****12******12112212()()()xuxuPPpxpxMMxMxM昀后一个等式利用到了一阶条件。*********1212****1122112111121111()()LuuxuxxxPxPxMxPPPPxPxPPPP*****12********1211221111121()()()xuxuPPPxPxMxxPxPxP昀后一个等式利用到了一阶条件。同理可证:****222LuxPP以成本昀小化为例:,KLMinCrKwL.st(,)qqKL,,((,))KLMinrKwLqLKq直接套用包络定理,就得到:**Lq,***LCKrr和***LCLww以支出昀小化为例:11221,2xxMinePxPx..st12(,)Uxxu1122121,2,(,)xxMinLPxPxuxxu直接套用包络定理,就得到:121121(,;)(,;)eppuhppup和122122(,;)(,;)eppuhppup以上的结果就是所谓的ShephardLemma。