[:en]A method for solving constrained maximization programs is to use the Bellman dynamic programming approach. This method was developed for the optimal control case in order to evaluate public policy, or to solve problems in forward or backward induction in finite time. The model can be written as a Bellman equation of the form:

$V\left( k_{t},\lambda _{t}\right) =\max_{c_{t},h_{t}}\left[ \ln c_{t}+A\ln \left( 1-h_{t}\right) +\beta E_{t}\left\{ V\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} \right]$

under the constraints of the three equations mentioned above. Note that the Bellman function also contains $\beta E_{t}\left\{ V\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\}$, this means that expectations are conditional on the achievement of $\lambda _{t+1}$, this comes from the stochastic nature of $\lambda _{t}$. The Bellman equation becomes:

$V\left( k_{t},\lambda _{t}\right) =\max_{k_{t+1},h_{t}}\left[ \ln \left( \lambda _{t} k_{t} ^{\theta } h_{t} ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}\right) +A\ln \left( 1-h_{t}\right) +\beta E_{t}\left\{ V\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} \right]$

with the control variables $k_{t+1}$ et $h_{t}$. The first order conditions are:
$CPO &:&\frac{\partial V\left( k_{t},\lambda _{t}\right) }{\partial k_{t+1}}=0 \\ &\Leftrightarrow &\frac{-1}{\lambda _{t}\left( k_{t}\right) ^{\theta }\left( h_{t}\right) ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}+\beta E_{t}\left\{ V_{k}\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} =0$
et
$CPO &:&\frac{\partial V\left( k_{t},\lambda _{t}\right) }{\partial h_{t}}=0$
$latex\Leftrightarrow &\frac{\left( 1-\theta \right) \lambda _{t}\left( \frac{ k_{t}}{h_{t}}\right) ^{\theta }}{\lambda _{t}\left( k_{t}\right) ^{\theta }h_{t}^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}-A\frac{1}{1-h_{t}} =0$
$\Leftrightarrow &\frac{1}{\lambda _{t} k_{t} ^{\theta } h_{t} ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}=\beta E_{t}\left\{ \frac{\left( \theta \lambda _{t+1} k_{t+1} ^{\theta -1} h_{t+1} ^{1-\theta }+\left( 1-\delta \right) \right) }{\lambda _{t+1} k_{t+1} ^{\theta } h_{t+1} _{t}^{1-\theta }-k_{t+2}+\left( 1-\delta \right) k_{t+1}} |\lambda _{t}\right\}$
Applying the envelope theorem of BenVista-Scheinkman gives:
$\frac{\partial V\left( k_{t},\lambda _{t}\right) }{\partial k_{t}}=\frac{% \theta \lambda _{t}\left( k_{t}\right) ^{\theta -1}\left( h_{t}\right) ^{1-\theta }+\left( 1-\delta \right) }{\lambda _{t}\left( k_{t}\right) ^{\theta }\left( h_{t}\right) ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}$ This allows to write the first order condition as follows,
\begin{eqnarray*}
\quicklatex{size=13}
k_{t+1} &:&\frac{-1}{\lambda _{t}k_{t}^{\theta
}h_{t}^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}+\beta E_{t}\left\{
V_{k}\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} =0 \\
&\Leftrightarrow &\frac{-1}{\lambda _{t}k_{t}^{\theta }h_{t}^{1-\theta
}-k_{t+1}+\left( 1-\delta \right) k_{t}}+\beta \frac{\theta \lambda
_{t+1}k_{t+1}^{\theta -1}h_{t+1}^{1-\theta }+\left( 1-\delta \right) }{%
\lambda _{t+1}k_{t+1}^{\theta }h_{t+1t}^{1-\theta }-k_{t+2}+\left( 1-\delta
\right) k_{t+1}}=0 \\
&\Leftrightarrow &\beta \frac{\left( 1-\theta \right) \lambda
_{t+1}k_{t+1}^{\theta -1}h_{t+1}^{1-\theta }+\left( 1-\delta \right) }{%
\lambda _{t+1}k_{t+1}^{\theta }h_{t+1t}^{1-\theta }-k_{t+2}+\left( 1-\delta
\right) k_{t+1}}=\frac{1}{\lambda _{t}k_{t}^{\theta }h_{t}^{1-\theta
}-k_{t+1}+\left( 1-\delta \right) k_{t}} \\
&\Leftrightarrow &\left( 1-\theta \right) \lambda _{t}\left( \frac{k_{t}}{%
h_{t}}\right) ^{\theta }\left( 1-h_{t}\right) =A\left( \lambda
_{t}k_{t}^{\theta }h_{t}^{1-\theta }-k_{t+1}+\left( 1-\delta \right)
k_{t}\right)
\end{eqnarray*}
The first order conditions are:
$\left\{ \begin{array}{c} \frac{c_{t+1}}{\beta c_{t}}r_{t}+\left( 1-\delta \right) \\ Ac_{t}=\left( 1-h_{t}\right) w_{t}% \end{array}% \right.$[:fr][latexpage]Une méthode de résolution de programmes de maximisation sous contrainte peut également s’effectue par l’approche de programmation de dynamique de Bellman. Cette méthode a été développée pour le contrôle optimal afin d’évaluer des politiques publiques, ou encore pour résoudre certains problèmes en backward ou forward induction en temps fini. Le modèle peut donc être écrit sous la forme d’une équation de Bellman de la forme :
$V\left( k_{t},\lambda _{t}\right) =\max_{c_{t},h_{t}}\left[ \ln c_{t}+A\ln \left( 1-h_{t}\right) +\beta E_{t}\left\{ V\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} \right]$ Sous les contraintes des trois équations citées précédemment. On remarque que la fonction Bellman contient également $\beta E_{t}\left\{ V\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\}$ ce qui signifie que les anticipations sont conditionnelles à la réalisation de $\lambda _{t+1}$, ceci vient du caractère stochastique de $\lambda _{t}$. Par substitution, l’équation de Bellman devient :
$\quicklatex{size=12} V\left( k_{t},\lambda _{t}\right) =\max_{k_{t+1},h_{t}}\left[ \ln \left( \lambda _{t} k_{t} ^{\theta } h_{t} ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}\right) +A\ln \left( 1-h_{t}\right) +\beta E_{t}\left\{ V\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} \right]$ avec $k_{t+1}$ et $h_{t}$ les variables de contrôle. Les conditions du premier ordre sont :
\begin{eqnarray*}
\quicklatex{size=14}
CPO &:&\frac{\partial V\left(
k_{t},\lambda _{t}\right) }{\partial k_{t+1}}=0 \\
&\Leftrightarrow &\frac{-1}{\lambda _{t}\left( k_{t}\right) ^{\theta }\left(
h_{t}\right) ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}+\beta
E_{t}\left\{ V_{k}\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\}
=0
\end{eqnarray*}
et
\begin{eqnarray*}
\quicklatex{size=12}
CPO &:&\frac{\partial V\left(
k_{t},\lambda _{t}\right) }{\partial h_{t}}=0 \\
&\Leftrightarrow &\frac{\left( 1-\theta \right) \lambda _{t}\left( \frac{
k_{t}}{h_{t}}\right) ^{\theta }}{\lambda _{t}\left( k_{t}\right) ^{\theta
}h_{t}^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}-A\frac{1}{1-h_{t}}
=0 \\
&\Leftrightarrow &\frac{1}{\lambda _{t} k_{t} ^{\theta }
h_{t} ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}=\beta
E_{t}\left\{ \frac{\left( \theta \lambda _{t+1} k_{t+1}
^{\theta -1} h_{t+1} ^{1-\theta }+\left( 1-\delta \right)
\right) }{\lambda _{t+1} k_{t+1} ^{\theta }
h_{t+1} _{t}^{1-\theta }-k_{t+2}+\left( 1-\delta \right) k_{t+1}}
|\lambda _{t}\right\}
\end{eqnarray*}
L’application du théorème de l’enveloppe de Benviste-Scheinkman donne :
$\frac{\partial V\left( k_{t},\lambda _{t}\right) }{\partial k_{t}}=\frac{% \theta \lambda _{t}\left( k_{t}\right) ^{\theta -1}\left( h_{t}\right) ^{1-\theta }+\left( 1-\delta \right) }{\lambda _{t}\left( k_{t}\right) ^{\theta }\left( h_{t}\right) ^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}$ Ceci permet d’écrire la condition du premier ordre de la façon suivante,
\begin{eqnarray*}
\quicklatex{size=13}
k_{t+1} &:&\frac{-1}{\lambda _{t}k_{t}^{\theta
}h_{t}^{1-\theta }-k_{t+1}+\left( 1-\delta \right) k_{t}}+\beta E_{t}\left\{
V_{k}\left( k_{t+1},\lambda _{t+1}\right) |\lambda _{t}\right\} =0 \\
&\Leftrightarrow &\frac{-1}{\lambda _{t}k_{t}^{\theta }h_{t}^{1-\theta
}-k_{t+1}+\left( 1-\delta \right) k_{t}}+\beta \frac{\theta \lambda
_{t+1}k_{t+1}^{\theta -1}h_{t+1}^{1-\theta }+\left( 1-\delta \right) }{%
\lambda _{t+1}k_{t+1}^{\theta }h_{t+1t}^{1-\theta }-k_{t+2}+\left( 1-\delta
\right) k_{t+1}}=0 \\
&\Leftrightarrow &\beta \frac{\left( 1-\theta \right) \lambda
_{t+1}k_{t+1}^{\theta -1}h_{t+1}^{1-\theta }+\left( 1-\delta \right) }{%
\lambda _{t+1}k_{t+1}^{\theta }h_{t+1t}^{1-\theta }-k_{t+2}+\left( 1-\delta
\right) k_{t+1}}=\frac{1}{\lambda _{t}k_{t}^{\theta }h_{t}^{1-\theta
}-k_{t+1}+\left( 1-\delta \right) k_{t}} \\
&\Leftrightarrow &\left( 1-\theta \right) \lambda _{t}\left( \frac{k_{t}}{%
h_{t}}\right) ^{\theta }\left( 1-h_{t}\right) =A\left( \lambda
_{t}k_{t}^{\theta }h_{t}^{1-\theta }-k_{t+1}+\left( 1-\delta \right)
k_{t}\right)
\end{eqnarray*}
Les conditions du premier ordre sont donc :
$\left\{ \begin{array}{c} \frac{c_{t+1}}{\beta c_{t}}r_{t}+\left( 1-\delta \right) \\ Ac_{t}=\left( 1-h_{t}\right) w_{t}% \end{array}% \right.$[:]