Folosind metoda multiplicatorilor Lagrange găsiți extremele funcției. Metoda Lagrange (variații constante)

Să considerăm mai întâi cazul unei funcții a două variabile. Extremul condiționat al funcției $z=f(x,y)$ în punctul $M_0(x_0;y_0)$ este extremul acestei funcție, atins cu condiția ca variabilele $x$ și $y$ din vecinătatea acestui punct satisface ecuația constrângerii $\ varphi(x,y)=0$.

Numele de extremum „condițional” se datorează faptului că asupra variabilelor se impune condiția suplimentară $\varphi(x,y)=0$. Dacă este posibilă exprimarea unei variabile în termenii alteia din ecuația de conexiune, atunci problema determinării extremului condiționat se reduce la problema extremului obișnuit al unei funcții a unei variabile. De exemplu, dacă $y=\psi(x)$ decurge din ecuația constrângerii, atunci înlocuind $y=\psi(x)$ în $z=f(x,y)$, obținem o funcție a unei variabile $ z=f\stânga (x,\psi(x)\dreapta)$. În cazul general, însă, această metodă este de puțin folos, deci este necesar un nou algoritm.

Metoda multiplicatorilor Lagrange pentru funcții a două variabile.

Metoda multiplicatorilor Lagrange este că pentru a găsi extremul condiționat, funcția Lagrange este compusă: $F(x,y)=f(x,y)+\lambda\varphi(x,y)$ (parametrul $\lambda $ se numește multiplicator Lagrange). Condițiile extreme necesare sunt date de un sistem de ecuații din care se determină punctele staționare:

$$ \left \( \begin(aligned) & \frac(\partial F)(\partial x)=0;\\ & \frac(\partial F)(\partial y)=0;\\ & \varphi (x,y)=0.\end(aliniat)\right.$$

Semnul $d^2 F=F_(xx)^("")dx^2+2F_(xy)^("")dxdy+F_(yy)^("" )dy^2$. Dacă într-un punct staționar $d^2F > 0$, atunci funcția $z=f(x,y)$ are un minim condiționat în acest punct, dar dacă $d^2F< 0$, то условный максимум.

Există o altă modalitate de a determina natura extremului. Din ecuația constrângerii obținem: $\varphi_(x)^(")dx+\varphi_(y)^(")dy=0$, $dy=-\frac(\varphi_(x)^("))( \varphi_ (y)^("))dx$, deci în orice punct staționar avem:

$$d^2 F=F_(xx)^("")dx^2+2F_(xy)^("")dxdy+F_(yy)^("")dy^2=F_(xx)^( "")dx^2+2F_(xy)^("")dx\left(-\frac(\varphi_(x)^("))(\varphi_(y)^("))dx\right)+ F_(yy)^("")\left(-\frac(\varphi_(x)^("))(\varphi_(y)^("))dx\right)^2=\\ =-\frac (dx^2)(\left(\varphi_(y)^(") \right)^2)\cdot\left(-(\varphi_(y)^("))^2 F_(xx)^(" ")+2\varphi_(x)^(")\varphi_(y)^(")F_(xy)^("")-(\varphi_(x)^("))^2 F_(yy)^ ("")\dreapta)$$

Al doilea factor (situat între paranteze) poate fi reprezentat sub această formă:

Elementele $\left| \begin(array) (cc) F_(xx)^("") și F_(xy)^("") \\ F_(xy)^("") și F_(yy)^("") \end (matrice) \right|$ care este Hessianul funcției Lagrange. Dacă $H > 0$ atunci $d^2F< 0$, что указывает на условный максимум. Аналогично, при $H < 0$ имеем $d^2F >$0, adică avem un minim condiționat al funcției $z=f(x,y)$.

Notă asupra formei determinantului $H$. arată ascunde

$$ H=-\left|\begin(array) (ccc) 0 & \varphi_(x)^(") & \varphi_(y)^(")\\ \varphi_(x)^(") & F_ (xx)^("") și F_(xy)^("") \\ \varphi_(y)^(") și F_(xy)^("") și F_(yy)^("") \ sfârşit(matrice) \right| $$

În această situație, regula formulată mai sus se modifică astfel: dacă $H > 0$, atunci funcția are un minim condiționat, iar pentru $H< 0$ получим условный максимум функции $z=f(x,y)$. При решении задач следует учитывать такие нюансы.

Algoritm pentru studierea unei funcții a două variabile pentru un extremum condiționat

  1. Compuneți funcția Lagrange $F(x,y)=f(x,y)+\lambda\varphi(x,y)$
  2. Rezolvați sistemul $ \left \( \begin(aligned) & \frac(\partial F)(\partial x)=0;\\ & \frac(\partial F)(\partial y)=0;\\ & \ varphi(x,y)=0.\end(aliniat)\right.$
  3. Determinați natura extremului în fiecare dintre punctele staționare găsite în paragraful anterior. Pentru a face acest lucru, utilizați oricare dintre următoarele metode:
    • Compuneți determinantul $H$ și aflați semnul acestuia
    • Ținând cont de ecuația constrângerii, se calculează semnul lui $d^2F$

Metoda multiplicatorului Lagrange pentru funcții de n variabile

Să presupunem că avem o funcție de $n$ variabile $z=f(x_1,x_2,\ldots,x_n)$ și $m$ ecuații de constrângere ($n > m$):

$$\varphi_1(x_1,x_2,\ldots,x_n)=0; \; \varphi_2(x_1,x_2,\ldots,x_n)=0,\ldots,\varphi_m(x_1,x_2,\ldots,x_n)=0.$$

Notând multiplicatorii Lagrange ca $\lambda_1,\lambda_2,\ldots,\lambda_m$, compunem funcția Lagrange:

$$F(x_1,x_2,\ldots,x_n,\lambda_1,\lambda_2,\ldots,\lambda_m)=f+\lambda_1\varphi_1+\lambda_2\varphi_2+\ldots+\lambda_m\varphi_m$$

Condițiile necesare pentru prezența unui extremum condiționat sunt date de un sistem de ecuații din care se găsesc coordonatele punctelor staționare și valorile multiplicatorilor Lagrange:

$$\left\(\begin(aligned) & \frac(\partial F)(\partial x_i)=0; (i=\overline(1,n))\\ & \varphi_j=0; (j=\ overline(1,m)) \end(aligned) \right.$$

Este posibil să aflați dacă o funcție are un minim condiționat sau un maxim condiționat în punctul găsit, ca înainte, folosind semnul $d^2F$. Dacă în punctul găsit $d^2F > 0$, atunci funcția are un minim condiționat, dar dacă $d^2F< 0$, - то условный максимум. Можно пойти иным путем, рассмотрев следующую матрицу:

Determinant matrice $\left| \begin(array) (ccccc) \frac(\partial^2F)(\partial x_(1)^(2)) & \frac(\partial^2F)(\partial x_(1)\partial x_(2) ) & \frac(\partial^2F)(\partial x_(1)\partial x_(3)) &\ldots & \frac(\partial^2F)(\partial x_(1)\partial x_(n)) \\ \frac(\partial^2F)(\partial x_(2)\partial x_1) & \frac(\partial^2F)(\partial x_(2)^(2)) & \frac(\partial^2F) )(\partial x_(2)\partial x_(3)) &\ldots & \frac(\partial^2F)(\partial x_(2)\partial x_(n))\\ \frac(\partial^2F) )(\partial x_(3) \partial x_(1)) & \frac(\partial^2F)(\partial x_(3)\partial x_(2)) & \frac(\partial^2F)(\partial x_(3)^(2)) &\ldots & \frac(\partial^2F)(\partial x_(3)\partial x_(n))\\ \ldots & \ldots & \ldots &\ldots & \ ldots\\ \frac(\partial^2F)(\partial x_(n)\partial x_(1)) & \frac(\partial^2F)(\partial x_(n)\partial x_(2)) & \ frac(\partial^2F)(\partial x_(n)\partial x_(3)) &\ldots & \frac(\partial^2F)(\partial x_(n)^(2))\\ \end( matrice) \right|$ evidențiat cu roșu în matricea $L$ este Hessianul funcției Lagrange. Folosim următoarea regulă:

  • Daca semnele minorilor de colt sunt $H_(2m+1),\; H_(2m+2),\ldots,H_(m+n)$ matricele $L$ coincid cu semnul $(-1)^m$, atunci punctul staționar studiat este punctul minim condiționat al funcției $ z=f(x_1,x_2 ,x_3,\ldots,x_n)$.
  • Daca semnele minorilor de colt sunt $H_(2m+1),\; H_(2m+2),\ldots,H_(m+n)$ alternează, iar semnul minorului $H_(2m+1)$ coincide cu semnul numărului $(-1)^(m+1 )$, atunci punctul staționar studiat este punctul maxim condiționat al funcției $z=f(x_1,x_2,x_3,\ldots,x_n)$.

Exemplul #1

Găsiți extremul condiționat al funcției $z(x,y)=x+3y$ în condiția $x^2+y^2=10$.

Interpretarea geometrică a acestei probleme este următoarea: se cere să se găsească cea mai mare și cea mai mică valoare a aplicatului planului $z=x+3y$ pentru punctele de intersecție a acestuia cu cilindrul $x^2+y^2 =10$.

Este oarecum dificil să exprimăm o variabilă în termenii unei alte din ecuația constrângerii și să o înlocuim în funcția $z(x,y)=x+3y$, așa că vom folosi metoda Lagrange.

Notând $\varphi(x,y)=x^2+y^2-10$, compunem funcția Lagrange:

$$ F(x,y)=z(x,y)+\lambda \varphi(x,y)=x+3y+\lambda(x^2+y^2-10);\\ \frac(\partial F)(\partial x)=1+2\lambda x; \frac(\partial F)(\partial y)=3+2\lambda y. $$

Să scriem sistemul de ecuații pentru determinarea punctelor staționare ale funcției Lagrange:

$$ \left \( \begin(aligned) & 1+2\lambda x=0;\\ & 3+2\lambda y=0;\\ & x^2+y^2-10=0. \end (aliniat)\dreapta.$$

Dacă presupunem $\lambda=0$, atunci prima ecuație devine: $1=0$. Contradicția rezultată spune că $\lambda\neq 0$. În condiția $\lambda\neq 0$, din prima și a doua ecuație avem: $x=-\frac(1)(2\lambda)$, $y=-\frac(3)(2\lambda) $. Înlocuind valorile obținute în a treia ecuație, obținem:

$$ \left(-\frac(1)(2\lambda) \right)^2+\left(-\frac(3)(2\lambda) \right)^2-10=0;\\ \frac (1)(4\lambda^2)+\frac(9)(4\lambda^2)=10; \lambda^2=\frac(1)(4); \left[ \begin(aligned) & \lambda_1=-\frac(1)(2);\\ & \lambda_2=\frac(1)(2). \end(aligned) \right.\\ \begin(aligned) & \lambda_1=-\frac(1)(2); \; x_1=-\frac(1)(2\lambda_1)=1; \; y_1=-\frac(3)(2\lambda_1)=3;\\ & \lambda_2=\frac(1)(2); \; x_2=-\frac(1)(2\lambda_2)=-1; \; y_2=-\frac(3)(2\lambda_2)=-3.\end(aligned) $$

Deci, sistemul are două soluții: $x_1=1;\; y_1=3;\; \lambda_1=-\frac(1)(2)$ și $x_2=-1;\; y_2=-3;\; \lambda_2=\frac(1)(2)$. Să aflăm natura extremului în fiecare punct staționar: $M_1(1;3)$ și $M_2(-1;-3)$. Pentru a face acest lucru, calculăm determinantul $H$ la fiecare dintre puncte.

$$ \varphi_(x)^(")=2x;\; \varphi_(y)^(")=2y;\; F_(xx)^("")=2\lambda;\; F_(xy)^("")=0;\; F_(yy)^("")=2\lambda.\\ H=\left| \begin(array) (ccc) 0 & \varphi_(x)^(") & \varphi_(y)^(")\\ \varphi_(x)^(") & F_(xx)^("") & F_(xy)^("") \\ \varphi_(y)^(") & F_(xy)^("") & F_(yy)^("") \end(array) \right|= \left| \begin(array) (ccc) 0 & 2x & 2y\\ 2x & 2\lambda & 0 \\ 2y & 0 & 2\lambda \end(array) \right|= 8\cdot\left| \begin(array) (ccc) 0 & x & y\\ x & \lambda & 0 \\ y & 0 & \lambda \end(array) \right| $$

În punctul $M_1(1;3)$ obținem: $H=8\cdot\left| \begin(array) (ccc) 0 & x & y\\ x & \lambda & 0 \\ y & 0 & \lambda \end(array) \right|= 8\cdot\left| \begin(array) (ccc) 0 & 1 & 3\\ 1 & -1/2 & 0 \\ 3 & 0 & -1/2 \end(array) \right|=40 > 0$, deci la punctul $M_1(1;3)$ funcția $z(x,y)=x+3y$ are un maxim condiționat, $z_(\max)=z(1;3)=10$.

În mod similar, în punctul $M_2(-1;-3)$ găsim: $H=8\cdot\left| \begin(array) (ccc) 0 & x & y\\ x & \lambda & 0 \\ y & 0 & \lambda \end(array) \right|= 8\cdot\left| \begin(array) (ccc) 0 & -1 & -3\\ -1 & 1/2 & 0 \\ -3 & 0 & 1/2 \end(array) \right|=-40$. Din moment ce $H< 0$, то в точке $M_2(-1;-3)$ имеем условный минимум функции $z(x,y)=x+3y$, а именно: $z_{\min}=z(-1;-3)=-10$.

Observ că în loc să calculăm valoarea determinantului $H$ în fiecare punct, este mult mai convenabil să îl deschidem într-un mod general. Pentru a nu aglomera textul cu detalii, voi ascunde această metodă sub o notă.

Notația determinant $H$ în formă generală. arată ascunde

$$ H=8\cdot\left|\begin(array)(ccc)0&x&y\\x&\lambda&0\\y&0&\lambda\end(array)\right| =8\cdot\left(-\lambda(y^2)-\lambda(x^2)\right) =-8\lambda\cdot\left(y^2+x^2\right). $$

În principiu, este deja evident ce semn are $H$. Deoarece niciunul dintre punctele $M_1$ sau $M_2$ nu coincide cu originea, atunci $y^2+x^2>0$. Prin urmare, semnul $H$ este opus semnului $\lambda$. De asemenea, puteți finaliza calculele:

$$ \begin(aligned) &H(M_1)=-8\cdot\left(-\frac(1)(2)\right)\cdot\left(3^2+1^2\right)=40;\ \ &H(M_2)=-8\cdot\frac(1)(2)\cdot\left((-3)^2+(-1)^2\right)=-40. \end(aliniat) $$

Întrebarea despre natura extremului în punctele staționare $M_1(1;3)$ și $M_2(-1;-3)$ poate fi rezolvată fără a folosi determinantul $H$. Găsiți semnul $d^2F$ în fiecare punct staționar:

$$ d^2 F=F_(xx)^("")dx^2+2F_(xy)^("")dxdy+F_(yy)^("")dy^2=2\lambda \left( dx^2+dy^2\right) $$

Observ că notația $dx^2$ înseamnă exact $dx$ ridicat la a doua putere, adică. $\left(dx\right)^2$. Prin urmare avem: $dx^2+dy^2>0$, deci pentru $\lambda_1=-\frac(1)(2)$ obținem $d^2F< 0$. Следовательно, функция имеет в точке $M_1(1;3)$ условный максимум. Аналогично, в точке $M_2(-1;-3)$ получим условный минимум функции $z(x,y)=x+3y$. Отметим, что для определения знака $d^2F$ не пришлось учитывать связь между $dx$ и $dy$, ибо знак $d^2F$ очевиден без дополнительных преобразований. В следующем примере для определения знака $d^2F$ уже будет необходимо учесть связь между $dx$ и $dy$.

Răspuns: în punctul $(-1;-3)$ funcția are un minim condiționat, $z_(\min)=-10$. În punctul $(1;3)$ funcția are un maxim condiționat, $z_(\max)=10$

Exemplul #2

Găsiți extremul condiționat al funcției $z(x,y)=3y^3+4x^2-xy$ în condiția $x+y=0$.

Prima modalitate (metoda multiplicatorilor Lagrange)

Notând $\varphi(x,y)=x+y$ compunem funcția Lagrange: $F(x,y)=z(x,y)+\lambda \varphi(x,y)=3y^3+4x ^2 -xy+\lambda(x+y)$.

$$ \frac(\partial F)(\partial x)=8x-y+\lambda; \; \frac(\partial F)(\partial y)=9y^2-x+\lambda.\\ \left \( \begin(aligned) & 8x-y+\lambda=0;\\ & 9y^2-x+\ lambda=0;\\&x+y=0.\end(aliniat)\right.$$

Rezolvând sistemul, obținem: $x_1=0$, $y_1=0$, $\lambda_1=0$ și $x_2=\frac(10)(9)$, $y_2=-\frac(10)(9 )$ , $\lambda_2=-10$. Avem două puncte staționare: $M_1(0;0)$ și $M_2 \left(\frac(10)(9);-\frac(10)(9) \right)$. Să aflăm natura extremului în fiecare punct staționar folosind determinantul $H$.

$$ H=\stânga| \begin(array) (ccc) 0 & \varphi_(x)^(") & \varphi_(y)^(")\\ \varphi_(x)^(") & F_(xx)^("") & F_(xy)^("") \\ \varphi_(y)^(") & F_(xy)^("") & F_(yy)^("") \end(array) \right|= \left| \begin(array) (ccc) 0 & 1 & 1\\ 1 & 8 & -1 \\ 1 & -1 & 18y \end(array) \right|=-10-18y $$

În punctul $M_1(0;0)$ $H=-10-18\cdot 0=-10< 0$, поэтому $M_1(0;0)$ есть точка условного минимума функции $z(x,y)=3y^3+4x^2-xy$, $z_{\min}=0$. В точке $M_2\left(\frac{10}{9};-\frac{10}{9}\right)$ $H=10 >0$, deci în acest moment funcția are un maxim condiționat, $z_(\max)=\frac(500)(243)$.

Investigăm natura extremului în fiecare dintre puncte printr-o metodă diferită, bazată pe semnul $d^2F$:

$$ d^2 F=F_(xx)^("")dx^2+2F_(xy)^("")dxdy+F_(yy)^("")dy^2=8dx^2-2dxdy+ 18ydy ^2 $$

Din ecuația constrângerii $x+y=0$ avem: $d(x+y)=0$, $dx+dy=0$, $dy=-dx$.

$$ d^2 F=8dx^2-2dxdy+18ydy^2=8dx^2-2dx(-dx)+18y(-dx)^2=(10+18y)dx^2 $$

Deoarece $ d^2F \Bigr|_(M_1)=10 dx^2 > 0$, atunci $M_1(0;0)$ este punctul minim condiționat al funcției $z(x,y)=3y^3+ 4x^ 2-xy$. În mod similar, $d^2F \Bigr|_(M_2)=-10 dx^2< 0$, т.е. $M_2\left(\frac{10}{9}; -\frac{10}{9} \right)$ - точка условного максимума.

A doua cale

Din ecuația constrângerii $x+y=0$ obținem: $y=-x$. Substituind $y=-x$ în funcția $z(x,y)=3y^3+4x^2-xy$, obținem o funcție a variabilei $x$. Să notăm această funcție ca $u(x)$:

$$ u(x)=z(x,-x)=3\cdot(-x)^3+4x^2-x\cdot(-x)=-3x^3+5x^2. $$

Astfel, am redus problema găsirii extremului condiționat al unei funcții a două variabile la problema determinării extremului unei funcții a unei variabile.

$$ u_(x)^(")=-9x^2+10x;\\ -9x^2+10x=0; \; x\cdot(-9x+10)=0;\\ x_1=0; \; ;y_1=-x_1=0;\\ x_2=\frac(10)(9);\;y_2=-x_2=-\frac(10)(9).$$

Am primit puncte $M_1(0;0)$ și $M_2\left(\frac(10)(9); -\frac(10)(9)\right)$. Se cunosc cercetări ulterioare din cursul calculului diferențial al funcțiilor unei variabile. Cercetând semnul lui $u_(xx)^("")$ la fiecare punct staționar sau verificând schimbarea semnului lui $u_(x)^(")$ la punctele găsite, obținem aceleași concluzii ca și atunci când rezolvăm primul metoda. De exemplu, verificați semnul $u_(xx)^("")$:

$$u_(xx)^("")=-18x+10;\\ u_(xx)^("")(M_1)=10;\;u_(xx)^("")(M_2)=- 10.$$

Deoarece $u_(xx)^("")(M_1)>0$, atunci $M_1$ este punctul minim al funcției $u(x)$, în timp ce $u_(\min)=u(0)=0 $ . Deoarece $u_(xx)^("")(M_2)<0$, то $M_2$ - точка максимума функции $u(x)$, причём $u_{\max}=u\left(\frac{10}{9}\right)=\frac{500}{243}$.

Valorile funcției $u(x)$ în condiția de conectare dată coincid cu valorile funcției $z(x,y)$, adică. extremele găsite ale funcției $u(x)$ sunt extremele condiționate dorite ale funcției $z(x,y)$.

Răspuns: în punctul $(0;0)$ funcția are un minim condiționat, $z_(\min)=0$. În punctul $\left(\frac(10)(9); -\frac(10)(9) \right)$ funcția are un maxim condiționat, $z_(\max)=\frac(500)(243 )$.

Să mai luăm în considerare un exemplu, în care aflăm natura extremului determinând semnul lui $d^2F$.

Exemplul #3

Aflați valorile maxime și minime ale funcției $z=5xy-4$ dacă variabilele $x$ și $y$ sunt pozitive și satisfac ecuația de constrângere $\frac(x^2)(8)+\frac( y^2)(2) -1=0$.

Compuneți funcția Lagrange: $F=5xy-4+\lambda \left(\frac(x^2)(8)+\frac(y^2)(2)-1 \right)$. Găsiți punctele staționare ale funcției Lagrange:

$$ F_(x)^(")=5y+\frac(\lambda x)(4); \; F_(y)^(")=5x+\lambda y.\\ \left \( \begin(aligned) & 5y+\frac(\lambda x)(4)=0;\\ & 5x+\lambda y=0;\\ & \frac(x^2)(8)+\frac(y^2)(2)- 1=0;\\ & x > 0; \; y > 0. \end(aliniat) \right.$$

Toate transformările ulterioare sunt efectuate ținând cont de $x > 0; \; y > 0$ (acest lucru este stipulat în starea problemei). Din a doua ecuație, exprimăm $\lambda=-\frac(5x)(y)$ și înlocuim valoarea găsită în prima ecuație: $5y-\frac(5x)(y)\cdot \frac(x)( 4)=0$ , $4y^2-x^2=0$, $x=2y$. Înlocuind $x=2y$ în a treia ecuație, obținem: $\frac(4y^2)(8)+\frac(y^2)(2)-1=0$, $y^2=1$, $y =1$.

Deoarece $y=1$, atunci $x=2$, $\lambda=-10$. Natura extremului în punctul $(2;1)$ este determinată din semnul lui $d^2F$.

$$ F_(xx)^("")=\frac(\lambda)(4); \; F_(xy)^("")=5; \; F_(yy)^("")=\lambda. $$

Deoarece $\frac(x^2)(8)+\frac(y^2)(2)-1=0$, atunci:

$$ d\left(\frac(x^2)(8)+\frac(y^2)(2)-1\right)=0; \; d\left(\frac(x^2)(8) \right)+d\left(\frac(y^2)(2) \right)=0; \; \frac(x)(4)dx+ydy=0; \; dy=-\frac(xdx)(4y). $$

În principiu, aici puteți înlocui imediat coordonatele punctului staționar $x=2$, $y=1$ și parametrul $\lambda=-10$, obținând astfel:

$$ F_(xx)^("")=\frac(-5)(2); \; F_(xy)^("")=-10; \; dy=-\frac(dx)(2).\\ d^2 F=F_(xx)^("")dx^2+2F_(xy)^("")dxdy+F_(yy)^(" ")dy^2=-\frac(5)(2)dx^2+10dx\cdot \left(-\frac(dx)(2) \right)-10\cdot \left(-\frac(dx) (2) \right)^2=\\ =-\frac(5)(2)dx^2-5dx^2-\frac(5)(2)dx^2=-10dx^2. $$

Cu toate acestea, în alte probleme pentru un extremum condiționat, pot exista mai multe puncte staționare. În astfel de cazuri, este mai bine să reprezentați $d^2F$ într-o formă generală și apoi să înlocuiți coordonatele fiecăruia dintre punctele staționare găsite în expresia rezultată:

$$ d^2 F=F_(xx)^("")dx^2+2F_(xy)^("")dxdy+F_(yy)^("")dy^2=\frac(\lambda) (4)dx^2+10\cdot dx\cdot \frac(-xdx)(4y) +\lambda\cdot \left(-\frac(xdx)(4y) \right)^2=\\ =\frac (\lambda)(4)dx^2-\frac(5x)(2y)dx^2+\lambda \cdot \frac(x^2dx^2)(16y^2)=\left(\frac(\lambda) )(4)-\frac(5x)(2y)+\frac(\lambda \cdot x^2)(16y^2) \right)\cdot dx^2 $$

Înlocuind $x=2$, $y=1$, $\lambda=-10$, obținem:

$$ d^2 F=\left(\frac(-10)(4)-\frac(10)(2)-\frac(10 \cdot 4)(16) \right)\cdot dx^2=- 10dx^2. $$

Deoarece $d^2F=-10\cdot dx^2< 0$, то точка $(2;1)$ есть точкой условного максимума функции $z=5xy-4$, причём $z_{\max}=10-4=6$.

Răspuns: în punctul $(2;1)$ funcția are un maxim condiționat, $z_(\max)=6$.

În partea următoare, vom lua în considerare aplicarea metodei Lagrange pentru funcțiile unui număr mai mare de variabile.

Metoda de determinare a extremului condiționat începe cu construirea unei funcții Lagrange auxiliare, care, în regiunea soluțiilor fezabile, atinge un maxim pentru aceleași valori ale variabilelor. X 1 , X 2 , ..., X n , care este funcția obiectiv z . Fie problema determinării extremului condiționat al funcției z=f(X) sub restricții φ i ( X 1 , X 2 , ..., X n ) = 0, i = 1, 2, ..., m , m < n

Compuneți o funcție

Care e numit Funcția Lagrange. X , - factori constanți ( Multiplicatori de Lagrange). Rețineți că multiplicatorilor Lagrange li se poate da un sens economic. În cazul în care un f(x 1 , X 2 , ..., X n ) - venituri conform planului X = (x 1 , X 2 , ..., X n ) , și funcția φ i (X 1 , X 2 , ..., X n ) sunt costurile i-a resursă corespunzătoare acestui plan, atunci X , - preţul (estimarea) resursei i-a, care caracterizează modificarea valorii extreme a funcţiei obiectiv în funcţie de modificarea mărimii resursei i-a (estimare marginală). L(X) - functie n+m variabile (X 1 , X 2 , ..., X n , λ 1 , λ 2 , ..., λ n ) . Determinarea punctelor staționare ale acestei funcții duce la rezolvarea sistemului de ecuații

Este ușor să vezi asta . Astfel, problema găsirii extremului condiționat al funcției z=f(X) se reduce la găsirea extremului local al funcției L(X) . Dacă se găsește punctul staționar, atunci problema existenței unui extremum în cele mai simple cazuri este rezolvată pe baza unor condiții suficiente pentru extremum - studiul semnului celei de-a doua diferențe. d 2 L(X) într-un punct staționar, cu condiția ca variabila să crească Δx i - legate prin relaţii

obţinute prin diferenţierea ecuaţiilor de constrângere.

Rezolvarea unui sistem de ecuații neliniare cu două necunoscute folosind instrumentul Solver

Setare Găsirea unei soluții vă permite să găsiți o soluție la un sistem de ecuații neliniare cu două necunoscute:

Unde
- funcţia neliniară a variabilelor X și y ,
este o constantă arbitrară.

Se știe că perechea X , y ) este o soluție a sistemului de ecuații (10) dacă și numai dacă este o soluție a următoarei ecuații în două necunoscute:

Cu pe de altă parte, soluția sistemului (10) este punctele de intersecție a două curbe: f ] (X, y) = C și f 2 (x, y) = C 2 la suprafata XOY.

De aici urmează o metodă de găsire a rădăcinilor sistemului. ecuații neliniare:

    Determinați (cel puțin aproximativ) intervalul de existență a unei soluții la sistemul de ecuații (10) sau ecuația (11). Aici este necesar să se țină cont de tipul de ecuații incluse în sistem, domeniul de definire al fiecăreia dintre ecuațiile lor etc. Uneori se folosește selecția aproximării inițiale a soluției;

    Tabelați soluția ecuației (11) pentru variabilele x și y pe intervalul selectat sau construiți grafice ale funcțiilor f 1 (X, y) = C, și f 2 (x, y) = C 2 (sistem(10)).

    Localizați rădăcinile estimate ale sistemului de ecuații - găsiți mai multe valori minime din tabelul de tabelare a rădăcinilor ecuației (11) sau determinați punctele de intersecție ale curbelor incluse în sistem (10).

4. Găsiți rădăcinile sistemului de ecuații (10) folosind suplimentul Căutați o soluție.

Nume parametru Sens
Subiect articol: Metoda Lagrange.
Rubrica (categoria tematica) Matematică

A găsi un polinom înseamnă a determina valorile coeficientului său . Pentru a face acest lucru, folosind condiția de interpolare, puteți forma un sistem de ecuații algebrice liniare (SLAE).

Determinantul acestui SLAE este de obicei numit determinant Vandermonde. Determinantul Vandermonde nu este egal cu zero atunci când pentru , adică în cazul în care nu există noduri care se potrivesc în tabelul de căutare. Τᴀᴋᴎᴍ ᴏϬᴩᴀᴈᴏᴍ, se poate argumenta că SLAE are o soluție și această soluție este unică. Rezolvarea SLAE și determinarea coeficienților necunoscuți se poate construi un polinom de interpolare.

Un polinom care îndeplinește condițiile de interpolare, atunci când este interpolat prin metoda Lagrange, este construit ca o combinație liniară de polinoame de gradul al n-lea:

Polinoamele se numesc de bază polinomiale. Pentru a polinomul Lagrange satisface condițiile de interpolare, este extrem de important ca următoarele condiții să fie îndeplinite pentru polinoamele sale de bază:

pentru .

Dacă aceste condiții sunt îndeplinite, atunci pentru oricare avem:

Τᴀᴋᴎᴍ ᴏϬᴩᴀᴈᴏᴍ, îndeplinirea condițiilor date pentru polinoamele de bază înseamnă că și condițiile de interpolare sunt îndeplinite.

Să determinăm forma polinoamelor de bază pe baza restricțiilor impuse acestora.

Prima condiție: la .

a 2-a condiție: .

În sfârșit, pentru polinomul de bază, putem scrie:

Apoi, înlocuind expresia rezultată pentru polinoamele de bază în polinomul original, obținem forma finală a polinoamului Lagrange:

O formă particulară a polinomului Lagrange la este de obicei numită formulă de interpolare liniară:

.

Polinomul Lagrange luat la se numește de obicei formulă de interpolare pătratică:

Metoda Lagrange. - concept și tipuri. Clasificarea și caracteristicile categoriei „Metoda Lagrange”. 2017, 2018.

  • - Metoda Lagrange (metoda de variaţie a unei constante arbitrare).

    Telecomenzi liniare. Definiție. controlul tipului, adică liniară în raport cu funcția necunoscută și derivata ei se numește liniară. Pentru o soluție de acest tip, ur-th luăm în considerare două metode: metoda Lagrange și metoda Bernoulli Să considerăm un DE omogen.


  • - Telecomanda liniara, omogena si eterogena. Conceptul de soluție generală. Metoda lui Lagrange de variație a produselor constantelor.

    Definiție. DU se numește omogen dacă f-i poate fi reprezentat ca f-i în raport cu argumentele lor Exemplu. F-th se numește f-th măsură omogenă dacă Exemple: 1) - ordinul 1 de omogenitate. 2) - ordinul 2 de omogenitate. 3) - ordinul zero al omogenității (doar omogen... .


  • - Curs 8. Aplicarea derivatelor parțiale: sarcini pentru extremum. Metoda Lagrange.

    Sarcinile extreme sunt de mare importanță în calculele economice. Acesta este calculul, de exemplu, al venitului maxim, al profitului, al costului minim, în funcție de mai multe variabile: resurse, active de producție etc. Teoria găsirii extremelor de funcții... .


  • - T.2.3. DE de ordine superioare. Ecuație în diferențiale totale. T.2.4. DE liniar de ordinul doi cu coeficienți constanți. Metoda Lagrange.

    3. 2. 1. DE cu variabile separabile S.R. 3. În știința naturii, tehnologie și economie, de multe ori trebuie să se ocupe de formule empirice, i.e. formule întocmite pe baza prelucrării datelor statistice sau...

  • Metoda multiplicatorilor Lagrange.

    Metoda multiplicatorului Lagrange este una dintre metodele care permit rezolvarea problemelor de programare neliniară.

    Programarea neliniară este o ramură a programării matematice care studiază metode de rezolvare a problemelor extreme cu o funcție obiectiv neliniară și un domeniu de soluții fezabile definite de constrângeri neliniare. În economie, aceasta corespunde faptului că rezultatele (eficiența) cresc sau scad în mod disproporționat cu schimbările în scara utilizării resurselor (sau, în mod echivalent, scara producției): de exemplu, datorită împărțirii costurilor de producție în întreprinderi în variabile. și constante condiționale; din cauza saturației cererii de mărfuri, când fiecare unitate ulterioară este mai greu de vândut decât cea anterioară etc.

    Problema programării neliniare este pusă ca problema găsirii optimului unei anumite funcții obiective

    F(x 1 ,...x n), F (X) → max

    in conditii

    g j (x 1 ,...x n)≥0, g (X) ≤ b , X ≥ 0

    Unde X-vector de variabile cerute;

    F (X) -funcție obiectivă;

    g (X) este funcția de constrângere (diferențiabilă continuu);

    b - vector de constante de constrângere.

    Rezolvarea unei probleme de programare neliniară (maxim sau minim global) poate aparține fie graniței, fie interiorului mulțimii admisibile.

    Spre deosebire de o problemă de programare liniară, într-o problemă de programare neliniară, optimul nu se află neapărat la granița regiunii definite de constrângeri. Cu alte cuvinte, problema este alegerea unor astfel de valori nenegative ale variabilelor, supuse unui sistem de constrângeri sub formă de inegalități, sub care se realizează maximul (sau minimul) funcției date. În acest caz nu sunt stipulate formele funcţiei obiective şi nici ale inegalităţilor. Pot exista cazuri diferite: funcția obiectiv este neliniară, iar constrângerile sunt liniare; funcția obiectiv este liniară, iar constrângerile (cel puțin una dintre ele) sunt neliniare; atât funcţia obiectiv cât şi constrângerile sunt neliniare.

    Problema programării neliniare apare în științele naturii, inginerie, economie, matematică, relații de afaceri și științe guvernamentale.



    Programarea neliniară, de exemplu, este asociată cu o problemă economică de bază. Deci în problema alocării resurselor limitate fie se maximizează eficiența, fie, dacă se studiază consumatorul, consumul în prezența unor constrângeri care exprimă condiții de deficit de resurse. Într-o astfel de formulare generală, formularea matematică a problemei se poate dovedi a fi imposibilă, dar în aplicații specifice, forma cantitativă a tuturor funcțiilor poate fi determinată direct. De exemplu, o întreprindere industrială produce produse din plastic. Eficiența producției aici este măsurată prin profit, iar constrângerile sunt interpretate ca forță de muncă disponibilă, spațiu de producție, productivitatea echipamentelor etc.

    Metoda „cost-eficiență” se încadrează și în schema programării neliniare. Această metodă a fost dezvoltată pentru a fi utilizată în luarea deciziilor în guvern. Funcția generală de eficiență este bunăstarea. Aici apar două probleme de programare neliniară: prima este maximizarea efectului cu costuri limitate, a doua este minimizarea costurilor, cu condiția ca efectul să fie peste un anumit nivel minim. Această problemă este de obicei bine modelată folosind programarea neliniară.

    Rezultatele rezolvării problemei programării neliniare sunt utile în luarea deciziilor guvernamentale. Soluția rezultată este, desigur, recomandată, de aceea este necesar să se investigheze ipotezele și acuratețea formulării problemei de programare neliniară înainte de a lua o decizie finală.

    Problemele neliniare sunt complexe, adesea ele sunt simplificate ducând la cele liniare. Pentru a face acest lucru, se presupune condiționat că într-o anumită zonă funcția obiectiv crește sau scade proporțional cu modificarea variabilelor independente. Această abordare se numește metoda aproximărilor liniare pe bucăți; cu toate acestea, este aplicabilă numai anumitor tipuri de probleme neliniare.

    Problemele neliniare în anumite condiții sunt rezolvate folosind funcția Lagrange: după ce i-au găsit punctul de șa, găsesc și soluția problemei. Metodele gradientului ocupă un loc important printre algoritmii de calcul pentru N.P. Nu există o metodă universală pentru problemele neliniare și, aparent, s-ar putea să nu existe, deoarece acestea sunt extrem de diverse. Problemele multi-extreme sunt deosebit de dificil de rezolvat.

    Una dintre metodele care permit reducerea problemei programării neliniare la rezolvarea unui sistem de ecuații este metoda Lagrange a multiplicatorilor nedeterminați.

    Folosind metoda multiplicatorilor Lagrange, în esență, se stabilesc condițiile necesare care permit identificarea punctelor optime în problemele de optimizare cu constrângeri sub formă de egalități. În acest caz, problema constrângerilor se transformă într-o problemă echivalentă de optimizare neconstrânsă, în care apar niște parametri necunoscuți, numiți multiplicatori Lagrange.

    Metoda multiplicatorilor Lagrange constă în reducerea problemelor pentru un extremum condiționat la probleme pentru un extremum necondiționat al unei funcții auxiliare - așa-numita. Funcții Lagrange.

    Pentru problema extremului funcției f(x 1 , x 2 ,..., x n) în condiții (ecuații de cuplare) φ i(x 1 , x 2 , ..., x n) = 0, i= 1, 2,..., m, funcția Lagrange are forma

    L(x 1, x 2… x n ,λ 1, λ 2 ,…λm)=f(x 1, x 2… x n)+∑ i -1 m λ i φ i (x 1, x 2… x n)

    Multiplicatori A1, A2, ..., Am numit Multiplicatori Lagrange.

    Dacă cantitățile x 1 , x 2 , ..., x n , λ 1 , λ 2 , ..., λm sunt soluțiile ecuațiilor care determină punctele staționare ale funcției Lagrange și anume, pentru funcții diferențiabile, sunt soluții ale sistemului de ecuații

    atunci, în ipoteze suficient de generale x 1 , x 2 , ..., x n eliberează un extremum al funcției f.

    Luați în considerare problema minimizării unei funcții de n variabile, ținând cont de o constrângere sub forma unei egalități:

    Minimizează f(x 1, x 2… x n) (1)

    cu restricții h 1 (x 1, x 2… x n)=0 (2)

    În conformitate cu metoda multiplicatorului Lagrange, această problemă este transformată în următoarea problemă de optimizare neconstrânsă:

    minimizați L(x,λ)=f(x)-λ*h(x) (3)

    unde funcția L(х;λ) se numește funcție Lagrange,

    λ este o constantă necunoscută, care se numește multiplicator Lagrange. Nu sunt impuse cerințe pentru semnul lui λ.

    Fie ca, pentru o valoare dată λ=λ 0, minimul necondiționat al funcției L(x,λ) față de x să fie atins în punctul x=x 0 și x 0 satisface ecuația h 1 (x 0)=0 . Apoi, după cum este ușor de observat, x 0 minimizează (1) ținând cont de (2), deoarece pentru toate valorile lui x care satisfac (2), h 1 (x)=0 și L(x,λ)= min f(x).

    Desigur, este necesar să alegeți valoarea λ=λ 0 în așa fel încât coordonata punctului minim necondiționat x 0 să satisfacă egalitatea (2). Acest lucru se poate face dacă, considerând λ ca o variabilă, se găsește minimul necondiționat al funcției (3) sub forma unei funcții λ și apoi se alege valoarea lui λ la care este valabilă egalitatea (2). Să ilustrăm acest lucru cu un exemplu concret.

    Minimizează f(x)=x 1 2 +x 2 2 =0

    cu restricţia h 1 (x)=2x 1 +x 2 -2=0=0

    Problema de optimizare neconstrânsă corespunzătoare este scrisă după cum urmează:

    minimizați L(x,λ)=x 1 2 +x 2 2 -λ(2x 1 +x 2 -2)

    Decizie. Echivalând cele două componente ale gradientului L cu zero, obținem

    → x 1 0 =λ

    → x 2 0 =λ/2

    Pentru a verifica dacă punctul staționar x° corespunde minimului, calculăm elementele matricei hessiene a funcției L(x; u), considerată în funcție de x,

    care se dovedește a fi pozitiv definit.

    Aceasta înseamnă că L(x, u) este o funcție convexă a lui x. Prin urmare, coordonatele x 1 0 =λ, x 2 0 =λ/2 determină punctul minim global. Valoarea optimă a lui λ se găsește prin înlocuirea valorilor x 1 0 și x 2 0 în ecuația 2x 1 +x 2 =2, de unde 2λ+λ/2=2 sau λ 0 =4/5. Astfel, minimul condiționat este atins la x 1 0 =4/5 și x 2 0 =2/5 și este egal cu min f(x)=4/5.

    La rezolvarea problemei din exemplu, am considerat L(x; λ) ca o funcție a două variabile x 1 și x 2 și, în plus, am presupus că valoarea parametrului λ a fost aleasă astfel încât restricția să fie satisfăcută. Dacă soluţia sistemului

    J=1,2,3,…,n

    nu poate fi obținută sub forma unor funcții explicite ale lui λ, atunci valorile lui x și λ se găsesc prin rezolvarea următorului sistem, format din n + 1 ecuații cu n + 1 necunoscute:

    J=1,2,3,…,n., h1 (x)=0

    Metodele de căutare numerică (de exemplu, metoda lui Newton) pot fi folosite pentru a găsi toate soluțiile posibile ale unui sistem dat. Pentru fiecare dintre soluțiile (), ar trebui să se calculeze elementele matricei Hessian a funcției L, considerată ca o funcție a lui x, și să se afle dacă această matrice este definită pozitivă (minimum local) sau definită negativă (maxim local). ).

    Metoda multiplicatorilor Lagrange poate fi extinsă și în cazul în care problema are mai multe constrângeri sub formă de egalități. Luați în considerare o problemă generală care necesită

    Minimizează f(x)

    sub restricții h k =0, k=1, 2, ..., K.

    Funcția Lagrange ia următoarea formă:

    Aici λ 1 , λ 2 , ..., λk-Multiplicatori de Lagrange, i.e. parametri necunoscuți ale căror valori trebuie determinate. Echivalând derivatele parțiale ale lui L în raport cu x la zero, obținem următorul sistem de n ecuații cu n necunoscute:

    Dacă se dovedește a fi dificil să se găsească o soluție la sistemul de mai sus sub formă de funcții ale vectorului λ, atunci sistemul poate fi extins prin includerea restricțiilor sub formă de egalități.

    Soluția sistemului extins, constând din n + K ecuații cu n + K necunoscute, determină punctul staționar al funcției L. Apoi este implementată procedura de verificare a unui minim sau maxim, care se realizează pe baza calculului elementele matricei hessiene a funcției L, considerate ca o funcție a lui x, asemănătoare cu cea cum s-a făcut în cazul unei probleme cu o singură constrângere. Pentru unele probleme, un sistem extins de n+K ecuații cu n+K necunoscute poate să nu aibă soluții, iar metoda multiplicatorului Lagrange se dovedește a fi inaplicabilă. Cu toate acestea, trebuie remarcat faptul că astfel de sarcini sunt destul de rare în practică.

    Să luăm în considerare un caz particular al problemei generale a programării neliniare, presupunând că sistemul de constrângeri conține doar ecuații, nu există condiții pentru nenegativitatea variabilelor și sunt funcții continue împreună cu derivatele lor parțiale. Prin urmare, rezolvând sistemul de ecuații (7), se obțin toate punctele la care funcția (6) poate avea valori extreme.

    Algoritmul metodei multiplicatorilor Lagrange

    1. Compunem funcția Lagrange.

    2. Găsim derivatele parțiale ale funcției Lagrange față de variabilele x J ,λ i și le echivalăm cu zero.

    3. Rezolvam sistemul de ecuatii (7), gasim punctele in care functia obiectiv a problemei poate avea un extremum.

    4. Printre punctele suspecte de un extrem, le găsim pe cele la care este atins extremul și se calculează valorile funcției (6) în aceste puncte.

    Exemplu.

    Date inițiale: Conform planului de producție, întreprinderea trebuie să producă 180 de produse. Aceste produse pot fi fabricate în două moduri tehnologice. În producția de x 1 produse în metoda 1, costurile sunt 4x 1 + x 1 2 ruble, iar la fabricarea x 2 produse în metoda 2, acestea sunt 8x 2 + x 2 2 ruble. Determinați câte produse ar trebui făcute fiecare dintre metode, astfel încât costul de producție să fie minim.

    Funcția obiectiv pentru problemă are forma
    ® minîn condiţiile x 1 +x 2 =180, x 2 ≥0.
    1. Compuneți funcția Lagrange
    .
    2. Calculăm derivatele parțiale în raport cu x 1, x 2, λ și le echivalăm cu zero:

    3. Rezolvând sistemul de ecuații rezultat, găsim x 1 \u003d 91, x 2 \u003d 89

    4. După ce am făcut o înlocuire în funcția obiectiv x 2 \u003d 180-x 1, obținem o funcție a unei variabile, și anume f 1 \u003d 4x 1 +x 1 2 +8 (180-x 1) + (180- x 1) 2

    Calculați sau 4x 1 -364=0 ,

    de unde avem x 1 * =91, x 2 * =89.

    Răspuns: Numărul de produse fabricate prin prima metodă este x 1 \u003d 91, prin a doua metodă x 2 \u003d 89, în timp ce valoarea funcției obiectiv este de 17278 ruble.

    Cu Esența metodei Lagrange este de a reduce problema extremului condiționat la soluția problemei extremului necondiționat. Luați în considerare un model de programare neliniară:

    (5.2)

    Unde
    sunt funcții binecunoscute,

    A
    sunt dați coeficienți.

    Rețineți că în această formulare a problemei, constrângerile sunt date de egalități și nu există nicio condiție ca variabilele să fie nenegative. În plus, presupunem că funcțiile
    sunt continue cu primele lor derivate parțiale.

    Să transformăm condițiile (5.2) în așa fel încât părțile din stânga sau din dreapta ale egalităților să conțină zero:

    (5.3)

    Să compunem funcția Lagrange. Include funcția obiectiv (5.1) și părțile din dreapta ale constrângerilor (5.3), luate respectiv cu coeficienții
    . Vor fi atât de mulți coeficienți Lagrange câte constrângeri există în problemă.

    Punctele extreme ale funcției (5.4) sunt punctele extreme ale problemei inițiale și invers: planul optim al problemei (5.1)-(5.2) este punctul extremum global al funcției Lagrange.

    Într-adevăr, să se găsească soluția
    problema (5.1)-(5.2), atunci condițiile (5.3) sunt îndeplinite. Să înlocuim planul
    în funcția (5.4) și verificați validitatea egalității (5.5).

    Astfel, pentru a găsi planul optim al problemei inițiale, este necesar să se investigheze funcția Lagrange pentru un extremum. Funcția are valori extreme în punctele în care derivatele sale parțiale sunt egale zero. Se numesc astfel de puncte staționar.

    Definim derivatele parțiale ale funcției (5.4)

    ,

    .

    După egalizare zero derivate obținem sistemul m+n ecuatii cu m+n necunoscut

    ,(5.6)

    În cazul general, sistemul (5.6)-(5.7) va avea mai multe soluții, care includ toate maximele și minimele funcției Lagrange. Pentru a evidenția maximul sau minimul global, valorile funcției obiectiv sunt calculate în toate punctele găsite. Cea mai mare dintre aceste valori va fi maximul global, iar cel mai mic va fi minimul global. În unele cazuri este posibil să se utilizeze condiţii suficiente pentru un extremum strict funcții continue (vezi problema 5.2 de mai jos):

    lasa functia
    este continuu si de doua ori diferentiabil intr-o vecinatate a punctului sau stationar (acestea.
    )). Apoi:

    A ) dacă
    ,
    (5.8)

    apoi este punctul maxim strict al funcției
    ;

    b) dacă
    ,
    (5.9)

    apoi este punctul minim strict al funcției
    ;

    G ) dacă
    ,

    atunci chestiunea prezenței unui extremum rămâne deschisă.

    Mai mult, unele soluții ale sistemului (5.6)-(5.7) pot fi negative. Ceea ce nu este în concordanță cu sensul economic al variabilelor. În acest caz, ar trebui analizată posibilitatea înlocuirii valorilor negative cu zero.

    Sensul economic al multiplicatorilor Lagrange. Valoarea optimă a multiplicatorului
    arată cât de mult se va schimba valoarea criteriului Z la creşterea sau scăderea resursei j pe unitate, din moment ce

    Metoda Lagrange poate fi aplicată și atunci când constrângerile sunt inegalități. Deci, găsirea extremului funcției
    in conditii

    ,

    realizat în mai multe etape:

    1. Determinați punctele staționare ale funcției obiectiv, pentru care rezolvă sistemul de ecuații

    .

    2. Din punctele staţionare sunt selectate acelea ale căror coordonate îndeplinesc condiţiile

    3. Metoda Lagrange este folosită pentru a rezolva problema cu constrângeri de egalitate (5.1)-(5.2).

    4. Punctele găsite la a doua și a treia etapă sunt examinate pentru un maxim global: valorile funcției obiective în aceste puncte sunt comparate - cea mai mare valoare corespunde planului optim.

    Sarcina 5.1 Să rezolvăm problema 1.3, considerată în prima secțiune, prin metoda Lagrange. Distribuția optimă a resurselor de apă este descrisă de un model matematic

    .

    Compuneți funcția Lagrange

    Găsiți maximul necondiționat al acestei funcții. Pentru a face acest lucru, calculăm derivatele parțiale și le echivalăm cu zero

    ,

    Astfel, am obținut un sistem de ecuații liniare de forma

    Rezolvarea sistemului de ecuații este planul optim de repartizare a resurselor de apă pe suprafețele irigate

    , .

    Cantitati
    măsurată în sute de mii de metri cubi.
    - suma venitului net la o sută de mii de metri cubi de apă de irigare. Prin urmare, prețul marginal al 1 m 3 de apă de irigare este
    den. unitati

    Venitul net suplimentar maxim din irigare va fi

    160 12,26 2 +7600 12,26-130 8,55 2 +5900 8,55-10 16,19 2 +4000 16,19=

    172391.02 (unități den.)

    Sarcina 5.2 Rezolvați o problemă de programare neliniară

    Reprezentăm constrângerea ca:

    .

    Compuneți funcția Lagrange și determinați derivatele ei parțiale

    .

    Pentru a determina punctele staționare ale funcției Lagrange, ar trebui să echivaleze derivatele sale parțiale cu zero. Ca rezultat, obținem un sistem de ecuații

    .

    Din prima ecuație urmează

    . (5.10)

    Expresie înlocuiți în a doua ecuație

    ,

    din care există două soluţii pt :

    și
    . (5.11)

    Înlocuind aceste soluții în a treia ecuație, obținem

    ,
    .

    Valorile multiplicatorului Lagrange și ale necunoscutului calculați prin expresiile (5.10)-(5.11):

    ,
    ,
    ,
    .

    Astfel, avem două puncte extreme:

    ;
    .

    Pentru a afla dacă aceste puncte sunt puncte maxime sau minime, folosim condițiile suficiente pentru un extremum strict (5.8)-(5.9). Preexpresie pentru , obținut din restricția modelului matematic, substituim în funcția obiectiv

    ,

    . (5.12)

    Pentru a verifica condițiile pentru un extremum strict, ar trebui să determinăm semnul derivatei a doua a funcției (5.11) în punctele extreme pe care le-am găsit
    și
    .

    ,
    ;

    .

    Prin urmare, (·)
    este punctul minim al problemei inițiale (
    ), A (·)
    - punct maxim.

    Planul optim:

    ,
    ,
    ,

    .