La programmation linéaire est la branche de la programmation
mathématique qui est
Conçu pour résoudre des problèmes d'optimisation où toutes les
contraintes comme volonté que les objectifs sont exprimés en fonction linéaire.
Il a été développé par George B. Denting en 1947. Son application antérieure était uniquement liée
aux activités de la seconde guerre mondiale. Toutefois son importance a été reconnue et il est venu
occuper une place proéminente dans le l'industrie et le commerce.
La programmation linéaire est une technique permettant de prendre
des décisions sous certitude, c'est-à-dire; quand tous les cours d'options
disponibles pour une organisation sont connus et l'objectif de l'entreprise et
ses contraintes sont quantifiées. Cette ligne de conduite est choisie toutes
les alternatives possibles qui donnent les résultats optimaux. La programmation
linéaire peut également être utilisé comme mécanisme de vérification et de
contrôle pour vérifier l'exactitude et la fiabilité des décisions qui sont
prises uniquement sur la base de l'expérience du gestionnaire à l'aide d'un
modèle mathématique.
Un problème de programmation linéaire peut être défini comme le
problème de maximiser ou de minimiser une fonction linéaire soumise à des
contraintes linéaires. Les contraintes peuvent être des égalités ou des
inégalités. Voici un exemple simple.
Trouver les nombres x1 et x2 qui maximisent la somme x1 + x2 sous
réserve des contraintes ;
x1 ≥ 0, x2 ≥ 0, and
x1 + 2x2 ≤ 4
4x1 + 2x2 ≤
12
−x1 + x2 ≤ 1
Dans ce problème il ya deux inconnues, et cinq contraintes. Toutes
les contraintes sont
Inégalités et elles sont tous linéaires en ce sens que chacune implique
une inégalité dans la fonction linéaire des variables. Les deux premières
contraintes, x1 ≥ 0 et x2 ≥ 0, sont spéciales.
Ceux-ci sont appelés contraintes de non-négativité et sont souvent
trouvés dans les problèmes de la programmation linéaire.
Les autres contraintes sont alors appelées les contraintes
principales. La fonction à
Maximisée (ou minimisée) est appelée fonction objective. Ici, la
fonction objective est
x1 + x2.
Puisqu'il n'y a que deux variables, nous pouvons résoudre ce
problème en dessinant l'ensemble des points dans le plan qui satisfait toutes
les contraintes (appelées ensemble de contraintes) et puis trouver quel point
de cet ensemble maximise la valeur de la fonction objective.
Chaque contrainte d'inégalité est satisfaite par un demi-plan de
points, et l'ensemble des contraintes est l’intersection de tous les
demi-plans. Dans le présent exemple, l'ensemble de contraintes est la figure
ombrée dans la figure 1.
Nous cherchons le point (x1, x2), qui atteint le maximum de x1 + x2 comme (x1, x2) gammes
Sur cet ensemble de contraintes.
La fonction x1 + x2 est constante sur les lignes de pente -1, pour exemple la ligne x1 + x2 = 1, et comme nous déplaçons
cette ligne plus loin de l'origine vers le haut et vers le droit, la valeur de x1 + x2 augmente. Par conséquent,
nous cherchons la ligne de pente -1 qui est
Le plus éloigné de l'origine et touche toujours la contrainte
fixée. Cela se produit à l'intersection des lignes x1 + 2x2 = 4 et 4x1 + 2x2 = 12, à
savoir, (x1, x2) = (8/3, 2/3).
La valeur de la fonction
objective y est (8/3) + (2/3) = 10/3.
Il est facile de voir en général que la fonction objective, étant
linéaire, prend toujours sa valeur maximale (ou minimale) à un point d'angle de
la contrainte, à condition que l’ensemble des contraintes est limité. Parfois,
le maximum se produit le long d'un bord ou un visage entier de la contrainte
fixée, mais le maximum se produit également à un point d'angle.
Tous les problèmes de programmation linéaire ne sont pas résolus
si facilement. Il peut y avoir beaucoup de variables et de nombreuses
contraintes. Certaines variables peuvent être contraintes à être non négatives
et d'autres sans contrainte. Certaines des principales contraintes peuvent être
des égalités et d'autres inégalités.
Cependant, deux classes de problèmes, appelés ici le problème
maximum standard et le problème minimum standard, jouent un rôle particulier.
Dans ces problèmes, toutes les variables sont des contraintes à être non
négatives, et toutes les contraintes principales sont les inégalités.
On donne un vecteur m, b = (b1, ..., bm) T, un vecteur n, c = (c1,
..., cn) T et un vecteur
m × n matrice,
des nombres réels.
Le problème maximum standard: Trouver un n-vecteur, x =
(x1,...,xn)T , à maximiser
cTx = c1x1 + ··· + cnxn
Sous réserve des contraintes :
Exemple 1 : EXEMPLE D'UNE SOLUTION GRAPHIQUE DE LA PROGRAMMATION LINEAIRE
La méthode simplexe :
Lorsque nous sommes en présence de plus de deux produits , la méthode de simplexe est la seule méthode permettant de trouver la combinaison de produits qui rend optimal la fonction économique .
le principe de résolution nécessite un certain nombre d'étapes contenu au travers de l’algorithme du simplexe:
exemple d'une résolution en ligne : L'algorithme du simplexe de George Dantzig
L'algorithme du simplexe de George Dantzig est une technique à la fois fondamentale et très populaire pour les problèmes de programmation linéaire. Ainsi, étant donné un ensemble d'inégalités linéaires sur n variables réelles, l'algorithme permet de trouver la solution optimale pour une fonction objectif, qui est elle aussi linéaire (l'algorithme fonctionne encore quand la fonction est croissante en chacune de n variables).
Essayer en ligne l'algorithme du simplexe de George Dantzig
La méthode simplexe :
Lorsque nous sommes en présence de plus de deux produits , la méthode de simplexe est la seule méthode permettant de trouver la combinaison de produits qui rend optimal la fonction économique .
le principe de résolution nécessite un certain nombre d'étapes contenu au travers de l’algorithme du simplexe:
exemple d'une résolution en ligne : L'algorithme du simplexe de George Dantzig
L'algorithme du simplexe de George Dantzig est une technique à la fois fondamentale et très populaire pour les problèmes de programmation linéaire. Ainsi, étant donné un ensemble d'inégalités linéaires sur n variables réelles, l'algorithme permet de trouver la solution optimale pour une fonction objectif, qui est elle aussi linéaire (l'algorithme fonctionne encore quand la fonction est croissante en chacune de n variables).
Essayer en ligne l'algorithme du simplexe de George Dantzig
0 Comments:
Enregistrer un commentaire