Théorie du contrôle

En mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques à partir de leur représentation mathématique, paramétrée par des entrées sur lesquelles on peut agir[1],[2]. Elle peut être vue comme une branche de l'analyse et de l'optimisation, notamment appliquée à l'automatique, et spécialisée dans l'élaboration de contrôleurs délivrant des lois de commande aux systèmes dynamiques, en boucle ouverte ou en boucle fermée[1],[2]. Elle inclus également la conception d'observateurs, utiles à l'estimation de quantités physiques qui ne sont pas directement mesurables[3].

Le cadre classique

Introduction au cadre classique

On se place dans un ensemble, l'espace d'état X {\displaystyle {\mathcal {X}}} d'un système (avec généralement X R n x {\displaystyle {\mathcal {X}}\subseteq \mathbb {R} ^{n_{x}}} ), sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques qui depuis n'importe quel état initial x 0 X {\displaystyle x_{0}\in {\mathcal {X}}} , fournit une trajectoire ( x ( t ) ) t T {\displaystyle (x(t))_{t\in \mathbb {T} }} appartenant à l'espace d'état X {\displaystyle {\mathcal {X}}} . Lorsque X {\displaystyle {\mathcal {X}}} est plongé dans un espace de dimension finie, les coordonnées de x {\displaystyle x} sont appelées variables d'état.

La trajectoire ( x ( t ) ) t T {\displaystyle (x(t))_{t\in \mathbb {T} }} est fonction du temps t T {\displaystyle t\in \mathbb {T} } , et dépendante des valeurs de paramètres d'entrée :

  • Le paramètre de contrôle, noté u {\displaystyle u} , appelé également paramètre de commande, et qui prend ses valeurs à chaque instant dans un espace des contrôles U {\displaystyle {\mathcal {U}}} (avec généralement U R n u {\displaystyle {\mathcal {U}}\subseteq \mathbb {R} ^{n_{u}}} ). En pratique, le paramètre de contrôle correspond généralement aux signaux délivrés au système par le biais d'actionneurs.
  • Le paramètre d'entrée exogène, noté w {\displaystyle w} , appelé également paramètre de perturbation, et qui prend ses valeurs à chaque instant dans W {\displaystyle {\mathcal {W}}} (avec généralement W R n w {\displaystyle {\mathcal {W}}\subseteq \mathbb {R} ^{n_{w}}} ). Contrairement à l'entrée u {\displaystyle u} sur laquelle on peut agir, l'entrée w {\displaystyle w} est subie par le système. Elle correspond aux perturbations et aux consignes du système, et elle est rarement considérée dans la plupart des problèmes. Elle est mentionnée ici par souci d'exhaustivité.

Si le déroulement du temps est modélisé par un entier positif ( T = N {\displaystyle \mathbb {T} =\mathbb {N} } ), le système est alors dit temps-discret (le temps ne prend que des valeurs entières). L'état du système x {\displaystyle x} ne dépend généralement que de l'état du système et des paramètres d'entrée à l'instant précédent. La dynamique du système est alors donnée par une suite définie par l'intermédiaire d'une fonction f : X × U × W × T X {\displaystyle f:{\mathcal {X}}\times {\mathcal {U}}\times {\mathcal {W}}\times \mathbb {T} \mapsto {\mathcal {X}}}  ; elle s'écrit :

x ( t + 1 ) = f ( x ( t ) , u ( t ) , w ( t ) , t ) {\displaystyle x(t+1)=f(x(t),u(t),w(t),t)}

Si le déroulement du temps est modélisé par un réel positif ( T = R 0 {\displaystyle \mathbb {T} =\mathbb {R} _{\geq 0}} ), le système est alors dit temps-continu (le temps s'écoule continument). Dans ce cas, la dynamique du système est généralement donnée par une équation différentielle ordinaire ; elle s'écrit :

x ˙ ( t ) = f ( x ( t ) , u ( t ) , w ( t ) , t ) {\displaystyle {\dot {x}}(t)=f{\bigl (}x(t),u(t),w(t),t{\bigr )}}

Dans ce contexte x ˙ ( t ) {\displaystyle {\dot {x}}(t)} est la dérivée temporelle de x {\displaystyle x} à l'instant t {\displaystyle t} , et il peut alors être nécessaire de vérifier l'existence et l'unicité de la trajectoire ( x ( t ) ) t T {\displaystyle (x(t))_{t\in \mathbb {T} }} .

En pratique, on ne s'intéresse pas systématiquement à l'évolution de toutes les variables d'état, mais parfois uniquement à certaines quantités dites de sortie. Ces quantités d'intérêt, notées y {\displaystyle y} , sont à valeur dans un espace des sorties Y {\displaystyle {\mathcal {Y}}} (avec généralement Y R n y {\displaystyle {\mathcal {Y}}\subseteq \mathbb {R} ^{n_{y}}} ). Elles sont définies par l'intermédiaire d'une fonction h : X × U × W × T Y {\displaystyle h:{\mathcal {X}}\times {\mathcal {U}}\times {\mathcal {W}}\times \mathbb {T} \mapsto {\mathcal {Y}}}  :

y ( t ) = h ( x ( t ) , u ( t ) , w ( t ) , t ) {\displaystyle y(t)=h{\bigl (}x(t),u(t),w(t),t{\bigr )}}

Bien que cette distinction soit rarement faite en pratique, il est quelques fois nécessaire de distinguer les sorties mesurées y m {\displaystyle y_{m}} des sorties contrôlées y c {\displaystyle y_{c}} [4] :

  • Les sorties mesurées y m {\displaystyle y_{m}} sont des quantités supposées connues en temps-réel, et qui peuvent notamment être utilisées pour synthétiser un contrôle ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} . En pratique, il s'agit généralement de données mesurées au sein du système par le biais de capteurs.
  • Les sorties contrôlées y c {\displaystyle y_{c}} sont les quantités dont on souhaite manipuler l'évolution par le biais d'un contrôle ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} .

Ces deux types de sorties ne sont pas systématiquement confondus. On peut tout à fait vouloir contrôler une quantité qu'on sait mesurer (sortie contrôlée et mesurée) ou qu'on ne sait pas mesurer (sortie contrôlée et non mesurée). On peut également mesurer une quantité dont on ne cherche pas particulièrement à contrôler l'évolution (sortie mesurée et non contrôlée).

Problématiques

La question principale de la théorie du contrôle est: quel est le comportement des sorties contrôlées y c {\displaystyle y_{c}} en fonction de celui du contrôle u {\displaystyle u}  ? Plus spécifiquement, en l'absence de perturbation, on peut lister plusieurs grandes problématiques:

  • La commandabilité (ou contrôlabilité[5]) : peut-on choisir ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} de telle sorte que la trajectoire ( y c ( t ) ) t T {\displaystyle (y_{c}(t))_{t\in \mathbb {T} }} atteigne la sortie y c Y {\displaystyle y_{c}^{*}\in {\mathcal {Y}}} , une valeur cible choisie par ailleurs ? Elle est parfois confondue avec l'accessibilité, bien que les deux notions ne coïncident pas systématiquement[6].
  • La stabilisabilité : peut-on choisir ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} de telle sorte que la trajectoire ( y c ( t ) ) t T {\displaystyle (y_{c}(t))_{t\in \mathbb {T} }} se stabilise asymptotiquement en y c Y {\displaystyle y_{c}^{*}\in {\mathcal {Y}}} , une valeur de consigne choisie par ailleurs ? On parle alors de problème de régulation[7],[8].
  • La poursuite de trajectoire : peut-on choisir ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} de telle sorte que la trajectoire ( y c ( t ) ) t T {\displaystyle (y_{c}(t))_{t\in \mathbb {T} }} se stabilise asymptotiquement le long d'une trajectoire de consigne ( y c ( t ) ) t T {\displaystyle (y_{c}^{*}(t))_{t\in \mathbb {T} }} choisie par ailleurs ? On parle alors de problème d'asservissement[9].

Le terme de régulation est généralement réservé à la synthèse de commandes possédant des mécanismes de compensation des perturbations[9],[10],[11]. D'autres sources utilisent le terme d'asservissement sans imposer de stabilisation le long de la trajectoire de consigne[8],[12]. Il est à noter que les problèmes de régulation sont parfois vus comme des cas particuliers des problèmes d'asservissement, puisqu'il s'agit d'asservir le système le long d'une trajectoire de consigne constante[8].

Lorsque la loi de commande ne dépend pas des sorties mesurées y m {\displaystyle y_{m}} , on parle de contrôle en boucle ouverte. Inversement, lorsque la loi de commande est mise à jour en temps-réel en fonction des sorties mesurées y m {\displaystyle y_{m}} , on parle de contrôle en boucle fermée. De manière générale, les problèmes de stabilisation (le long d'une consigne constante ou non) nécessitent un contrôle en boucle fermée.

Les lois de commande ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} répondant aux problématiques listées ci-avant peuvent être choisies de manière à minimiser certains critères. On parle alors de problème de contrôle optimal. Par exemple, trouver une loi de commande permettant de passer d'une valeur de sortie y c 1 {\displaystyle y_{c}^{1}} à une valeur de sortie y c 2 {\displaystyle y_{c}^{2}} en un temps minimal est appelé un problème de contrôle temps-optimal[13].

Une autre problématique de la théorie du contrôle est celle de l'estimation des variables d'état : peut-on, à partir de la connaissance des entrées ( u ( t ) ) t T {\displaystyle (u(t))_{t\in \mathbb {T} }} et des sorties mesurées ( y m ( t ) ) t T {\displaystyle (y_{m}(t))_{t\in \mathbb {T} }} du système, estimer une trajectoire ( x ^ ( t ) ) t T {\displaystyle ({\hat {x}}(t))_{t\in \mathbb {T} }} proche de la trajectoire réelle de l'état du système ( x ( t ) ) t T {\displaystyle (x(t))_{t\in \mathbb {T} }}  ? On parle alors de problème d'observation[3].

Lorsque la loi de commande u {\displaystyle u} est elle-même synthétisée en fonction d'un état estimé x ^ {\displaystyle {\hat {x}}} , on dit que la loi de commande u {\displaystyle u} est basée observateur[14].

Représentation d'état

Article détaillé : Représentation d'état.

Cas général

En toute généralité, la théorie du contrôle s'intéresse donc aux systèmes dynamiques de la forme :

{ δ x ( t ) = f ( x ( t ) , u ( t ) , w ( t ) , t ) y c ( t ) = h c ( x ( t ) , u ( t ) , w ( t ) , t ) y m ( t ) = h m ( x ( t ) , u ( t ) , w ( t ) , t ) {\displaystyle {\begin{cases}\delta x(t)&=&f(x(t),u(t),w(t),t)\\y_{c}(t)&=&h_{c}(x(t),u(t),w(t),t)\\y_{m}(t)&=&h_{m}(x(t),u(t),w(t),t)\end{cases}}}

δ x ( t ) {\displaystyle \delta x(t)} dénote x ˙ ( t ) {\displaystyle {\dot {x}}(t)} ou x ( t + 1 ) {\displaystyle x(t+1)} suivant le contexte temps-continu ou temps-discret. Les équations ci-dessus forment la représentation d'état du système. Il arrive que la sortie contrôlée y c {\displaystyle y_{c}} soit remplacée par une variable e {\displaystyle e} , définie comme l'écart entre y c {\displaystyle y_{c}} et la consigne y c {\displaystyle y_{c}^{*}} . La consigne y c {\displaystyle y_{c}^{*}} est alors intégrée aux entrées exogènes w {\displaystyle w} . Le problème d'asservissement (ou de régulation) revient finalement à stabiliser e {\displaystyle e} en 0 {\displaystyle 0} , et la deuxième équation de la représentation d'état devient :

e ( t ) = g ( x ( t ) , u ( t ) , w ( t ) , t ) {\displaystyle e(t)=g(x(t),u(t),w(t),t)}

Cas linéaire temps-invariant (LTI)

Lorsque les variables du systèmes sont de dimension finie et que les fonctions f {\displaystyle f} , g {\displaystyle g} et h m {\displaystyle h_{m}} sont temps-invariant et linéaires en x {\displaystyle x} , u {\displaystyle u} et w {\displaystyle w} (éventuellement après les avoir linéarisées autour d'un point de fonctionnement), on aboutit au système linéaire temps-invariant (LTI) suivant :

( δ x ( t ) e ( t ) y m ( t ) ) = ( A B w B u C e D e w D e u C y D y w D y u ) ( x ( t ) w ( t ) u ( t ) ) {\displaystyle \left({\begin{array}{c}\delta x(t)\\e(t)\\y_{m}(t)\end{array}}\right)=\left({\begin{array}{ccc}A&B_{w}&B_{u}\\C_{e}&D_{ew}&D_{eu}\\C_{y}&D_{yw}&D_{yu}\end{array}}\right)\left({\begin{array}{c}x(t)\\w(t)\\u(t)\end{array}}\right)}

Ce système LTI peut se ré-écrire dans le domaine fréquentiel, par le biais d'une transformation de Laplace dans le cas temps-continu et par le biais d'une transformation en Z dans le cas temps-discret, sous la forme :

( E ( p ) Y m ( p ) ) = ( P e w ( p ) P e u ( p ) P y w ( p ) P y u ( p ) ) ( W ( p ) U ( p ) ) {\displaystyle \left({\begin{array}{c}E(p)\\Y_{m}(p)\end{array}}\right)=\left({\begin{array}{cc}P_{ew}(p)&P_{eu}(p)\\P_{yw}(p)&P_{yu}(p)\end{array}}\right)\left({\begin{array}{c}W(p)\\U(p)\end{array}}\right)}

avec W {\displaystyle W} , U {\displaystyle U} , E {\displaystyle E} et Y m {\displaystyle Y_{m}} les représentations fréquentielles des signaux w {\displaystyle w} , u {\displaystyle u} , e {\displaystyle e} et y m {\displaystyle y_{m}}  ; et les P i , j {\displaystyle P_{i,j}} des matrices de transfert donnée par :

{ P e w ( p ) = C e ( p I n x A ) 1 B w + D e w P e u ( p ) = C e ( p I n x A ) 1 B u + D e u P y w ( p ) = C y ( p I n x A ) 1 B w + D y w P y u ( p ) = C y ( p I n x A ) 1 B u + D y u {\displaystyle {\begin{cases}P_{ew}(p)&=&C_{e}(pI_{n_{x}}-A)^{-1}B_{w}+D_{ew}\\P_{eu}(p)&=&C_{e}(pI_{n_{x}}-A)^{-1}B_{u}+D_{eu}\\P_{yw}(p)&=&C_{y}(pI_{n_{x}}-A)^{-1}B_{w}+D_{yw}\\P_{yu}(p)&=&C_{y}(pI_{n_{x}}-A)^{-1}B_{u}+D_{yu}\end{cases}}}

Sous-domaines notables

Contrôle des systèmes multi-agents (SMA)

La théorie du contrôle peut être appliquée aux systèmes multi-agents[15]. Dans ce cas, chaque agent est généralement considéré comme un système dynamique à part entière avec, pour le i {\displaystyle i} -ème agent : ses propres entrées u i {\displaystyle u_{i}} , son propre état interne x i {\displaystyle x_{i}} et ses propres sorties y i {\displaystyle y_{i}} . Lorsque les agents sont de nature identique, on peut supposer qu'ils partagent le même espace d'état X {\displaystyle {\mathcal {X}}} , le même espace des contrôles U {\displaystyle {\mathcal {U}}} , le même espace des sorties Y {\displaystyle {\mathcal {Y}}} , le même modèle de dynamique f {\displaystyle f} ainsi que la même fonction de sortie h {\displaystyle h} . On a alors pour chaque agent :

{ δ x i ( t ) = f ( x i ( t ) , u i ( t ) , t ) y i ( t ) = h ( x i ( t ) , u i ( t ) , t ) {\displaystyle {\begin{cases}\delta x_{i}(t)&=&f(x_{i}(t),u_{i}(t),t)\\y_{i}(t)&=&h(x_{i}(t),u_{i}(t),t)\end{cases}}}

Dans le cadre d'un protocole de contrôle distribué, il est admis que les agents communiquent entre eux par le biais d'un réseau de communication, généralement modélisé par un graphe orienté G = ( V , E ) {\displaystyle G=(V,E)} , alors appelé graphe de communication. Dans ce graphe, chaque nœud i V {\displaystyle i\in V} représente un agent, et chaque arc ( j , i ) E {\displaystyle (j,i)\in E} représente un canal de communication des sorties y j {\displaystyle y_{j}} du j {\displaystyle j} -ème agent vers les entrées u i {\displaystyle u_{i}} du i {\displaystyle i} -ème agent. La loi de commande u i {\displaystyle u_{i}} du i {\displaystyle i} -ème agent ne peut alors être synthétisée qu'à partir de sa propre sortie y i {\displaystyle y_{i}} , ainsi que des sorties des agents N ( i ) = { j 1 , , j p } {\displaystyle {\mathcal {N}}^{-}(i)=\{j_{1},\dots ,j_{p}\}} pour lesquels il existe un arc de la forme ( j , i ) E {\displaystyle (j,i)\in E} . Cette synthèse peut, par exemple, s'effectuer par l'intermédiaire d'une fonction g i : Y p + 1 × T U {\displaystyle g_{i}:{\mathcal {Y}}^{p+1}\times \mathbb {T} \mapsto {\mathcal {U}}}  :

u i ( t ) = g i ( y i ( t ) , y j 1 ( t ) , , y j p ( t ) , t ) {\displaystyle u_{i}(t)=g_{i}(y_{i}(t),y_{j_{1}}(t),\dots ,y_{j_{p}}(t),t)}

De nouvelles questions propres au caractère collectif des systèmes multi-agents s'ajoutent alors aux problématiques habituelles du contrôle, notamment concernant l'auto-organisation de l'ensemble des agents en formation, la stabilisation autour de valeurs de consensus, l’évitement de collisions, l'éventuelle mise-à-jour de la topologie du graphe de communication, etc[16],[15].

Contrôle des équations aux dérivées partielles (EDP)

Si l'espace d'état X {\displaystyle {\mathcal {X}}} est un espace fonctionnel, alors à chaque instant, l'état x {\displaystyle x} est une fonction d'un paramètre s Ω R n s {\displaystyle s\in \Omega \subseteq \mathbb {R} ^{n_{s}}} . On notera x ( t , s ) R n x {\displaystyle x(t,s)\in \mathbb {R} ^{n_{x}}} par simplicité, avec à chaque instant x ( t , ) : Ω R n x {\displaystyle x(t,\cdot ):\Omega \mapsto \mathbb {R} ^{n_{x}}} un élément de X {\displaystyle {\mathcal {X}}} . La fonction f {\displaystyle f} de la représentation d'état du cadre classique joue alors le rôle d'un opérateur, et cette représentation d'état peut devenir un système d'équations aux dérivées partielles[17],[18].

Considérons par exemple l'équation de la chaleur le long d'une barre à une dimension. La distribution de chaleur x ( t , ) {\displaystyle x(t,\cdot )} à un instant t {\displaystyle t} est fournie sur le segment Ω = [ 0 , L ] {\displaystyle \Omega =[0,L]} et est à valeurs dans R {\displaystyle \mathbb {R} } (soit n x = 1 {\displaystyle n_{x}=1} ). La dynamique de cette distribution lorsque l'on contrôle la température aux bords Ω = { 0 , L } {\displaystyle \partial \Omega =\{0,L\}} est fournie pour tout t R > 0 {\displaystyle t\in \mathbb {R} _{>0}} par :

{ t x ( t , s ) = s s x ( t , s ) s ] 0 , L [ x ( t , s ) = u s ( t ) s { 0 , L } {\displaystyle {\begin{cases}\partial _{t}x(t,s)=\partial _{ss}x(t,s)&\forall s\in ]0,L[\\x(t,s)=u_{s}(t)&\forall s\in \{0,L\}\end{cases}}}

La condition initiale du système est alors donnée par x ( 0 , s ) = x 0 ( s ) {\displaystyle x(0,s)=x_{0}(s)} pour tout s [ 0 , L ] {\displaystyle s\in [0,L]} et la commande s'applique par le biais des contraintes aux bords u 0 {\displaystyle u_{0}} et u L {\displaystyle u_{L}} . Étant donné une condition initiale x 0 {\displaystyle x_{0}} , on peut alors, par exemple, se demander quelles sont les distributions de chaleur x ( T , ) {\displaystyle x(T,\cdot )} commandables à un instant T {\displaystyle T} [19].

Contrôle stochastique

Il est également possible d'appliquer la théorie du contrôle aux processus stochastiques[20]. Dans ce cas, l'état X t {\displaystyle X_{t}} est à chaque instant une variable aléatoire. La dynamique temps-continu de X t {\displaystyle X_{t}} est alors donnée par le processus d'Itô suivant, décrit ici sous la forme d'une équation différentielle stochastique (EDS) :

d X t = μ ( X t , u ( t ) ) d t + σ ( X t , u ( t ) ) d B t {\displaystyle dX_{t}=\mu (X_{t},u(t))\,dt+\sigma (X_{t},u(t))\,dB_{t}}

B t {\displaystyle B_{t}} représente un mouvement brownien. Dans ce genre de cadre, on chercher généralement un contrôle u {\displaystyle u} de façon à maximiser l'espérance d'un critère fonction de X t {\displaystyle X_{t}} .

Exemples d'application

Références

  1. a et b « Introduction à la théorie du contrôle », sur sesp.esep.pro (consulté le )
  2. a et b Raphaël Richard, 24pm Academy, « Théorie du contrôle », sur 24pm Academy, (consulté le )
  3. a et b « Observateur d'Etat », sur www.robotique.wikibis.com (consulté le )
  4. « Compute H-infinity optimal controller - MATLAB hinfsyn - MathWorks France », sur fr.mathworks.com (consulté le )
  5. Jérémie Coulaud, « Contrôlabilité et observabilité », sur Class´Code et ses Pixees, (consulté le )
  6. « CONTROLLABILITY AND ACCESSIBILITY IN NONLINEAR CONTROL SYSTEMS - ProQuest », sur www.proquest.com (consulté le )
  7. « système de régulation automatique », sur vitrinelinguistique.oqlf.gouv.qc.ca (consulté le )
  8. a b et c « Cours d'Automatique : les asservissements continus », sur public.iutenligne.net (consulté le )
  9. a et b « Séquence « Réguler et asservir les grandeurs physiques ». Cours : Régulation & Asservissement » [PDF]
  10. Alain Dupond, « Régulation - Cours terminale SI » [PDF]
  11. « Memoire Online - Etude et conception d'un système de régulation automatique de la fréquence et de la tension de sortie d'une hydrolienne en fonction de la vitesse de la roue (cas du projet d'électrification décentralisée de la ferme Benjin Agriculture). - Eric KABANSHI », sur Memoire Online (consulté le )
  12. « 🔎 Asservissement : définition et explications », sur Techno-Science.net (consulté le )
  13. Chi-Ting Wu, « Contrôle en temps optimal », Université Nancy 1 - Henri Poincaré - Département de Mathématiques - Institut Élie Cartan, Université de Lorraine,‎ (lire en ligne, consulté le )
  14. Benjamin Gérard, « Observateurs et commande basée observateur pour les systèmes bilinéaires », Université Nancy 1 - Henri Poincaré - Département de Mathématiques - Institut Élie Cartan, Université de Lorraine,‎ (lire en ligne, consulté le )
  15. a et b (en) Cooperative Control of Multi-Agent Systems (DOI 10.1007/978-1-4471-5574-4, lire en ligne)
  16. Harry L. Trentelman, Kiyotsugu Takaba et Nima Monshizadeh, « Robust Synchronization of Uncertain Linear Multi-Agent Systems », IEEE Transactions on Automatic Control, vol. 58, no 6,‎ , p. 1511–1523 (ISSN 0018-9286 et 1558-2523, DOI 10.1109/TAC.2013.2239011, lire en ligne, consulté le )
  17. « Cours : Introduction aux problèmes de Contrôle optimal des EDP », sur elearning-facsc.univ-annaba.dz (consulté le )
  18. (en) Jean-Michel Coron, « Control of partial differential equations », Scholarpedia, vol. 4, no 11,‎ , p. 6451 (ISSN 1941-6016, DOI 10.4249/scholarpedia.6451, lire en ligne, consulté le )
  19. Philippe Martin, Lionel Rosier et Pierre Rouchon, « On the Reachable States for the Boundary Control of the Heat Equation », Applied Mathematics Research eXpress, vol. 2016, no 2,‎ , p. 181–216 (ISSN 1687-1200 et 1687-1197, DOI 10.1093/amrx/abv013, lire en ligne, consulté le )
  20. a et b (en) Huyên Pham, Continuous-time Stochastic Control and Optimization with Financial Applications, vol. 61, Springer Berlin Heidelberg, coll. « Stochastic Modelling and Applied Probability », (ISBN 978-3-540-89499-5 et 978-3-540-89500-8, DOI 10.1007/978-3-540-89500-8, lire en ligne)
  21. (en) The Inverted Pendulum in Control Theory and Robotics: From theory to new innovations, Institution of Engineering and Technology, (ISBN 978-1-78561-320-3 et 978-1-78561-321-0, DOI 10.1049/pbce111e, lire en ligne)
  22. (en) Juan Pablo Rivera-Barrera, Nicolás Muñoz-Galeano et Henry Omar Sarmiento-Maldonado, « SoC Estimation for Lithium-ion Batteries: Review and Future Challenges », Electronics, vol. 6, no 4,‎ , p. 102 (ISSN 2079-9292, DOI 10.3390/electronics6040102, lire en ligne, consulté le )
  23. M. Shefer, S. Shemesh et M. Vald, « Optimal guidance and control of anti-ballistic missiles. », Scientific American, IEEE,‎ , p. 152–157 (DOI 10.1109/ICCON.1989.770496, lire en ligne, consulté le )
  24. P.R. Chandler, M. Pachter et S. Rasmussen, « UAV cooperative control », Proceedings of the 2001 American Control Conference., IEEE,‎ , p. 50–55 vol.1 (ISBN 978-0-7803-6495-0, DOI 10.1109/ACC.2001.945512, lire en ligne, consulté le )
  25. C. K. Rajasingh et Shashi K. Shrivastava, « Orbit and attitude control of a geostationary inertially oriented large flexible plate-like spacecraft », Acta Astronautica, vol. 15, no 11,‎ , p. 823–832 (ISSN 0094-5765, DOI 10.1016/0094-5765(87)90037-3, lire en ligne, consulté le )
  26. Shahriar Seddighi Chaharborj, Sarkhosh Seddighi Chaharborj, Jalal Hassanzadeh Asl et Pei See Phang, « Controlling of pandemic COVID-19 using optimal control theory », Results in Physics, vol. 26,‎ , p. 104311 (ISSN 2211-3797, DOI 10.1016/j.rinp.2021.104311, lire en ligne, consulté le )
  27. (en) Brittany H. Scheid, Arian Ashourvan, Jennifer Stiso et Kathryn A. Davis, « Time-evolving controllability of effective connectivity networks during seizure progression », Proceedings of the National Academy of Sciences, vol. 118, no 5,‎ (ISSN 0027-8424 et 1091-6490, PMID 33495341, PMCID PMC7865160, DOI 10.1073/pnas.2006436118, lire en ligne, consulté le )
  28. G Cembrano, G Wells, J Quevedo et R Pérez, « Optimal control of a water distribution network in a supervisory control system », Control Engineering Practice, vol. 8, no 10,‎ , p. 1177–1188 (ISSN 0967-0661, DOI 10.1016/s0967-0661(00)00058-7, lire en ligne, consulté le )
  29. Osiadacz et Swierczewski, « Optimal control of gas transportation systems », Proceedings of IEEE International Conference on Control and Applications CCA-94, IEEE,‎ (DOI 10.1109/cca.1994.381219, lire en ligne, consulté le )
  30. D. Bao Nguyen, Jacquelien M. A. Scherpen et Frits Bliek, « Distributed Optimal Control of Smart Electricity Grids With Congestion Management », IEEE Transactions on Automation Science and Engineering, vol. 14, no 2,‎ , p. 494–504 (ISSN 1545-5955 et 1558-3783, DOI 10.1109/TASE.2017.2664061, lire en ligne, consulté le )
  31. T.L. Feenstra, H.S.J. Cesar et P.M. Kort, « Optimal control theory in environmental economics », dans Handbook of Environmental and Resource Economics, Edward Elgar Publishing, , 1099–1107 p. (ISBN 978-1-85898-375-2, lire en ligne)

Voir aussi

Bibliographie

Livres en français

  • Frédéric Bonnans, Pierre Rouchon, Commande et optimisation de systemes dynamiques, Editions Ecole Polytechnique, , 280 p. (ISBN 978-2-7302-1251-9)
  • Nicole Berline, Claude Sabbah, Aspects de la théorie du contrôle, Editions Ecole Polytechnique, , 188 p. (ISBN 978-2-7302-1530-5)
  • Emmanuel Trélat, Contrôle optimal - Théorie et applications, Vuibert, , 250 p. (ISBN 978-2-7117-2219-8)
  • Laurent Praly, Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilité, Spartacus-Idh, , 396 p. (ISBN 978-2-36693-116-7, lire en ligne)
  • Laurent Praly, Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilisation, Spartacus-Idh, , 492 p. (ISBN 978-2-36693-118-1, lire en ligne)
  • Huyên Pham, Optimisation et contrôle stochastique appliqués à la finance, Springer, , 204 p. (ISBN 978-3540737360, lire en ligne)

Livres en anglais

  • (en) Hassan K. Khalil, Nonlinear Systems, Pearson, , 768 p. (ISBN 978-0130673893)
  • (en) Mathukumalli Vidyasagar, Nonlinear Systems Analysis, , 498 p. (ISBN 978-0-89871-526-2)
  • (en) Stephen Boyd, Laurent El Ghaoui, E. Feron, V. Balakrishnan, Linear Matrix Inequalities in System and Control Theory, Society for Industrial and Applied Mathematics (SIAM), , 193 p. (ISBN 978-0-89871-485-2, lire en ligne)
  • (en) Frank L. Lewis , Hongwei Zhang , Kristian Hengster-Movric , Abhijit Das, Cooperative Control of Multi-Agent Systems: Optimal and Adaptive Design Approaches, Springer London, (ISBN 978-1-4471-5574-4, lire en ligne)
  • (en) Fredi Tröltzsch, Optimal control of partial differential equations: theory, methods and applications, American Mathematical Society, , 399 p. (ISBN 978-0821849040)

Liens externes

  • Notices dans des dictionnaires ou encyclopédies généralistesVoir et modifier les données sur Wikidata :
    • Britannica
    • Gran Enciclopèdia Catalana
  • Notices d'autoritéVoir et modifier les données sur Wikidata :
    • LCCN
    • GND
    • Japon
    • Israël
    • Tchéquie
v · m
Modélisation des systèmes
Techniques de contrôle
Techniques d'estimation
Types de stabilité
Outils mathématiques
Représentations graphiques
  • icône décorative Portail de l'analyse
  • icône décorative Portail de l’électricité et de l’électronique