Structure et commande des systèmes non-linéaires
Pour commander un système, on s'appuie en général sur un modèle obtenu à partir de connaissances a priori comme les lois physiques ou à partir d'observations expérimentales. Dans beaucoup d'applications, on se contente d'une approximation linéaire autour d'un point de fonctionnement ou d'une trajectoire. Il est tout de même très important d'étudier les systèmes (ou les modèles) non-linéaires et leur commande pour les raisons suivantes. Tout d'abord, certains systèmes ont, autour de points de fonctionnement intéressants, une approximation linéaire qui n'est pas commandable de sorte que la linéarisation est inopérante, même localement. En second lieu, et même si le linéarisé est commandable, on peut désirer élargir le domaine de fonctionnement au-delà du domaine de validité de l'approximation linéaire. Les travaux décrits à la section 3.2.1 relèvent de cette problématique. Enfin, certains problèmes de commande, comme la planification de trajectoire, ne sont pas de nature locale et ne peuvent être traités à l'aide d'un modèle approché linéaire. L'étude structurelle décrite en 3.2.2 a pour objet de dégager des invariants qui peuvent être utilisés soit pour ramener l'étude à des systèmes plus simples, soit pour servir de fondement à une théorie de l'identification non-linéaire qui fournirait des renseignements sur les classes de modèles à utiliser lorsque l'on ne dispose pas d'information fiable a priori et que l'identification linéaire " boîte noire " n'est pas suffisante. Le succès du modèle linéaire, que ce soit en commande ou en identification, tient en grande partie à la compréhension très fine qu'on en a ; de façon analogue, une meilleure maîtrise des invariants des modèles non-linéaires pour certaines transformations est un préalable à une véritable théorie de l'identification et de la commande non-linéaire. Pour tout ce qui relève des systèmes non-linéaires, on sous-entend toujours dans ce qui suit que la dimension de l'état est finie.
Stabilisation continue
Mots clés : commande, stabilisation de système non-linéaire, automatique non-linéaire, système mécanique non holonôme.
Participants :
Ludovic Faubourg [univ. de Bourgogne et CNES] , Andreï Ivanov, Jean-Baptiste Pomet.
La stabilisation par retour continu d'état - ou de sortie c'est-à-dire en information partielle - consiste à concevoir une commande qui soit une fonction régulière (au moins continue) de l'état, et telle qu'un point de fonctionnement (ou une trajectoire) soit asymptotiquement stable pour le système bouclé. On peut voir cela comme une version affaiblie de la commande optimale : le calcul d'une commande qui optimise exactement un certain critère (par exemple rallier un point en temps minimal) conduit en général à une dépendance très irrégulière en l'état ; la stabilisation est un objectif qualitatif (rallier un point asymptotiquement) moins contraignant que la minimisation d'un critère, et qui laisse évidemment beaucoup plus de latitude et permet d'imposer par exemple beaucoup de régularité. Les problèmes de stabilisation sont souvent résolus, du moins au voisinage de points de fonctionnement réguliers, par des méthodes d'automatique linéaire aujourd'hui bien maîtrisées ; les méthodes étudiées ici concernent le comportement au voisinage de points où les méthodes linéaires sont inefficaces (approximation linéaire non commandable), ou visent à maîtriser le comportement sur une région plus étendue de l'espace d'état. Une question très importante est la robustesse de cette stabilité : en effet les lois de commande dépendent énormément de la structure du modèle, et la conservation de la stabilité asymptotique pour des structures ou des valeurs des paramètres voisines n'est pas acquise. Nous détaillons ci-après, deux directions de recherche actives à ce jour dans le projet.
Stabilisation périodique de systèmes non-linéaires.
Il est connu qu'un certain nombre de systèmes non-linéaires, bien que commandables, ne peuvent pas être stabilisés par une commande qui soit une fonction continue de l'état seulement [43] . On peut bien sûr, pour ces systèmes, relâcher l'exigence de continuité en utilisant par exemple des retours d'état discontinus issus de la commande en temps minimal, mais une idée plus récente consiste à rechercher tout de même des retours d'état continus, ou même lisses, en relâchant plutôt l'exigence que le contrôle ne dépende que de l'état pour permettre également une dépendance par rapport au temps, par exemple périodique. Les recherches de l'équipe, menées en collaboration avec le projet ICARE, ont joué un rôle important dans l'obtention de ces résultats [11] .
Fonctions de Lyapunov contrôlées.
Les fonctions de Lyapunov sont un outil bien connu pour l'étude de la stabilité des systèmes dynamiques non contrôlés. Pour un système contrôlé, on appelle Fonction de Lyapunov contrôlée une fonction qui est de Lyapunov pour le système bouclé par une certaine commande. Ceci se traduit par une inéquation différentielle que l'on appellera " Equation d'Artstein [31] ", et qui ressemble à l'équation d'Hamilton-Jacobi-Bellmann mais est largement sous-déterminée. On peut déduire de la connaissance d'une fonction de Lyapunov contrôlée des retours d'état continus stabilisants de manière très commode.
On s'intéresse au sein du projet à l'obtention de fonctions de Lyapunov contrôlées. Cela peut être la première étape de la synthèse d'une commande stabilisante, mais même si une commande stabilisante est déjà connue, l'obtention d'une fonction de Lyapunov contrôlée peut être très utile pour étudier la la robustesse de la stabilisation, ou pour modifier la loi de commande initiale en une plus robuste ; également, si on a affaire à un problème où il est important d'optimiser un critère, et que la solution optimale soit difficile à mettre en place, on peut rechercher une fonction de Lyapunov contrôlée " proche " de la fonction valeur du problème de contrôle optimal, qui conduise à une commande stabilisante plus aisée à mettre en oeuvre, et d'un coût (au sens du critère) peu éloigné de l'optimum.
Des travaux récents du projet ont consisté à partir d'objets qui sont " presque " des fonctions de Lyapunov contrôlées, et qui sont explicitement constructibles, ou tout au moins descriptibles, pour les déformer, de manière constructive, en fonctions de Lyapunov contrôlées, ou au contraire, le cas échéant, montrer qu'une telle construction n'est pas possible. Dans [46] , ces objets sont soit des fonctions de type intégrales premières [47] , que l'on ne peut pas faire décroître strictement, soit des fonctions qui ont les caractéristiques voulues mais ne sont pas lisses [22] .
Il est à noter que ces constructions sont exploitées dans l'étude commandée par Alcatel Space (voir section 7.4), où un choix est laissé entre une utilisation de techniques de commande optimale ou de stabilisation.
Transformations et équivalences des systèmes et modèles non-linéaires
Participants :
David Avanessoff, Laurent Baratchart, Monique Chyba [UC Santa Cruz (USA)] , Jean-Baptiste Pomet.
Mots clés : automatique non-linéaire, feedback non-linéaire, classification, identification non-linéaire.
Une transformation par retour d'état statique d'un système dynamique contrôlé est un reparamétrage (non singulier) des commandes, dépendant de l'état, et éventuellement un changement de coordonnées sur l'état. Une transformation par retour d'état dynamique d'un système dynamique contrôlé consiste à effectuer une extension dynamique (augmentation de l'état et attribution d'une dynamique aux nouveaux états) suivie d'une transformation par retour d'état statique sur le système augmenté.
Du point de vue des problèmes de commande, l'intérêt de telles transformations est qu'une commande permettant de satisfaire un certain objectif sur le système transformé peut être utilisée pour commander le système original en incluant l'éventuelle extension dynamique dans le contrôleur. Évidemment, un cas favorable est celui où le système transformé possède une structure plus exploitable que l'original, comme par exemple un système linéaire commandable.
Du point de vue de l'identification et de la modélisation non-linéaire, l'intérêt est, comme signalé plus haut, soit de dégager des invariants qualitatifs permettant de guider le choix d'un modèle non-linéaire d'après des observations, soit de contribuer à une classification des modèles non-linéaires qui manque aujourd'hui cruellement pour élaborer de véritables méthodes d'identification non-linéaire.
Développons deux problèmes abordés dans le projet.
Linéarisation dynamique.
Le problème de la linéarisation dynamique, non résolu, est celui de trouver des conditions explicites sur un système pour qu'existe une transformation par retour d'état dynamique le rendant linéaire.
Ces dernières années [48] , la propriété suivante a été mise en valeur pour les systèmes commandés : Pour certains systèmes, dont les systèmes linéaires, il existe un certain nombre de fonctions de l'état et de dérivées de la commande qui ne sont liées par aucune équation différentielle, et qui " paramètrent toutes les trajectoires ". Cette propriété, et son importance en automatique, est mise en lumière dans [48] , où elle est nommée platitude différentielle, les fonctions en question étant des sorties plates, ou fonctions linéarisantes, et il est montré qu'en gros, un système est différentiellement plat si et seulement si il peut être transformé par feedback dynamique en un système linéaire. D'une part, cette propriété de l'ensemble des trajectoires a en elle-même un intérêt au moins aussi important pour la commande que l'équivalence à un système linéaire, et, d'autre part, elle fournit une manière de s'attaquer au problème de la linéarisation dynamique : rechercher des fonctions linéarisantes.
Une question importante demeure cependant ouverte : comment décider de façon algorithmique si un système donné possède ou non de telles fonctions, c'est-à-dire est linéarisable dynamiquement ou non ? Ce problème est à la fois difficile et important pour l'automatique non-linéaire. Pour les systèmes à quatre états et deux commandes dont la dynamique est affine en ces commandes (ce sont les premières dimensions pour lesquelles le problème est véritablement non-trivial), les conditions nécessaires et suffisantes [12] pour l'existence de fonctions linéarisantes dépendant de l'état et de la commande (mais pas des dérivées de la commande) sont certes explicites mais pointent la complexité de la question.
En termes algébrico-différentiels, le module des différentielles d'un système commandable est libre et de dimension finie sur l'anneau des polynômes différentiels en d/dt à coefficients dans l'espace des fonctions du système, dont on peut construire une base très explicitement [30] . La question est de déterminer s'il admet une base de formes fermées, et donc localement exactes. Énoncée ainsi, il s'agit d'une extension du classique théorème d'intégrabilité de Frobenius au cas où les coefficients sont des opérateurs différentiels. En sus de la stabilité par différentiation extérieure qui régit le cas classique, d'autres conditions sont nécessaires ici pour assurer la finitude du degré des solutions. Le but à moyen terme est de parvenir à un algorithme formel et implémentable, décidant si un système donné est plat en un point régulier. On peut envisager aussi des sous-problèmes ayant leur intérêt propre, comme de décider de la platitude avec un pré-compensateur donné ou encore de caractériser une platitude " formelle " qui correspondrait à une interprétation de l'équation différentielle en un sens affaibli, et également localiser toutes ces questions au voisinage d'un point d'équilibre.
Équivalence topologique
Dans ce qui précède, on n'a pas évoqué la régularité des transformations considérées. Il est commode de les prendre suffisamment différentiables. Toutefois, ceci conduit à ce qu'un système ne soit pas, même localement (c'est-à-dire pour des valeurs de l'état et de la commande proche d'une valeur fixe), équivalent à la plupart de ses voisins. Évidemment, cela ne permet pas d'envisager la recherche d'invariants " qualitatifs ".
Dans le cas des systèmes dynamiques sans contrôle, il est bien connu (théorème de Hartman-Grobman) que, si l'on ne demande que la continuité des transformations, alors, en dehors de situations certes intéressantes mais que l'on peut considérer comme dégénérées (défaut d'hyperbolicité), tout système est localement équivalent à un système linéaire au voisinage d'un point d'équilibre. Il est donc tentant, dans le cadre d'une classification qualitative des systèmes commandés, d'étudier une équivalence modulo des transformations non différentiables, et d'espérer ainsi dégager des invariants beaucoup plus robustes, et peut-être des formes normales stables. Un équivalent du théorème d'Hartman-Grobman pour les systèmes contrôlés dirait par exemple qu'en dehors d'une classe de modèles " rares " (par exemple ceux dont l'approximation linéaire est non commandable), et localement autour de valeurs fixées de l'état et de la commande, aucun phénomène qualitatif ne distingue un système non-linéaire d'un linéaire, tous les phénomènes non-linéaires étant donc soit de nature globale soit des singularités. Un tel résultat est faux : si un système est localement équivalent à un système linéaire commandable via une transformation bi-continue -un homéomorphisme local dans l'espace état-commande-, alors il est aussi équivalent à ce même système linéaire commandable via une transformation aussi différentiable que le système lui-même -un difféomorphisme local dans l'espace état-commande- du moins au voisinnage d'un point régulier (au sens où le rang de la commande est localement constant), cf. [14] pour un exposé plus complet ; a contrario, sous des conditions de régularité très faibles, la linéarisation peut être effectuée par des transformations non causales [34] dont la structure demeure assez mystérieuse, mais qui prennent un sens plus concret lorsque les entrées sont engendrées par une dynamique de dimension finie.
Les considérations précédentes appellent la question suivante, importante pour la modélisation de systèmes commandés : existe-t-il des différences qualitatives locales de comportement entre un système non-linéaire et son approximation linéaire si celle-ci est commandable ?
Structure de l'espace des trajectoires
Participants :
Jean-Baptiste Pomet, Andrey Sarychev [Université d'Aveiro, Portugal] .
Mots clés : planification de trajectoires, processus de diffusion.
Étant donné un système dynamique commandé, une courbe dans l'espace d'état est une trajectoire si il existe une commande qui la produit. La planification de trajectoire consiste à trouver une trajectoire satisfaisant certaines conditions, par exemple joindre deux points donnés en restant dans une certaine zone. C'est une problématique omniprésente en robotique, par exemple. Il est naturel dans ce contexte de considérer aussi la planification approchée, qui consiste à trouver une courbe qui ne soit pas forcément une trajectoire mais qui puisse être approchée par des trajectoires. Cette démarche requiert, cependant, une caractérisation de cet ensemble de courbes. Il est également une autre motivation pour une telle étude : on peut associer à un système contrôlé affine en les commandes un processus de diffusion, en remplaçant grosso modo les commandes par des bruits blancs indépendants. Ce processus de diffusion définit à chaque instant une mesure de probabilité sur l'espace des courbes paramétrées dans l'espace d'état, et il est connu [54] que le support de cette mesure est exactement l'ensemble des courbes qui peuvent être approchées (au sens C0) par des trajectoires du système contrôlé associé. La caractérisation de cette adhérence a donc des répercussions en analyse stochastique. Pourtant, ce problème a été peu étudié en dehors du cas où l'adhérence en question contient toutes les courbes. Les travaux menés dans le projet ont donné lieu à des résultats significatifs, comme une caractérisation [52] des courbes qui peuvent être approchées au sens C0 par des trajectoires d'un système en dehors de certaines singularités. Ils se poursuivent en collaboration avec l'université d'Aveiro (Portugal). Une raison supplémentaire de s'intéresser à ce problème est qu'il met en jeu des techniques utilisées par ailleurs pour synthétiser des lois de commandes continues stabilisantes cf. section 3.2.1.
2006-11-16 08:48:57
·
answer #1
·
answered by deepurphil 5
·
0⤊
0⤋