Bandeau global Bandeau local
FUNDP >Facultés >Informatique >Les cours en ligne >Les enregistrements
Les cours en ligne
Institut d'Informatique

Séminaires scientifiques [STAFFSEM]


staff-sem(s) enregistré(s) en 2007-2008:

Date d'enregistrementOrateurSystème utiliséProtection par mot de passeTailleTélécharger
15/10/2007Marie Gevers OUI27.5 Mo
Remarque:

L’exposé propose une vaste fresque pluridisciplinaire mais non exhaustive de l’organisation des connaissances humaines. Il commence par proposer une grille d’analyse de cette organisation. Ensuite, il passe en revue les grandes étapes de la mémoire de l’humanité précédant la naissance de l’informatique : signes graphiques préhistoriques, écriture (en Mésopotamie puis dans le Monde occidental), imprimerie (en Occident). Puis, il évoque la ‘préhistoire’ de la Toile : l’émergence de l’idée d’une organisation mondiale des connaissances au 20e siècle, l’histoire de l’hypertexte avant le Web et l’histoire d’Internet. Finalement, il retrace l’histoire de la création du WWW et se focalise sur certaines de ses applications. Il s’achève par un bilan et débouche sur un questionnement.

14/01/2008Exterieur OUI32.81 Mo
Remarque:

Un moteur d'inférence générique pour le traçage de personnes et d'objets mobiles avec des techniques de géo-localisation sécurisées par John Pyrgies.

21/01/2008Exterieur OUI18.77 Mo
Remarque:

Managing Security IT Risk : a Goal-based Requirements Engineering Approach by Nicolas MAYER.

04/02/2008Benjamin Six OUI20.42 Mo
Remarque:

Confiance reflexive et gouvernance de l\'internet par Benjamin Six (FUNDP).

18/02/2008Ravi Ramdoyal OUI22.31 Mo
Remarque:

Acquisition de spécifications à partir de l\'analyse d\'interfaces Homme-Machine par Ravi Ramdoyal (FUNDP).

03/03/2008Etienne Cuvelier OUI17.71 Mo
Remarque:

Distributions QAMML, un outil pour la classification probabiliste de donnees fonctionnelles.


staff-sem(s) enregistré(s) en 2006-2007:

Date d'enregistrementOrateurSystème utiliséProtection par mot de passeTailleTélécharger
09/10/2006Gabriel Schwanen NON26,17 Mo
Remarque:

Monads in functional programming

by Gabriel Schwanen

16/10/2006 NON13,71 Mo
Remarque:

Présentation et usages à l'Institut du logiciel SubVersioN

par Hubert Toussaint (FUNDP)

23/10/2006Exterieur NON15,25 Mo
Remarque: Modélisation de réseaux sociaux - Renaud Lambiotte (ULg)

L'utilisation de méthodes de Physique Statistique pour modéliser l'émergence de phénomènes collectifs dans les systèmes sociaux, tels que la formation d'opinions, est de plus en plus populaire. Habituellement, les entités sociales sont modélisées par des agents, dont les interactions peuvent mener à une self-organisation du système. On peut penser par exemple à l’émergence d’un consensus entre différents invidus débattant d’un problème.

Ce n'est que plus récemment que le caractère dynamique des interactions entre personnes a été pris en compte, et qu'une caractérisation des propriétés de leur cercle d'amis a été envisagée. L'étude de ces réseaux sociaux, sur des échantillons de plusieurs milliers de personnes, a été rendue possible par l'énorme quantité de données actuellement disponibles sur le web. Par exemple, citons les réseaux de collaborations entre scientifiques, d'amitiés sur les sites de rencontres...

Un grand nombre de propriétés structurelles ont été mises à jour pour les réseaux sociaux, telles que des distributions de degré en lois de puissances, des propriétés de Small-World, de non-assortativité... Si certaines sont maintenant bien comprises, et reproduites par des modèles simples, d'autres propriétés sont encore l'objet d'études de plusieurs groupes de scientifiques. Dans cette présentation, des modèles simples seront présentés, pour illustrer la philosophie de notre approche. Les prédictions théoriques seront comparées avec les données empiriques suivantes :

  • Sites web collaboratifs : musicmobs, audioscrobbler, citeulike...
  • Réseaux de citations obtenus à partir de ISI Web Of Knowledge
  • Réseaux de coauteurs avec des données des arXives (xxx.lanl.gov)
  • Réseaux de bloggers
De plus, des applications java pour visualiser la dynamique de tels réseaux seront présentées (voir www.lambiotte.be).
24/10/2006Laurent Schumacher OUI32,51 Mo
Remarque: Visite de l'agence Leonardo
06/11/2006Exterieur NON15.69 Mo
Remarque:

Incremental modeling processes: assisting the modeling of systems for model driven development

by Raphael Marvie from LIFL (http://www.lifl.fr/~marvie/)

13/11/2006Nagi Habra NON28.15 Mo
Remarque: Mesures du logiciel : questions et perspectives.
15/11/2006Exterieur NON27.29 Mo
Remarque:

What makes a good diagram? Communicating effectively using diagrams

by Daniel Moody (Department of information systems - University of Twente)

Diagrams are essential for specifying, designing and documenting information systems. Virtually all IS modelling and design techniques rely heavily on diagrammatical representations: for exam- ple, UML consists of 13 types of models, all of which are represented graphically. Despite this, IT practitioners typically get little or no training in how to draw “good” diagrams. As a result, they are forced to rely on their intuition and experience (which is often wrong), and often make layout decisions that distorts information or conveys unintended messages. Also, by using only a limited repertoire of graphical techniques, they fail to exploit the capabilities of the human perceptual system. CASE tools and computer-aided drawing tools provide little assistance to practitioners in producing good diagrams and often actually make things worse: the overall im- pact of such tools has been to make generation of diagrams more effi- cient but not more effective.
Research in diagrammatical reasoning shows that slight perceptual changes in graphical representation can have dramatic effects on un- derstanding and problem solving performance. This suggests that decisions regarding the presentation of diagrams (their perceptual characteristics) are far from trivial and should be treated with as much care as decisions on their content. This presentation describes a set of principles for producing “good” diagrams, which are defined as diagrams that communicate effectively. These principles provide practical guidance for both designers and users of IS design notations and are soundly based on research in visual per- ception, cognitive psychology, graphic design, cartography, diagrammatic reasoning, information visualisation, semiotics and instructional design.

29/01/2007Exterieur NON18.42 Mo
Remarque: Viewing biological networks through PRISM - Eric de Vink We present some case studies of modeling biological networks with the probabilistic model checker PRISM. Biological networks, like metabolic pathways, genetic networks, and signal transduction pathways, play a crucial role in the functioning of the living organisms. We give some stochastic models of such networks that behave, for example, like switches, oscillators and show how they can be analyzed with PRISM\'s model checking and simulation options.
19/03/2007Etienne Cuvelier NON15.28 Mo
Remarque: De la classification de données fonctionnelles à un distribution de probabilité définie dans un espace de dimension infinie
Cuvelier Etienne

Dans la foulée de l\'exposé du 13 mars 2006, nous expliquons dans cet exposé-ci comment, à partir d\'un problème à résoudre sous contrainte, à savoir la classification de données fonctionnelles par le biais d\'une décomposition de mélange, nous avons été amenés à définir une distribution de probabilité propre à l\'espace de dimension infinie dans lequel sont plongées ces données fonctionnelles. Nous exposons aussi la solution innovante que constitue l\'utilisation de la Différentielle de Gâteaux pour la définition d\'une densité. Nous exposons enfin quelles sont les possibilités d\'évolution du concept.


staff-sem(s) enregistré(s) en 2005-2006:

Date d'enregistrementOrateurSystème utiliséProtection par mot de passeTailleTélécharger
06/10/2005Laurent Schumacher NON8,8 Mo
Remarque: Presentation of V3 activities of FUNDP
17/10/2005Exterieur NON17,57 Mo
Remarque: Requirements engineering (RE) tools are software tools which provide automated assistance during the RE process. However, the RE practice relies on office tools rather than RE-tools provided by various companies. Reasons for not using the RE-tools include financial causes. The part of the problem also lies in the difficulty to evaluate such tools before acquisition to support the RE process. Hence, to support the completeness and effectiveness of RE-tool evaluation, a sound framework providing methodological guidelines is needed.

In this presentation an RE-tool evaluation approach (R-TEA) will be introduced. It provides a systematic way of the RE-tool assessment using two evaluation frameworks. The framework for the functional RE- tool requirements consists of three dimensions: representation, agreement, and specification. The second framework categorises the non-functional RE-tool features to process, product, and external requirements. Both frameworks are applied to a specification exemplar which application initiates preparation of the requirements specification for the RE-tool selection. Assessment of the RE-tools compatibility to the specified RE-tool requirements is performed using different evaluation techniques. Decision about RE-tool selection is made after summarising all the assessment results. A prototype tool is developed supporting the frameworks and R-TEA. The R-TEA method is tested in a number of case studies. The findings report on positive trends of the frameworks, prototype and the R-TEA method.
24/10/2005Exterieur NON15,29 Mo
Remarque: As the web grows, an ever-increasing number of heterogeneous data-sources becomes available. Mediation aims at providing users and applications with the ability to query those datasources without having to care about their diversity. Semantic Web technologies (XML, RDF and more recently OWL) provide a basis for achieving that.
In this context, since most data-sources are store in relational database systems, there is a need to resolve the syntactic heterogeneity by converting relational data to XML/RDF/OWL data. This process is challenging because relational data structure usually contain more knowledge than can be automatically extracted. We will present the CROSS prototype, a wrapper for relational databases exposing their schema and data as OWL statements. The originality of our approach is that additional knowledge can be introduced as additional OWL statements, while other approach generally use an ad-hoc rule language.
07/11/2005Anne de Baenst NON41,35 Mo
Remarque: Au sein de l'Institut d'Informatique, il existe un ensemble de contenus de formation et de documentation technico-scientifique de haute valeur ajoutée (mémoires, thèses, articles, livres, sites Web, revues,...) et qui présentent un intérêt non seulement pour notre communauté universitaire mais aussi le monde économique et social de notre région. L'organisation et la diffusion de ces contenus est un questionnement qui revient très souvent dans les discussions entre professeurs et chercheurs. Quel outil choisir et avec quel standard ? Comment mobiliser l'ensemble des membres ? Comment associer les producteurs de contenus sans leur demander une surcharge de travail ? Comment profiter de ce qui existe déjà dans la base de la recherche des FUNDP ? Dans le cadre du projet FORMATIC, nous sommes en train de développer un outil de bibliothèque numérique qui pourrait à terme apporter réponses à ces questions.

Nous présenterons brièvement la démarche adoptée pour le développement de la plate-forme PADI ou Point d'Appui et de Documentation en Informatique. Nous ferons une présentation du prototype au stade actuel et nous en expliciterons son mode de gestion. Enfin, nous analyserons la structuration et la mise en ligne des informations dans le système et nous montrerons quels avantages la plate-forme PADI pourraient apporter à l'Institut d'Informatique.
19/12/2005Exterieur NON24,84 Mo
Remarque: Cette présentation se base sur un travail de fin d’études mené dans le cadre d’une mission de développement économique (projet Parrainage Management Ebusiness ou PME) portée par le Centre Henri Tudor. Ce mandat nous a conduit à orienter nos activités vers la technologie RFID, avec le dessein d’apporter notre soutien aux entreprises pour déterminer les opportunités d’usage et les contraintes de son adoption. Ainsi, nous avons collaboré avec les Bus de la Ville de Luxembourg (VDL) pour les aider à trouver une solution de lecture à longue distance des titres de transports électroniques (cartes e-go). Nous proposons, dans ce contexte, d’analyser la pertinence de la stratégie de conduite du projet PME à deux niveaux. Dans un premier temps, nous analyserons en quoi la RFID a contribué à la tactique de réalisation du volet Ebusiness. Ensuite, nous expliquerons que les résultats de ce projet favorisent l’atteinte des objectifs du Centre de recherche, en lien direct avec sa vision. Par ailleurs, une étude des risques spécifiques aux projets RFID permettra de dévoiler les failles qui peuvent les conduire à l’échec. Cette expertise, façonnée tel un travail de recherche, mettra l’accent sur les problèmes posés par cette technologie parfois intrusive dans la vie privée des personnes.
16/01/2006Exterieur NON21,03 Mo
Remarque:

Ce travail de thèse, présenté par Nicolas Mayer, a pour objectif principal de déterminer le niveau de sécurité le plus approprié pour le SI (Système d'Information) d'une organisation.

Aujourd'hui, dans le domaine de la sécurité des SI, un nombre important de solutions techniques sont disponibles. Chacune d'elles a son propre niveau de protection, mais également son propre coût. Ainsi un des objectifs de ce travail est de pouvoir déterminer le meilleur compromis entre niveau de sécurité atteint et coût associé. Ce compromis doit être basé sur une évaluation correcte des risques liés au SI, qui sont généralement définis en termes de menace et de vulnérabilité, et de la potentialité qui en découlent, et en termes d'impacts relatifs aux assets business d'une organisation. Il est ainsi nécessaire d'adapter les mesures de sécurité aux risques de sécurité qu'encourt l'organisation.

L'analyse des risques, permettant de lier les assets business d'une organisation et les aspects techniques des SI associés, semble bien adapté à l'application d'une démarche d'Ingénierie des Exigences (Requirements Engineering).

Ce travail de PhD aura les objectifs suivants :

  • L'identification des concepts de la gestion des risques des SI, nécessaires en vue d'une amélioration du process d'Ingénierie des Exigences.
  • L'identification des méthodologies d'Ingénierie des Exigences les plus adaptées en vue de l'intégration des concepts précédents.
  • Le développement de modèles et d'une méthodologie supportant l'exploitation effective de ces concepts.
  • L'étude des différents standards et référentiels (ISO 15408, ISO 17799, NIST and CERT documents…) dans le but d'extraire des exigences techniques et organisationnelles.
  • Le développement d'un prototype supportant la méthodologie proposée.
  • La validation et l'amélioration des points précédents à l'aide de leur application à une (ou plusieurs) études de cas.

L'exposé proposera en premier lieu une présentation de la thèse et de la problématique à résoudre. On passera ensuite en revue l'état de l'art, à la fois dans le domaine de la gestion des risques des SI et de l'Ingénierie des Exigences. Puis les premiers résultats seront présentés, axés autour de la méthodologie que l'on souhaite mettre en place. Une synthèse résumera le travail et présentera les points encore en suspens.

27/02/2006Exterieur NON16,64 Mo
Remarque:

Resolution and fidelity of source-to-source transformations :
Latest improvements to the ASF+SDF language
Jurgen Vinju, CWI

We consider a programming language workbench that takes a particular programming language as a parameter: the ASF+SDF Meta-Environment. The basic concepts and algorithms of any such system stem from the fields of compiler construction and reverse engineering. However, the requirements that come with the application domain of source-to-source transformations are rather particular.

Compilers and reverse engineering systems _abstract_ from unnecessary details, such as the layout of a program or its source code comments. On the contrary, when transforming source code to other source code, there is a priori no detail that is unnecessary. Every character of the input to a transformation, and every character of the output of a transformation may be (is) important.

From this viewpoint we adapted the ASF+SDF language and implementation. We raised its resolution to the character level, and raised its fidelity to make sure absolutely no detail is abstracted from a priori. We will discuss the merits and drawbacks of the new version of ASF+SDF and investigate what lies ahead. I will also report on a large case-study that was done to test the new functionality: analyzing the correctness of source code comments of a large C system.

06/03/2006Germain Saval NON13,65 Mo
Remarque: Scenarios and State Machines offer two complementary views on the behavior of distributed systems. The former presents a bird's eye view on objects interactions, whereas the latter describes the complete behavior of every object, thus being closer to implementation. Many algorithms translating scenarios to state machines have been devised. All these algorithms work at instance-level, i.e. for a fixed finite number of objects. Real-world object-oriented systems may contain arbitrarily many objects. Modeling languages and synthesis algorithms need to be adapted to this situation. We propose a simple and elegant extension of State Machines and Interaction Diagrams, that adds universal/existential quantifiers. This makes it possible to describe protocols such as when some observer detects an event, it notifies all registered clients. The problem we want to solve is precisely defined and an algorithmic solution is given and proven correct. Our synthesis algorithm is similar to state of the art approaches but adds a novel instantiation step to cope with quantifiers.
13/03/2006Etienne Cuvelier NON18,34 Mo
Remarque:

Classification de données fonctionnelles: le cas des distributions de probabilités dans le cadre de l'analyse symbolique

L'analyse de données symboliques permet de résumer des tableaux de données de grandes dimensions, en modélisant les concepts sous-jacents contenus dans les données. Ainsi, par exemple, dans le cas d'une enquête statistique sur un pays, un concept pourra être une région ou une province. La description de ces concepts nécessite l'utilisation de variables plus complexes que les habituelles variables quantitatives et qualitatives, comme: les intervalles, les valeurs multiples pondérées ou encore les distributions de probabilité. Nous décrirons comment la classification en K groupes d'un ensemble d'objets symboliques décrits par ce dernier type de variable peut être obtenue en appliquant une décomposition de mélange de copules archimédiennes sur les valeurs des distributions calculées en un nombre Q de points distincts, appelés coupures.

20/03/2006Marie Gevers NON30,96 Mo
Remarque:

L'histoire d'ENIGMA et de son décryptage :

L'exposé a pour objet une extraordinaire histoire, révélée seulement au début des années 1970 : celle du décryptage par les Alliés des messages cryptés par Enigma, la plus fameuse machine à chiffrer utilisée par l'armée allemande pendant la dernière guerre mondiale. Il commence par retracer l'historique de l'invention de l'Enigma. Puis il décrit brièvement cette machine et son fonctionnement ainsi que son mode d'utilisation par les Nazis. Ensuite, il s'attache à rapporter les diverses péripéties de l'attaque acharnée et fructueuse du chiffre d'Enigma : la trahison d'un Allemand, la contribution majeure de la Pologne (grâce à Marian Rejewski), la reprise du flambeau à partir de 1939 par les membres (dont notamment Alan Turing) de l'équipe du domaine de Bletchley Park en Angleterre. Il s'achève en soulignant les résultats de ce travail de cryptanalyse : d'une part, l'ouverture d'une voie menant à l'ordinateur et, d'autre part, un impact décisif sur la durée de la guerre, voire même sur l'issue de celle-ci.

03/04/2006Exterieur NON55,01 Mo
Remarque:

The first part of this recording is about :

Ongoing researches at LASSY and future directions

by Nicolas Guelfi

In this talk we will present the research activities of the Laboratory for Advanced Software Systems of the University of Luxembourg.

Some focus will be made on the following projects:

FIDJI: scientiFic engIneering of Distributed Java applIcations", CORRECT: "rigorous stepwise development of Complex Fault tOlerant DistRibuted Systems: from ARchitEctural DesCription to Java ImplemenTation". We will also outline future research directions in the context of the following projects: RESIST: "Towards a Secured, Efficient Platform for the e-Commerce of Personalized Health Products", METASOLVE: "Metadata-based Technology for Dynamic Resilience" . REAL-e: " Reliable Architectures for Adaptive and Mobile e-Learning Applications"

The second part is about :

Architecting Software Systems using Model Transformation and Architectural Frameworks

by Gilles Perrouin

In this talk I will present my PhD research entitled "Architecting Software Systems using Model Transformation and Architectural frameworks" currently carried out at the university of Luxembourg in collaboration with the university of Namur. This work is the continuation of the FIDJI project presented in the previous talk.

The goal of this work is to define a methodology that improves the current way we analyze design and develop distributed application by combining the outstanding results of model driven engineering approaches obtained these last years and the well established framework based development practice.

I will first explain in more details the main concepts our methodology relies on:

  • Model Driven Engineering
  • Software Architecture
  • Product Lines
  • Frameworks

I will then demonstrate how, by combining these concepts, we can form the notion of architectural framework central to this thesis.

I will pursue on the methodological aspects by exposing the consecutive phases of the approach and describe the various models required for each of them as well as their relationships with the architectural framework. The approach will be then exemplified on a case study belonging to the e-barter application domain.

I will conclude on some improvements of the methodology and potential future areas of research this thesis may yield to.

04/04/2006Exterieur NON21,54 Mo
Remarque: Capital Humain et Innovation présenté par José Figueiredo.
10/04/2006Anthony Cleve NON13,21 Mo
Remarque:

Projet RISTART : Aide à la migration de grands systèmes d'information par conversion automatique de programmes orientés données.

By Anthony Clève acl@info.fundp.ac.be

De manière synthétique, le projet RISTART (2004-2008) vise à développer des techniques de conversion de grands systèmes d'information et des outils qui automatisent le plus possible ces techniques, de manière à améliorer la qualité et diminuer le coût du résultat par rapport aux pratiques actuelles.
On vise plus particulièrement les situations très fréquentes dans lesquelles un gestionnaire de données jugé obsolète (fichiers COBOL, SGBD CODASYL ou IMS) est remplacé par un gestionnaire moderne (SGBD relationnel ou relationnel-objet, CMS, XML), sans que les fonctionnalités soient altérées. Le problème est que la migration des données implique généralement une modification lourde des programmes, processus beaucoup plus coûteux encore que le premier. D'où les offres commerciales actuelles, qui proposent une conversion automatique des données et des programmes selon une approche one-to-one (un fichier = une table par exemple), réputée peu "peu coûteuse", mais qui s'avère le plus souvent catastrophique en termes de qualité, de performance et d'évolutivité du code résultant.

Au cours de cet exposé, nous présenterons les premiers résultats du projet, comprenant entre-autres:

  • une approche co-transformationnelle de la réingénierie des systèmes d'information;
  • une méthode générale de conversion de programmes, combinant transformation et génération de code;
  • des outils supportant cette méthode pour deux gestionnaires de données sources particuliers: fichiers COBOL et SGBD CODASYL.

Nous illustrerons notre méthode et l'utilisation de nos outils sur un exemple concret, issu d'une étude de cas industrielle.

11/05/2006Exterieur OUI16,45 Mo
Remarque: Massification, bureaucratisation et nouveaux conflits des facultés - Exposé des résultats d'une enquête qualitative auprès de 509 enseignants-chercheurs des universités françaises - Prof. Charles Soulié (Paris VIII)
11/05/2006Exterieur OUI19,45 Mo
Remarque: Etre académique aux FUNDP - Anne-Marie Dieu
15/05/2006Michael Petit NON19,35 Mo
Remarque:

Understanding business strategies of networked value constellations using goal- and value modelling

by Michael Petit

Partners :
Jaap Gordijn, VUA Amsterdam Roel Wieringa, University of Twente

In goal-oriented requirements engineering (GORE), one usually proceeds from a goal analysis to a requirements specification, usually of IT systems. In this paper, we consider the use of GORE for the design of IT-enabled value constellations, which are collections of enterprises that jointly satisfy a consumer need. Designing the constellation amounts to designing the architecture of IT, business processes, and coordination processes across the cooperating companies.

The requirements analysis needed to do such a cross-organizational design not only consists of a cross-organizational goal analysis, in which the relevant goals of the participating companies are aligned, but also of a value analysis, in which the commercial sustainability of the constellation is investigated.

The value analysis provides a commercial operationalization of the strategic business goals identified in the cross-organizational GORE, and itself provides the requirements for the processes and IT that realize the value constellation. In this paper we investigate the relation between cross-organizational GORE and value modeling.

We use theories about business strategy such as those by Porter to identify strategic goals of a value web, and operationalize these goals using value models. We show how value modeling allows us to find more detailed goals, and to analyze conflicts among goals. In particular, we show how value modeling can be used to support decisions about trade-offs among conflicting goals.

29/05/2006Jean-Marie Jacquet NON40 Mo
Remarque: Langages de coordination.
12/06/2006Exterieur NON22,89 Mo
Remarque:

Une approche émergente de système multi-agents appliquée à la simulation dynamique de la planification “job shop”

par Min-Jung Yoo (HEC, Université de Lausanne)

Résumé:

La capacité d’un système à persister dans un environnement changeant et évolutif, en garantissant son fonctionnement, est une des caractéristiques importantes que des systèmes informatiques d’aujourd’hui doivent satisfaire.

C’est en particulier le cas de systèmes de planification des ateliers de fabrication. Afin d’opérer efficacement, un système de planification de production devrait considérer les contraintes de planification en temps réel. Néanmoins, les aspects dynamiques de “supply chain” dans lequel il se situe rendent cela difficile : les clients changent ou annulent des commandes, les matériaux arrivent en retard, etc., causant des dérivations par rapport au plan établi. Dans ce contexte, un des buts d’un système de planification intelligent est de fournir continuellement des informations adéquates de façon ininterrompue pour que des responsables de gestion de production puissent analyser les effets des changements et prendre une décision appropriée.

Dans cet exposé, nous présentons tout d’abord le principe de système multi-agents et de solution émergente qui permet à chaque entité de traiter des influences ou des perceptions de façon dynamique, en réagissant continuellement dans son environnement et en montrant une solution émergente.

Ensuite, un projet de développement dans lequel ce principe a été appliqué à un système de planification sera présenté. Le système de planification doit entre autres être capable d’accepter certaines modifications en temps réel, comme des changements de délai ou de quantité de la part des clients ou des fournisseurs, et de les considérer dans la planification.

Deux composantes principales seront évoquées : 1) le comportement réactif des agents qui est efficacement combiné avec un contrôle proactif pour les diriger vers un objectif prédéterminé; 2) l’algorithme de recuit simulé qui est intégré dans l’architecture d’agents afin de servir de critère de décision d’une action à faire.

17/07/2006Pierre-Yves Schobbens NON23,28 Mo
Remarque: Le Décret du 31 mars 2004 définissant l’enseignement supérieur, favorisant son intégration à l’espace européen de l’enseignement supérieur et refinancant les universités, dit Décret-Bologne, a mis en place un système de doctorat complexe et totalement différent. D'abord considéré comme inapplicable, une série d'astuces ont permis son application. Nous verrons comment les CDD, EDD, EDT et autres interagissent dans ce nouveau système. Heureusement, la plupart de cette complexité est épargnée au doctorand.

staff-sem(s) enregistré(s) en 2004-2005:

Date d'enregistrementOrateurSystème utiliséProtection par mot de passeTailleTélécharger
15/11/2004Exterieur NON19,56 Mo
Remarque: Models and logics for strategic abilities in multi-agent systems.
Valentin Goranko (Rand Afrikaans University, Johannesburg).

Consider scenarios where a set of autonomous agents {players, system components, etc.} take actions, simultaneously or in turns, on a common state space, and thus collectively effect transitions between the states. Examples are (abstract) multi-player games and open systems (e.g. computer networks). In these scenarios the agents pursue individual or collective goals by adopting suitable strategies, and in the pursuit of these goals can form coalitions which are usually competing; thus, the game-theoretic aspect is common and dominant here.

Furthermore, the agents have (and exchange) information about the system, and about other agents' and coalitions' abilities, goals, strategies etc. and these can interact in a rather intricate ways.

In this talk I will discuss recently developed logical formalisms for specification and verification of such systems, viz. the Alternating-time temporal logic ATL (introduced and developed by Alur, Henzinger, and Kupferman in 1997-2002) and some extensions and variations of it. In particular, I will present some recent results regarding their semantics, satisfiability and model checking, and complete axiomatizations.

Time permitting, I will then discuss some complications arising when the agents have incomplete information about the system, and frameworks for modeling and reasoning about such systems.
22/11/2004Nicolas Pagès NON7 Mo
Remarque: Ce projet a pour objectif d'offrir à un auteur de contenu, non informaticien, un outil très simple qui lui permette la création et la simulation d'expériences scientifiques, de manière interactive. Il est conçu pour s'adresser à deux types d'utilisateurs distincts : d'une part le professeur ou auteur, et d'autre part l'étudiant ou apprenant. Un certain nombre d'objets sont mis à la disposition de l'auteur. Il a ainsi la possibilité de les « ajouter » dans l'expérience en cours de création. Chaque objet a bien entendu un certain comportement qui lui est propre, et différents objets peuvent interagir entre eux. L'auteur peut alors paramétrer ces différents objets à sa guise, et peut définir les différentes actions qui seront accessibles ou pas à l'apprenant. Il lui donc possible de créer de toute pièce une expérience uniquement à partir des différents objets, en insérant ceux qu'il juge nécessaires pour la réalisation de cette expérience. Néanmoins, il aura également la possibilité de choisir parmi un certain nombre de scénarios prédéfinis. Une fois l'expérience créée, elle peut être stockée dans une base de données. Une expérience qui a été sauvegardée dans la base de donnée devient accessible pour un étudiant. Ce dernier n'a à sa disposition que les possibilités de paramétrage que l'auteur de l'expérience lui a accordées.
29/11/2004Quentin Dallons NON64,28 Mo
Remarque: Ce projet se situe à la confluence de deux mouvements technologiques très actuels : d'abord propres à la biologie, le recourt de plus en plus important à des applications logicielles malheureusement extrêmement hétérogènes (pour stocker, lire et interpréter les données biologiques), ensuite, propres à l'informatique, le développement par les constructeurs de plateformes d'intégrations, commerciales ou non, facilitant l'interopérabilité des application logicielles hétérogènes existantes (processeurs, systèmes d'exploitation, librairies logicielles et langages de programmation). Parmi ces plateformes d'intégration, et faisant figure de standards plus que de produits, on trouve CORBA ou les Services Web. La biologie offre ainsi un contexte d'application et d'expérimentation idéal pour les solutions intégratives pro-posées ces temps-ci par les constructeurs de logiciels et les organismes de standardisation.
13/12/2004Exterieur NON26,20 Mo
Remarque:

(omega-)Regular model checking is the name of a family of symbolic techniques for analyzing infinite-state systems in which states are represented by (in)finite words, sets of states by finite automata on these objects, and transitions by finite automata operating on pairs of state encodings, i.e. finite-state transducers.

In this context, the central problem is then to compute the iterative closure of a finite-state transducer. A simple technique for iterating transducers is to use "widening", which amounts to computing successive approximations of the closure and to apply a simple extrapolation technique to these approximation in order to compute a sound guess of their limit.

The first part of the talk is devoted to the use of such widening techniques in the case of systems using specific types of data for which regular model checking had not been used before (systems with integers, systems with reals, heterogenous systems, ...). The techniques we present build on earlier work, but exploit a number of new conceptual and algorithmic ideas, which experiments helped to induce.

In the second part of thee talk, we address the problem of verifying liveness properties using the regular model checking framework. We show how this problem can be reduced to the one of computing the transitive closure of a transducer. The last part of the talk is devoted to a brief presentation of other existing techniques (tree regular model checking, abstract regular model checking, ...) and possible future work.

20/12/2004Exterieur NON22,85 Mo
Remarque:

Dans le monde réel, un contrat papier se termine généralement avec les mentions suivantes pour chaque signataire:
Fait à : Lieu de signature
Date : Date de signature
Lu et approuvé : Signature manuscrite du signataire

Dans le monde virtuel, l'avènement des technologies de signature digitale et leur reconnaissance légale permet de substituer une signature digitale à une signature manuscrite et de garantir l'authenticité du signataire, l'intégrité du texte signé et la non-répudiation du texte signé et de l'acte de signature par le signataire.

Les protocoles de certification du temps, couplés à la signature digitale, permettent d'associer une date et une heure à la signature d'un contrat électronique. Ces protocoles de certification du temps offrent plus de garanties que la mention "Date" du contrat dans le monde réel ; En effet, si dans le monde réel il est possible pour le signataire d'antidater ou de postdater la date de signature d'un contrat, la certification du temps permet de garantir aux autres parties et aux tiers la date et l'heure de signature du contrat.

Mes recherches doctorales actuelles portent sur la certification du lieu.

L'idée est :
1. D'associer un lieu à la signature d'un contrat électronique.
2. De garantir aux autres parties et aux tiers l'authenticité de ce lieu.

Ce deuxième point offre une réelle amélioration par rapport aux contrats signés dans le monde réel ou aux contrats signés électroniquement où le signataire encode simplement le lieu où il se trouve au moment où il signe.

Pour offrir cette garantie, j'envisage de définir un protocole cryptographique qui se baserait sur les signaux transmis par une constellation de satellites de positionnement tel que celle mise en place dans le cadre du GPS ou de Galileo et sur des "certificateurs de lieu".

26/01/2005Ravi Ramdoyal NON7,046 Mo
Remarque: Deriving User Requirements From Human-Computer Interfaces
07/02/2005Gabriel Schwanen NON20,15 Mo
Remarque: Métaheuristiques pour l'optimisation de problèmes difficiles : l'exemple du voyageur de commerce.
07/02/2005Exterieur NON18,14 Mo
Remarque: Les algorithmes de colonies de fourmis présenté par Denis Darquennes.
21/02/2005Exterieur NON21,03 Mo
Remarque: Since the seventies, databases have been modeled as first-order relational structures and database queries as mappings from relational structures to relational structures. It is, hence, not surprising that there is an intimate connection between database theory and (finite) model theory: finite model theory provides the backbone for database query languages, while in turn, database theory provides a scenario for finite model theory.
Today's technology trends require us to model data that is no longer tabular. The World Wide Web Consortium has adopted a standard data exchange format for the Web, called Extended Markup Language (XML) in which data is represented as labeled ordered attributed trees rather than as a table. A new data model requires new tools and new techniques. As trees have been studied in depth by theoretical computer scientists, it is no surprise that many of their techniques can contribute to foundational XML research. Like in the cross-fertilization between logic and databases, XML imposes new challenges on the area of formal language theory, while the latter area can provide new tools and techniques for the benefit of XML research. In this talk, I will give a survey of this new cross-fertilization.
28/02/2005Exterieur NON13,76 Mo
Remarque: The rate of unsuccessful Information Systems (IS) is not decreasing overtime. This rate is significant, socially and economically regrettable. So a change in the procedures followed to develop and adopt Information Systems is needed. To involve the design, development and adoption phases of IS within a socio-technical approach that is itself a conceptual envelope is the main message of this talk. Our experiences have been mainly applied to inter-institutional communities but in this presentation we only describe the theoretical framework, the alluded conceptual envelop. To situate this approach we stress the importance of cultural and paradigmatic influences. We use actor networks and action research in a comprehensive methodological combination that, according to Actor Network Theory (ANT), follows the actors, and respecting Action Research (AR), assumes that, as researchers and leaders of the project, we act ourselves. That is, with AR we act inside the network, as actor, with ANT we act in the socio-technical context, using the potentialities of remote controls, or artifacts of involvement. Such an approach eludes faulty perceptions, dissolves resisting barriers and facilitates alignment, a practical class of alignment, addressing interests and objectives, and a conceptual class of alignment, involving the paradigm, methodologies and tools adopted.
14/03/2005Wim Vanhoof NON19,46 Mo
Remarque:

Dans ce séminaire, nous parlerons d'une analyse statique ayant comme objectif de démontrer - dans la mesure du possible - la terminaison de programmes logiques. Après une introduction dans laquelle nous introduirons les techniques de base sous-jacentes à une telle analyse, nous identifierons, au moyen d'exemples, quelques-unes de ses défaillances rudimentaires susceptibles d'amélioration.

Ensuite, nous présenterons deux extensions générales à l'analyse de base. La première comprend une nouvelle notion de "mesure" qui est basée sur le type des structures manipulées par le programme. Ainsi l'analyse peut dériver, de façon automatique, une collection de mesures appropriées à prouver la terminaison du programme soumis à l'analyse. La deuxième extension permet de combiner plusieurs de ces mesures dans une seule preuve de terminaison. Ainsi on arrive à une technique performante dont on montre expérimentalement qu'elle avance l'état de l'art dans ce domaine.

Ce séminaire inclut des résultats provenant d'une collaboration avec Maurice Bruynooghe (KUL), Michael Codish (Ben Gurion, Israel), John Gallagher (Roskilde, Danemark) et Samir Genaim (Vérone, Italie).

02/05/2005Exterieur NON14,06 Mo
30/05/2005Exterieur NON18,14 Mo
Remarque: This talk, by Jeremy Sproston, will extend previously developed probabilistic model checking techniques to a particular case of proabilistic timed systems, namely durational probabilistic systems. These systems exhibit a combination of nondeterministic, probabilistic and discrete-timed behaviour. Algorithms for model checking durational probabilistic systems against properties of the probabilistic and timed temporal logic PTCTL, which can express soft deadline properties such as "with probability 0.99 or greater, a request will be followed by a response within 5 milliseconds", will be presented. Complexity issues will also be addressed, in particular with regard to those cases in which model checking durational probabilistic systems is harder than verifying non-probabilistic durational probabilistic systems.
06/06/2005Anne de Baenst NON32,53 Mo
Remarque: Dans cet exposé, j'introduirai brièvement ce qu'on entend par gestion de contenu et bibliothèque numérique. Je pointerai quelques logiciels phares dans les deux approches. Je montrerai un peu plus en détail le système Plone. Enfin, j'aborderai les différents standards reconnus pour la gestion des informations. Cet exposé ne se veut pas exhaustif. Il a pour objectif principal de partager quelques réflexions sur le monstre du Loch Ness qu'est la gestion informatisée des contenus informationnels et favoriser ainsi un échange d'idée sur le sujet entre les chercheurs de l'Institut d'Informatique.
13/06/2005Hugues Van Peteghem NON26,25 Mo
Remarque: La troisième génération de téléphonie mobile, connue sous le nom d'UMTS (Universal Mobile Telecommunication Services), est née de l'union de l'Internet et des téléphones cellulaires. Le lancement de cette nouvelle génération de communication permet aux utilisateurs d'accéder à un plus large panel de services que les habituels échanges vocaux, SMS ou, plus récemment, MMS.

Notre but est de créer une maquette expérimentale émulant un sous ensemble de l'UMTS, à savoir l'UTRAN (UMTS Terrestrial Radio Access Network). Cette maquette nous permet de reproduire certains comportements des utilisateurs (en termes de quantité de données émises/reçues, de mobilité, de qualité de réception, etc.) tout en restant largement en dessous du coût de déploiement d'un UTRAN réel. Elle est constituée de neuf machines interconnectées que nous pouvons diviser en trois groupes : le premier (une machine) supporte le traitement effectué au sein d'un RNC (Radio Network Controller), le deuxième (quatre machines) émule quatre NodeB's (stations de base UMTS) et le troisième (quatre machines) simule quatre groupes d'utilisateurs distincts.

Pour rester proche de la réalité, nous supposons que chaque utilisateur est capable d'accéder à plusieurs types d'applications. La caractérisation de trafic est donc un point important de nos recherches. Notre idée est de fournir plusieurs modèles de trafic représentant différents groupes d'applications. Suivant la standardisation 3GPP (3rd Generation Partnership Project), il en existe maintenant quatre grands groupes : Conversational (conversations vocales classiques), Interactive (surf sur Internet), Streaming (streaming audio/vidéo) et Background (émission/réception de mails). Nous avons donc défini quatre modèles, chacun basé sur des distributions statistiques et des paramètres propres.

Les utilisateurs peuvent non seulement générer et recevoir différents types de trafic, mais ils peuvent aussi se mouvoir de façon tout à fait autonome. Cette mobilité est simulée grâce à un algorithme de random walk. Au cours de ces mouvements, la qualité du signal reçu de la NodeB est mesurée, car elle sert de métrique pour déterminer à quelle NodeB un utilisateur est connecté.

Le séminaire décrira plus en détails les travaux esquissés ci-avant, et présentera les prochaines étapes de nos recherches. Des sujets plus techniques y seront également abordés tels que l'administration d'interfaces virtuelles sous Linux, la gestion des threads POSIX en C, la caractérisation statistique des différents trafics, la problématique de rejeu de scenarii en temps réel ou encore la surveillance d'un réseau d'ordinateurs via l'utilitaire Nagios.
20/06/2005Monique Noirhomme NON32,28 Mo
Remarque: Ce séminaire a pour sujet "L'accès à Internet pour les personnes atteintes d'un handicap" et fait suite à la vidéo "L'écran noir" réalisée en collaboration avec le SAVE.

staff-sem(s) enregistré(s) en 2003-2004:

Date d'enregistrementOrateurSystème utiliséProtection par mot de passeTailleTélécharger
01/12/2003ExterieurNON27,04 Mo
Remarque: Application de la mesure fonctionnelle COSMIC-FFP: une approche cognitive Jean-Marc Desharnais Laboratoire de recherche en Génie Logiciel ETS, Université du Québec La mesure fonctionnelle du logiciel existe depuis le début des années 1980. Au milieu des années 1990, une norme ISO a été créée pour définir ce qu'est la mesure fonctionnelle (ISO 14143-1). Sur la base de cette norme, plusieurs méthodes de mesures fonctionnelles sont elles aussi devenues des normes dont COSMIC-FFP (ISO 19761). Cette présentation abordera la problématique de l'application de la mesure fonctionnelle COSMIC-FFP. L'application d'une mesure fonctionnelle à un logiciel veut dire mettre en correspondance les artefacts du logiciel à mesurer avec les règles de la méthode de mesure. Cette tâche est complexe et demande au mesureur une expertise qu'il acquiert, via des connaissances en génie logiciel et en mesure ainsi que par la pratique de la mesure. Pour aborder la question d'un point de vue cognitif il faut d'abord avoir une bonne idée de la démarche du mesureur (expert), ce qui n'a jamais été fait à notre connaissance dans d'autres travaux de recherche et n'a jamais, de plus, été analysée systématiquement et encore moins traitée dans le cadre d'une approche cognitive. Nous faisons l'hypothèse qu'un système à base de connaissances pourrait aider le personnel de la mesure à acquérir et à maintenir les connaissances nécessaires à la mesure fonctionnelle des logiciels. Un prototype a été créé et expérimenté pour le démontrer. Il faut noter que ce type d'expérimentation sur les systèmes à base de connaissances est aussi relativement rare. Notre présentation fera un bref survol des travaux réalisés dans les dernières années sur le sujet et fera une brève démonstration du prototype 2, dérivé du prototype 1, qui a été développé par des étudiants à la maîtrise de l'Université de Namur.
15/12/2003ExterieurNON30,32 Mo
Remarque: Dominique MERY UMR no 7503 LORIA CNRS Université Henri Poincaré (Nancy 1) ESIAL BP 239 - 54506 VANDOEUVRE-LES-NANCY - FRANCE Le développement de systèmes informatiques s'appuie sur des méthodes pouvant intégrer des techniques de preuve comme les techniques de model checking ou les techniques de preuve mathématique. Le plus souvent ces méthodes mettent en oeuvre des techniques et des langages semi-formels. Notre démarche s'inscrit dans l'intégration de techniques de preuve mathématique dans le développement de systèmes et vise à mettre en oeuvre des outils pour aider au mieux les développeurs. Dans cet exposé nous présenterons deux développements relatifs à des algorithmes connus: MST et IEEE1394. Nous montrerons les différentes étapes et les questions posées par ces étapes notamment en relation avec l'outil de preuve lui-même. Le raffinement de modèles mathématiques de systèmes sera l'instrument mis en oeuvre dans ces développements et nous montrerons comment l'outil utilisé met en oeuvre cette technique. L'outil de mise en oeuvre est l'Atelier B et les techniques de raffinement concernent les systèmes événementiels B et les diagrammes de prédicats.
02/02/2004ExterieurNON45,25 Mo
Remarque: Les systèmes hybrides qui combinent des composants discrets et continus trouvent des nombreuses applications et attirent un grande intérêt des automaticiens, informaticiens, mathématiciens et informaticiens. Pour un informaticien (théorique) les questions les plus importantes sont : Comment modéliser ce genre de systèmes par un modèle qui ressemble à des automates ? Quels problèmes relatifs à tels systèmes sont décidables ? Quels sont des algorithmes efficaces pour analyser tels systèmes ? Quelles sont des analyses interessantes ? Peut-on considérer des systèmes hybrides comme modèles de calcul ? Comment les propriétés dynamiques des systèmes hybrides (chaos, robustesse, bruit) influencent leur propriétés informatiques (décidabilité) ? Lesquels de ces questions s'appliquent aux systèmes purement continus ? Quelles sont les réponses dans ces cas-là ?
01/03/2004ExterieurNON41,43 Mo
Remarque: Although there is substantial benefit to be gained in using behaviour models for developing distributed systems, industry has been slow in assimilating behaviour model technologies. The main reason for this is economic: the benefits of rigorous and automated analysis normally do not justify the cost of using such approaches. The construction of behaviour models is a difficult task that requires considerable expertise. In addition, return on investment is slow because modelling technologies require comprehensive models before the benefits of automated analysis can be realised. Behaviour modelling is an engineering activity in its own right, and developing support for the construction of behaviour models is key challenge that has been largely neglected in favour of modelling notations, semantics and analysis techniques. Efficient cost-effective techniques and tools for constructing and elaborating behaviour models are crucial missing pieces needed to achieve sound engineering methods for distributed software development. In this talk I shall give an overview of my research in this area. I shall present an approach for incremental elaboration centred on the notion of implied scenarios. Implied scenarios identify gaps in scenario-based specifications. These gaps are the result of mismatches between the behavioural and architectural aspects of specifications such as message sequence charts. Due to the partial nature of scenario-based specifications, implied scenarios cannot be determined a priori to be undesired behaviour. Thus, by iteratively validating implied scenarios we can drive the elaboration of system models. In addition, I shall discuss extensions of the approach that we are currently undertaking including the use of architectures and partial behaviour models in scenario synthesis.
26/04/2004ExterieurNON159,9 Mo
Remarque: Taxonomies, i.e. partially ordered sets of names, is probably the oldest and most widely used conceptual modeling tool, still used in Libraries, Web directories, Marketplaces and the Semantic Web. Moreover, almost all sophisticated knowledge representation approaches have a backbone consisting of a subsumption hierarchy, i.e. a taxonomy. This talk will focus on three topics that revolve around taxonomies: (A) Designing Taxonomies A recently emerged algebra, called Compound Term Composition Algebra (CTCA), that allows building very big taxonomies of compound terms in a very flexible, efficient and scalable manner will be presented. A system that is based on CTCA that was just build in collaboration with VTT-Finland will be described in brief (for more see [A.1], [A.2]). (B) Constructing Mappings between Taxonomy-based Information Sources. An ostensive method for creating automatically mappings between two or more taxonomy-based information sources will be presented. This method is appropriate for peer-to-peer (P2P) systems that support semantic-based retrieval services (for more see [B.1]). (C) Interacting with Taxonomy-based Sources The theoretical foundation of a unified scheme for information access and retrieval that generalizes several well-known interaction schemes and its specialization for taxonomy-based information sources will be presented at last (for more see [C.1], [C.2]).
03/05/2004ExterieurNON97,17 Mo
Remarque: Classification Hiérarchique et Pyramidale Symbolique (1/2) :
Francisco de Carvalho

Le besoin de traiter des données ne pouvant être représentées dans une matrice n x p classique, combiné avec l'intérêt croissant pour des méthodes dont les résultats soient directement interprétés en termes des variables descriptives, ont conduit au développent de l'analyse de données symboliques. Les données symboliques étendent le modèle tabulaire classique, où chaque individu en ligne prend une et une seule valeur sur chaque variable en colonne, en permettant des valeurs multiples, éventuellement pondérées, pour chaque variable. De nouveaux types de variables ont été introduits - variables intervalle, catégoriques multi-valuées et modales - qui permettent de tenir compte de la variabilité et/ou l'incertitude présentes dans les données. Ainsi, l'objectif fondamental de l'Analyse de Données Symboliques est celui d'étendre les techniques classiques d'analyse des données à des données symboliques, de façon à ce que les données en entrée et les résultats obtenus puissent être exprimées dans le même formalisme, basé sur la notion d'objet symbolique. En ce qui concerne la classification, le problème consiste à développer des méthodes qui permettent de classifier des ensembles de données symboliques, et qui produisent des classes directement interprétées en termes des variables descriptives. La méthode de classification symbolique proposée permet de considérer en entrée un ensemble de données symboliques, où chaque élément est décrit par variables symboliques de différents types. Le critère qui guide la formation des classes est la dualité intention-extension : chaque classe est représentée par un objet symbolique dont l'extension doit coïncider avec la classe elle-même. Un critère numérique additionnel est défini, une mesure de "généralité", qui permet, à chaque étape, de choisir la "meilleure" agrégation parmi les agrégations possibles. Ainsi, chaque classe formée est par construction associé à un objet symbolique qui généralise ses membres, et aucun élément extérieur à la classe ne vérifie la description donnée par cet objet. Les classes sont ainsi des "concepts", décrits et en extension, par la liste de ses membres, et en intention, par un objet symbolique qui exprime ses propriétés. La méthode rentre dans le cadre de la classification conceptuelle, puisque chaque classe formée est associée à une conjonction de propriétés portant sur les variables descriptives, qui constitue une condition nécessaire et suffisante d'appartenance à la classe. On a considéré les modèles hiérarchique et pyramidal de classification. Rappelons que les pyramides étendent le modèle hiérarchique en permettant des classes recouvrantes qui ne sont pas emboîtées, mais le modèle pyramidal impose l'existence d'un ordre total sur l'ensemble des individus à classer tel que chaque classe formée soit un intervalle de cet ordre. La classification pyramidale produit une classification plus riche qu'une hiérarchie, en ce sens qu'elle permet la formation d'un plus grand nombre de classes, et elle fournit une sériation d'un ensemble donné. Dans cet exposé, on commencera par rappeler les modèles de classification hiérarchique et pyramidale, montrant comment les pyramides étendent les hiérarchies à une structure plus riche. On rappellera ensuite les données de type symbolique. On présentera alors la méthode de classification hiérarchique/pyramidale symbolique, détaillant la procédure de généralisation et le calcul de mesures de généralité pour les différents types de variables. Enfin, on présentera le module HIPYR du logiciel SODAS, qui permet d'effectuer une classification hiérarchique ou pyramidale d'un ensemble d'objets symboliques donné.
03/05/2004ExterieurNON63,03 Mo
Remarque: Classification Hiérarchique et Pyramidale Symbolique (2/2) :
Francisco de Carvalho
05/05/2004ExterieurNON38,89 Mo
Remarque: Yves Ledru
LSR/IMAG et Université Joseph Fourier (Grenoble 1)

TOBIAS is a combinatorial testing tool, aimed at the production of large test suites. In this paper, TOBIAS is applied to conformance tests for model-based specifications (expressed with assertions, pre and post-conditions) and associated implementations. The tool takes advantage of the executable character of VDM or JML assertions which provide an oracle for the testing process. Executing large test suites may require a lot of time. This paper shows how assertions can be exploited at generation time to filter the set of test cases, and at execution time to detect inconclusive test cases.
Keywords: combinatorial testing, model-based specifications, VDM, JML
14/06/2004ExterieurNON18,43 Mo
Remarque: Cryptographic protocols such as IKE, SET, TLS, Kerberos have been developed to secure electronic transactions. However the design of such protocols often appears to be problematic even assuming that the cryptographic primitives are perfect, i.e. even assuming we cannot decrypt a message without the right key. An intruder may intercept messages, analyse them, modify them with low computing power and then carry out malevolent actions. This may lead to a variety of attacks such as well-known Man-in-the-Middle attacks.

Even in this simple model, the so-called Dolev-Yao model, protocol analysis is complex since the set of states to consider is huge or infinite. The interleaving of parallel sessions generates a large search space. When we try to relax the perfect encryption hypothesis by taking into account some algebraic properties of operators then the task gets more difficult.

We will present translation and constraint solving techniques developed in Cassis team for automating protocol analysis in Dolev-Yao model and some of its extensions. Protocol specifications are compiled and then passed on decision procedures for checking automatically whether they are exposed to flaws.
28/06/2004ExterieurNON33,56 Mo
Remarque: Yves Bontemps

"Vérification de scénarios sur des modèles d'états"

Nous travaillons dans le domaine de l'ingénierie des exigences. Afin de faire de cette discipline une discipline d'ingénierie, il est important de disposer de méthodes, modèles et outils. Nous présenterons la méthode développée par M. Jackson (Monde vs Machine), et l'appliquerons au cas de la modélisation comportementale. Cette modélisation se fait suivant deux perspectives classiques: inter-agent (machines à états) ou intra-agent (scénarios). En particulier, nous analysons un langage graphique, orienté utilisateur et se trouvant dans UML 2.0, les Live Sequence Charts (LSC).
Nous considérons les différents problèmes liés à cette approche: la vérification de cohérence, la synthèse et la correction. Des outils CASE devraient pouvoir traiter automatiquement ces problèmes. Nous étudions la complexité de ces problèmes, qui est, de manière surprenante, élevée. Cette haute complexité est mise en perspective, par rapport à l'expressivité limitée des langages.
16/08/2004Pierre-Yves SchobbensNON44,10 Mo
Remarque: The FireWorks Transformational Model-Driven Approach to Product Lines
Pierre Yves Schobbens

The FireWorks project (ESPRIT 23531) has proposed a formal approach to feature integration, based on the observation of existing practice:
  • Products often evolve rapidly and are declined in many variants.
  • The new market needs are often unexpected. Careful planning often turns out to be useless, and even harmful since it can delay the time to market and thus the feedback from customers.
  • The new generation of products thus has to reuse development artifacts that have not been designed with reuse in mind.
  • The market rapidly tends to be very fragmented and the products have to offer many different mixes of features to different market niches. Unexpected combinations are the norm rather than the exception.
  • New features should be developed so as to be integrated in all these different mixes with minimal human effort. A lot of effort was historically wasted on the feature interference problem, where a feature developed for a specific system at a very low level of abstraction was carelessly ported to a similar system but with different features, resulting in unexpected and often very harmful interference between the features.

staff-sem(s) enregistré(s) en 2002-2003:

Date d'enregistrementOrateurSystème utiliséProtection par mot de passeTailleTélécharger
16/01/2003ExterieurNON66,56 Mo
Remarque:
"7th Namur Award lecture - Digital Libraries, Developing Countries, and Information for All", Prof. Ian H. Witten, Waikato University, Nouvelle-Zélande.

Digital libraries are large, organized collections of information objects. Well-designed digital library software has the potential to enable non-specialist people to conceive, assemble, build, and disseminate new information collections. This has great social import because, by democratizing information dissemination, it provides a counterbalance to disturbing commercialization initiatives in the information and entertainment industries. This talk reviews trends in today's information environment, introduces digital library technology, and explores applications of digital libraries -- including their use for disseminating humanitarian information in developing countries. We illustrate how currently available technology empowers users to build and publish information collections. Making digital libraries open to all, as conventional public libraries are, presents interesting challenges of universal access.

"En raison d'une incompatibilité de plateformes, quelques illustrations et la démonstration de Greenstone (http://www.greenstone.org) n'ont pas été capturées lors de l'exposé."
07/04/2003ExterieurNON27,64 Mo
Remarque: Process Mining: Discovering Process Models from Event Logs Prof.Dr.Ir. Wil van der Aalst Many of today's information systems support operational processes which can be described in terms of languages like Petri nets, statecharts, and process algebras. Most of the existing systems are able to execute and control processes specified in terms of these languages. Moreover, most systems log all the events taking place. Surprisingly, there are few tools that are able to distill the underlying process model given an event log. Therefore, we are developing algorithms and tools for process mining. The basic idea is to automatically construct a Petri net based on an event log. We have developed two tools (EMIT and Little Thumb) to do this. EMIT focuses on time aspects (detecting bottlenecks, etc.) while Little Thumb deals with noise (incorrect information, rare events, etc.). Applications range from the processing of fines within the CJIB to analyzing health care processes (e.g., patient flows in hospitals). This talk addresses the many scientific challenges triggered by mining concurrent processes.
14/04/2003ExterieurNON7,546 Mo
Remarque: Scheduling of Two Machines Flowshop With Availability Constraints Hamid Allaoui We treat the NP-hard problem of scheduling n immediately available jobs in a flowshop composed of two machines in series with the objective of minimizing the makespan, when it is known that there shall be an interruption in machine availability either on the first machine or the second machine. We also consider two types of processing regimes: "stop resume" and "stop restart". We present efficient dynamic program models for both regimes. But we focus on the performance of the Johnson Rule as a heuristic. We establish the conditions under which it yields the optimum, and demonstrate that in other cases its performance is bounded by 2. -- Hybrid Flow Shop Scheduling with Availability Constraints Hamid Allaoui, Hakim Artiba, Fouad Riane. This paper is concerned with the problem of scheduling n immediately available jobs in a hybrid flowshop which is a skilful combination of the serial shop organization in which the product flows sequentially from one stage to the next, and the parallel shop organization in which several facilities are present at each stage to perform the associate manufacturing phase. The objective is to minimize the makespan, when it is known that there shall be an interruption in machine availability called gap. Most of the papers that deal with scheduling problems assume that the machines are always available during the scheduling period. However in most real life industrial settings a machine can be unavailable for many reasons, such as unforeseen breakdowns (stochastic unavailability) or due to a scheduled preventive maintenance where the period of unavailability is known in advance (deterministic unavailability). In this paper we study only hybrid flow shop scheduling problem in the deterministic unavailability case. We also consider two types of processing regimes: "stop resume" and "stop restart". These terms are defined as follows (Lee). Suppose that the gap interrupts the processing of a job. If the job continues processing after the machine becomes available again without any loss in time or penalty for resumption, the problem is called "stop resume" or "resumable"; abbreviated as "sr". On the other hand, the problem is called "stop restart" or "nonresumable" if the job has to restart from the beginning (all prior processing is wasted) when the machine becomes available again; abbreviated as "sn". We discuss the complexity of the problem and try to solve it approximately. We propose two metaheuristiques to solve this problem, simulated annealing and tabu search, and we give an experimentation study.
05/05/2003ExterieurNON16,64 Mo
Remarque: Features of software systems Mark Ryan School of Computer Science University of Birmingham A feature is a piece of functionality. For example, possible features of a printer include paper-out detection, duplex printing, and colour printing. Often, new systems are developed by adding features to old ones, a practice which we call "feature integration". When several features are integrated into the same system, they may interfere with each other in undesirable ways; this is called the "feature interaction problem". I will review review some known examples of feature integration and feature interaction, and the "feature construct" approach for defining and reasoning about features. I'll briefly the case studies we have examined. Next, I describe the logical properties of the feature construct for SMV, and show that it satisfies the rationality postulates of "theory update". In the second part of the talk, I will describe some feature interactions of access control systems, and some ideas about how they can be resolved. This is work in progress.
25/06/2003ExterieurNON24,06 Mo
Remarque: Prof. Agostino Cortesi dipartimento di informatica universita' ca' foscari via torino 155 30170 Venezia A multilevel security policy is considered in the scenario of mobile systems, and modeled within pure Mobile Ambients calculus, in which no communication channels are present and the only possible actions are represented by the moves performed by mobile processes. Information flow is defined in terms of the possibility for a confidential ambient/data to move outside a security boundary. A control flow analysis will be presented, as a refinement of the Hansen-Jensen-Nielsons's CFA, that allows to capture boundary crossings with better accuracy. In this way, information leakage may be statically detected.