Technologies numériques


UX Design
Temps de lecture : 6 minutes La mission de l’UX designer – ou « user experience designer » – consiste à améliorer l’expérience utilisateur. Carole D’ANDREA*, formatrice en UX design et accessibilité, nous dresse le portrait-type d’un professionnel dont le rôle est crucial dans la conception d’interfaces dites « centrées utilisateur ». Le terme « UX » est une abréviation de l’anglais user experience. Il fait référence à l’expérience vécue par une personne utilisant un produit ou un service. C’est-à-dire ce qu’elle éprouve sur le plan pragmatique, du confort, du plaisir ou des valeurs subjectives qu’elle rattache à ce produit ou service. Bien que l’UX designer soit souvent associé à la conception d’outils numériques, son domaine peut aller au-delà. Le design de service fait aussi appel à l’UX. Pour un magasin physique par exemple, on peut guider le parcours d’un utilisateur entre les rayons, le projeter dans une ambiance particulière, etc. L’UX designer peut intervenir dans de nombreux domaines. Le numérique étant toutefois son secteur de prédilection, c’est sous cet angle que nous aborderons les spécificités d’un métier qui gagne assurément en popularité. Qui est l’UX designer ? Dans une certaine mesure, l’ancêtre de l’UX designer est l’ergonome. « Ancêtre » dans le sens où le métier de l’ergonome est plus ancien, normé par l’ISO 9241. L’UX designer est un métier plus jeune qui élargit le périmètre de l‘ergonomie. Alors que l’ergonome se concentre essentiellement sur le moment de l’interaction, l’UX designer pense à l’avant et à l’après. Il tient compte aussi d’un grand nombre de facteurs, au-delà de l’utilité et de l’utilisabilité du produit. Il touche à des domaines complémentaires comme le marketing ou la réalisation technique, qui contribuent également à l’expérience utilisateur finale. Le métier d’UX designer est par ailleurs plus adapté aux nouveaux modes de travail collaboratifs. Ces derniers abolissent progressivement les frontières entre collaborateurs (maîtrise d’œuvre, maîtrise d’ouvrage, maîtrise d’usage). Les paradigmes d’aujourd’hui (Design Thinking, UX/UI, UX/CX…) nécessitent une évolution du métier d’ergonome. Auparavant, celui-ci travaillait plutôt en périphérie des équipes et pour des demandes ponctuelles. Aujourd’hui, il est au contact direct des équipes avec lesquelles il collabore tout au long du projet. L’experience utilisateur est le fruit de cette collaboration. L’UX designer est l’élément-clé de la démarche ; c’est lui qui, avec ses compétences, ses outils et les données de terrain qu’il collecte, va orienter l’équipe dans sa démarche centrée utilisateur et s’assurer que tout le monde ait conscience du rôle qu’il doit jouer pour asseoir la réussite du projet. UX/UI Design… ? L’avènement du collaboratif et la dissipation des frontières entre certains métiers du numérique peut créer de la confusion. La plus fréquente étant celle entre UX et UI designer. Il est certes possible d’avoir la double casquette UX/UI designer, mais il faut garder à l’esprit que ce sont des rôles distincts. Et ils requièrent des compétences différentes. L’UX designer récupère et analyse les informations sur les utilisateurs, leurs caractéristiques, les environnements dans lesquels ils travaillent, ce qui peut les satisfaire ou au contraire les frustrer, etc. Il en élabore des solutions capables de résoudre les problèmes et d’atteindre les objectifs […]

Métier : l’UX designer, enquêteur au ...


data storytelling
Temps de lecture : 3 minutes Le data storytelling utilise la narration pour expliquer de façon simple des chiffres complexes. Faire « parler » les données suppose toutefois de respecter un certain nombre de bonnes pratiques. Les professionnels du marketing connaissent bien le storytelling. Ce concept consiste à valoriser une marque en racontant une histoire appelée à frapper les esprits et dans laquelle le consommateur peut/pourrait se projeter. Nous avons tous en tête les spots de la sécurité routière qui utilisent un ressort narratif particulièrement choc pour sensibiliser les conducteurs. De façon plus tendre, la vidéo publicitaire d’une enseigne de la grande distribution qui met en scène en trois minutes une histoire d’amour entre une caissière et un jeune client a été vue près de 3 millions de fois en quelques jours. Faire « parler » les données Appliqué à la donnée, le storytelling consiste alors à expliquer de façon simple des chiffres complexes par le truchement de la narration. Alors que nous sommes noyés sous les données au risque de nous y perdre, le récit permet de transmettre des indicateurs clés, de donner une touche émotionnelle à des données a priori dites froides. En réunion, un DRH ou un DSI sera plus convaincant en racontant une histoire de façon ludique qu’en faisant défiler des slides pour présenter les chiffres de son service. À la différence d’une présentation figée de type PowerPoint, le data storytelling permet d’interagir avec son auditoire et de remonter en « live » les données pertinentes pour répondre à une question posée. Le data storytelling participe à la démocratisation de l’accès à la donnée. Sans être des spécialistes de la business intelligence (BI), un expert métier ou un dirigeant d’entreprise peuvent contextualiser leurs données et toucher ainsi un public plus large que celui habituel du reporting. Les outils de BI en libre-service les plus populaires comme Tableau Software et Qlik Sense proposent nativement ce format narratif. Soigner la chute « Savoir faire parler les données suppose de respecter un certain nombre de bonnes pratiques », tempère toutefois Nicolas Dubois, consultant formateur en data intelligence chez BIAL-X. « Le récit doit tout d’abord s’adapter à l’auditoire. On ne raconte pas la même histoire à des directeurs exécutifs qu’à des opérationnels. Et si l’audience n’est pas homogène, l’histoire doit être suffisamment universelle pour parler à tous. » « La narration doit être progressive en orientant le récit vers la chute qui surprendra l’audience, la prendra à contre-pied », poursuit-il. « Soigner la chute est, en effet, primordial. C’est elle qui permet d’argumenter une décision, de justifier un choix. Au cours du récit, il s’agit également d’intégrer des éléments perturbateurs, des informations surprenantes pour garder le public en haleine. » Les acteurs du numérique utilisent le data storytelling pour faciliter la communication sur des sujets sensibles. Spotify contextualise en effet ses factures en présentant les morceaux les plus écoutés par ses abonnés. Ou encore, la durée d’écoute sur la plateforme durant le mois écoulé. Uber fait un résumé des trajets effectués. Règles typographiques et codes couleurs Le data storytelling doit, par ailleurs, respecter certaines règles typographiques et les conventions […]

Le data storytelling ou l’art de ...


Raspberry PI ORSYS technologie
Temps de lecture : 5 minutes Près de dix ans après son lancement, le Raspberry Pi continue d’attirer aussi bien technophiles et bricoleurs que débutants en programmation et novices complets. Denis Réant*, expert IoT, nous explique pourquoi et comment une « simple carte mère » s’est imposée comme une référence parmi les nano-ordinateurs. Commercialisé pour la première fois en 2012, le Raspberry Pi a rapidement connu un grand succès. Il s’en est depuis vendu à plus de 20 millions d’exemplaires. Pourtant, à l’origine, ce qui ressemble à une simple carte mère de PC n’avait qu’un objectif pédagogique. Il s’adressait à un public au minimum technophile… En effet, vendu aux alentours de 35 € en France, le Raspberry Pi se présentait comme le parfait support pour apprendre le développement informatique à moindre coût. Alors comment expliquer que sa popularité se soit de toute évidence étendue à un public plus large ? Et de quoi s’agit-il exactement ? Qu’est-ce qu’un Raspberry Pi ? Un Raspberry Pi est un nano-ordinateur qui a la capacité de calcul d’un ordinateur « classique ». D’ailleurs, en le branchant à un écran, on peut tout à fait l’utiliser comme un ordinateur. En effet, le Raspberry Pi est doté d’autant de possibilités, et il est suffisamment puissant pour héberger un système d’exploitation – aussi bien Windows que Linux. Très facile d’utilisation, il peut ainsi servir à toute la famille pour une utilisation très basique. Comme ordinateur personnel ou, par exemple, pour s’initier à la programmation, quel que soit son niveau, le Raspberry Pi étant fourni avec des logiciels ludo-éducatifs. Son autre particularité, si on le compare à un ordinateur standard, est qu’il est conçu avec des broches directement connectées au processeur. Celles-ci permettent d’effectuer certains protocoles de communication, dans le but de lui adosser des capteurs comme une caméra, des micros… bref, tout un ensemble d’objets techniques qui vont apporter de nombreuses fonctionnalités supplémentaires d’interfaçage et ainsi combler la différence de puissance entre le Raspberry Pi et un ordinateur. Sa petite taille et son prix font de lui un support de prédilection pour expérimenter et développer différents types de projets et produits. Pour résumer, le Raspberry Pi est facile d’utilisation, pas cher, ludique et interfaçable. Des atouts qui peuvent expliquer son succès… Mais ce serait sans compter la communauté Linux. Très investie, elle contribue à faire évoluer au fil des années les services du Raspberry Pi, et ainsi à le rendre accessible à tout le monde, qu’on ait 7 ou 70 ans, qu’on soit un « geek » ou un novice ! Programmation, électronique… apprendre avec le Raspberry Pi On l’a vu, le Raspberry Pi peut s’utiliser à peu près de la même manière qu’un ordinateur traditionnel : pour faire du traitement de texte, du tableur ou de la présentation ; pour se connecter à son Drive et aller sur Internet ; pour télécharger des applications et brancher la caméra pour passer des appels en visio, etc. Mais ce qui fait sa force reste son aspect ludique. Les distributions par défaut proposent par exemple un environnement ludo-éducatif sur la programmation, et il est notamment possible : d’apprendre les bases […]

Le Raspberry Pi : pourquoi s’y ...



On premise versus cloud - ORSYS
Temps de lecture : 4 minutes Et comment choisir et se former ! Les obstacles souvent évoqués pour s’opposer au recours du cloud sautent les uns après les autres. Pour autant, une entreprise doit composer avec son existant et la montée dans le nuage reste progressive. Comme dans d’autres domaines, la crise de la COVID19 aura servi d’accélérateur à l’adoption du cloud. Pour continuer leur activité, les entreprises ont dû organiser le travail à distance et poursuivre la digitalisation de leur offre afin de maintenir le lien avec leurs clients. Les entreprises ne partaient toutefois pas de zéro. Initiée au début des années 2000, la montée vers le cloud était déjà bien engagée. Selon une étude du cabinet Markess, 48 % du parc applicatif des sociétés françaises pourrait basculer ou être hébergé dans des clouds publics d’ici début 2021. Les atouts du cloud sont connus À la différence de l’hébergement « on-premise » (sur site), avec le cloud, l’entreprise n’a plus d’infrastructure à gérer, de logiciels à déployer et à mettre à jour, ni de données à sécuriser et sauvegarder. En offrant par ailleurs une infrastructure scalable, s’ajustant en fonction de la montée en charge, et une puissance de calcul potentiellement infinie, le cloud permet de déployer plus rapidement de nouveaux services. Consultant data chez Bial-X et formateur ORSYS, Jean-Emmanuel Bontems observe cette tendance sur le terrain. « Les nouveaux projets sont généralement nativement cloud. Pour les autres, les entreprises doivent composer avec leur existant et c’est le mode hybride qui est le plus souvent retenu afin de faire le pont entre l’ancien et le nouveau monde. » Au fil des années, et plus encore depuis le début de la crise sanitaire, J-E Bontems a vu se lever différents freins régulièrement évoqués pour ne pas monter dans le nuage, qu’il s’agisse des risques liés à la sécurité, à la conformité ou au maintien en conditions opérationnelles. Des craintes souvent irrationnelles. Notamment sur le terrain de la qualité de service, les clouds providers s’engagent sur des niveaux de service garantis (SLAs) avec des taux de disponibilité dépassant les 99,99 %. Ce qu’une infrastructure on-premise ne peut promettre.  » Le cloud public permet, par ailleurs, de mettre en place des plans de continuité ou de reprise d’activité (PCA, PRA) à partir de données géo-répliquées« , poursuit Jean-Emmanuel Bontems. L’expert observe aussi une démocratisation des services cloud. « Par le passé, l’utilisateur devait écrire quelques lignes de code. Aujourd’hui, la console d’administration est accessible à des non-développeurs. Ils peuvent facilement créer un environnement de travail ou souscrire à une infinité de services en quelques clics. » Des tarifs complexes, des coûts peu prévisibles Cependant, la simplicité n’est pas de mise côté tarifs, ce que déplore Matthieu Bouchet, responsable commercial de Bial-X. « Les providers cultivent l’opacité avec des grilles tarifaires particulièrement complexes et difficilement comparables entre elles. Oscillant chaque mois, ces coûts ne sont pas toujours prévisibles, à la différence de ceux d’un serveur en propre. » Le paiement à l’usage peut aussi compliquer la donne sur un plan comptable. En passant d’un mode CapEx (dépense d’investissement) à un mode […]

Cloud versus on-premise : le match


CMS - newsletter ORSYS
Temps de lecture : 4 minutes Gérer son site web sans savoir développer est aujourd’hui facile grâce aux « CMS ». Mais en quoi consistent-ils exactement, et comment choisir le sien ? Explications de Stéphane Brunet*, formateur et consultant sur les outils de développement web. Si vous faites appel à un développeur pour créer le site web de votre activité, il y a de fortes chances pour que celui-ci commence par vous parler de CMS. Car déléguer la partie développement de votre site à un professionnel est une chose… mais si vous voulez pouvoir gérer votre site facilement par la suite, le choix du CMS est primordial. Commençons donc par répondre à la première question qui vous a probablement traversé l’esprit. Qu’est-ce qu’un CMS ? « CMS » est l’acronyme de Content management system – ou système de gestion de contenu en français. Il s’agit d’un site comportant à la fois une partie « administrateur » et une partie « public », pour permettre à l’administrateur de gérer le contenu de son site, d’en rajouter, d’en supprimer… sans avoir à taper une seule ligne de code. En d’autres termes, une interface simplifiée pour mettre du contenu sur Internet en se contentant plus ou moins de remplir ou modifier des formulaires. Certains CMS vont être plus « conviviaux », ou accessibles, que d’autres, en étant utilisables dès l’installation terminée ou presque. D’autres vont demander un peu plus de configuration après installation, mais sont du coup plus facilement paramétrables. Il y a un travail de préparation à effectuer pour les personnes en charge de cette configuration, mais une fois cette étape terminée, le site est accessible « clé en main » pour son administrateur. Il est donc essentiel de prendre le temps en amont de décider quel CMS répondra le mieux aux besoins. CMS open source versus CMS privés Cette question ne se posera pas dans le cas d’un CMS privé : ici, on va développer une solution sur-mesure pour le client, tandis qu’avec un CMS open source, la solution existe déjà et on va simplement y ajouter des modules après son installation. L’intérêt du CMS sur-mesure est qu’il offre la possibilité d’apporter au client exactement ce dont il a besoin. S’il vous faut gérer des produits, par exemple, on pourra vous créer toutes les caractéristiques nécessaires. Avec un CMS « prêt-à-porter », en revanche, on devra se plier aux caractéristiques globales d’une solution partiellement paramétrable ; c’est-à-dire qu’il faudra le personnaliser en y ajoutant des modules et des fonctionnalités, soit qui existent déjà, soit qu’on a fait développer. Cette solution peut être la bonne selon le projet de site et son utilisation, mais elle nécessite de prendre en compte son évolution et les mises à jour. En effet, un CMS open source fonctionne par versions, mineures et majeures, et lorsque la version majeure évolue, le module doit souvent évoluer pour continuer à fonctionner. Par ailleurs, pour des raisons de sécurité, il est important de faire les mises à jour. (Par définition, en open source, tout le monde a accès au code…). Quel CMS pour quelle utilisation ? Si vous choisissez donc de vous orienter vers […]

Typologie des CMS : tour d’horizon ...


python - développement - ORSYS 2
Temps de lecture : 6 minutes Puissant, simple d’utilisation… mais pas que ! Python est aujourd’hui indéniablement l’un des langages de programmation les plus populaires. Matthieu Falce*, développeur et formateur chez ORSYS, nous en propose un petit tour d’horizon pour expliquer les raisons d’un tel succès – et pourquoi il est très intéressant d’apprendre Python. Que serait le monde de l’informatique aujourd’hui si, pendant ses vacances de Noël 1989, Guido Van Rossum, un développeur néerlandais, n’avait pas profité de son temps libre pour développer un projet qu’il a nommé d’après sa troupe humoristique préférée, les Monty Python ? Ainsi le langage Python était né. Van Rossum n’en était alors pas à la création de son premier langage ; dans le cadre de son travail dans un laboratoire de recherche en mathématiques, il avait en effet déjà conçu ABC, un langage à destination d’utilisateurs non-experts. C’est dans ce contexte que Python prend la suite. Toujours destiné à un large public, il permet de répondre à un besoin récurrent : utiliser facilement des codes en C ou Fortran, tout en étant plus simple d’accès. Il est donc dynamique (les opérations effectuées au moment de la compilation peuvent se faire à l’exécution) et de haut niveau (il fait abstraction du matériel). Python étant un langage open source, de nombreux autres développeurs (plus d’une centaine depuis sa création) y apportent sans cesse de nouvelles fonctionnalités. Pour sa part, Guido Van Rossum a continué à développer Python dans diverses entreprises. Les plus notables étant Google et Dropbox, où il contribue aux projets internes mais également au développement du langage. Python, un vieux langage devenu populaire Bien que Python soit plus ancien que Java (créé en 1995), son utilisation est pendant longtemps restée assez confidentielle. Il a d’abord été éclipsé par Perl, le grand langage dynamique des années 90, puis Java qui, lui, est orienté objet et à typage statique sur des projets d’entreprise. D’ailleurs, à ses débuts, Python est essentiellement utilisé par des scientifiques et des administrateurs systèmes. Il sert de glue entre différents programmes. C’est dans les années 2000 que tout s’accélère : il devient l’un des trois langages à être officiellement autorisé en production chez Google. L’heure de gloire s’étire lorsqu’il devient l’égérie de gros noms d’Internet tels que YouTube, Dropbox ou encore Instagram dont le back end est réalisé en Python/Django. Aujourd’hui, Python est partout, du web au DevOps, en passant par la data science et le deep learning. Il réussit à séduire tous les publics, du développeur solitaire jusqu’aux équipes de grands comptes. D’après le site PyPL, qui estime la popularité des langages de programmation à partir des tendances de recherche Google, Python aurait une part de marché de 30.8 %. Son créateur lui-même ne se doutait pas d’un tel succès. Il estime que c’est probablement le décollage du big data, de la data science et la démocratisation du développement dans les années 2010 qui a vraiment ancré Python comme un langage incontournable… Pourquoi Python ?  Pour autant, plusieurs éléments peuvent expliquer cette réussite.  D’abord, le langage est très expressif et […]

Python : présentation d’un langage de ...



framework - ORSYS
Temps de lecture : 3 minutes En proposant un ensemble d’outils et de composants logiciels associés à un langage de programmation, les frameworks permettent aux développeurs de gagner en productivité. La traduction littérale du terme framework indique bien quelle est son utilité : ce « cadre de travail » structure la façon de développer et encadre les pratiques logicielles. Organisé selon un plan d’architecture et des patterns, un framework propose un ensemble d’outils et de composants logiciels. Un framework vise ainsi à simplifier le travail des développeurs en leur offrant une architecture et une bibliothèque logicielle prêtes à l’emploi, sans avoir à réinventer la roue à chaque projet.En permettant aux codeurs de gagner en productivité, le recours aux frameworks fait baisser les coûts de conception et de maintenance d’une application. Le cadre et les directives fournies améliorent également la qualité du code. Les avantages du framework… Les développeurs qui travailleront sur une application utiliseront la même structure, les mêmes standards de code. Les bonnes pratiques seront encouragées. Il est plus facile de travailler à plusieurs lorsqu’on adopte la même logique. Il en est fini des codes de développeurs solitaires, qui étaient difficiles à reprendre et à redévelopper pour les autres.  Les frameworks les plus célèbres possèdent une large communauté. Le développeur n’est plus seul face à son code. Il est possible de réutiliser certains composants d’une application dans une autre application. L’utilisation du framework entraîne la réutilisabilité du code. Un framework évolue et se maintient dans le temps. Un petit bémol toutefois, quand les nouvelles versions ne sont plus compatibles avec les anciennes, mais cela arrive rarement.   Le mot en plus d’Alaric Hermant, expert référent du domaine développement logiciel ** On pourra ajouter qu’en déléguant à un ou plusieurs frameworks les aspects les plus techniques du fonctionnement d’un programme, le développeur peut aussi se concentrer sur ce qui compte vraiment : les aspects métiers. En plus du gain en productivité, cela permet une standardisation des compétences et des manières d’écrire un programme : une entreprise ayant choisi de baser ses développements Java sur Spring pourra embaucher un développeur ayant ce savoir-faire et celui-ci sera rapidement opérationnel. … et les inconvénients du framework Il peut notamment entraîner le chargement de bibliothèques lourdes qui ne seront pas forcément utilisées – ce qui peut avoir un impact sur la performance. Pour pallier ce problème, les frameworks proposent très souvent une version « light » (allégée) qui laisse le soin de charger dynamiquement  les bibliothèques dont  on a besoin. Attention cependant : dès lors que le code écrit par les développeurs est lié à un ou plusieurs frameworks, cela peut à terme constituer une dette technique. D’une part il est possible que le framework impose certaines contraintes, d’autre part cela pose la question de la réécriture du programme si le framework cesse d’être maintenu par son éditeur ou si de meilleurs alternatives apparaissent. L’enjeu est donc de choisir des frameworks qui imposent peu ou pas de contraintes au développement. Ainsi l’écriture du code n’est guidée que par le métier, et le framework choisi aujourd’hui, […]

Les frameworks, briques incontournables du développement ...


bannière accessibilité numérique 3
Temps de lecture : 6 minutes L’accessibilité numérique est un enjeu incontournable pour les personnes en situation de handicap, mais également pour l’ensemble de la société. Carole D’ANDREA, formatrice en UX Design et accessibilité, revient avec nous sur ce qui est aujourd’hui autant une nécessité qu’une opportunité en matière d’innovation. Pour commencer, il faut bien spécifier que le handicap n’est pas inhérent à la personne. Une personne est handicapée à cause d’une situation. On devrait donc dire « personne en situation de handicap » – le handicap étant la limitation subie dans ses interactions avec l’environnement. Avoir des difficultés à communiquer pendant une visioconférence pour cause de bande passante limitée est une situation de handicap. Se casser un bras ou une jambe peut aussi nous confronter à un handicap physique de manière temporaire. Le handicap est situationnel : en travaillant à développer l’accessibilité numérique, on lutte contre le handicap et on le fait régresser pour tout le monde. Mais concrètement, l’accessibilité numérique, c’est quoi ? L’accessibilité numérique, définition L’accessibilité numérique, au sens large, est le fait d’offrir un accès équitable pour tous aux ressources numériques, quels que soient le type d’appareil utilisé, les logiciels à disposition, la qualité du réseau, etc. Cette notion est liée à la configuration matérielle, à la localisation géographique, mais également aux aptitudes personnelles de l’utilisateur (ses caractéristiques physiques, cognitives, linguistiques, etc.). Nous ne disposons pas tous des mêmes ressources. Certaines personnes peuvent se trouver en situation de handicap si leurs aptitudes ne correspondent pas aux exigences de l’outil numérique. Le champ d’application de l’accessibilité numérique est très large. Elle concerne tout produit ou service lié au digital : sites web, logiciels, plateformes en partie vocales… Auparavant, on parlait davantage d’accessibilité physique, dont les rampes d’accès sont une bonne illustration. Aujourd’hui, on rencontre des problématiques liées aux outils modernes de communication et d’information. Les services publics en ligne, par exemple, ont besoin d’amélioration. Le Référentiel général d’accessibilité pour les administrations (RGAA) les concerne directement, ainsi aujourd’hui que la télévision, la téléphonie et tout un pan du secteur privé. Un cadre juridique assez flou… L’accessibilité numérique est une obligation légale en France depuis la loi du 11 février 2005 sur l’égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées. L’obligation d’accessibilité pour les services publics a été inscrite dans la loi de 2005… Mais n’a pas été appliquée avant 2009, lorsque le décret d’application est passé. Le RGAA, appelé au départ « Référentiel général d’accessibilité pour les administrations », concernait uniquement le public jusqu’en 2019. Dorénavant, les entreprises qui génèrent un chiffre d’affaires annuel supérieur à 250 millions d’euros doivent également suivre ses directives. Ce n’est pas encore le cas pour les petites entreprises. Mais il est certain que la sphère du privé devient progressivement de plus en plus concernée par les problématiques d’accessibilité – et pas simplement de manière réglementaire. En cas de non-respect, des sanctions sont prévues qui sont décrites dans le volet juridique du RGAA. On observe cependant un léger assouplissement du texte dans sa quatrième version, que les associations […]

L’accessibilité numérique en 2020 : et ...


données - ORSYS
Temps de lecture : 2 minutes Les métiers de la data ne se limitent pas au seul data scientist. De nombreux profils interviennent tout au long de la chaîne de traitement de la donnée. Data : attention à l’arbre qui cache la forêt Le data scientist est la « superstar » de la data science que toutes les entreprises s’arrachent à prix d’or. Mais il ne doit pas occulter les autres métiers. Pour que le scientist puisse concevoir des modèles algorithmiques, il faut que la donnée soit préalablement extraite, qualifiée, préparée et transformée. Si la donnée est le nouvel or noir, elle doit, comme pour le pétrole, être raffinée avant d’être exploitée. Le data miner ou engineer va assurer la collecte et le traitement des données en paramétrant les logiciels et les bases de données ou en puisant directement dans un data lake. Le machine learning engineer fait le pont entre l’engineer et le scientist en assurant la mise en production industrielle des modèles algorithmiques. De l’éthique des algorithmes Plus haut dans la hiérarchie, le chief data officer (CDO) insuffle en interne une culture de la donnée et pose le cadre de la gouvernance des données. Le data protection officer (DPO) s’assure, lui, de la bonne conformité des traitements de données personnelles au RGPD, le règlement européen sur la protection des données. Aux États-Unis émerge aussi la fonction de chief ethics officer pour garantir l’éthique des algorithmes. À lui d’expliquer comment un modèle fonctionne et sur quels critères reposent les résultats obtenus afin de sortir de l’effet « boîte noire » de l’intelligence artificielle. Elle n’est pas le seul apanage des profils techniques Au sein des directions métiers, le data steward assure la bonne documentation des données et facilite leur mise à disposition. Des experts métiers sont également appelés à contributions. En amont, ils définissent le cas d’usage et les bénéfices attendus. En aval, ces opérationnels vont entraîner le modèle et le tester. Une fois en production, ils le suivront comme le lait sur le feu pour s’assurer qu’aucun biais ne vienne le faire dériver. Pour se former : Cycle certifiant Data Scientist          Data Mining, synthèse      Data Mining par la pratique          Chief Digital Officer, les clés du métier  Machine Learning, état de l’art   DPO, certification  RGPD, dpo : rôle, missions et obligations du délégué à la protection des données 

La data : ses multiples métiers ...



malware - orsys - digital
Temps de lecture : 4 minutes Les malwares se tapissent dans différents recoins de nos systèmes, comme dans les e-mails, des bandeaux publicitaires ou des logiciels téléchargés, et peuvent causer des dommages importants. Julien Valiente*, expert en cybersécurité/hacking éthique et formateur ORSYS, a répondu à nos questions pour mieux identifier les multiples facettes de ces logiciels malveillants… et les meilleures manières de s’en protéger. Quelle serait une bonne définition du malware ? Par définition, un malware (ou logiciel malveillant) est un logiciel. Leur but n’est pas forcément de porter préjudice à la victime, mais surtout d’apporter un gain à la personne qui va le mettre en œuvre. Par exemple, un logiciel malveillant peut être un ransomware (ou rançongiciel), qui séquestre les fichiers d’une victime dans le but de lui demander une rançon en échange de leur restitution. Ou encore un logiciel dont le but est d’utiliser l’ordinateur de la victime pour envoyer des campagnes de spams que l’attaquant propose en tant que service à des spammeurs qui le rémunèrent pour cela. Le logiciel malveillant ne porte donc pas nécessairement préjudice directement à la victime ; il peut aussi utiliser ses ressources au profit de l’attaquant, ce qui reste indésirable. Si des attaques, des spams ou du phishing sont émis par notre ordinateur, on peut notamment en être tenu responsable juridiquement car notre propre matériel aura participé à des actes répréhensibles, allant de la simple diffusion de spams, à des actes plus graves comme la propagation de contenus pédopornographiques… Quels sont les différents types de malwares ? On classifie les logiciels malveillants en fonction de trois facteurs : Le vecteur de propagation (comment le transmettre à la victime, par exemple par USB, e-mail, réseaux sociaux, etc.) ; La charge utile (que va-t-il faire : comme détruire un disque dur, chiffrer des fichiers, envoyer des e-mails, espionner son environnement, miner des bitcoins…) ; Le déclencheur (à quel moment le logiciel malveillant va-t-il agir, ce qui peut être continuellement lorsque l’ordinateur se met en veille ou à une date précise…). Le virus n’est pas le seul « malware ». C’est une grande famille qui comprend aussi le ver informatique (ou « worm »), ou le cheval de Troie, qui a l’apparence et toutes les propriétés d’un logiciel légitime. Ils comprennent aussi les adwares : des campagnes de publicité ou des clics réalisés à notre insu sur des bandeaux publicitaires rémunérés. En l’occurrence, ce ne sont pas des logiciels que l’on installe par mégarde sur notre ordinateur, mais des scripts installés sur des sites web. Ils s’exécutent automatiquement dans le navigateur. C’est intrusif, mais ils restent dans le navigateur… Ces techniques permettent aussi le vol d’identifiants par incitation via des pop-ups ou la création d’onglets. Les spywares et les ransomwares, enfin, ont pour objectif d’espionner leur environnement (webcam, touches frappées au clavier, WiFi, composant du réseau, etc.), ou de chiffrer les fichiers et de demander une rançon pour récupérer le contenu. On a l’impression d’avoir affaire à un système bien organisé… Il y a toute une activité bien organisée derrière le ransomware, comprenant même un support technique qui répond aux questions […]

Malwares et ransomwares : identifier le ...


5G - technologie - ORSYS
Temps de lecture : 2 minutes Avec un débit multiplié par dix et une forte réduction du temps de latence, les réseaux de cinquième génération (5G) ouvrent la voie à des usages disruptifs autour de la télémédecine, de la ville intelligente ou de l’usine du futur. 2020 sera l’année du lancement tant attendu de la 5G. La crise du COVID-19 a reporté à septembre les enchères pour l’attribution des fréquences. Mais les premières villes devraient néanmoins être couvertes d’ici la fin de l’année. La 5G ne sera pas le simple prolongement de la 2G, 3G et 4G Alors que les standards précédents n’apportaient que des évolutions, les réseaux de cinquième génération offriront un vrai saut de performance. Le débit sera multiplié par dix tandis que le temps de latence sera, lui, réduit par dix passant de l’ordre de deux millisecondes. Cette amélioration nette des performances ouvre la voie à des usages véritablement disruptifs autour de la réalité virtuelle et augmentée, la ville intelligente, la télémédecine ou l’usine du futur. Par ailleurs, la 5G apportera une densification du réseau permettant d’absorber l’explosion annoncée des terminaux mobiles et des objets connectés. Avec la technologie dite du « beamforming », le signal radio sera dirigé vers l’utilisateur quand il en a besoin. En cela, il diffère de la 4G qui arrose en permanence et dans toutes les directions. Les particuliers verront visuellement le changement. Les antennes paraboliques perchées sur les pylônes laisseront place à de petites antennes rectangulaires (« small cells ») disséminées dans le mobilier urbain. Des cas d’usage B to B infinis La montée en puissance sera toutefois progressive. Dans la phase transitoire dite « non-standalone », entre 2021 et 2023, la 5G sera exploitée sur le cœur de réseau 4G. Il faudra attendre le « standalone », à partir de 2023, pour tenir toutes les promesses de la 5G et notamment celle d’un temps de latence extrêmement faible. À cette échéance, le cœur de réseau sera virtualisé et déployable sur une infrastructure informatique banalisée. Cette virtualisation apportera le principe de « network slicing » soit la capacité à« découper » virtuellement un réseau en tranches, de les déployer à la volée et de leur associer des performances différentes en fonction des usages. Ce qui permettra de garantir des niveaux de qualité de service et une sécurisation accrue pour des applications critiques dans l’industrie, la logistique ou l’agroalimentaire. Les cas d’usage professionnels semblent, de fait, infinis Pour rentabiliser leurs lourds investissements, les opérateurs télécoms devront aussi séduire les particuliers. La 5G pourrait notamment pallier l’absence de la fibre optique dans les zones blanches. Pour se former Réseaux mobiles 5G, synthèse Volte, déploiement et nouveaux services Réseaux mobiles lte/4G Evolution des réseaux mobiles, synthèse Réseaux sans fil/WiFi, solutions et applications Réseaux et Internet, les nouvelles avancées

2020, l’année de la 5G


France - IA - ORSYS 1
Temps de lecture : 4 minutes Avec ses mathématiciens et ses chercheurs en sciences cognitives de renom, notre pays a de sérieux atouts à faire valoir en intelligence artificielle (IA). Les GAFAM ne s’y sont pas trompés en multipliant les partenariats et les investissements sur notre territoire. « Le pays qui dominera l’intelligence artificielle dominera le monde. » Cette phrase prononcée en 2017 par Vladimir Poutine donne le ton de la bataille qui se joue actuellement. La Chine ne doute pas de son issue : l’empire du Milieu a déjà déclaré qu’il serait le leader mondial de l’IA en 2030 avec, à la clé, un investissement de plus d’une centaine de milliards de dollars. Les « licornes » chinoises dépassent déjà les américaines en termes de valorisation. De leur côté, les États-Unis disposent de l’incroyable force de frappe des GAFAM (Google, Apple, Facebook, Amazon, Microsoft). Ils ont tous fait de l’IA leur priorité. Dans cette guerre des titans, quel est le poids de la France ? Notre pays n’égalera jamais les grandes puissances sur le terrain des moyens avec un programme doté de 1,5 milliard d’euros. Même au niveau de l’Union européenne, l’investissement – fonds publics et privés confondus – ne s’élève qu’à 20 milliards d’euros d’ici à fin 2020. En revanche, la France peut faire valoir l’excellence de ses mathématiciens et ses chercheurs en data science. Former des experts made in France Nos experts de la data sont courtisés par les géants de la Silicon Valley. Nombre de « frenchies » y occupent des postes clés. On connaît Yann LeCun, le « Monsieur IA » de Facebook fortement médiatisé. Il a été rejoint au sein du réseau social par Jérôme Pesenti, à l’origine du programme Watson d’IBM. Emmanuel Mogenet est, lui, à la tête de Google Research Europe, basé à Zurich, en Suisse. Père de Siri, l’assistant vocal d’Apple, Luc Julia est devenu vice-président de l’innovation chez Samsung. Pour éviter la fuite des cerveaux, un écosystème national prend forme. Il mêle formation initiale et continue, investisseurs privés, grandes entreprises utilisatrices et start-up. Au niveau de la formation, toutes les grandes écoles – HEC, Essec, Polytechnique, Telecom ParisTech, Epita… – ont créé des cursus spécialisés. Face à la pénurie de data scientists et autres experts du machine learning, le député Cédric Villani proposait, dans son rapport de mars 2018, de tripler le nombre de personnes formées à l’IA à l’horizon 2022, en élargissant notamment le périmètre aux bac + 2 et 3. Se former à l’école de l’IA Microsoft va même plus loin puisqu’avec son « école IA« . L’éditeur propose de former des personnes éloignées de l’emploi (demandeurs d’emploi de longue durée, décrocheurs scolaires…) au métier de « développeur data et intelligence artificielle ». Pas de prérequis en ce qui concerne le niveau d’études : le candidat doit avoir des connaissances élémentaires d’au moins un langage de programmation, une réelle appétence pour les chiffres et les statistiques et une motivation à toute épreuve. Cette formation, dispensée en partenariat avec Simplon, a obtenu, en février 2019, le label de la Grande École du Numérique (GEN). La formation peut aussi se […]

La France, grande nation de l’IA ...



business intelligence 1
Temps de lecture : 4 minutes Une nouvelle génération d’outils de business intelligence en self-service vient démocratiser l’accès au décisionnel. En toute autonomie, les métiers peuvent créer eux-mêmes des rapports dynamiques en mettant l’accent sur la datavisualisation. Un vent nouveau souffle sur le marché de la business intelligence. Une génération d’outils dits de BI en libre-service a émergé ces dernières années. Avec leurs interfaces simples et intuitives, Tableau Software, Power BI de Microsoft ou Qlik Sense démocratisent l’accès au décisionnel. Sans dépendre de l’IT, les métiers créent eux-mêmes des rapports dynamiques. La restitution des données se fait de la façon la plus visuelle possible. Dans son dernier quadrant magique, le cabinet d’études Gartner ne s’y trompe pas, plaçant ces acteurs parmi les « leaders » du marché, reléguant les acteurs historiques de la BI que sont les Business Objects, Cognos et Hyperion rachetés respectivement, il y a une douzaine d’années, par SAP, IBM et Oracle. Ce retournement de marché n’a pas échappé aux géants du numérique avec les récentes acquisitions de Looker par Google et de Tableau Software par Salesforce. Vers plus d’autonomie ? Le principal apport des solutions de BI en self-service, c’est – comme leur nom l’indique – l’autonomie laissée à l’utilisateur final. Par le passé, il devait faire appel à l’expert décisionnel maison et attendre plusieurs jours voire semaines un reporting qui ne correspondait pas toujours à ses attentes. Plus de script ni de code, l’opérationnel n’a plus qu’à, pour schématiser, glisser-déposer des jeux de données pour construire ses tableaux. L’autre grand bénéfice de cette génération d’outils porte sur la datavisualisation. « Il est possible de faire interagir différents éléments », explique Wilfried Raynal, data ingénieur chez Bial-R. « À partir d’une carte géographique, l’utilisateur peut zoomer sur une région et accéder à un tableau reprenant les prévisions locales de ventes. » Cette datavisualisation favorise le storytelling. « Un DRH ou un responsable de service qui doit présenter des chiffres en réunion sera plus convaincant en racontant une histoire de façon ludique qu’en faisant défiler des copies d’écran. » Gouvernance et sécurité « Ce type d’outil est simple mais pas magique », tempère-t-il. Chez ORSYS, il forme des acheteurs ou des contrôleurs de gestion à Power BI. « Des utilisateurs avancés, plutôt jeunes, qui maîtrisent Excel. Et bien-sûr, ayant une appétence pour les données. » L’IT doit aussi rester, selon Wilfried Raynal,dans la boucle afin de garantir la qualité et la pertinence des données utilisées mais aussi assurer la bonne gouvernance de cette data. « Les données doivent être cohérentes, documentées et explicitées. » Se pose, par ailleurs, la question de la politique de sécurité et de gestion des droits d’accès à mettre en place. Dans la version cloud de Power BI, un utilisateur peut partager des tableaux a priori sans aucun contrôle. « C’est un effet de bord de la démocratisation. Tout le monde a accès à tout. Ici aussi, l’IT doit vérifier les différents droits d’accès et de partage des rapports. » En ce qui concerne les données personnelles, le RGPD favorise l’anonymisation des données afin que les collaborateurs n’accèdent pas aux noms, prénoms ou dates de naissance […]

La business intelligence (BI) fait peau ...


externalisation informatique - ORSYS
Temps de lecture : 3 minutes En l’espace de vingt ans, le marché de l’externalisation informatique a beaucoup évolué. « Par le passé, la sous-traitance était réalisée à 80 % en régie et à 20 % au forfait. Aujourd’hui, la proportion est inverse« , observe Philippe Brunet, « IT and sourcing facilitator » et formateur chez ORSYS. Ce changement de modèle n’est pas sans incidence pour le donneur d’ordre. « Le forfait est plus contraignant. Il exige une véritable professionnalisation dans le pilotage du prestataire. » Selon Philippe Brunet, il manque parfois au sein des DSI une personne en charge de ce pilotage, c’est-à-dire un responsable de la sous-traitance ou vendor manager selon la nomenclature RH du Cigref. Il regrette également l’absence de management dans ce domaine ou « sponsor outsoursing de haut niveau ». « La DSI n’est pas toujours sensibilisée aux enjeux de gouvernance sourcing à l’exception des banques ou de grands comptes comme Total ou Carrefour qui ont adopté une véritable stratégie pour leur sous-traitance. » Pour organiser cette gouvernance, il existe un référentiel de bonnes pratiques, l’eSCM, qui est destiné aux deux parties. « C’est le seul à avoir une couverture totale de la sous-traitance. » Le passage au forfait peut aussi se révéler contradictoire avec le recours aux méthodes agiles. « Les entreprises sont de plus en plus nombreuses à sa lancer dans l’agilité mais elles n’ont pas toujours les profils adéquats (Scrum Master). Elles sous-traitent ces compétences au forfait alors que la méthode Scrum exige la présence d’une équipe unique client-prestataire. » « Shadow IT » et papy-boom Philippe Brunet observe également un changement dans les facteurs qui incitent une entreprise à recourir à l’externalisation ou outsourcing. « Le critère « coûts » devient de moins en moins important, surtout avec la transformation numérique en cours. On va chercher le prestataire pour une expertise ou une capacité d’innovation. » Le numérique intègre alors le cœur de métier, lequel ne s’externalise pas ou peu. Philippe Brunet estime que le recours à externalisation reste très important. « Beaucoup d’informaticiens partent à la retraite, notamment dans le monde occidental. Ils ne sont pas remplacés et leurs postes sont externalisés. Le DAF est satisfait, il transforme les coûts fixes en coûts variables. Un accompagnement de la DRH est souhaitable pour minimiser les impacts sociaux et intégrer la dimension de changement. » Toujours dans le sillage de la transformation digitale, l’essor du cloud a augmenté la part du shadow IT (SI sans contrôle de la DSI), fragilisant la DSI dans sa relation avec les fournisseurs. « Quand une direction métier a un besoin, il arrive qu’elle s’adresse directement aux éditeurs de solutions en mode SaaS, court-circuitant à tort la DSI. » Des entreprises ont aussi créé une direction numérique à côté de la DSI avec des risques de chevauchement dans les périmètres fonctionnels. À qui doivent s’adresser les prestataires ? Au DSI ou au chief digital officer ? La transformation numérique pose, par ailleurs, des questions de propriété intellectuelle et surtout de responsabilité juridique en cas de dysfonctionnement.   Multi-sourcing et offshore Des grands comptes sont aussi tentés de capturer le fameux esprit start-up en rachetant des start-up. Un […]

L’externalisation informatique : un marché en ...


VPN - ORSYS
Temps de lecture : 5 minutes Quand le confinement a été décrété pour pallier la pandémie de COVID-19, de nombreuses entreprises ont dû opérer rapidement un recours massif au VPN pour permettre le télétravail. Problème : elles n’étaient pas forcément prêtes. Retour sur un dispositif essentiel et ses solutions les plus adaptées avec Charlie Le Hoangan*, consultant IT  et formateur chez ORSYS. Alors que le télétravail était encore une pratique isolée en France, la mesure sanitaire du confinement décrétée par le gouvernement en réponse à la pandémie de COVID-19 a fait prendre un tournant décisif aux entreprises. En quelques jours, une majorité de salariés, cadres pour la plupart, pouvant travailler à distance ont vu leur environnement de travail être déplacé à leur domicile. Or pour permettre à tous ses collaborateurs de rester chez eux tout en gardant l’accès au réseau interne, une entreprise ne dispose que d’une solution : le VPN. Déjà en place chez certaines, d’autres ont dû réadapter leur dispositif au nombre de télétravailleurs… voire s’y intéresser pour la première fois. « Quand la crise est arrivée », explique Charlie Le Hoangan, consultant et formateur chez ORSYS, « les entreprises n’étaient pas prêtes. Elles ont fait comme elles ont pu pour s’adapter au télétravail quand elles y ont été contraintes et, dans la précipitation, ont connu tout simplement des problèmes de logistique. » Donner un accès à ses salariés implique en effet de mettre en place un dispositif à la fois dans les locaux de l’entreprise, et sur les ordinateurs portables. Qu’est-ce qu’un VPN ? « On a tout à fait, et depuis longtemps, les moyens techniques pour mettre en place le télétravail. Le problème venait davantage d’une résistance au niveau du management », précise Le Hoangan. Le VPN, ou « réseau privé virtuel » (Virtual Private Network), n’a donc rien d’une nouvelle technologie. Mais ce qu’a démontré la crise sanitaire est qu’elle est peut-être encore mal comprise, faute d’une utilisation étendue. « Il sert à fournir une utilisation privative d’un réseau public ou partagé. Dans la pratique, le VPN permet au télétravailleur d’accéder au réseau de son entreprise à travers le réseau public en créant un « tuyau » virtuel. » L’idée est que le télétravailleur puisse accéder aux outils, applications ou serveurs de son entreprise. Et ce, comme s’il y était présent physiquement. Le premier problème ? Des idées reçues concernant la sécurité… « Un VPN n’est pas obligatoirement sécurisé. Certaines techniques ne font que la séparation de trafic. Utiliser un VPN sécurisé signifie qu’on a mis en œuvre des techniques de cryptologie pour, de manière simplifiée, chiffrer les données de façon à ce qu’elles ne puissent pas être interceptées. » Pour cela, l’entreprise peut donc avoir comme solution de s’en remettre à un opérateur. Ainsi, pour se connecter au réseau de l’entreprise, les télétravailleurs passeront par les systèmes de l’opérateur. Ce sont eux qui vont séparer les trafics. C’est ce qu’on appelle les VPN « de confiance ». Mais avoir recours à cette technique de façon sécurisée implique pour l’entreprise de s’équiper également sur site. C’est-à-dire, pour commencer, faire installer un logiciel client sur les ordinateurs de ses collaborateurs. Il permettra […]

VPN : pourquoi il est urgent ...



cybersécurité - ORSYS 1
Temps de lecture : 4 minutes En 2020, la cybersécurité en entreprise demeure un enjeu important, quoique sous-estimé. Parmi les facteurs de risques : la négligence humaine. Hélène Courtecuisse*, consultante en sécurité, revient sur l’importance (et la manière) d’y sensibiliser ses collaborateurs. En matière de cybersécurité, il y a deux façons d’appréhender la dimension humaine : considérer que l’humain représente un maillon faible, la « négligence humaine », ou décider d’en faire le maillon fort. Évidemment, les deux perceptions se complètent ; mais il est essentiel de ne pas focaliser le dialogue sur la première, qui reste négative et quelque peu défaitiste. D’autant que la problématique existait déjà avant l’ère de la transformation digitale. Elle était différente, puisqu’Internet faisait à peine ses débuts. Les systèmes n’étaient pas ouverts et, sans smartphones ni laptops, la sécurité en entreprise ne connaissait pas les difficultés qu’entraîne la mobilité d’aujourd’hui. Mais les brèches de confidentialité n’étaient pas moins liées à cette négligence humaine. Parce qu’on se méfiait notamment beaucoup de l’espionnage physique, les entreprises devaient compter sur leurs collaborateurs pour appliquer certaines bonnes pratiques, telles que la mise sous clé de documents. Si la technique n’a plus rien à voir aujourd’hui, on demande toujours aux collaborateurs en entreprise de faire attention. Ce sont les précautions de base et les risques qui ont changé. Des risques « invisibles » difficiles à appréhender Pour commencer, les risques sont plus compliqués à appréhender ;  ils sont plus variés, parfois beaucoup plus techniques. Ils prennent différentes formes qui peuvent désarçonner toute personne non experte. Sans compter que les attaques se font de façon « silencieuse » et totalement invisible. On peut ne pas se rendre compte, par exemple, qu’un site Internet sur lequel on souhaite faire un achat, qu’il soit ou non d’une enseigne connue, est infesté par un malware. En termes de cyber malveillance, on parle aujourd’hui de haute technologie. Les attaques sont plus nombreuses, elles se sont perfectionnées et sont bien plus difficiles à contrer. Pour autant, la sensibilisation aux risques de base des collaborateurs, même non-spécialistes, reste non seulement possible, mais tout à fait nécessaire. On n’entendra évidemment pas couvrir tous les sujets en une journée. D’ailleurs, même des spécialistes ne peuvent pas prétendre appliquer toutes les consignes à 100%. Dans ce domaine, il faut faire son deuil de toute idée de perfection. Il faut plutôt s’appliquer à former les gens sur la durée. Dans le cas des OIV (Opérateurs d’importance vitale), qui sont des entreprises soumises à la loi de programmation militaire (domaines bancaires, de l’alimentation, etc.), il y a d’ailleurs une obligation d’assurer la formation de tous les collaborateurs au minimum une fois par an. Les bonnes pratiques doivent évoluer avec les technologies. Des menaces à (re)connaître On distingue deux catégories principales de cyber menaces à l’heure actuelle : Le phishing Une quantité impressionnante d’e-mails de phishing circulent. Ils incitent les gens à cliquer sur un lien, ouvrir une pièce-jointe et donner des informations personnelles. Il est déjà dangereux de cliquer, mais certaines personnes tombent encore dans le piège et fournissent les informations demandées. Le problème, au-delà du manque de […]

Pourquoi (et comment) sensibiliser ses collaborateurs ...


DevSecOps - ORSYS
Temps de lecture : 4 minutes Dans le prolongement de la démarche DevOps, DevSecOps consiste à intégrer le principe de sécurité durant tout le processus de livraison continue. Cela suppose de former les équipes opérationnelles aux risques et de recourir à des outils d’automatisation des tests. Apparue il y a maintenant dix ans, l’approche DevOps est désormais bien ancrée dans les mœurs. Elle consiste à rapprocher, au sein d’une DSI, les équipes de développement – les « dev » – et de production – les « ops » – afin de raccourcir les délais de livraison. Gagner en agilité pour accélérer la mise en production ne doit toutefois pas se faire au détriment de la qualité ou de la sécurité. Plus récent, le mot-valise « DevSecOps » (développement, sécurité, opérations) consiste à intégrer ce principe de sécurité tout au long du processus de livraison continue. Sécurité, tous responsables ? Préoccupées par les aspects fonctionnels d’une application puis de son exploitation, les équipes informatiques relèguent souvent la prise en compte de sa sécurité en bout de chaîne, une fois que le produit est livré. Pourtant, des failles peuvent être introduites dès les premières lignes de code. Inhérente à DevOps, l’automatisation qui permet d’augmenter les cadences de livraison peut également être source de nouvelles vulnérabilités. DevSecOps fait de la sécurité une responsabilité partagée. Elle ne relève pas du seul RSSI, et est intégrée du début à la fin du cycle de production. Cette démarche de « secure by design » existe déjà depuis plus longtemps dans les industries sensibles telles que l’aéronautique. Elle fait aussi écho au principe du « privacy by design » introduit par le RGPD. Il consiste à prendre en compte le respect de la vie privée dès le début d’un projet faisant appel à des données personnelles. Sensibilisation aux bonnes pratiques Ce changement culturel passe tout d’abord par la formation des développeurs, des administrateurs et autres architectes aux enjeux de cybersécurité. Sans aller jusqu’à la certification, la norme ISO 27001 dédiée au management de la sécurité introduit des bonnes pratiques. Elle permet de procéder à une analyse des risques puis de prendre les mesures de sécurité adaptées. L’annexe A de ce standard contient ainsi 114 points de contrôle. Ils sont répartis en 14 sections comme le contrôle des accès, la cryptographie ou la gestion des incidents. Conforme à ISO 27001, l’ANSSI propose sa propre méthodologie de gestion du risque. Elle est baptisée EBIOS pour Expression des besoins et identification des objectifs de sécurité. Complémentaire à ISO 27001, ISO 27005 traite plus spécifiquement de la sécurité des systèmes d’information. Cette norme s’inscrit dans une logique d’amélioration continue en quatre phases : plan (identification des risques), do (exécution des mesures), check (contrôle du résultat) et act (révision de la politique de sécurité en fonction des résultats). Automatisation des tests Une stratégie DevSecOps passe aussi par le recours d’outils capables d’assurer l’intégration continue de la sécurité dans un environnement commun de développement. Il s’agit d’industrialiser les contrôles de sécurité afin d’éviter que chaque développeur le fasse manuellement dans son coin. Il existe deux grandes familles de solution de […]

DevSecOps : comment intégrer la sécurité ...


conception web - ORSYS
Temps de lecture : 4 minutes Les mesures de confinement prises pour ralentir la propagation du Covid-19 ont entraîné la fermeture de bon nombre de commerces. Cette situation de crise nous laisse entrevoir que tous ont un intérêt majeur à déployer une visibilité sur Internet. Cette présence web étant le seul moyen, en ces temps de confinement, de garder un lien avec une clientèle ou même de permettre un maintien d’activité, même au ralenti. ORSYS vous propose un petit tour d’horizon des règles à prendre en compte dans une stratégie web avant de se lancer. Qu’est-ce qu’un site attractif ? Un site, c’est d’abord du contenu, des processus métier ! Un site attractif est avant tout un site qui aide à atteindre facilement son objectif : remplir sa déclaration d’impôts, payer son amende (impots.gouv.fr) ; se renseigner, s’informer (chaînes d’information en ligne ) ; écouter de la musique (YouTube, Deezer, Spotify…) ; acheter/vendre (Amazon, eBay, Le Bon Coin…). Du contenu et des processus métier bien pensés sont donc l’essentiel. C’est d’ailleurs pour cela que des moteurs de recherche tels que Google présentent souvent en priorité les sites web qui ont le plus de contenu, ceux dont le contenu est mis à jour très régulièrement, les sites les plus utilisés, et ceux qui satisfont les clients ! Les sites web ne sont plus des journaux mais de véritables applications web (Web App). On pourra filtrer, trier, organiser sa page. Un site web, c’est aussi une apparence ! Plus un site web est beau et pratique, plus il est attractif. Aujourd’hui, du fait de la digitalisation des entreprises et des avancées technologiques, les supports sont divers et variés. Téléphones, tablettes, postes portables ou fixes et même casques de réalité virtuelle… Pour s’adapter à ces divers médias, on utilise de plus en plus le responsive web design. Le site web doit s’adapter au « device » (matériel), à l’écran, aux handicaps (surdité, cécité…). On utilisera donc des boîtes à outils telles que BootStrap pour réaliser des sites faciles et rapides à mettre en œuvre. Aujourd’hui, ce sont les PWA (Progressives web app) qui ont le vent en poupe. Elles sont préconisées par Google car elles peuvent être référencées comme des sites classiques sur Internet. «  Responsive » (s’adaptent au média), elles fonctionnent même hors ligne et comme de vraies applications sur la plupart des téléphones majeurs : iOS (Apple), Android (Samsung, Wiko…). Positionner son site web La stratégie d’entreprise En fonction de son métier, de ses clients et de ses objectifs, le site ne sera pas de même nature. Pour des clients grand-luxe, le design est essentiel. Pour une masse importante de consommateurs mondiaux, une disponibilité 24/7, la rapidité, l’efficacité et des processus métier simplifiés seront essentiels. Chaque type de produit et de client impose donc sa stratégie. Quelle base à la réflexion stratégique ? On s’intéressera à ses clients : entreprises/particuliers ; grand comptes/PME/TPE ; grossistes. À ses objectifs stratégiques : position de leader ; challenger ; suiveur… À ses produits : diffusion massive de contenus (ex : vidéos) ; souscription de contrats d’assurance en ligne ; livraison internationale de marchandises non périssables. À ses capacités techniques, métier, publicitaires… Règles de conception […]

Stratégie web : conseils techniques



ORSYS - BI
Temps de lecture : 3 minutes L’industrialisation du big data et du machine learning s’impose à tous. Elle renouvelle les intervenants de la business intelligence (BI) classique et leur rôle avec comme effet une génération de zones de conflit entre différents acteurs aux priorités différentes. Pour réussir, elle nécessite un renforcement important des processus collaboratifs tout au long du cycle de vie de la donnée. Le big data, fusionné avec la BI classique, a renouvelé les acteurs du monde analytique ainsi que les tâches de ceux qui y participaient déjà. Les data scientists envahissent l’entreprise avec des niveaux différents, low code ou non. Les nouvelles infrastructures ou le cloud hybrid accentuent le rôle des IT systèmes et réseaux. Le RGPD réveille la sécurité. Le nouveau profil « geek » des data engineers, manipulant d’autres langages que le SQL, perturbe les circuits existants de la transformation de données. Les métiers sont beaucoup plus impliqués avec la data science qu’avec le datamining d’autrefois. Tous veulent contribuer à la réactivité, chacun à son niveau. Des risques ? Les risques : un brouhaha incessant qui dégénère en confusion et retard, et des zones de conflit ou d’incompréhension. Pendant l’ère des POC, chacun travaillait dans son coin. Depuis, la phase d’industrialisation des modèles a révélé des tensions apparues avec la mobilisation de tous. Les objectifs des uns ne sont pas forcément ceux des autres. Tous ces acteurs nécessitent de les coordonner pour ne pas reperdre en qualité et en productivité. L’autre enjeu est aussi l’acculturation digitale de l’entreprise, nécessaire pour que les algorithmes statistiques soient acceptés. Nouvel eldorado ? La maturité de ce nouvel eldorado analytique sans limite renforce les besoins collaboratifs entre des mondes éloignés auparavant. Les deux grands enjeux du moment que sont la gouvernance des données et l’accès libre et rapide à des données multiples non redondées, accentuent la dose de collaboratif à mettre en œuvre. Cette coopération est à jouer sans complexe, sans crainte de se tromper. Les entreprises qui font la différence sont celles qui savent abandonner rapidement des modèles et qui ont un circuit court de mise en production. Animons la communauté Toutes les personnes qui participent à l’analytique constituent une communauté qui s’agrandit au fur et à mesure de la diffusion des projets. Son animation permet  d’acquérir une culture commune en termes d’efficacité : des usages, des algorithmes et de la réactivité. Il existe plusieurs moyens pour le faire, dont deux en particulier. Un premier moyen, testé de plus en plus dans les entreprises, est de créer une collaboration active à travers le développement continu. On parle de DevOps, de SecOps, de DataOps. En synthèse, une sorte d’union de l’exploratoire qui va du métier jusqu’à l’exploitation. Elle consiste à mettre tous les acteurs autour de la table mais ne marche que si tout le monde joue le jeu et si la culture managériale de l’entreprise s’y prête. Sur le fond, les bases sont semblables à la volonté de réunir la partie développement et opérationnelle d’un projet, appliqué au cycle de vie complet de la donnée. Au passage, ne pas oublier les métiers […]

BI : l’analyse de données passera ...


Coronavirus - nouvelles technologies
Temps de lecture : 4 minutes Face à la pandémie de Covid-19, le recours aux nouvelles technologies pour tenter de lutter contre la propagation du virus a été massif. Cédric Vasseur*, expert IA et robotique, nous dresse une liste non exhaustive des possibilités. Le 9 janvier 2020, l’Organisation mondiale de la santé (OMS) lance officiellement l’alerte en se basant sur les informations fournies par les autorités chinoises. Ce qui était initialement une série de cas de pneumonie inconnue observée dans la province de Wuhan est désormais identifié comme un nouveau type de coronavirus dont la propagation exponentielle tourne en pandémie. La question, depuis, se répète souvent : l’alerte aurait-elle pu être donnée plus tôt ? Pour la société canadienne BlueDot, la réponse est oui ; celle-ci affirme avoir été en mesure d’alerter ses clients sur la propagation du coronavirus dès le 31 décembre. Ses sources : des articles de presse, Internet et des données aériennes. L’IA pour donner l’alerte Dès fin décembre 2019, plusieurs acteurs détectaient en effet des signes inquiétants de contamination. Pour de nombreux spécialistes, l’alerte aurait pu être donnée plus tôt en s’appuyant sur les données médicales recensées par plusieurs organismes d’état et des données collectées sur les réseaux sociaux. Ce big data, couplé au machine learning, permettrait de « suivre » l’évolution de certaines maladies comme la grippe… et, aujourd’hui, le Covid-19. Ces « prévisions », obtenues grâce au traitement massif de données par IA, offrent ainsi une meilleure visibilité de l’évolution, notamment géographique, des épidémies et de leur propagation, en utilisant le réseau. Mais cette utilisation de l’IA, en amont de la crise, n’est pas la seule possible. Accélérer les tests cliniques avec l’IA… et sauver des vies avec des machines ? L’intelligence artificielle peut également être utilisée pour accélérer les tests cliniques, simuler des compositions chimiques de nouvelles pistes médicamenteuses, voire tester les radios des poumons des patients pour détecter le Covid-19 plus rapidement. 20 secondes et 96% de précision :c’est le temps nécessaire et la précision de l’algorithme développé par le groupe Alibaba pour détecter, à partir d’un scanner thoracique, la contamination ou non d’un patient au Covid-19. Du côté des « machines », on peut parler des respirateurs artificiels comme « des robots pour maintenir en vie ». Face à l’ampleur de la crise, le nombre de respirateurs devient insuffisant, mais des industriels, des roboticiens, etc. s’organisent afin d’apporter leur aide à la fabrication de pièces détachées, valves et masques. Plusieurs robots de décontamination sont également déjà en fonctionnement dans la rue et les hôpitaux en Chine. Dotés de lampes UV-C, ils diffusent des produits décontaminants. En France, les robots se déploient petit à petit, tels que le robot décontaminateur de l’entreprise de La Rochelle Shark Robotics. Un robot pour faire vos courses et assister les personnes isolées N’oublions pas les flottes de robots-livreurs qui, en se déplaçant sans aucun contact physique contaminant, deviennent une aide précieuse pour les populations en situation de crise. De petite ou grande taille, ces robots permettent aux livreurs humains de se mettre en sécurité comme les autres… D’autres aident plutôt à garder le contact avec nos […]

Crise sanitaire : les nouvelles technologies ...


Robotic process automation concept with blurred city lights - ORSYS
Temps de lecture : 3 minutes Le marché de l’automatisation des processus métiers par des robots logiciels est en pleine expansion. Tout en déchargeant les collaborateurs de tâches répétitives et ingrates, le RPA permet aux entreprises de réaliser d’importants gains de productivité. De quoi s’agit-il ? RPA, voilà le nouvel acronyme à la mode. RPA pour Robotic process automation, soit l’automatisation des processus métiers par des robots logiciels. Le concept n’est pas nouveau mais il connaît un regain d’intérêt dans le sillage de l’engouement autour de l’intelligence artificielle. Car le RPA rime surtout avec ROI et permet aux entreprises de faire d’importants gains de productivité. La fin des tâches répétitives ? Sur le principe, un robot logiciel va automatiser les actions répétitives, chronophages et à faible valeur ajoutée que fait manuellement un humain. À savoir la série de clics, de raccourcis clavier ou de copier-coller qu’effectue un employé devant son écran pour, par exemple, renseigner une base de données, rapprocher des factures ou envoyer un e-mail de réponse générique à un client. Pour capturer l’information et l’enrichir, le robot va s’interopérer aux différents systèmes d’information (ERP, CRM, SIRH…), soit avec une supervision humaine (mode assisté), soit de manière autonome en arrière-plan (mode non assisté). Pour aller encore plus loin dans l’automatisation, le RPA est de plus en plus couplée à des technologies d’intelligence artificielle comme la reconnaissance de caractères (OCR) et d’images, la reconnaissance vocale ou le traitement du langage naturel (NLP). Des robots fonctionnant sans erreur 24/7 Selon un livre blanc d’IDC, sponsorisé par l’éditeur UiPath, les investissements des entreprises françaises dans le domaine du RPA seront multipliés par cinq entre 2018 et 2022 pour atteindre 149 millions d’euros. 74% des entreprises connaissant le concept de RPA ont déjà mené un projet ou tout du moins engagé la réflexion sur le sujet. Sur ce marché prometteur, quelques acteurs émergent. Fin avril, UiPath, le leader, d’origine roumaine, a levé 568 millions de dollars. Ce qui le valorise à 7 milliards de dollars. Son rival américain, Automation Anywhere, qui a mis un pied en France en janvier dernier a levé 290 millions de dollars en novembre pour une valorisation de 6,8 milliards de dollars. Quant au français Contextor, il a été racheté par SAP fin 2018. Si les métiers de la finance et de la comptabilité ont été les premiers à s’emparer du RPA, il y a un gisement de tâches automatisables dans d’autres fonctions support de l’entreprise. La DRH peut, par exemple, scénariser la validation et la signature d’un contrat de travail ou les différentes étapes d’un parcours d’intégration (démarches administratives, prises de rendez-vous…). Et la DSI peut industrialiser le déploiement d’applications et de mises à jour ou la gestion des incidents. Outre qu’ils sont rapides et disponibles jour et nuit, les robots respectent scrupuleusement les tâches que l’on leur a assignées, éliminant les erreurs humaines liées à la saisie de données. Le RPA permet également de s’assurer de la bonne conformité au cadre règlementaire. La direction des achats va sécuriser la gestion des fournisseurs. Dans un autre […]

RPA (Robotic process automation), le nouveau ...



Temps de lecture : 3 minutes En concevant des tableaux de bords centrés sur l’utilisateur, l’UX Design montre toute sa valeur dans le monde de la business intelligence. Grâce à une interface à la fois esthétique et fonctionnelle, elle favorise l’engagement des collaborateurs. Avec Power BI de Microsoft, Tableau Software ou Qlik, une nouvelle génération de solutions a permis la démocratisation de la business intelligence (BI). Pas de script ni de code : les experts métiers peuvent manipuler ce type d’outils sans dépendre, comme par le passé, du ou de la spécialiste BI au sein de la DSI. Concevoir un rapport ou un tableau de bord répond toutefois à un certain nombre de préceptes qui relèvent de l’UX Design (User eXperience Design) ou « design de l’expérience utilisateur ». Cette discipline vise à concevoir une interface accessible et facile à prendre en main tout en répondant pleinement aux besoins de l’utilisateur. Si l’UX Design est couramment utilisé pour concevoir un site d’e-commerce ou une application mobile, son apport est aussi précieux en BI. À qui s’adresse ce tableau de bord ? La première étape consiste à cerner la population visée afin de centrer la restitution des données du point de vue de ce fameux utilisateur. L’analyse de données sert trois strates dans l’entreprise : les responsables métiers qui souhaitent avoir un point de vue tactique reprenant toutes les données de leur business unit, les opérationnels terrain qui vont zoomer sur un service ou une activité et enfin, les dirigeant.e.s qui veulent un tableau de bord simplifié reprenant les informations les plus stratégiques. L’expert qui va construire le modèle d’analyse doit, par ailleurs, avoir une bonne connaissance du secteur d’activité afin de dégager les indicateurs les plus pertinents. La phase suivante consiste, en effet, à hiérarchiser l’information en mettant les données les plus importantes en avant. « Rien de plus frustrant qu’un tableau de bord rempli de données dans lequel on ne parvient pas à se retrouver« , estime Célia Jorat, chargée de communication digitale UX/UI Designer chez Bial-X et Bial-R, partenaires ORSYS. Comme en marketing, il faut, selon elle, faire du storytelling. « Les données racontent une histoire, il convient de la respecter. » Rendre la donnée plus humaine et chaleureuse L’esthétique de l’interface est un autre élément important pour donner un aspect plus humain et chaleureux à la donnée. Cela suppose de respecter la charte graphique de l’entreprise tout en reprenant là encore les conventions de la dataviz. Classiquement, les indicateurs sont en vert, jaune, orange ou rouge en fonction du degré de vigilance attendu. « Le tableau de bord doit être joli ET fonctionnel », rappelle Célia Jorat. « C’est l’une des règles de base de l’UX Design. » L’interface doit également être épurée, pour décharger la page d’accueil. Les données peuvent être thématisées et réparties par onglets, l’arborescence de l’interface servant de fil rouge à l’utilisateur. Sur la page d’accueil, on ne retrouvera que les indicateurs clés. D’un seul coup d’œil, l’utilisateur pourra dresser un bilan de l’état de santé d’un service ou de l’entreprise entière. « Ce diagnostic doit prendre moins de 30 secondes, […]

De l’importance de l’UX Design pour ...


RSE-transition digitale -RSE
Temps de lecture : 3 minutes L’urgence climatique incite plus que jamais les entreprises à soigner leur responsabilité sociale. Et pour développer une stratégie ou communiquer sur le sujet, celles-ci peuvent compter sur le digital. Nombreuses sont les entreprises françaises qui, chaque année, cherchent à s’engager dans une démarche de responsabilité sociale (RSE). L’objectif ? Répondre aux enjeux de société actuels, et prendre position par rapport à ces derniers. Un engagement qui implique donc de mettre en place différents types d’actions. Qu’il s’agisse de réduire l’empreinte écologique ou de répondre à des attentes en termes de transparence. Il faut dire que la transformation digitale, qui a bouleversé les codes de la communication, oblige les entreprises à faire preuve d’une rigueur supplémentaire. Le moindre faux-pas peut notamment se terminer en « bad buzz » sur les réseaux sociaux, et avoir de lourdes conséquences. Mais cette révolution digitale est à double-tranchant. Car en soulevant de nouveaux défis pour les entreprises, elle leur apporte également une « trousse à outils » dont le potentiel continue encore de se développer. Pour une communication « open source » Si la première étape de l’élaboration d’une stratégie RSE consiste à identifier les engagements environnementaux et sociaux les plus pertinents du point de vue de l’entreprise, l’accès à l’information et la facilitation de la communication doivent dans tous les cas faire partie des priorités. Le mot d’ordre : transparence. C’est pourquoi une stratégie RSE consiste à « mesurer, évaluer, calculer », pour reprendre la formule de Clément Fournier, rédacteur en chef de Youmatter. « Avec des données mesurables et mesurées », explique-t-il, « il sera bien plus simple de mettre en place une stratégie RSE efficace et pertinente. ». Sur ce point, les outils de suivi des indicateurs et de reporting ne manquent pas. Mais il convient également de publier ces données et d’être capable d’apporter une réponse à ses clients et collaborateurs sur la question de ses engagements. De plus en plus d’entreprises choisissent ainsi de faire figurer ces données sur leur site web – mises à jour une fois par an –, voire d’étendre la communication au sujet de leur RSE sur les réseaux sociaux. D’autres vont même encore plus loin dans la stratégie « open source » en laissant les données clés brutes, telles que la parité ou l’impact environnemental de leurs activités, en libre accès. Responsabilité sociale : QVT et outils « ludiques » Mais la transformation digitale a avant tout bouleversé les relations dans le monde du travail, et ainsi les méthodes de travail. Partager ses données ne suffit donc pas : il faut savoir ouvrir le dialogue avec les publics externes comme internes. Et sur ce plan, les entreprises disposent de nombreux outils dans le digital. Que ce soit réseaux sociaux, sondages ou plateformes d’échanges et baromètres. On vous parlait récemment de quelques innovations digitales qui se prêtaient au bon développement de la QVT. Les innovations sociales en interne, covoiturage, télétravail et outils de travail à distance viennent se rajouter à la liste des dispositifs d’écoute et de dialogue. Autre innovation : les serious games. Ces applications et outils pédagogiques, jeux, MOOCS (Massive open online course) et e-learning […]

La transformation digitale au service de ...


IA-ecologie-ORSYS 4
Temps de lecture : 5 minutes La transformation digitale chante ses louanges, mais la transition écologique fait son procès : l’intelligence artificielle. À quel point pollue-t-elle réellement ? Peut-on envisager une IA « responsable » ? Bref, cette technologie est-elle compatible avec la transition écologique ? Un nouvel axe que nous avons choisi d’aborder avec notre expert IA et robotique, Cédric Vasseur. Des initiatives pour mettre l’IA au cœur de la transition écologique Que peut faire l’intelligence artificielle pour l’écologie ? Est-elle déjà au cœur de quelques initiatives concrètes ? L’écologie, science de l’étude des êtres vivants dans leur milieu, a tout à gagner avec l’IA. L’étude des êtres vivants, que ce soit les végétaux, les animaux ou l’être humain, implique de très nombreuses données, qu’il est impossible de traiter autrement que par une machine. Machine qui permet donc de simuler un véritable écosystème, de mieux le comprendre, de l’analyser et de l’améliorer. L’agriculture, notamment, a toujours su tirer parti des mathématiques, des statistiques pour adapter au plus près les nutriments et quantités d’eau utiles. Avec le machine learning et le deep learning, ces modèles se sont affinés. On n’utilise plus des hélicoptères coûteux et assez polluants en carburant pour surveiller les champs, mais des drones, caméras et capteurs capables de numériser les plantations et de détecter les parasites, de repérer les zones trop ou mal irriguées et d’intervenir plus rapidement en gérant au plus près les ressources. On parle aujourd’hui « d’agriculture de précision », comme lorsque des robots à énergie solaire peuvent détecter les mauvaises herbes et les arracher mécaniquement (sans produits chimiques). La crise climatique actuelle peut par ailleurs être plus facilement numérisée et comprise avec des outils liés à l’intelligence artificielle : savoir détecter un départ de feu ou un risque d’inondation peut sauver des vies. Plus concrètement, l’IA est utilisée pour gérer des systèmes domotiques complexes où votre chauffage peut s’éteindre et s’allumer automatiquement lorsque vous quittez ou rejoignez votre domicile. C’est le cas par exemple du travail de Sensing Vision, une start-up basée près de Rennes dont la technologie permet des économies d’énergie et une empreinte écologique plus légère en mesurant de nombreuses données météorologiques et autres capteurs. L’impact environnemental de l’IA : une empreinte carbone à charge On sait pourtant que le numérique est énergivore, et que cela semble largement impliquer l’intelligence artificielle. Pourquoi et comment l’IA pollue-t-elle ? L’intelligence artificielle a besoin de machines pour fonctionner, et ces dernières sont composées de matériels et de matériaux qui posent déjà quelques débats (métaux rares pour les batteries). Mais ce qui est le plus souvent mis en avant, c’est la consommation électrique de ces installations et l’énergie perdue pour refroidir le tout (énergie fatale). Les machines « chauffent » lorsque des calculs sont nécessaires, lorsque des données sont écrites, lues ou dupliquées dans les data centers. Et bien que l’on cherche à trouver des composants de moins en moins énergivores, il faut toujours les refroidir pour leur permettre de fonctionner correctement. Une climatisation vient généralement refroidir le tout, qui va également consommer de l’électricité, et paradoxalement chauffer « ailleurs », en dehors des […]

L’intelligence artificielle, un bienfait pour la ...



Temps de lecture : 5 minutes Après avoir démontré sa valeur ajoutée sur des projets IT, le recours à l’agilité peut être étendu à l’ensemble de la DSI voire aux directions métiers. Toutefois, ce passage à l’échelle nécessite un changement en profondeur de l’entreprise pour emporter l’adhésion du plus grand nombre. L’agilité fait passer de la culture projet à la culture produit Œuvrant dans monde en perpétuelle évolution, lors de sa transformation numérique, une entreprise se doit d’être agile pour s’adapter aux mutations, voire de les anticiper. Concernées au premier chef, les équipes IT ont été les premières à être convaincues du bien-fondé des méthodes agiles (Scrum, Kanban). Il faut dire que, par le passé, elles ont particulièrement souffert de la méthode de gestion de projet dite du cycle en V et de son fameux effet tunnel. Les chantiers duraient des mois voire des années et entre le cahier des charges initial et le résultat final, le contexte économique ou réglementaire avait changé ; les besoins clients n’étaient plus les mêmes. En 2019, il n’est plus acceptable de gérer un projet comme autrefois. Pour ne pas se faire « uberiser », une entreprise traditionnelle doit prendre à son compte les nouveaux entrants qui la menace, les GAFA et autres « barbares du web » en recourant aux mêmes recettes qu’eux, dont l’agilité. Une équipe agile se concentrera sur une fonctionnalité d’une application – ce qu’on appelle feature team -, pour produire des livrables au fil de l’eau et dans un mode itératif. Objectif : réduire le « time to market ». Comme l’explique le Cigref dans un livre blanc dédié, « l’agilité fait passer de la culture projet à la culture produit ». « You build it, you run it » À la manière de Google, l’entreprise accepte de mettre sur le marché une v1 de son application, appelée à être améliorée et enrichie, plutôt qu’un produit définitif. Ce que Werner Vogels, directeur technique d’Amazon a synthétisé, dès 2006, par la formule « you build it, you run it » (« vous développez l’application, vous la faites fonctionner »). Une fois démontré l’apport de valeur de l’agilité dans une équipe IT, pourquoi ne pas partager celle-ci à l’ensemble de la DSI ? L’étape suivante consiste alors à la propager à tous les strates de l’entreprise. Les fonctions supports comme les achats, les services généraux, la direction financière ou les RH peuvent gagner en efficacité en reprenant certaines valeurs ou principes de l’agilité. Une agilité à l’échelle qui permet, par ailleurs, d’éviter les ruptures dans la chaîne de production entre la définition du produit par les métiers et sa conception par les équipes IT. En France, la Société Générale, Axa, Pôle emploi ou EDF ont expérimenté ces dernières années cette agilité à l’échelle, ou « Agile@Scale ». Le passage à l’échelle n’est toutefois pas aisé car cela implique de convaincre l’ensemble des collaborateurs.trices. « L’agilité ne se décrète pas, elle ne se force pas », comme le rappelle le Cigref. Ce club de grands DSI conseille plutôt de monter des équipes de « early adopters » qui servent de vitrine. Une manière pour les autres collaborateurs.trices de découvrir ce […]

Le passage à l’échelle, le grand ...


Temps de lecture : 4 minutes L’entrée en vigueur du nouveau règlement européen sur la protection des données personnelles n’a pas mis fin aux travaux de mise en conformité. Les entreprises les plus matures sur le sujet perçoivent le RGPD comme un avantage concurrentiel à même d’instaurer un cadre de confiance. Souvenez-vous : à l’approche du 25 mai 2018, date de son entrée en vigueur, le Règlement général sur la protection des données ou RGPD faisait l’objet d’un engouement médiatique sans précédent pour un texte réglementaire. Il faut dire qu’au même moment éclatait l’affaire Cambridge Analytica, emblématique des failles en matière de protection des données personnelles. Si le soufflé est quelque peu retombé depuis, le RGPD fait toujours parler de lui. La CNIL a été plutôt clémente avec les entreprises dans cette phase de rodage, sauf pour Google qui s’est vu infliger une sanction de 50 millions d’euros. Son homologue britannique, l’ICO, a eu la main plus lourde en proposant récemment deux amendes record à l’encontre de Mariott International (110 millions d’euros) et de British Airways (203 millions d’euros). Seulement 28 % des entreprises conformes Il faut dire que la mise en conformité est toujours en cours pour nombre d’organisations si l’on en croit une étude du Capgemini Research Institute parue fin septembre. Seules 28% des entreprises interrogées déclarent être dans les clous et 30% « presque conformes ». Pourtant, un an plus tôt, 78% des entreprises estimaient pouvoir atteindre la conformité avant l’entrée en vigueur du RGPD. Le chantier réglementaire progresse plus lentement que prévu, freiné par la complexité des exigences réglementaires, les coûts de mise en application et le manque de flexibilité des systèmes d’information existants. La facture est salée. D’ici 2020, 40% des entreprises pensent dépenser plus d’un million de dollars en frais juridiques, et 44% dans la mise à niveau de leurs outils technologiques. Un investissement qui n’est toutefois pas à fonds perdu. Les multinationales doivent, en effet, faire face à de nouvelles législations hors de l’Union européenne et notamment au Brésil (LGPD, Loi générale de protection des données personnelles), en Australie (Privacy Act) et en Californie (CCPA, California Consumer Privacy Act) en attendant d’autres pays. Dans une tribune publiée dans le Washington Post, Mark Zuckerberg, patron de Facebook, appelle à s’inspirer du RGPD. Une vice-présidente de Microsoft plaide, elle, pour un RGPD américain dans un billet de blog. Face à cette inflation de textes législatifs, être déjà « RGPD ready » permet de préparer le terrain à de nouvelles mises en conformité sans avoir à réinventer la roue. Le RGPD est passé de contrainte réglementaire à avantage compétitif Avant l’entrée en vigueur, nombre de voix s’élevaient pour dire que les entreprises européennes se tiraient une balle dans le pied avec le RGPD, se mettant en situation de désavantage concurrentiel face à des économies peu sourcilleuses du droit à la vie privée, en particulier la Chine. Aujourd’hui, le changement de perception est radical selon l’étude de Capgemini. 92% des entreprises conformes affirment avoir obtenu un avantage compétitif, alors qu’elles étaient 28% seulement à s’y attendre l’année […]

RGPD, quel bilan un an et ...


robot - cobot - IA - ORSYS 3
Temps de lecture : 3 minutes Flexible et conçu pour fonctionner en complémentarité avec l’humain, le cobot prend le contrepied de l’image du robot « voleur d’emploi ». Mais comment s’y prend-il, et en quoi diffère-t-il dans ce cas d’un robot traditionnel ? Son nom peut surprendre, et faire penser à une coquille sur le mot « robot ». Pourtant, c’est bien d’un cobot qu’il s’agit. Un robot, oui, mais d’un genre un peu spécial, il tire son nom de la contraction de « collaborative robot », et sa seule mission est d’assister l’être humain. Alors que la robotisation massive du secteur industriel – sans compter la quasi-omniprésence de robots et d’objets autonomes dans notre quotidien – suscite encore une profonde méfiance, on peut tout de même penser que son rôle à plus long terme sera de redorer le blason de la robotique… voire d’adoucir les relations humains-machines. L’interaction avec l’humain, raison d’être du cobot Il faut dire que le robot industriel traditionnel, souvent accusé d’être un générateur de chômage, n’a pas vraiment la cote. Ces machines puissantes n’ont après tout pas été pensées pour travailler aux côtés de l’humain, mais pour exécuter des tâches à des cadences qui le dépassent. Alors quand le « robot collaboratif », plus flexible, a fait son apparition au début des années 2000 en promettant économies et performance tout en conservant l’humain dans l’équation, il ne pouvait qu’attirer l’attention. Privé d’une certaine autonomie, il ne fonctionne que pour et avec l’humain. Finies les barrières et autres mesures de sécurité : le cobot se déplace au besoin pour manipuler des pièces lourdes ou exécuter des tâches répétitives et fastidieuses. Imaginez un bras robotique, par exemple, qu’un opérateur humain programme pour monter des colis à la chaîne. En termes de volumes de production, le robot traditionnel l’emporte toujours sur le cobot. Mais, moins encombrant et polyvalent, ce dernier permet un retour sur investissement plus rapide, tout en travaillant à proximité immédiate de l’humain. Le cobot, robot « human-friendly » D’ailleurs, le moindre détail de la conception d’un cobot trahit une volonté de s’attirer notre sympathie : un design soigné, des coins arrondis, des couleurs… Mais également une façon de travailler très différente de celle des robots industriels. Déjà, ils sont un peu plus lents et sont volontairement moins bruyants pour ne pas inquiéter. Et surtout, ils sont conçus pour détecter les forces extérieures et la moindre obstruction. La présence de capteurs sur le cobot est en effet une différence majeure avec le robot traditionnel. S’il est seul, le cobot va avancer sur sa tâche à plein régime… mais ralentir dès qu’une personne s’approche et s’arrêter automatiquement si on le touche ou qu’il détecte un obstacle. Cette mesure de sécurité est l’une de ses caractéristiques principales, car elle permet à son binôme humain de travailler avec lui sans se mettre en danger, et donc d’interagir avec le cobot. Une conception « human-friendly » qui appelle forcément à repenser non seulement la relation à la machine, mais également le rôle de l’humain dans l’industrie. De la robotique à la cobotique Car travailler à proximité d’un assistant (très) polyvalent permet […]

Robot versus cobot : quelles différences ...



lecture - lintelligence artificielle - robotique
Temps de lecture : 3 minutes L’ intelligence artificielle a de nombreuses raisons d’inquiéter. Découvrez dans cette première sélection des ouvrages qui s’efforcent de répondre à toutes les questions, voire à en poser d’autres. Robots-tueurs, créatures voleuses d’emplois, machines sans âmes… le caractère anxiogène de l’intelligence artificielle a de quoi alimenter les scénarios catastrophes les plus crédibles ! Pourtant, il y a une autre façon d’aborder cette technologie méconnue, qui pourrait adoucir les craintes qu’elle engendre : en apprenant à la connaître, tout simplement. C’est dans ce but que la rédaction ORSYS vous propose une petite sélection de lectures qui répondent à de nombreuses questions… ou permettent de rêver un peu avec la machine. Intelligence artificielle : vers une domination programmée ?, Jean-Gabriel Ganascia Quel(s) risque(s) l’intelligence artificielle représente-t-elle pour le futur de l’humanité ? Quel rapport avec le Golem ? Et au fait, que signifie « intelligence artificielle », exactement ? Dans ce livre, Jean-Gabriel Ganascia, qui n’en est pas à son premier essai sur le sujet, s’applique à démêler le faux du vrai dans la perception globale de cette nouvelle technologie. En partant des origines et sans négliger ni Histoire ni mythologie(s), l’informaticien et professeur à l’Université Pierre et Marie Curie reprend une à une les idées reçues pour les contrebalancer avec nos compétences technologiques et le réel potentiel de l’intelligence artificielle. Une lecture fluide et instructive qui apporte une meilleure compréhension des nouvelles technologies et leurs enjeux. Alors, l’humanité pourrait-t-elle un jour être réduite en esclavage par les robots ? Ou bien la question ne se pose-t-elle vraiment qu’au cinéma ? Disponible ou à commander dans votre librairie préférée sur Place des Libraires. La Voiture qui en savait trop ; les dilemmes moraux posés par l’intelligence artificielle, Jean-François Bonnefon « Au cœur de ce livre, réside une technologie révolutionnaire : la conduite autonome. Pourtant, ce n’est pas de technologie dont je vais parler, mais de morale. La voiture sans conducteur nous oblige à poser des questions nouvelles, à une échelle inédite. (…) Accepterions-nous que les passagers des véhicules autonomes n’aient quasiment plus d’accidents mortels, mais que les piétons et les cyclistes continuent à être tués avec la même régularité qu’aujourd’hui ? Et si une voiture autonome se trouve dans la situation dramatique où elle a le choix entre sacrifier son passager ou écraser un piéton, que doit-elle faire ? Et s’il s’agit de deux, de trois ou de quatre piétons ? Et si ce piéton est un enfant ? » Jean-François Bonnefon, docteur en psychologie cognitive de son état, s’est intéressé aux dilemmes moraux posés par les voitures autonomes. Loin d’être réfractaire vis-à-vis des nouvelles technologies, il ne fait pour autant aucune concession dans son travail de recherche visant à éclairer un « territoire moral nouveau », et aborde donc les voitures autonomes et le concept plus vaste de l’intelligence artificielle dans le cadre d’une réflexion philosophique. Un sujet complexe et passionnant, qui se lit très facilement quel que soit votre niveau d’affinité avec la technologie. Disponible ou à commander dans votre librairie préférée sur Place des Libraires. Libration (titre original : A Closed and Common Orbit), Becky Chambers Pour conclure cette sélection, partons […]

Les conseils lecture d’ORSYS : 3 livres ...


IA - robotique - ORSYS
Temps de lecture : 6 minutes L’évolution de la robotique, associée aux progrès fulgurants de l’intelligence artificielle, continue à inquiéter. Parce que ces craintes sont légitimes, la rédaction ORSYS a choisi d’y répondre en allant s’entretenir avec Cédric Vasseur, expert IA et robotique enthousiaste. D’où provient, à votre avis, cette méfiance vis-à-vis de l’intelligence artificielle et de la robotique ? Un basculement majeur a eu lieu selon moi pendant la période de la guerre froide. On constate en effet un réel contraste entre les œuvres réalisées avant et après la guerre, qui traduit un changement dans la perception du futur. Avant-guerre, les œuvres témoignaient d’un certain optimisme vis-à-vis des nouvelles technologies. Puis cet optimisme fut considérablement ébranlé, avec notamment la bombe atomique, lorsqu’on a réalisé que les nouvelles technologies pouvaient se retourner contre nous. Un peu comme le monstre de Frankenstein qui se retourne contre son créateur. Le thème des créations qui se révoltent est d’ailleurs un motif assez récurrent dans la littérature. Et il a perduré jusque dans la culture populaire contemporaine, comme avec Terminator au cinéma. Ce qui n’est pas si surprenant : l’humain se méfie naturellement de la nouveauté. Alors quand on parle de nouvelles technologies ou qui n’existent même pas encore, elles provoquent des inquiétudes qu’il ne faut pas négliger. La disruption Et puis, il y a ce qu’on appelle la disruption. Un afflux de nouveautés et de changements tellement rapides que l’on n’arrive pas toujours à se les accaparer, et surtout à comprendre ce qu’ils impliquent. Les nouvelles technologies évoluent à toute vitesse, et le cerveau humain n’arrive pas à suivre. Aujourd’hui, on est face à une technologie qui rentre en compétition avec les compétences humaines. Des ouvriers travaillent dans des usines aux côtés de robots qui font le même travail qu’eux, et parfois plus rapidement. Difficile de ne pas se sentir dépassé ! C’est pourquoi il est important de communiquer sur l’effet de synergie et expliquer en quoi les robots peuvent améliorer leurs conditions de travail. La transition est parfois difficile. Pourtant, l’idée est que l’humain puisse laisser les tâches fastidieuses aux robots et accéder à des missions avec une plus-value intellectuelle ou une créativité supérieure. Mais on a aussi peur d’une machine « sans empathie » – et sans aucune âme ! L’absence d’âme dans la machine inquiète beaucoup. Si les progrès actuels en intelligence artificielle et robotique sont aussi rapides, ces technologies ne nous dépassent-elles pas déjà un peu ? L’intelligence artificielle connaît effectivement un tournant décisif par rapport à ses débuts. Ne serait-ce que par ce qu’on n’avait pas la même puissance de calcul qu’aujourd’hui. Dans les années 1970, on parvenait à créer des modèles dont on comprenait le cheminement jusqu’au résultat. Aujourd’hui, on a une telle quantité d’informations, avec le deep learning, le big data… que même en faisant appel à un expert, le processus pour décortiquer toutes ces informations sera très long et fastidieux. C’est pourquoi on travaille sur cette problématique de l’explicabilité du code, ou du modèle généré par l’intelligence artificielle. Donc il est certain que nous sommes dépassés par cette […]

Répondre à la peur du robot ...


2
Temps de lecture : 4 minutes Par sa facilité d’utilisation, sa couverture fonctionnelle et sa politique tarifaire agressive, Power BI l’outil décisionnel et de datavisualisation de Microsoft connaît un fort engouement depuis deux ans. Il s’inscrit dans la nouvelle génération d’outils de « self service BI » aux côtés de Tableau Software et Qlik. Power BI désormais incontournable Power BI a fait une entrée discrète sur le marché en septembre 2013. Microsoft dévoilait alors une sorte de descendant analytique d’Excel, consolidant en une seule interface tous les add-ons qui étaient venus enrichir le célèbre tableur, comme Power Pivot pour l’analyse et la modélisation, Power Query pour le requêtage ou Power View pour la restitution. Puis, au fil des années, à raison d’une mise à jour par mois, la solution s’est fortement développée pour devenir aujourd’hui incontournable sur le marché du décisionnel. Dans son dernier quadrant magique, Gartner place Microsoft parmi les leaders des éditeurs de plateformes de business intelligence (BI), assez loin devant son dauphin, Tableau Software, qui a été récemment racheté par Salesforce. « Power BI connaît un réel engouement depuis deux ans, quel que soit le type d’organisation – PME, grand compte, administration – ou de secteur d’activité – santé, industrie, énergie… « , observe Nicolas Dubois, consultant formateur en data intelligence chez BIAL-X et formateur ORSYS. Plus de 70 connecteurs, des visuels pré-paramétrés Ce succès, Power BI le doit d’abord à sa facilité d’utilisation. « Un expert métier qui a déjà conçu des macros sous Visual Basic retrouvera l’environnement de développement familier d’Excel, poursuit-il. Il ne sera pas désarçonné. » Autre point fort : la connectivité de l’outil. « Avec plus de 70 connecteurs intégrés, Power BI peut accéder à n’importe quelle source de données qu’il s’agisse de pages web, de fichiers CSV, d’une base de données relationnelle ou de données non structurées dans le cloud. » Pour la restitution, Power BI propose une large palette de visuels et de graphiques pré-paramétrés qu’il suffit de personnaliser. Et si cette sélection ne suffit pas, la market place rassemble en ligne 250 visuels proposés gratuitement par la communauté. « Revers de la médaille : il y a tellement de visuels que l’on peut passer du temps à trouver le bon. » Pour Nicolas Dubois, Power BI s’adresse à tous les types de reporting et donc à toutes les strates de l’entreprise. À commencer par les opérationnels qui ont besoin de rapports leur permettant de suivre l’activité et de rendre compte aux managers intermédiaires. Cela peut se rapporter à des métriques comme le pourcentage de vente d’un produit rapporté au chiffre d’affaires global pour un service commercial ou le suivi du taux d’absentéisme pour les ressources humaines. Les experts métiers vont, eux, analyser les données depuis l’éditeur « R » ou « Python » directement pris en charge dans Power BI ou encore grâce aux « mesures rapides » apportant des fonctionnalités statistiques classiques comme les variations temporelles ou les calculs contextuels. Outil de stratégie Enfin, l’outil permet la construction de tableaux de bord stratégiques. « En un coup d’œil, un décisionnaire peut analyser l’état de santé de son entreprise en rassemblant dans une […]

Power BI, les raisons d’un succès



2
Temps de lecture : 3 minutes Si le passage au cloud est un prérequis à toute transformation numérique, il expose l’entreprise à de nouveaux risques. Celle-ci doit en tenir compte et changer son approche en matière de cybersécurité. Offrant une infrastructure « scalable » et une puissance de calcul infinie, le cloud est un levier incontournable pour toute stratégie de transformation numérique. Il expose toutefois à de nouveaux risques. Alors que jusqu’ici, ses données restaient au « chaud », hébergées dans les serveurs ou le datacenter de l’entreprise, elles sont désormais avec le cloud ouvertes à tous les vents. La montée vers le nuage se généralisant – 40 % de l’infrastructure informatique des entreprises françaises est sous architecture cloud selon un livre blanc de Rohde & Schwarz Cybersecurity et CXP Group –, les cybercriminels ont massivement jeté leur dévolu sur les services cloud. Les menaces portent avant tout sur les données que le cloud a rendues plus accessibles, qu’il s’agisse de demandes de rançons (ransomwares), d’utilisations frauduleuses de données tierces ou d’espionnage. Les principales vulnérabilités du cloud public Le cloud ayant multiplié les authentifications pour accéder à ses différents services, la menace autour des usurpations d’identité est devenue une préoccupation majeure, en particulier en ce qui concerne les comptes à privilèges. Si les prestataires de clouds publics investissent fortement dans la protection de leurs plateformes, ils peuvent aussi servir de rampe de lancement pour les cybercriminels. Fin juillet, les chercheurs de Proofpoint ont détecté une campagne de phishing hébergée dans les cloud d’Amazon Web Services (AWS) et de Microsoft Azure. Elle usurpe la marque DocuSign (solution de signature électronique) en copiant le formatage des e-mails pour cibler des individus spécifiques au sein d’une entreprise. Selon un récent rapport de Checkpoint, les principales vulnérabilités du cloud public concernent : les accès non autorisés (42 %), les interfaces non sécurisées (42 %), les erreurs de configuration (40 %) et les détournements de comptes (39 %). 66 % des personnes interrogées pour cette même étude ont déclaré que les solutions de sécurité traditionnelles ne fonctionnaient pas du tout ou ne fournissaient que des fonctionnalités limitées dans le cloud. Un autre rapport, réalisé par l’Unité 42 de l’éditeur Palo Alto Networks, note que l’exposition des données augmente avec l’adoption des conteneurs logiciels de type Docker et Kubernetes. Il a mis en évidence que plus de 40 000 plateformes de containerisation reposant sur des configurations par défaut étaient particulièrement vulnérables. Le shadow IT démultiplié par le cloud Et encore, il ne s’agit là que de la partie émergée de l’iceberg… le cloud favorise le shadow IT, notamment les applications installées sous le radar de la DSI. Selon une étude réalisée par le Club des experts de la sécurité de l’information et du numérique (Cesin) en partenariat avec Symantec, une entreprise utilise en moyenne cinquante fois plus d’applications et de services cloud qu’elle n’en a recensés. Les salarié.e.s font notamment grand usage des messageries web de type Gmail ou Yahoo Mail et des espaces de stockage en ligne comme Google Drive, Dropbox ou WeTransfer. Bloquer l’accès […]

Le cloud, talon d’Achille d’une politique ...


informatique quantique - ORSYS 3
Temps de lecture : 3 minutes Si l’informatique quantique est un sujet complexe, c’est aussi le sujet du moment… Philippe Nieuwbourg, expert en analyse de données, nous explique de quoi s’il s’agit, et pourquoi il est important de commencer à s’y intéresser. Si vous vous intéressez un peu aux tendances de l’informatique, vous avez certainement entendu parler d’ informatique quantique. Sans doute n’avez-vous pas compris grand-chose, et c’est tout à fait normal ! Pour comparer, savez-vous qu’il existe à peu près autant de différences entre les cartes perforées des débuts de l’informatique, et votre iPhone aujourd’hui ? Qu’entre les ordinateurs actuels et les futurs systèmes quantiques dans quelques décennies ? Nous sommes aux prémices d’une génération complètement différente de calculateurs qui se construit actuellement dans les laboratoires de Google, IBM, D-Wave, Rigetti, Fujitsu… et ce, dans les centres de recherche les plus secrets des États-Unis et de Chine en particulier. Un chiffre pour garder votre attention ? La Chine a décidé d’investir environ 10 milliards de dollars durant les prochaines années autour de la recherche dans le domaine du quantique. Des applications à complexité exponentielle dans le domaine de la simulation Commençons par les usages et non par la technique. Et par un inventaire à la Prévert : ABN AMRO, Barclays, BBVA, CaixaBank, Airbus, BMW, Daimler, Volkswagen, Thales, Merck, Roche, Total… qu’ont en commun ces entreprises et plusieurs dizaines d’autres ? Elles ont toutes mis en place des programmes de recherche et de développement en informatique quantique. Et pour résoudre quels types de problèmes ? Des problèmes inaccessibles aux ordinateurs traditionnels. Cela concerne, par exemple, l’optimisation individuelle des déplacements d’une population ; la modélisation des comportements d’une molécule en fonction de milliers de facteurs ; la mise en place de systèmes de cryptage résistants aux « hackers quantiques » ; l’optimisation de la dynamique des fluides ; la simulation avancée d’instruments financiers complexes… Les applications sont aussi nombreuses que créatrices de valeur. Dans certains cas, l’informatique quantique permettrait de passer de plusieurs jours de calculs de simulations à quelques minutes. Les secteurs de la finance, du transport, de la santé, de la chimie, de l’énergie, mais également militaire, électronique et de communication, sont particulièrement concernés. Puissance de calcul et gain de temps sont les deux arguments principaux de l’informatique quantique. De la physique traditionnelle à la physique quantique Mais de quoi s’agit-il ? D’ordinateurs à l’architecture et aux composants totalement nouveaux, basés sur les propriétés étonnantes de la physique quantique. Faut-il être docteur en physique pour s’intéresser au sujet ? Non, et heureusement. Les concepteurs de ces technologies sont en revanche les meilleurs experts mondiaux de la physique quantique. Nous nous contenterons donc de survoler leurs compétences. En revanche, c’est notre rôle de développer les applications qui permettront aux entreprises d’utiliser ces nouveaux ordinateurs quantiques. La physique quantique, donc… De quoi s’agit-il ? La physique traditionnelle est celle de notre monde. Thalès, Archimède, Newton, et bien d’autres, nous ont expliqué comment notre monde fonctionne. Mais depuis le début du XXème siècle, d’autres physiciens s’intéressent à l’infiniment petit : le monde quantique. Il s’agit de Einstein, Planck, de Broglie. Les règles du monde quantique sont […]

Informatique quantique : les premières applications ...


EBIOS- ORSYS 1
Temps de lecture : 5 minutes Fin 2018, l’ANSSI a publié la nouvelle version de sa méthode d’analyse de risque EBIOS (Expression des besoins et identification des objectifs de sécurité). Pascal GOUACHE*, expert en cybersécurité, a accepté de répondre à nos questions afin de dresser un rapide portrait d’une méthodologie complexe. Qu’est-ce que la méthode EBIOS risk manager ? À quoi sert-elle ? EBIOS RM est une démarche dont le but est de répondre à un besoin de connaissance des risques cyber qui impactent aujourd’hui les systèmes d’information les plus sensibles. À l’origine de cette démarche se trouve l’ANSSI, le « cyber gendarme » de la sécurité en France, qui l’a conçue pour répondre à des cas d’usage d’organismes concernés par le cyber risque – on appelle ça des opérateurs d’importance vitale (OIV). Parmi les grands comptes français, dans tous les secteurs, on va être amené à utiliser EBIOS Risk Manager. Comment permet-elle de gérer les risques ? Elle ne permet pas tant de gérer les risques que de les connaître et les évaluer, et ainsi exprimer un risque résiduel acceptable. La méthode ne fait pas tout. Elle entre dans une action de gouvernance de la sécurité qui permet, dans cette action-là, de gérer le temps long de la sécurité puisque l’idée est que lorsqu’on veut protéger un système, on ne veut pas le protéger qu’à un instant T mais sur toute sa durée de vie. C’est pour cela qu’on a besoin d’une méthode qui apprécie les risques autant que leurs évolutions. Comment la nouvelle méthode diffère-t-elle de sa dernière version datant de 2010 ? En quoi est-elle plus pertinente aujourd’hui ? Elle est plus pertinente parce qu’elle permet d’optimiser la gestion des risques de base sans les réétudier comme si on les découvrait. Par « risques de base », j’entends, par exemple, des virus sous Windows, que tout le monde connaît et pour lesquels on sait exprimer une solution. C’est pourquoi on ne va pas étudier spécifiquement ces risques-là, mais des risques plus sophistiqués, plus dangereux aussi, qui vont au cœur des systèmes et nécessitent de la part de l’attaquant un mécanisme d’attaque complexe – et donc, de la part de ceux qui ripostent, un mécanisme de défense au moins aussi complexe. Cette méthode est optimale par rapport à la perspective des attaques dites « ciblées ». C’est d’ailleurs ce qui a évolué par rapport à l’approche d’EBIOS 2010, qui était plus généraliste, plus « standard ». Là, on a une méthode qui est vraiment dédiée aux risques cyber ciblés importants. Est-ce qu’on peut parler de « nouveaux risques » ? Pour les gens qui travaillent dans la cybersécurité, ils ne sont pas nouveaux. On savait depuis 2010 qu’ils existaient et qu’ils allaient prendre de l’ampleur. Mais les statistiques montrent qu’ils sont effectivement en forte progression, et qu’ils sont de plus en plus le fait d’États qui attaquent d’autres États. Ces attaques-là sont aujourd’hui des faits concrets et avérés : tous les ans, plusieurs dizaines sont menées. Pour citer des exemples, un des faits les plus connus est une attaque partie des États-Unis vers l’Iran (Stuxnet). L’objectif était d’attaquer les centrifugeuses iraniennes. […]

EBIOS RM, portrait d’une nouvelle méthode ...



IA recrute humains - ORSYS 4
Temps de lecture : 4 minutes Avec la frénésie actuelle autour de l’Intelligence artificielle (IA), les data scientists, data engineers et autres data architects font la pluie et le beau temps sur le marché du travail. En parallèle de ces spécialistes de la donnée, les projets de machine learning et de deep learning requièrent aussi une expertise métier. Les impacts de l’intelligence artificielle sur l’emploi constituent l’un des sujets les plus clivants du moment. Au fil d’articles anxiogènes, des experts techno-sceptiques évoquent un avenir sombre où une horde de robots et d’assistants virtuels détruira les emplois par millions. À l’inverse, les techno-optimistes imaginent un monde où l’IA libérera l’humain des tâches ingrates, lui permettant de se consacrer à des missions plus nobles et créatives.   Comme toujours, la réalité devrait se situer dans l’entre-deux. Si la théorie de la « destruction créatrice » de Joseph Schumpeter continue de s’appliquer à cette révolution technologique, l’intelligence artificielle commencera par détruire massivement des emplois pour ensuite en créer davantage qu’elle n’en a détruits. IA : près de 50% des postes impactés ? Dans son dernier rapport sur « L’Avenir du travail », qui remonte à fin avril, l’Organisation de coopération et de développement économiques (OCDE) dresse ainsi un tableau plutôt nuancé. En France, pays un peu plus exposé que la moyenne, 16,4 % de postes seraient menacés et 32,8 % transformés par l’automatisation. En attendant, l’intelligence artificielle est surtout créatrice d’emplois ; les jeunes diplômé.e.s qui maîtrisent les rudiments du machine learning et du deep learning sont actuellement les rois et reines du marché du travail. Grands noms de la bancassurance, de l’industrie, ESN, start-up… s’arrachent ces expert.e.s en data science. Les GAFAM font aussi les yeux doux à nos mathématicien.ne.s et à nos chercheurs.ses en sciences cognitives, reconnu.e.s mondialement. Depuis plus d’un an, Microsoft, Google, Facebook, IBM, Samsung et Futjitsu ont multiplié les annonces pour lancer une école de l’IA et ouvrir un centre de R&D en France. À la clé, des millions d’euros d’investissement. Vers une pénurie de compétences ? Un emballement qui ne devrait que renforcer la pénurie de spécialistes de la donnée avec l’inflation salariale qui l’accompagne. D’après une étude 2019 de data recrutement, un.e data scientist démarre sa carrière à partir de 40 K€ bruts pour atteindre 80/100 K€ et plus après dix ans d’expérience. Si toutes les grandes écoles – HEC, Essec, Polytechnique ou Telecom ParisTech – ont créé des cursus dédiés, l’offre en formation initiale ne suit pas la demande. Reste la formation continue. ORSYS propose un ensemble de formations et de séminaires pour acculturer et former à l’IA des professionnel.le.s du numérique. Certaines entreprises vont jusqu’à entreprendre des plans ambitieux de reconversion pour faire monter en compétences des professionnel.le.s des statistiques, comme les actuaires dans le secteur de l’assurance, vers ces métiers de l’IA. IA : les stars de la data… Le plus connu des stars de l’IA, c’est bien sûr le data scientist, qualifié de « métier le plus sexy » par la Harvard Business Review. À la croisée de la statistique et de l’informatique, cet.te expert.e de la […]

IA recrute humains pour projets collaboratifs


interview-catalogue-technologies-numeriques
Temps de lecture : 4 minutes ORSYS évolue, et son offre avec ! Dans cette interview, Jean-Emmanuel Roux*, responsable de l’offre de formation en technologies numériques, nous dévoile les évolutions et les nouveautés de notre nouveau catalogue de la rentrée 2019… Quelle est ta fonction chez ORSYS ? Je suis responsable du développement de l’offre de formation en technologies numériques. J’encadre à ce titre  une équipe de sept ingénieurs pédagogiques qui œuvrent au quotidien à l’amélioration continue de notre offre afin qu’elle corresponde au mieux aux attentes de nos clients. Comment évolue le catalogue ORSYS ? Les produits évoluent dans le temps. De nouveaux langages, de nouveaux concepts, de nouvelles méthodologies apparaissent et disparaissent, des logiciels changent de version… il nous faut donc être à l’affût de l’actualité pour maintenir cette offre à niveau. Le processus d’amélioration continue que nous avons mis en place nous permet de suivre ces évolutions et de proposer toutes les six semaines de nouveaux cours. Ce processus ne saurait fonctionner sans être attentifs aux retours que font nos participants en formation, aux remontées terrain de nos intervenants experts,  aux retours de nos commerciaux ainsi qu’à l’activité de veille menée par nos ingénieurs pédagogiques. Que peut-on trouver dans ce catalogue ? L’informatique embrasse un très grand nombre de domaines (Réseaux, Sécurité, Intelligence artificielle, Développement logiciel, Base de données…). Notre catalogue se structure autour de ces grands domaines en proposant  une liste très complète de cours abordant de manière très opérationnelle ces thématiques. Pour une meilleure visibilité de notre offre, nous avons restructuré notre catalogue en mettant en avant trois nouveaux domaines : management de projet, MOA et Business analysis, et test et qualité des applications. La structure de notre catalogue s’adapte donc aux évolutions du secteur informatique. Nous retrouvons dans ce catalogue, sur plus de 500 pages, un bon millier de cours répartis en séminaires, cours de synthèse et stages pratiques : Les séminaires permettent de faire le point sur les récentes avancées technologiques et les approches les plus novatrices Les cours de synthèse présentent des sujets précis dans une optique opérationnelle Les stages pratiques sont conçus pour acquérir de nouvelles compétences techniques Seuls les deux-tiers de notre offre se retrouvent dans notre catalogue, le tiers restant étant consultable sur notre site Web. Quelles sont les nouveautés du catalogue ORSYS 2019/2020 ? Nous avons conçu une centaine de nouveaux cours,  en avons retiré tout autant, et une trentaine  ont été refondus afin de suivre les évolutions technologiques et les demandes de nos clients. Ce catalogue se caractérise par un renforcement de notre offre autour des grandes thématiques : Big data, data mining, text mining  et machine learning Intelligence artificielle, chatbot et robotique Cybersécurité, hacking et pentest, ethical hacking Parmi les grandes nouveautés, citons ITIL® 4 pour la gestion de services informatiques. ITIL® n’avait pas évolué depuis 2011. L’année 2019 traduit son évolution vers les domaines de l’agilité, du DevOps et du Lean. Une évolution indispensable pour vraiment s’adapter aux nouveautés des services informatiques.  Nous renforçons également notre offre de certifications internationales composée de plus de 200 certifications […]

Interview : découvrez notre catalogue Technologies ...


2
Temps de lecture : 3 minutes Nous exploitons toujours plus de données en tout genre dans les nouveaux écosystèmes analytiques. Nous engrangeons de la pollution qui va poser des problèmes à l’Intelligence Artificielle (IA). Il nous faut alors prendre un peu de recul pour tenter de dégager des axes fondamentaux d’amélioration. Par Pascal MUCKENHIRN* La pollution se multiplie au sein des nouveaux écosystèmes analytiques L’ouverture de l’analytique traditionnelle aux nouvelles techniques issues du Big Data et du prédictif, en particulier les réseaux de neurones profonds, a engendré l’apparition de nouveaux facteurs de pollution des données. Avant de continuer, définissons ce que nous entendons par « pollution des données ». Il s’agit de la dégradation, directe ou indirecte, des données, ce qui entraîne des détériorations susceptibles de perturber leur utilisation dans les écosystèmes d’analyse. Tout a commencé avec la BI libre-service. Au nom du temps passé à intégrer les nouvelles données par les IT, les métiers ont souhaité y avoir accès plus rapidement. Les IT ont ouvert la boîte de Pandore et avec, le relâchement des contrôles qui peuvent parfois sembler superflus aux personnes qui ont hâte d’extraire cette valeur tant promise. Ce qui a tendance à limiter/entraver le partage des contrôles effectués par chacun ou à produire plus de pollution. Deep Learning et Machine Learning Est venu ensuite le Deep Learning avec ses besoins énormes en échantillons d’apprentissage. Cela nécessite parfois de solliciter, via des plateformes, des participant.e.s pour recueillir leurs décisions. Par exemple, dans le cadre de la voiture autonome, pour régler le problème des dilemmes moraux, les chercheur.se.s ont bâti une base de plusieurs millions de réponses humaines qui peuvent servir de base d’apprentissage pour un algorithme. Même s’il existe des algorithmes de redressement d’erreur comme une analyse factorielle qui croise des données sociodémographiques et les réponses fournies, nous ne sommes pas à la merci d’influenceurs en tout genre. Sans oublier que les hackers ne se sont pas encore trop amusés avec l’IA. On ajoute à cela les biais d’apprentissage, ou les relations de cause à effet trop vite déduites d’une corrélation fortuite. Les données collectées sur les réseaux sociaux comportent une grande part de bruit. Ainsi, les robots sont sources de pollution. Le Machine Learning révèle et amplifie les défauts. Il n’a pas la souplesse de faire avec. Le besoin d’immédiateté et la tendance à tout collecter bien avant d’utiliser les données dans la couche de données brutes (Raw Data) du Datalake décalent la question de la qualification des données au moment de l’usage autonome et laisse rentrer les défauts qui, dans certains cas, peuvent être des signaux faibles d’alerte. Cependant, on le constate, les contrôles autonomes ne sont pas forcément complets ou bien chacun les refait à sa sauce, générant ainsi des surcoûts de productivité. Entreprise de dépollution La dépollution n’est pourtant pas si évidente… Le bon sens nous dit d’agir au plus près de la source de pollution, mais la réalité est tout autre, surtout en intégrant des données Open Data, de parcours Internet ou multipartenaires. L’analytique, dans sa vision transverse, récolte toutes […]

Quand la pollution s’invite dans les ...



Cloud et technologie - ORSYS
Temps de lecture : 2 minutes Par la Rédaction ORSYS Le Cloud est devenu incontournable à la transformation numérique des entreprises. La montée vers le « nuage » se fait toutefois progressivement. Une fois passée l’étape de l’hybridation, le multicloud permet de profiter pleinement de toutes les richesses du Cloud. 214 milliards de dollars. C’est le chiffre que devrait atteindre, selon Gartner, le marché mondial du Cloud public cette année, soit une croissance de 17,5 % par rapport à 2018. Offrant une infrastructure « scalable » et une puissance de calcul infinie, le Cloud est devenu en quelques années un levier incontournable pour mener une stratégie de transformation numérique. Une fois les freins levés sur la sécurisation et la localisation des données, la question n’est plus de savoir s’il faut ou non monter dans le « nuage » mais à quelle vitesse. Si les entreprises sont en quête d’Agilité, elles ne peuvent faire fi de l’existant hérité du passé, ce fameux « legacy » informatique. Elles doivent conserver une partie de leur patrimoine on-premise pour des raisons réglementaires ou de temps de latence. Passer d’un Cloud à l’autre Hormis les start-up et quelques PME récentes, rares sont les organisations à pouvoir conduire une stratégie 100 % « Cloud first ». La tendance forte consiste donc à recourir au Cloud hybride afin de profiter du meilleur des deux mondes. En fonction de leur criticité, des applications seront supprimées ou réécrites pour passer en mode Cloud – privé ou public -, voire remplacées par des solutions nativement conçues en mode SaaS.  L’étape suivante, c’est le multicloud. Les entreprises ne veulent pas se retrouver bloquées avec un seul provider Cloud comme elles l’ont été par le passé avec les éditeurs de logiciel sous licence (vendor lock-in). Elles souhaitent déplacer indifféremment leurs charges de travail entre les Clouds de Google (GCP), d’Amazon (AWS) ou de Microsoft (Azure) en fonction de l’avance en termes d’innovation, de la qualité de service ou de la grille tarifaire affichés par l’un ou l’autre à un moment donné. Des solutions dites de « broker de Cloud » ou de CMP (Cloud Management Platform) permettent d’assurer cette bascule en s’affranchissant des consoles des fournisseurs. Elles aiguillent l’utilisateur vers le meilleur service en termes de coûts et de performances pour un besoin applicatif donné. Quels fournisseurs ? Les fournisseurs ne sont pas en reste. Pour élargir leur marché au-delà des convertis au Cloud public, elles proposent d’embarquer leurs technologies au sein même des data centers afin de faire le lien entre l’ancien et le nouveau monde. Avec Azure Stack, Microsoft a été le premier à proposer une telle offre, suivi par Amazon Web Services avec Outposts. AWS avait un peu plus tôt noué un partenariat fort avec VMware, spécialiste de la virtualisation, pour proposer la solution VMware Cloud on AWS. Plus récemment, Google Cloud a lancé Anthos. Reposant sur Kubernetes, l’orchestrateur de containers maison, cette plateforme permet de gérer des charges de travail exécutées sur des Clouds tiers. Pour Google, cette réversibilité n’est possible que par le recours généralisé à l’Open Source et à la containerisation. Envie d’aller plus loin […]

Le Cloud de demain sera hybride ...


travailleurs nomades - ORSYS
Temps de lecture : 4 minutes Ils nous font rêver ou verdir de jalousie avec les photos aux allures de cartes postales qu’ils postent régulièrement sur les réseaux sociaux. Pourtant, les travailleurs nomades ne sont pas, par définition, toujours en vacances. Imaginez. Vous êtes sur une plage. Les orteils enfouis dans le sable fin, vous n’entendez que le roulement lent des vagues qui fait écho à la brise légère dans les palmiers – et au loin, les cris des oiseaux. Devant vous, les montagnes d’un vert étincelant se jettent dans la mer, embuées d’une beauté et d’un mystère qu’aucune carte postale ne saurait capturer. Sur vos genoux, votre ordinateur portable. Et vous travaillez. Belle image, n’est-ce pas ? C’est en tout cas celle que l’on peut avoir en évoquant les travailleurs nomades, ces aventuriers du monde du travail qui sillonnent les routes tout en continuant à exercer leur métier. Ou peut-être que cela ne vous dit rien. Au fond, cette représentation pourrait même être un brin fantasmée par rapport à la réalité. Alors, qui sont les travailleurs nomades ? Les multiples facettes du travailleur nomade Première certitude : le travailleur nomade existe bel et bien. Il évitera sans doute d’apporter son ordinateur à la plage, de peur d’y retrouver ce sable si peu compatible avec la technologie et de ne capter aucun Wi-Fi… Autrement, il sillonne réellement les routes. Mais prenons les choses dans l’ordre. D’abord, le terme « travailleur nomade » est vague, car il peut désigner plusieurs statuts et modes de vie différents. Si on devait les regrouper en un minimum de catégories, on distinguerait deux types de travailleurs nomades : Les salarié.e.s, consultant.e.s ou expert.e.s internes en télétravail, voyages d’affaires et/ou se déplaçant dans les différents sites de leur organisation en France ou à l’étranger. Leurs lieux de travail changent fréquemment d’un pays à un autre, mais ils restent rattachés à une entreprise et ne sont pas à leur compte. Les freelances et autoentrepreneurs qui concilient voyage et travail. En tant qu’indépendant.e.s, ils poussent le nomadisme moderne un peu plus loin et sont aussi qualifiés de « nomades digitaux ». Il est tentant d’ajouter également les expatrié.e.s à la liste. Cependant, s’ils peuvent partir travailler dans un pays étranger pour un contrat d’une durée de deux ou trois ans, les expatrié.e.s ont un emploi stable et sédentaire. Et n’ont pas la flexibilité qui caractérise le mode de vie du travailleur nomade. Qui devient travailleur nomade ? Car si le travailleur nomade, et tout particulièrement le nomade digital, peut s’établir plusieurs années à un même endroit, son choix ne dépend que de lui (et de la politique de visa du pays concerné) et d’aucun employeur.   Pas d’employeur, mais des clients. Loin de passer son temps les doigts de pied en éventail, le travailleur nomade doit développer son activité, prospecter, entretenir sa relation client, tenir sa comptabilité… Bref, le quotidien frénétique d’un freelance, voire d’un entrepreneur, auquel s’ajoute la mobilité quasi permanente. Un statut qui requiert une excellente organisation et une bonne discipline personnelle si l’on souhaite le conserver. Qui a dit que […]

Qui sont les travailleurs nomades ?


2
Temps de lecture : 5 minutes L’engouement actuel autour de l’Intelligence Artificielle (IA) sème la confusion sur l’interaction et le rôle des différents domaines qui la composent. Ingénieur Data chez BIAL-R et formateur ORSYS, Yann Romestant* nous détaille les intérêts respectifs du Machine Learning et du Deep Learning et les grands cas d’usage associés. Intelligence Artificielle, Machine Learning, Deep Learning… Ces « buzzwords » sont depuis quelque temps diffusés dans la presse spécialisée comme grand public, sans que l’on sache véritablement ce que chaque terme recouvre. Des éditeurs et des fournisseurs de services participent d’ailleurs à cette confusion en apposant la mention IA à toutes leurs offres. Pour comprendre ce glissement sémantique, prenons le temps de faire un rappel historique. L’Intelligence Artificielle, qui consiste à concevoir des technologies capables de simuler/imiter certains traits de l’intelligence humaine, n’est pas récente. Tout commence avec Enigma  Des experts font démarrer ses débuts avec les travaux du mathématicien britannique Alan Turing. Il s’est rendu célèbre pour avoir contribué pendant la Seconde Guerre mondiale à décoder Enigma, la machine utilisée par le régime nazi pour chiffrer ses messages. Cet exploit aurait permis d’écourter le conflit d’au moins deux ans. Nombre de ses travaux ont permis l’essor de l’Intelligence Artificielle, comme le test de Turing ou encore son article « Computing Machinery and Intelligence ». Par la suite, l’IA est restée longtemps cantonnée aux laboratoires de recherche. Deux facteurs l’ont sortie du monde de la R&D : l’augmentation exponentielle du volume de données, d’une part, et la puissance de calcul et les capacités de stockage infinies apportées par le Cloud, d’autre part. Pour simplifier à l’extrême, il existe deux formes d’IA. Les systèmes experts, mis en production après le boom de l’IA des années 80, répondent à des tâches complexes en retenant un choix parmi une multitude de possibilités. Il s’agit, par exemple, de l’algorithme du GPS qui trouve le chemin le plus rapide. L’autre grande famille, ce sont les agents intelligents qui sont restés au stade de la recherche dans les années 80 pour les raisons évoquées plus haut. Ils représentent une « retranscription » mathématique d’un problème. Le Deep Learning fait franchir un nouveau cap Pour Yann Romestant, ingénieur Data chez BIAL-R et formateur ORSYS, un nouveau cap a été franchi avec l’essor récent du Deep Learning. « Il a permis de réaliser des progrès significatifs notamment dans la reconnaissance d’images ». Le Deep Learning est un sous-ensemble du Machine Learning, qui lui-même appartient à la grande famille de l’Intelligence Artificielle. Le Deep Learning tire sa force des réseaux de neurones dont le fonctionnement s’inspire du cerveau humain. Le réseau le plus connu (perceptron) est organisé en strates superposées. Les neurones d’une couche sont connectés à ceux d’une autre couche. C’est cette superposition de couches qui explique le terme d’apprentissage « profond ». AlphaGo de Google-DeepMind lui doit sa victoire sur l’un des champions mondiaux de Go, un jeu de stratégie jugé pourtant trop complexe pour être assimilé par une machine. Il y aurait plus de possibilités au jeu de Go que d’atomes observables dans […]

IA, Machine Learning, Deep Learning… De ...



Temps de lecture : 4 minutes Par la Rédaction ORSYS Après le secteur public, les entreprises privées se convertissent à l’Open Source. Si le coût est un des facteurs de passage à l’acte, elles recherchent aussi la capacité d’innovation apportée par les solutions du libre. La France, championne d’Europe du monde libre ? Selon l’étude 2017-2022 du Conseil National du Logiciel Libre (CNLL), réalisée par PAC-CXP, la part de l’Open Source dans le marché global de l’IT s’élève à 9,9 %, devant le Royaume Uni (6,5 %) et l’Allemagne (6,4 %). Ainsi, le chiffre d’affaires du secteur du libre a atteint 4,426 milliards d’euros en 2017, en hausse de 8 %. Avec, à la clé, la création de 4 000 emplois nets. Intelligence Artificielle, blockchain, Internet des Objets, robotique… L’Open Source est, de fait, derrière tous les buzzwords du moment. Pas de Big Data sans Open Source ! Du monde informatique au grand public L’époque semble révolue où les pionniers du libre se trouvaient essentiellement dans la fonction publique avec la Gendarmerie Nationale, les Impôts ou le ministère de La Défense comme porte-étendards. Les administrations, les ministères, les collectivités locales se convertissaient à l’Open Source essentiellement pour des raisons financières et de souveraineté. Ils ont été depuis rejoints par les entreprises du privé. Pour assurer son passage dans le Cloud, la Société Générale a fait de « l’Open Source first » son mot d’ordre. Ingénieur pédagogique chez ORSYS, Serge Gueguen note que la culture de l’Open Source a quitté le monde des informaticiens pour se diffuser auprès de Monsieur tout le monde. « La nouvelle génération est moins perturbée par des interfaces homme-machine différentes. Dès le collège, les élèves utilisent des machines sous Linux et les suites bureautiques Open Office et LibreOffice. Ce sont à peu près les mêmes icônes à peu près aux mêmes endroits. L’appréhension est plutôt d’ordre psychologique. » Ouverture des frontières ? Par ailleurs, les frontières se dissipent entre les mondes du libre et du propriétaire. « Avant, les « barbus » s’opposaient aux « Windows », des personnes qu’ils considéraient obtuses et fermées, et vice-versa », poursuit Serge Gueguen. « Ces mondes ne sont plus aussi étanches, il y a des passerelles. Dans la salle serveurs d’un grand compte, la moitié des machines sont sous Linux, l’autre sous Windows. Cette convergence est à l’œuvre dans le domaine de la sécurité. Les attaques et les parades sont étudiées sous Linux puis on passe à Windows pour les tests et la production. » À chaque solution, une alternative Open Source Le symbole le plus marquant de cette évolution vient de Microsoft lui-même. Alors que la firme de Redmond faisait figure de repoussoir pour les gourous du libre, l’éditeur américain a ainsi fait un revirement spectaculaire en faveur de l’Open Source. Son ex-PDG, Steve Ballmer, avait comparé Linux à un cancer tandis que son successeur, Satya Nadella, a pris une position diamétralement opposée. Microsoft a ainsi décidé de porter son outil d’automatisation PowerShell sur les plateformes Linux et macOS, réunissant les deux populations d’administrateurs. L’Open Source se retrouve à toutes les strates du numérique. Dans le monde du […]

La culture de l’Open Source se ...


Quantified Self - objets connectés - IoT
Temps de lecture : 4 minutes Alors que les objets connectés se multiplient dans tous les domaines, les « quantified self » soulèvent de nouvelles interrogations. Quel statut juridique appliquer à des outils d’auto-mesure lorsque l’utilisateur partage lui-même ses données personnelles ? Sur le papier, les « quantified self » (ou « la quantification de soi ») ont tout pour nous séduire. À mi-chemin entre les dispositifs de santé et le gadget, ces objets connectés équipés de capteurs permettent à tout un chacun d’améliorer son bien-être ou d’optimiser ses performances en recueillant et en analysant des informations sur son propre corps. D’ailleurs, vous en utilisez peut-être vous-même. Que ce soit un bracelet connecté pour effectuer le suivi de votre activité physique, une montre GPS pour le running, le podomètre sur votre Smartphone ou, pourquoi pas, un thermos qui compte les calories que vous ingurgitez ! Aujourd’hui, il existe concrètement assez d’objets connectés pour mesurer chaque aspect de son corps, surveiller son évolution à l’aide de tableaux de statistiques et de diagrammes esthétiques, et de partager le tout en ligne. Et c’est là que le bât blesse. Car ces informations sont des données personnelles d’un genre nouveau, qui ont légèrement tendance à flouter les frontières du domaine juridique. Objets connectés, santé et « données personnelles » Le problème n’est pas tant que l’on touche à la santé. Si l’IoT (Internet des objets) ne cesse de révolutionner le secteur médical, celui-ci a au moins l’avantage d’être juridiquement encadré. Les problématiques autour de l’utilisation des données personnelles des patients sont toujours d’actualité, mais les craintes portent surtout sur la sécurisation du stockage des données sensibles. Invisible ou non, l’ennemi est connu : le pirate informatique.  Mais vaste est le monde des « quantified self », et l’on fera la distinction entre les dispositifs médicaux et les objets connectés à destination de l’amélioration du bien-être. Les premiers, par exemple, bénéficient du marquage CE qui implique une conformité aux exigences applicables en Europe, telles que définies dans la directive Européenne 93/42/CEE (et donc d’avoir passé des procédures d’évaluation). Bien-être et objets connectés Les objets connectés permettant d’améliorer son bien-être ne relèvent pas du domaine médical. On parle, après tout, d’outils d’auto-mesure : il n’y a plus de relation professionnel de la santé/patient, et ce dernier est le seul garant de son secret médical. Selon Catherine Chabert, avocate au barreau de Lyon spécialisée dans le droit des nouvelles technologies, les individus « collectent eux-mêmes leurs données personnelles dans une démarche de bien-être et les diffusent sur le réseau dans un but de contrôle et/ou de comparaison sans forcément connaître les modes de sécurisation dont ils bénéficient ou non ». Or, si elles peuvent paraître anodines, les données relatives à la santé et/ou l’état physiologique d’une personne sont des données sensibles. « Examinées isolément », explique Thomas Roche, avocat associé du cabinet Delsol Avocats, « les indications portant, par exemple, sur le rythme cardiaque, les calories consommées ou les phases de sommeil, ne semblent pas présenter de valeur réelle ni de dangers immédiats. Mais des interconnexions et des rapprochements peuvent intervenir dans le traitement des données, de façon à fournir un […]

« Quantified self » : les ...


Analyse forensique - ORSYS
Temps de lecture : 5 minutes Dans un contexte où les cyberattaques deviennent la norme, la « résistance » s’organise sous la forme de différentes prestations en sécurité. Parmi celles-ci, encore méconnue en France, s’impose pourtant l’analyse forensique, outil de prédilection de l’enquêteur informatique. Stéphane Reytan*, expert en cybersécurité et formateur ORSYS, a accepté de répondre à nos questions pour nous faire découvrir les réalités d’un métier. Quelle est la différence entre investigation numérique et analyse forensique ? L’analyse forensique fait référence à quelque chose de très technique. Tout administrateur est amené à faire de l’analyse forensique. La plupart du temps, cela revient à détecter comment un virus s’est infiltré ou comment des documents sont sortis de la société. (…) Les clients ont besoin de comprendre d’où est venue l’infection pour être capable de la cloisonner, d’améliorer sa sécurité pour éviter que ça se reproduise et, bien sûr, de s’assurer qu’il n’y a pas eu de propagation au reste du système informatique. Et [une attaque] ne va pas nécessairement déclencher un dépôt de plainte. L’investigation numérique fait quant à elle référence de façon globale aux enquêtes, et surtout aux enquêtes policières. Même si ce sont des sujets qui sont assez connexes, il y a quand même des nuances. Si le but est également d’améliorer sa sécurité, quelles sont les différences avec le pentest ? C’est totalement différent. Le pentester se fait passer pour un attaquant pour effectuer un test d’intrusion. Par exemple, le client va lui donner un périmètre très réduit, comme un site Web, et il va simuler une attaque sur ce site. C’est une prestation spectaculaire, qui permet souvent de valider de façon très fiable un niveau de sécurité sur un périmètre très réduit. Alors que dans le cas de l’analyse forensique, une attaque a réussi et on essaie de comprendre par où est passé l’attaquant, ce qu’il a fait, ce qu’il cherchait, quelles étaient ses motivations, est-ce qu’il est toujours là, et quelles sont les techniques qu’il a utilisées. En résumé, le forensique, c’est un peu Les experts à Miami… C’est la collecte des traces et une tentative de reconstitution d’une attaque. (…) L’objectif est-il de faire un recours en justice ? Oui, et non. Dans l’immense majorité des cas, il n’y a pas de suites judiciaires. Si vous avez été victime d’un virus, vers qui allez-vous vous tourner ? On va peut-être déposer une plainte pour des questions d’assurance, mais le forensique va surtout vous aider à comprendre par où c’est arrivé pour éviter que cela se reproduise. (…) Le forensique est, par définition, une analyse des traces numériques. Même si, parfois, il n’y a pas de traces. Par exemple, encore récemment, chez des clients, des serveurs ont été entièrement infectés… Les serveurs ont été éteints, mais il est maintenant impossible de les redémarrer parce que le disque dur est complètement détruit. C’est donc assez compliqué après de retrouver par où et comment ils se sont fait hacker. Quelles sont les techniques principales d’un enquêteur pour retrouver ces traces numériques ? Il y a des procédures de respect […]

L’analyse forensique : enquêtes spéciales [interview]



IoT - Objets connectés
Temps de lecture : 4 minutes Par la Rédaction ORSYS Mal sécurisés tout en étant reliés à Internet, les objets connectés offrent un vecteur d’attaque idéal pour les pirates. Leur multiplication fait peser des risques lourds pour les particuliers comme pour les industriels. Les malwares, parcours d’une menace annoncée Mirai revient. Ce malware qui permet de créer des réseaux d’objets connectés zombies afin d’opérer des attaques en déni de service (DDoS) prend le contrôle désormais, selon Bleeping Computer, de téléviseurs après avoir jeté son dévolu sur des caméras sous IP, des modems et autres routeurs. Mirai s’est fait connaître à l’automne 2016 quand il a fait tomber Netflix, Spotify, Twitter ou PayPal en s’attaquant à leur fournisseur de DNS, l’américain Dyn. À la même époque, l’hébergeur français OVH a lui aussi été paralysé – et certains de ses clients avec, sous l’afflux de millions de requêtes. Depuis, les variantes de Mirai se sont multipliées. En soi, le principe du botnet n’est pas nouveau. L’idée de créer un réseau d’ordinateurs malveillant est née avec le Web. Ce qui change avec les objets connectés, c’est la surface d’attaque. Montres, bracelets, thermostats, caméras, ampoules et enceintes connectées… 11,2 milliards d’objets connectés sévissaient dans le monde en 2017, selon Idate. Ils devraient être 35 milliards en 2030. Pour l’heure essentiellement orientés grand public, ces objets connectés ont pour particularité d’être faiblement sécurisés voire pas protégés du tout alors que certains disposent d’une bande passante de plusieurs dizaines de Mbps. Et quand ils ont un mot de passe, c’est souvent celui entré par défaut de type « admin » ou « 1234 » ! Les protocoles de communication sans fil de type Bluetooth sont également pointés du doigt. L’attaque en déni de service n’est pas le seul risque identifié. Selon le principe du cryptomining, des objets connectés compromis peuvent être utilisés pour miner des crypto-monnaies. Beaucoup plus préjudiciable, des pirates ont réussi à s’introduire au cœur des foyers en se connectant à distance à des caméras domestiques ou à des enceintes connectées voire à accéder à des données de santé via des bracelets ou des montres. Sécurisation des objets connectés : quelques conseils Quelques conseils de bon sens peuvent être donnés. S’il est impossible de mettre un antivirus derrière chaque objet connecté, il est conseillé de passer par un réseau WiFi chiffré, d’opter pour un mot de passe robuste et d’activer, quand elle existe, l’option de mise à jour automatique. Particulièrement intrusifs, les enceintes connectées doivent faire l’objet de précautions spécifiques, surtout si elles sont utilisées pour acheter en ligne. Dans un livre blanc, Symantec conseille notamment de mettre l’appareil en mode « mute » (muet) quand il n’est pas utilisé. Autre éditeur spécialisé, Trend Micro fait, lui, le tour de la maison intelligente qui livre aussi des risques de sécurité physique avec ses volets roulants et ses serrures intelligentes. Avec les premières attaques médiatisées, on note une prise de conscience des risques encourus. Selon une étude réalisée par OpinionWay pour l’Internet Society, 76% des Français estiment que les objets connectés […]

Les objets connectés, maillons faibles de ...


Temps de lecture : 3 minutes Deux ans après avoir placé PowerShell en open source, Microsoft rend son célèbre outil en ligne de commande disponible sur les plateformes Linux et macOS. De quoi le rendre incontournable. Microsoft poursuit sa politique d’ouverture de PowerShell, son outil en ligne de commande sous Windows et interpréteur de langage de scripts. Sous l’impulsion de son PDG actuel, Satya Nadella, à l’origine d’un changement de cap en faveur de l’Open Source, la firme de Redmond a d’abord passé PowerShell sous licence libre, il y a deux ans. En janvier 2018, Microsoft faisait un pas supplémentaire en sortant la version 6.0 de PowerShell Core. Elle a pour principal atout de rendre PowerShell Core multiplateforme. L’outil est compatible avec, bien entendu, les environnements Windows mais aussi macOS et Linux. Un seul jeu de scripts pour toutes les machines Consultant informatique et formateur chez ORSYS, Thierry Thaureaux* salue cette avancée. « À terme, cela permettra à un administrateur qui dispose d’un parc hétérogène d’écrire un seul jeu de scripts pour faire de la récupération d’informations ou de la gestion de configuration. Il est, en effet, rare qu’un parc soit 100 % Windows. Il y a toujours quelques Mac ou des machines sous Linux. » Alors que l’ancien Shell Windows faisait pâle figure face au Bash – son équivalent chez Linux -, PowerShell devient une plateforme de configuration et d’automatisation puissante. Elle se développe grâce à son langage orienté objet et sa bibliothèque de codes issue du framework .Net, lui aussi mis pour partie en open source. « Plus puissante mais aussi plus difficile à appréhender », nuance Thierry Thaureaux. « Avec PowerShell, Microsoft a non seulement fait un couteau suisse mais il en a donné les clés, laissant la possibilité de le démonter et de le remonter, poursuit l’expert. PowerShell ne remplacera pas systématiquement Bash mais Microsoft a l’intelligence de le proposer en parallèle. » Un potentiel encore méconnu Le marché a suivi cet effort d’ouverture de Microsoft. Plusieurs distributions Linux ont accepté de jouer le jeu dont Ubuntu, Debian, Red Hat, openSUSE mais aussi Arch Linux, l’outil de test de détection d’intrusion Kali Linux ou Raspbian, le système d’exploitation de Raspberry Pi. « Pour séduire leurs communautés, Microsoft a dû montrer patte blanche, estime Thierry Thaureaux. Les autres éditeurs vont suivre. » Poursuivant son entreprise de séduction, Microsoft a rendu disponible, le 20 juillet dernier, PowerShell Core sous Linux en tant que paquet « snap ». L’ouverture concerne également les éditeurs tiers du monde Windows (et à l’avenir de Linux). Ils peuvent écrire des « commandlets » pour PowerShell dédiés spécifiquement à leurs logiciels. Les spécialistes de la sécurité, de la virtualisation et de la messagerie GroupWare se montrent notamment intéressés par ces possibilités d’intégration comme VMware, Citrix, Symantec ou McAfee. Mais tout cela pourquoi ? Disponible en natif depuis Windows 7 et Windows Server 2008 R2, PowerShell simplifie la vie des administrateurs et des développeurs même si le potentiel de l’outil est parfois méconnu par les principaux intéressés. « Ses possibilités sont quasiment infinies, observe Thierry Thaureaux. PowerShell peut être utilisé pour des opérations […]

PowerShell, le couteau suisse de Microsoft


RGPD - sécurisation des données - ORSYS
Temps de lecture : 2 minutes Avec la démocratisation d’Internet en son usage universel par tous, les cyberattaques se font de plus en plus importantes. Ainsi, toutes les entreprises se doivent d’être vigilantes dans la mesure où elles stockent des informations les concernant mais également celles de leurs clients ou de leurs employés. Les cyberattaques concernent aussi les PMEs, il est donc vital pour elles de comprendre que la sécurité informatique dépend de plusieurs bonnes pratiques : d’une réglementation appliquée à la sensibilisation des employés aux risques, il en va de la confiance des clients et donc de la capacité de vente du commercial.    24% des consommateurs se sentent en sécurité pour faire leurs achats sur Internet !* Le risque cyber est aujourd’hui très important. Il est régulièrement mis en avant et présenté comme la première menace qui pèse sur les entreprises, grandes et moins grandes. Parce qu’elles gèrent toutes des données, internes et/ou externes, il est primordial pour elles d’adopter des bonnes pratiques qui aident à se prémunir d’éventuelles cyberattaques. Une sécurité renforcée et une éthique irréprochable sont des gages de confiance pour les clients. *étude ORSYS

Sécurisation des données : les bonnes ...



Pentester et cybersécurité - ORSYS 1
Temps de lecture : 3 minutes Par la rédaction ORSYS Face à la multiplication des attaques, les entreprises font de plus en plus appel à des experts en cybersécurité un peu particuliers, les pentesters. Portrait de ces hackers qui ne sont pas passés du côté obscur de la Force…  En 2018, les cyberattaques ne cessent de se multiplier. On se souvient par exemple de WannaCry, ou même de PetrWrap, deux attaques de grande ampleur qui ont paralysé de nombreuses entreprises et institutions. Aujourd’hui, les spécialistes de la cybersécurité ne sont pas plus optimistes : les pirates informatiques savent exploiter les failles des systèmes de sécurité des plus grandes entreprises, et ne manqueront probablement pas de créativité cette année non plus. Or, depuis l’entrée en vigueur du RGPD le 25 mai 2018, la sécurité des données personnelles n’est plus une simple recommandation. PME comme multinationales sont tenues de se parer à d’éventuelles cyberattaques. Toutes doivent avoir recours à des experts en cybersécurité. Et quoi de mieux qu’un hacker éthique, plus communément appelé « pentester », pour lutter contre les hackers ? Qu’est-ce que le hacking éthique ? Entre le phishing, les ransomwares ou l’utilisation de botnets, les techniques d’intrusion ne manquent pas. Afin de les contrer, c’est donc tout naturellement que les entreprises font appel à des experts en intrusion, c’est-à-dire… Des hackers. À la différence que ceux-ci ont une éthique plus développée, et qu’ils signent un contrat bien ficelé comportant une clause de confidentialité. Si on les appelle « hackers éthiques » ou même « white hats » (chapeaux blancs) dans le milieu, on parle plutôt de « pentesters » dans le monde professionnel. De « pentest », un néologisme anglais né de l’expression penetration test et qui signifie « test de pénétration/d’intrusion ». Spécialistes de la cybersécurité, ces white hats ont pour mission de s’infiltrer dans les systèmes de sécurité dans le but d’en trouver les failles avant les black hats – qui, eux, sont des hackers sans foi ni loi. Le pentester peut ainsi être vu comme un consultant en cybersécurité. À la différence qu’il réalise son audit à partir de techniques de piratage informatique… Pour le compte de l’entreprise qui l’emploie. La pratique du pentest S’il existe de nombreuses manières de sécuriser un système informatique, le pentest est considéré comme un outil de référence. Il s’agit d’une tentative d’intrusion volontaire sur un réseau (application mobile, back end de site Web…) ou un équipement afin d’en évaluer le niveau de sécurité. Et, si cela s’avère nécessaire, de le consolider. Pour ce faire, le pentester se glisse dans la peau d’un hacker aux intentions beaucoup moins louables. Il a pour but d’accéder aux données potentiellement confidentielles de l’entreprise par tous les moyens possibles. Lourde responsabilité, donc, que celle qui incombe au pentester mettant son nez dans des données sensibles : s’il ne trouve pas la faille, ne restitue pas un rapport précis des vulnérabilités du système… D’autres risqueront de les trouver à sa place. La finalité de sa mission est de fournir des recommandations de sécurité à l’entreprise concernée, voire de sensibiliser le personnel. Car il peut tout aussi bien […]

Le pentester, hacker éthique au service ...


Pollution Numérique - ORSYS 1
Temps de lecture : 4 minutes Par la rédaction ORSYS Le saviez-vous ? Le numérique pollue. De vos milliers d’emails  jamais supprimés aux énergivores data centers, l’empreinte carbone du numérique n’a jamais été aussi élevée. Dans ce contexte, les alternatives écologiques de la « Green Tech » peuvent-elles changer nos usages ? Nous vivons une époque formidable. Quand, à l’époque de L’Auberge Espagnole, partir en Erasmus à Barcelone était synonyme d’exil, nous communiquons aujourd’hui pendant des heures à chaque coin de la planète grâce à Skype, WhatsApp ou Messenger. Nous stockons toutes nos vies en photos dans le Cloud, regardons nos émissions en replay… Et tous nos appareils, de la TV au Smartphone en passant par la montre, sont connectés. Bref. Le numérique a changé nos vies, semble-t-il, pour le meilleur. Et pourtant – car il y a un « Et pourtant » –, il est en passe de polluer autant que le secteur de l’aviation civile. Aïe. On ne l’avait pas vue venir, celle-ci. Il est d’ailleurs suggéré que c’est parce qu’elle ne se voit pas que le grand public n’en mesure pas l’impact. Mais la pollution numérique est une réalité : le secteur numérique représente aujourd’hui près de 4% des émissions de gaz à effet de serre (GES) au niveau mondial. La pollution numérique, un enjeu écologique majeur… et méconnu Comment sensibiliser la population à une forme de pollution massive, mais invisible ? Il est moins difficile de voir le problème avec une usine qui déverse ses déchets toxiques dans les rivières, que de se représenter à quel point une boîte de spams consomme de l’énergie. Car pour chaque donnée conservée ou recherchée sur Google, ce sont des milliards de données qui font tourner les data centers (centres de stockage de données) à plein régime. Héberger et traiter ces données nécessite une grande consommation d’énergie. Sans compter qu’un serveur dégage de la chaleur et qu’il faut donc le refroidir. Alors imaginez une salle de serveurs, entre surchauffe et climatisation 24h/24. Le volume, déjà considérable, de toutes ces données (ce que l’on appelle le Big Data) ne cesse d’augmenter. Ainsi, l’activité de nos Smartphones, ordinateurs, objets connectés et des data centers et réseaux représente près de 10% de la consommation mondiale d’électricité. Cependant, la pollution numérique ne concerne pas que les usages en ligne. On distingue un aspect matériel qui vient tout aussi bien aggraver l’empreinte carbone du numérique : la fabrication des matériaux informatiques. Nos objets du quotidien nécessitent une quantité astronomique de matériaux polluants, parfois rares. Des ressources naturelles non renouvelables qui sont extraites et traitées de façon tout aussi peu éthique. Une information qui fait d’autant plus grincer des dents quand on pense à l’obsolescence programmée. La Green Tech : entre révolution numérique et transition écologique Contre cette pollution, des solutions existent – ou, du moins, commencent à devenir une préoccupation au niveau mondial. Car si nous avons tous, en tant qu’individus, notre part de responsabilité dans nos usages numériques, c’est à l’échelle des entreprises que se feront potentiellement les plus gros changements. C’est pourquoi l’on parle de « Green Tech » (aussi appelée […]

La Green Tech est-elle la réponse ...


Voiture Autonome - ORSYS
Temps de lecture : 3 minutes Par la rédaction ORSYS Un automobiliste français passe en moyenne plus de trois ans et neuf mois de sa vie dans une voiture ! Libéré de la conduite, que fera-t-il de tout ce temps dans le futur véhicule autonome ? L’industrie des médias et du divertissement tout comme les GAFA ont déjà tout prévu. Nous aurons peut-être bientôt la nostalgie de ces départs en vacances de notre enfance. Entassés dans la voiture familiale, nous regardions défiler le paysage à travers la vitre. L’ennui pointait rapidement son nez et le conducteur ne pouvait échapper à la fatidique question : c’est encore loin, la mer ? Demain, avec la voiture autonome, tous les occupants de l’habitacle seront potentiellement des passagers, donc passifs. Il faudra alors nous occuper car le temps risque de paraître long. Selon une étude de Citroën publiée en 2017, un automobiliste français passe en moyenne 33 243 heures dans une voiture au cours de sa vie, soit plus de trois ans et neuf mois ! Cette perspective n’est pas si lointaine puisque Renault et PSA commercialiseront leur voiture sans chauffeur en 2020 et, déjà, des constructeurs comme Tesla proposent un pilotage automatique dans certaines conditions de conduite. En attendant, les acteurs économiques se positionnent pour occuper ce temps retrouvé. Les géants de l’agro-alimentaire se réjouissent déjà puisque, les mains libres, nous devrions davantage grignoter et boire. Fini le dilemme « boire ou conduire, il faut choisir », Morgan Stanley prévoit 98 milliards de dollars de revenus supplémentaires pour l’industrie de l’alcool (source CNBC). Un salon spacieux et multimédia Plus sérieusement, c’est l’industrie des médias et du divertissement qui devrait être le principal bénéficiaire de la voiture autonome. Transformé en salon confortable et spacieux, l’habitacle sera doté d’écrans et enceintes connectés permettant aux passagers de s’informer, regarder des vidéos, écouter de la musique ou jouer aux jeux vidéo. Avec leurs systèmes d’exploitation CarPlay et Android Auto, Apple et Google proposent déjà de dupliquer les contenus de nos Smartphones sur le tableau de bord. Nul doute que les GAFA embarqueront à bord leurs assistants intelligents, qu’ils s’appellent Alexa ou OK Google ! La voiture autonome passera à une autre échelle en termes de services d’« infotainment » (divertissement, actualités, info trafic…). La 5G qui se généralisera en même temps apportera le très haut débit mobile et une réduction du temps de latence. De quoi concrétiser les espoirs placés dans la réalité virtuelle et la réalité augmentée. D’autant que les futurs réseaux télécoms auront aussi pour autre atout de « suivre » les objets connectés en mouvement comme les drones ou, donc, les voitures autonomes. Des sièges à l’écoute des passagers Les recherches actuelles portent aussi sur le confort des passagers. Avec leurs programmes respectifs « Smart Cocoon » et « Active Wellness », les équipementiers français Valeo et Faurecia imaginent le siège du futur bardé de capteurs pour évaluer l’état physiologique de son occupant – sa température corporelle, sa pression sanguine, sa posture… – et lui proposer une expérience sur mesure. À partir de là, un siège intelligent peut évaluer le […]

Que ferons-nous dans la voiture autonome ...



1
Temps de lecture : 4 minutes Le robot, un concentré d’Intelligence Artificielle Pour interagir avec l’homme, un robot humanoïde fait appel à tout ce que peut offrir l’IA pour se doter de la parole, de la vue, de l’ouïe et du toucher. Un concentré d’intelligence qui fait appel à de nombreuses expertises. L’Intelligence Artificielle est le grand sujet de discussion du moment, y compris dans le grand public. Il soulève des débats tant techniques que sociologiques ou éthiques. Pour autant, il est toutefois difficile de lui donner une représentation. Dans les médias, l’IA prend souvent la forme de robots humanoïdes comme les fameux Nao et Pepper de SoftBank Robotics. Pour ressentir les émotions humaines et adapter son comportement à l’humeur de son interlocuteur, ce type de robot réunit un concentré de tout ce que peut offrir l’IA. Les technologies de reconnaissance faciale et de formes, de compréhension du langage, de reconnaissance et de synthèse vocales lui permettent de le doter de la parole, de la vue, de l’ouïe et du toucher. La robotique fait appel à un grand nombre de domaines d’expertise Pour Cédric Vasseur, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS, « la robotique permet à l’IA de se frotter aux réalités du terrain. On sort de la théorie pour rentrer dans le concret. Est-ce que le robot accomplit correctement sa tâche ? Le feed-back est immédiat. » Pour arriver à embarquer cette intelligence dans un environnement contraint, la robotique fait appel à un grand nombre de domaines d’expertise. La conception du robot puis sa programmation supposent notamment des connaissances en électronique, en mécanique et en informatique embarquée. « Savoir à la fois souder des mini-composants et concevoir une IA est très rare. Un diplômé en électronique va se former à l’IA ou inversement un data scientist va se roder à la mécatronique. » Cette exigence explique, pour partie, le manque de vocations chez les jeunes diplômés et la pénurie de spécialistes, notamment en robotique industrielle. Le robot doit ressembler à l’homme mais pas trop Les progrès de la robotique ne sont toutefois pas aussi spectaculaires que le laissent imaginer certaines vidéos de Boston Dynamics comme celle-ci où l’on voit un robot courir, gravir une pente, sauter un obstacle. « Ces vidéos ne nous montrent que les fois où le robot a réussi, tempère Cédric Vasseur. Une telle prouesse suppose que le robot s’adapte au contexte en analysant son environnement puis en simulant le déplacement avant de passer à l’action. Nous n’en sommes pas encore là. » En revanche, un robot est capable de trier des objets, détecter des anomalies. « Par facilité, nous nous représentons mentalement un robot anthropomorphique mais il n’a pas forcément besoin de bras ou de jambes. Il peut se déplacer plus facilement avec un système de chenilles. Le projet Asimo de Honda vient d’être arrêté. Bardé de capteurs, il ne fonctionnait plus s’il y avait un problème d’éclairage. » Rendre le robot le plus humain possible ? Peut-être pas… Rendre le robot le plus humain possible peut créer un sentiment de malaise, à l’image du japonais […]

Projet IA 3/3 : quels progrès ...


Temps de lecture : 4 minutes Avant toute chose, il faut comprendre la révolution (relativement) douce qui s’est produite en 20 à 25 ans, avec le passage de la vidéo analogique à la vidéo numérique. Et par vidéo numérique, on entend toute la chaîne de production : de la captation au montage, en passant par la diffusion, sans oublier la viralité liée aux réseaux sociaux. Visionnez la vidéo de notre expert Comprendre Pour être précis, la vidéo numérique a trois avantages majeurs : Le passage de l’enregistrement sur bande magnétique à l’enregistrement numérique sur ordinateur. Même si l’enregistrement numérique s’est fait un temps sur bandes magnétiques (cf. K7 DV et mini-DV), aujourd’hui, qu’on utilise un smartphone, un appareil photo ou un caméscope, les vidéos sont enregistrées en mémoire et transférées sur PC/MacBook pour le montage. Quand on ne les publie pas directement sur YouTube ou sur ses réseaux sociaux. Sans vous raconter comment nous faisions des montages avec la vidéo analogique, sachez que le montage de vidéos numériques sur PC, voire avec Smartphone, est 100 fois plus simple et 100 fois moins coûteuse qu’à l’époque de la vidéo analogique. La diffusion se fait à l’échelle planétaire, voire instantanément en haute définition. Et n’oublions pas le partage des vidéos, que nous en soyons producteurs ou simplement consommateurs, via les réseaux sociaux. Une révolution en deux temps La révolution de la vidéo numérique s’est faite en deux temps. Dans un premier temps, le passage technologique de l’analogique au numérique sur l’ensemble de la chaîne de vidéo production : captation-enregistrement, stockage, montage et diffusion sur les portails type YouTube ou Vimeo. Ensuite, point très important, l’arrivée de l’iPhone en 2007 a été l’élément déterminant qui a démocratisé la photo-vidéo. Elle est aujourd’hui une application de base dans les Smartphones. Les fabricants d’appareils photos grand public en ont sérieusement souffert depuis 2011. La courbe STATISTA : Les bons réflexes Que l’on soit utilisateur d’un iPhone, d’un Smartphone sous Android (Samsung, LG, Huawei, etc.) ou autre, et au-delà des différentes versions de ses équipements, on a tous un caméscope dans la poche. Le premier réflexe à avoir est de savoir dégainer son Smartphone au moment où il y a un événement à filmer. Nous avons tous aujourd’hui le réflexe de faire des photos pour tout et n’importe quoi, mais beaucoup moins de faire des vidéos. Exemple de vidéo faite au débotté avec mon iPhone… Mieux placé que BFM et TF1 ? Deuxième réflexe : choisir de filmer en vertical ou en horizontal. Les utilisateurs Snapchat et Instagram privilégieront pour la majorité la verticalité. Les utilisateurs un tantinet cinéphiles privilégieront l’horizontalité, notamment parce qu’ils regarderont leur vidéo à partir de grands écrans 16/9. On n’oubliera pas la question de la stabilité de l’iPhone ou du Smartphone, sachant que dans la très grande majorité des cas les prises de vues se font à main levée. Troisième réflexe : la diffusion aux bonnes cibles, via « les bons vecteurs ». I.e. : YouTube, Vimeo, Facebook, Instagram, LinkedIn, Twitter, WhatsApp, etc. Les mauvais réflexes Pour « apprécier » les défauts courants des vidéos amateures, […]

Faire ses vidéos professionnelles avec son ...


Temps de lecture : 4 minutes Projet IA – Episode 2 L’essor de l’Intelligence Artificielle (IA) est une formidable opportunité pour libérer l’Homme des tâches les plus ingrates. Plus que concurrencer l’intelligence humaine, l’IA la complète et la nourrit. Depuis quelques années, nombre d’études et d’articles dépeignent un avenir sombre. L’essor de l’Intelligence Artificielle et de la robotisation aurait alors un impact négatif sur un grand nombre de métiers. De 9 % à 47 % des emplois actuels seraient concernés par la transformation numérique en cours si l’on prend en compte le constat du cabinet Roland Berger, de l’Université d’Oxford, de l’OCDE ou plus récemment du Conseil d’orientation pour l’emploi. Cette appréhension de se faire remplacer par la machine n’est pas nouvelle. Elle existe en effet de tout temps, rappelle Cédric Vasseur*, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS. « Les lavandières ont été remplacées par la machine à laver. Néanmoins aujourd’hui, qui est prêt à revenir en arrière et à abandonner son lave-linge ? ». Selon la célèbre théorie de la « destruction créatrice » de Joseph Schumpeter, chaque cycle d’innovation commence par détruire des emplois puis contribue à en créer plus qu’elle n’en supprime. « Le personnel des Postes n’aurait pas existé sans l’invention du téléphone », illustre Cédric Vasseur. Une révolution comparable à la machine à vapeur Pour McKinsey, l’Intelligence Artificielle devrait doper la croissance mondiale de 1,2% par an en moyenne jusqu’en 2030. Selon le cabinet d’études, nous vivons là un phénomène de rupture de même ampleur que la machine à vapeur au XIXème siècle. Et comme à chaque révolution technologique, des métiers sont appelés à se transformer, d’autres à disparaître. Un site en anglais indique sous forme de pourcentage les risques qu’a votre métier de se faire « uberiser ». Une forme de logique est respectée. Les personnes exécutant des tâches répétitives – manutentionnaire, caissier/ère, standardiste… – présentent davantage de risques de se faire remplacer. À l’inverse, les métiers au plus proche de l’humain, faisant appel au relationnel et à la créativité, devraient être épargnés. On pense aux médecins, aux psychologues, aux aides à domicile, aux artistes. IA et robotique, quelles opportunités ? Pour Cédric Vasseur, l’IA et la robotisation constituent une opportunité unique d’en finir avec la pénibilité de certains métiers. Elle permettrait de libérer l’homme des tâches les plus fastidieuses pour lui donner du temps pour réfléchir, innover, entreprendre. « Les magasiniers d’Amazon gagneraient à être réaffectés sur des postes moins rébarbatifs et plus créatifs. ». Déjà, le métier d’assistant(e) médical(e) a retrouvé de son intérêt depuis la généralisation des services en ligne de prise de rendez-vous. D’autres professions vont changer de nature. « Pour faire face à l’érosion continue du volume du courrier, les postiers assurent des services à la personne, comme veiller sur les personnes âgées ». En revanche, « les analphabètes du numérique » auront, selon lui, du mal à trouver leur place dans la société à venir. On parle ici d’ « illectronisme ». Pour financer les colossaux programmes de formation et de reconversion qu’il faudra consentir, il se dit favorable à des solutions politiques comme la taxe sur les […]

Projet IA 2/3 : avec l’Intelligence ...



cybersécurité - ORSYS
Temps de lecture : 4 minutes Par la Rédaction ORSYS Pour faire face à la multiplication des menaces, les fournisseurs de solutions de sécurité font appel à l’Intelligence Artificielle (IA). Les parades sont aussi organisationnelles et tous les collaborateurs doivent être sensibilisés aux cyber-risques.   Les récentes failles de sécurité chez Facebook et Google montrent qu’aucune organisation n’est à l’abri des pirates informatiques. Si les GAFA, avec leurs ressources infinies aussi bien technologiques que financières, ne peuvent se prémunir des cyber-attaques dont ils font l’objet, on imagine les entreprises lambda autrement plus vulnérables. Selon une étude du Cesin, le club des experts de la sécurité de l’information et du numérique, 92% des sociétés interrogées reconnaissent avoir fait l’objet d’attaques à plusieurs reprises avec une forte augmentation des tentatives d’intrusion en un an. La question n’est plus de savoir si une entreprise subira une attaque mais quand elle se produira. Un rapport, dressé par les instituts européens d’audit interne membres de l’ECIIA, place la cybersécurité en tête des risques qui menacent l’entreprise. Le risque est aussi financier. Entré en vigueur le 25 mai 2018, le RGPD fait aussi de la protection des données sensibles un enjeu d’entreprise avec un niveau de sanction jamais égalé. En cas de violation de données, l’autorité de contrôle – la CNIL en France – peut prononcer des amendes. Elles peuvent aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires global. Et elles retiennent le montant le plus élevé des deux. Les nouveaux risques Les sociétés doivent non seulement faire face à une multiplication des menaces mais aussi à une complexification. Au-delà des « traditionnels » vols d’information, attaques en déni de service et autres défigurations de site Web, sont apparus de nouveaux fléaux. En 2017, les logiciels malveillants WannaCry et NotPetya infectaientt des grands comptes comme Renault, Auchan et Saint-Gobain. Ils ont fait connaître au plus grand nombre le principe du ransomware ou rançongiciel. Les pirates chiffrent un fichier ou une base de données puis exigent une rançon en Bitcoins ou via PayPal pour le déverrouiller. Après avoir démarré sur les serveurs et les postes de travail, les ransomwares s’attaquent aux Smartphones et aux objets connectés. Autre menace qui est montée en puissance ces derniers mois, le cryptomining.  Il consiste à utiliser la puissance de calcul d’ordinateurs ou de serveurs pour effectuer le travail de minage. Travail nécessaire à l’extraction de crypto-monnaies de type Bitcoin. Les machines « chauffent » inutilement, consomment davantage de bande passante et d’électricité et vieillissent prématurément. L’essor de l’Internet des objets expose également les entreprises à de nouveaux risques. Le malware Mirai et ses variantes permettent de constituer des botnets d’objets connectés zombies. Et cela pour lancer des attaques massives en déni de service. Plus largement, tout dispositif contenant un composant numérique est potentiellement « hackable ».  La prise de contrôle à distance d’une voiture connectée l’a montré . La protection de type château fort a vécu Face à ces menaces protéiformes, les antivirus, les anti-malwares et autres pare-feu, reposant sur des bases de signatures connues, montrent […]

La cybersécurité, l’affaire de tous en ...


Temps de lecture : 4 minutes Toute donnée géolocalisable peut potentiellement servir à la prise de décision. S’il est inéluctable, le rapprochement entre les mondes du décisionnel et de la cartographie bute encore sur des obstacles à la fois techniques, culturels et historiques. Dans le monde du décisionnel, le temps est un élément clé. Un dirigeant comparera l’évolution des ventes de sa société sur une année ou entre deux périodes équivalentes. La dimension spatiale n’est, elle, pas suffisamment prise en compte. Formateur ORSYS, consultant BI et SIG chez Bial-R et animateur du blog Decigeo, Antoine Dirat le regrette. « Il faut davantage jouer sur l’espace-temps. Quand je donne une date et un lieu, c’est sans équivoque. Il n’y a pas lieu à interprétation. » Pour notre expert, le rapprochement entre les mondes du décisionnel et du SIG (Système d’Information Géographique) est toutefois inéluctable. « Un géographe fait de l’analyse à 90 % de son temps. Il réduit un territoire pour mieux le comprendre. Le découper en régions, en départements et en communes s’apparente à une méthode décisionnelle ». On fait tous du géodécisionnel ? En utilisant une application cartographique de type Google Maps, tout un chacun fait du géodécisionnel sans le savoir, comme monsieur Jourdain. En réduisant l’échelle de la carte, on réalise une synthèse. Quand on zoome sur un carrefour, on fait de l’analyse. Une station de bus qui indique l’heure d’arrivée du prochain bus participe également à cette tendance au géodécisionnel. Toute donnée localisable est alors susceptible d’être géodécisionnelle. « Quand un directeur commercial découpe un territoire en zones de prospection, il souhaite que ces zones soient homogènes et réservent le même potentiel commercial à chacun de ses vendeurs », poursuit Antoine Dirat. Le SIG, 40 ans d’histoire Cette convergence entre BI et SIG butte toutefois sur des obstacles à la fois techniques, culturels et historiques. Tout d’abord, le SIG est un marché particulièrement mature. Cette branche de l’informatique a émergé très tôt. Dès 1968, au Canada, le géographe Roger Tomlinson générait des statistiques spatiales pour l’occupation du sol. Dans les années 70, des éditeurs commerciaux proposaient cette information géographique statistique pour les agences gouvernementales américaines. Plus tard, dans les années 80, sont apparues les premières applications de traitement des images satellite. Dans les années 2000, c’est un canadien à nouveau, Yvan Bédard de l’université Laval au Québec, qui créé le concept d’« Olap spatial ». Il s’agit d’un cube décisionnel dont l’une des faces se dédie aux données spatiales. Un marché de niche ? Autre point bloquant : les éditeurs de SIG évoluent sur un marché de niche. « Le marché est important mais concerne peu d’organisations », observe Antoine Dirat. « Certaines se sont équipées pour la première fois il y a 30 ou 40 ans, elles ont un existant à maintenir. Ces applications sont parfois critiques, comme le suivi en temps réel des routes pour les services d’évacuation ou la livraison logistique. Les utilisateurs n’ont pas envie de tout révolutionner. » Sur le plan technique, le SIG est intrinsèquement lié aux bases de données relationnelles. C’est même le premier consommateur de SGBDR. Les applications […]

L’inévitable convergence du SI Géographique (SIG) ...


5
Temps de lecture : 3 minutes Mener à bien un projet d’Intelligence Artificielle Méthodologie de gestion de projet, qualité de données, choix de l’algorithme… Cédric Vasseur*, expert en Intelligence Artificielle (IA), donne quelques clés pour mener à bien un projet d’IA. Depuis quelques mois, l’Intelligence Artificielle fait la une des journaux, y compris grand public. L’homme rêve qu’elle soit plus performante qu’elle ne l’est. Selon les articles, les robots vont le libérer des tâches les plus ingrates ou, inversement, prendre son travail et contrôler sa vie. La question de l’éthique des algorithmes se pose et soulève des questions à la fois sociologiques et philosophiques. Mais il convient selon Cédric Vasseur, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS, de relativiser. « Aujourd’hui, l’Intelligence Artificielle ne peut pas tout faire. Elle montre rapidement ses limites. » Pour s’en persuader, il suffit, selon lui, d’utiliser les assistants vocaux d’Amazon ou de Google. « Monolocuteurs, ils fonctionnent par instructions et compréhension de mots-clés. Nous ne sommes pas encore dans le dialogue en langage naturel. » Services « sur étagère » ou développements spécifiques L’époque reste donc à l’évangélisation. En multipliant les démonstrations et les formations, il s’agit de montrer concrètement ce que peut apporter l’IA aux entreprises. Et comme il n’y a rien de mieux que de se frotter directement aux technologies, Cédric Vasseur rappelle qu’il existe des services d’IA disponibles « sur étagère ». « Certaines solutions peuvent être mises en place en quelques minutes voire en une après-midi ». Des outils en ligne comme Chatfuel et Botsify permettent, par exemple, de créer rapidement et sans notions de programmation un chatbot. Un cran plus loin dans l’intégration, les grands noms du Cloud public – Amazon Web Services, Microsoft Azure, Google Cloud Platform – proposent toute une panoplie de services cognitifs. Ils sont prêts à l’emploi dévolus à la traduction automatique, à l’analyse de texte ou à la reconnaissance d’images. Ils se présentent sous forme d’APIs externes. Enfin, pour des solutions « sur mesure » ou pour des raisons de confidentialité (hébergement sur ses propres serveurs), l’entreprise recourra à des développements spécifiques. Ce qui suppose donc de faire appel à une méthodologie de gestion de projet. Et ce, avec les étapes classiques de l’analyse de l’existant, de l’expression du besoin et de la rédaction du cahier des charges. Les spécialistes de l’IA, de type Data Scientists, devront être en communication étroite avec les experts métiers. Ils sont les seuls à même de définir les besoins business attendus. Filtrage bayésien, réseau de neurones, apprentissage par renforcement Sur la question souvent évoquée de la qualité des données, Cédric Vasseur note qu’il n’est plus nécessaire d’avoir des données parfaitement propres comme par le passé. « Dorénavant, les modèles actuels d’IA peuvent, par exemple, comprendre les différentes orthographies approximatives d’un même mot. » Un autre point particulièrement sensible porte sur le choix de l’algorithme. Au-delà de la distinction entre Machine Learning et Deep Learning, mode supervisé ou non supervisé, il existe un très grand nombre d’algorithmes en fonction du problème à résoudre. Le filtrage bayésien permet de séparer les spams des emails. Les […]

Projet IA : comment conduire un ...



SAFe Agilist 1
Temps de lecture : 3 minutes Comment passer d’une équipe Agile Scrum à plusieurs équipes travaillant ensemble à la réalisation d’un produit commun et parfois complexe ? Parce que Scrum n’explique pas comment faire avec plusieurs équipes, une sorte de plafond de verre semble s’être installé laissant la réalisation des projets « sérieux » aux démarches classiques portées par PMP ou PRINCE2®. SAFe adresse ce problème et va au-delà avec une vision Agile de la production de valeur à l’échelle de l’entreprise. Il est devenu un framework incontournable qu’il n’est plus possible d’ignorer. Stéphane Bretonneau* nous en parle : Le lean en plus de l’Agilité Pendant longtemps, les pionniers de l’Agilité ont cantonné les leaders au rôle de « Servant Leader », l’Agilité étant l’affaire de l’équipe. En introduisant la pensée lean, SAFe explique que seuls les leaders ont le pouvoir de transformer l’entreprise pour que l’Agilité à l’échelle soit l’Agilité à l’échelle de l’entreprise. Les apports du lean sont nombreux. Retenons en particulier l’approche qui consiste à rechercher en permanence la production d’un flux continu de valeur. Une qui soit plus appropriée dans certains cas que l’approche projet et son rythme de type « démarrage/arrêt/démarrage/arrêt/… ». Les 9 principes de SAFe sont la colonne vertébrale de la démarche SAFe propose une véritable vision de l’agilité à l’échelle à travers 9 principes. Ils se déclinent ensuite en pratiques concrètes dans le framework. Si les pratiques peuvent s’adapter d’une entreprise à une autre, le respect des principes garantit la cohérence de la démarche. Certains principes sont bien connus comme la démarche itérative et incrémentale tandis que d’autres comme l’approche systémique ou la production continue d’un flux de valeur sont des concepts parfois difficiles à comprendre et mettre en œuvre et SAFe est là pour vous y aider. SAFe est une démarche non universelle mais exclusivement tournée vers la construction de produits technologiques à base de logiciels, logiciels embarqués, hardware, mécanique, électronique… ce qui lui permet d’intégrer des pratiques comme le Lean Startup, le DevOps… Vivre l’expérience de l’Agilité à l’échelle Imaginez plus d’une centaine de personnes réunies pour s’accorder sur un objectif commun qu’elles s’engagent à démontrer en 10 semaines ! C’est ce que vous pourrez vivre dans la simulation proposée dans la formation « préparation à la certification SAFe Agilist ». Vous découvrirez également comment créer des équipes performantes et pluridisciplinaires autour d’objectifs communs. Comment explorer, concevoir et délivrer de la valeur ? Comment réduire le délai entre les premières étapes créatives pour savoir ce qui pourrait plaire à vos clients/utilisateurs et le moment où ces nouveaux produits services sont réellement à disposition de vos clients/utilisateurs ? La proposition de SAFe est d’une rare qualité pour à la fois décrire un processus de production de flux de valeur de bout en bout en sachant y introduire les meilleures pratiques du marché comme le Lean Startup, Lean UX, le DevOps… Comment devenir le leader d’une entreprise Lean et Agile ? Si chacun doit travailler sur soi, dans ses pratiques et ses postures, le leader doit encore plus travailler car il doit mener la transformation et non simplement les affaires courantes, […]

La certification SAFe Agilist : concilier ...


1
Temps de lecture : 4 minutes La frontière est de plus en plus ténue entre la Business Intelligence (BI) et le Big Data. À tort, certains observateurs opposent les deux concepts. Arrivé plus récemment, le Big Data serait appelé à intégrer la « BI » historique. Car, en fait, il faudrait plutôt parler de complémentarité. Business Intelligence et Big Data Comme son nom l’indique, le Big Data permet de traiter de fortes volumétries de données qu’il serait très difficile de gérer à partir de bases de données traditionnelles (SGBDR) conçues pour des données structurées ou semi structurées. Mais il ne suffit pas de manipuler une grande masse de données, il faut en restituer les indicateurs clés. La BI apporte ainsi une aide à la décision aux métiers à l’aide de rapports et de tableaux de bords. « Les entreprises les plus matures sur le sujet fusionnent Business Intelligence et Big Data pour faire, ce qu’on appelle, de la data analytics. On parle désormais de datawarehouse et de datalake », observe Gerardo Gutierrez, ingénieur offre et qualité au sein d’ORSYS. Cette convergence se retrouve dans les formations les plus demandées du catalogue d’ORSYS. Parmi elles, on trouve celles dédiées à Power BI. Le nombre de cours dédiés à la solution logicielle de Microsoft a doublé en l’espace d’un an, la formation la plus suivie étant « Power BI, concevoir des tableaux de bord. » Les formations qui cartonnent Pour Gerardo Gutierrez, « Power BI allie Business Intelligence et data analytics. Autre atout, il traite les données opérationnelles de l’entreprise, comme les données clients, mais aussi celles venant de l’extérieur. »  Power BI bénéficie, par ailleurs, de la puissance de feu de l’écosystème de Microsoft et de son intégration à la suite collaborative Office 365. Enfin, son coût de licence attractif l’a rendu populaire auprès d’organisations de taille modeste. Résultat, Gartner classe Power BI parmi les « leaders » du marché dans son quadrant magique. Autres leaders du benchmark du cabinet d’études, Gerardo Gutierrez cite, dans la même famille, Tableau Software et QlikView. « En renforçant le volet data visualisation, ces outils démocratisent l’accès au décisionnel. Les opérationnels métiers créent eux-mêmes des rapports interactifs et dynamiques depuis leur navigateur Web. On s’éloigne du reporting figé et statique de la BI traditionnelle. » Pour autant, ORSYS continue bien sûr à former aux outils des acteurs historiques de la BI. « Les formations à SAP BusinessObjects restent une valeur sûre. En revanche, celles dédiées à IBM Cognos sont en en baisse », note Gerardo Gutierrez. L’institut de formation prévoit également une formation à la solution Oracle Database 18c, sortie récemment. Nouveaux entrants ou acteurs historiques, les éditeurs multiplient les connecteurs pour s’ouvrir aux différentes sources de données, qu’il s’agisse des SGBDR qui gèrent les données de l’entreprise ou des bases NoSQL qui permettent d’accéder aux données semi structurées ou non structurées. Sans oublier, les réseaux sociaux et l’open data qui constituent des sources importantes de données. Un projet Big Data de A à Z Côté Big Data, le cours le plus suivi est intitulé « Big Data, méthodes et solutions pratiques pour l’analyse des […]

Comment se former aux nouveaux outils ...


2
Temps de lecture : 4 minutes       Par Pascal MUCKENHIRN*, expert ORSYS La valorisation des données devient de plus en plus vitale pour les entreprises. Avec le Big Data et le mode découverte de plus en plus fréquent, les méthodes de l’analyse de données ont profondément évolué depuis quelques années. En industrialisant leurs premiers essais, les entreprises découvrent le besoin de passer à la Data Factory et de comprendre comment la construire. Tout l’enjeu est une intégration cohérente qui assure industrialisation, qualité et sécurisation des données, tout en permettant liberté d’analyse, agilité et saisie d’opportunités.  Un écosystème très riche Depuis quelques années, le « Big Data » fait le buzz : impossible de passer à côté de ce phénomène né des nouveaux usages du Web, de l’explosion des données personnelles et des avancées technologiques dans le calcul distribué et prédictif. Sur le plan technologique, le « Big Data » repose sur un écosystème d’outils très riche. Les entreprises s’en aperçoivent très vite dans leurs premiers essais. D’un côté, il y a profusion d’outils à gérer, une véritable explosion cambrienne.  De l’autre, les métiers rivalisent pour mettre au point le meilleur cas d’usage en testant de multiples modèles dont quelques rescapés aboutiront en production. Par conséquent, le risque est d’engendrer une cacophonie perpétuelle en lieu et place de l’agilité recherchée. Au niveau infra, des entreprises foncent sur le Cloud public type AWS. D’autres s’acharnent sur le maintien de cluster conséquent, voire basculent vers le Cloud privé. En parallèle nous nous sommes tous lancés dans la construction de notre Data Lake, nouvelle pierre angulaire qui ingurgite tous les types de données (structurées ou non) au même endroit. Dans ce marécage, nous surnageons tous en tentant de ne pas nous embourber dans les méandres du Data Lake vaseux. Sans oublier tous les investissements réalisés dans la Business Intelligence pour répondre à l’analytique en mode découverte quelques années auparavant. Réussir l’agilité industrielle Aussi, de leurs premières expériences, les entreprises ont tiré des enseignements dont les principaux sont : la qualité des données influence le résultat des modèles statistiques prédictifs ; la sécurisation est primordiale en particulier pour le respect de la GDPR ; le besoin de prioriser les cas d’usage métier pour optimiser la valeur et le retour sur investissement ; la gestion de l’intégration de la chaîne des nouveaux outils dans un contexte d’industrialisation ; la réactivité ne peut s’abstraire de procédures solides. Mais il existe un équilibre à fonder entre agilité et industrialisation. Les entreprises se rendent compte de la nécessité de construire des process robustes pour assurer cet ensemble. Cela ressemble à la construction d’une usine qui produit en flux tendus des données qui passent dans la chaîne de la valeur, enrichissant un peu plus l’entreprise à chaque étape. Pour la fin de cette décennie, nous aurons tous à élaborer notre Data Factory. Les enjeux de la Data Factory Mais tout ne se résume pas à la construction et à l’aménagement du fameux Data Lake comme jadis pour le Datawarehouse. D’ailleurs sa construction peut s’avérer aussi complexe. Les fondations de notre Data […]

Construire la Data Factory du futur



Temps de lecture : 3 minutes Par Rudi BRUCHEZ* Après trente ans d’existence, SQL Server est devenu un produit très riche. Que nous réserve l’avenir en termes de fonctionnalités et de rythme des mises à jour ? SQL Server, en constante évolution SQL Server, le Système de Gestion de Bases de Données Relationnelles (SGBDR) de Microsoft a maintenant plus de trente ans. C’est en effet en 1988 que Microsoft s’est allié avec Sybase et Ashton-Tate. Et cela pour développer une variante de Sybase pour OS/2. Depuis, et surtout à partir de SQL Server 2005, qui fut une révolution tant pour les fonctionnalités que pour l’architecture interne, Microsoft n’a cessé de renforcer et d’enrichir ce qui est devenu le troisième SGBD selon le classement de popularité de db-engines. Voyons alors quelles ont été les tendances récentes et ce que cela peut augurer pour les versions à venir. Méfiez-vous des nouvelles fonctionnalités Depuis 2005, à cause d’une longue période de développement entre 2000 et 2005, Microsoft a décidé d’un rythme de sortie de deux ans. Il s’y est tenu pendant une décennie : 2008, 2008 R2 en 2010, 2012, 2014 et 2016. Certaines versions ont été plus généreuses que d’autres, et chacune a proposé une ou deux nouveautés phares : AlwaysOn Availability Groups pour SQL Server 2012 In-Memory OLTP pour SQL Server 2014 Query Store pour SQL Server 2016. Ce rythme s’est accéléré l’an dernier, pour une raison spéciale : le port de SQL Server sur Linux, que j’ai déjà évoqué dans cet article. Avec l’expérience, on peut aussi identifier un schéma récurrent. Lorsqu’une nouvelle fonctionnalité, en tout cas lorsqu’elle touche les développeurs, est mise en production, elle l’est dans une sorte de pré-version alléchante mais inachevée. Cela fut le cas de l’indexation ColumnStore en SQL Server 2012. L’indexation de ce type forçait la table en lecture seule. Les équipes de développement de Microsoft n’avaient pas eu le temps de mettre au point un mécanisme de mise à jour suffisamment performant. Même problématique pour les tables In-Memory en SQL Server 2014. De nombreuses limites de syntaxes les rendaient pratiquement inutilisables dans cette première version. Le problème se présente aujourd’hui avec les tables de graphes en SQL Server 2017, où – c’est le comble ! – les algorithmes de traversées de graphes qui fondent ce type de structure, sont absents. La traduction française de la fonctionnalité est même tristement comique : « tables graphiques »… On a vraiment l’impression d’une pré-version passée en production, et on pourrait soupçonner une stratégie de « tâtage de terrain ». Y a-t-il une valeur forte à intégrer cette fonctionnalité dans SQL Server. Ou s’agit-il de remplir une case manquante, pour dire « nous l’avons fait » et pour évaluer ensuite l’intérêt des clients, qui déterminera l’effort déployé ensuite dans l’enrichissement de la fonctionnalité ? Le piège des premières versions En fait, le rythme de sortie de deux ans est un piège. Ainsi poussé à justifier une nouvelle version, Microsoft inclut des fonctionnalités majeures dans une étape de conception intermédiaire. Cela ressemble donc à une forme d’intégration continue directement en production. Mais les temps ont changé depuis […]

Quelles sont les tendances pour SQL ...


4
Temps de lecture : 3 minutes Par la rédaction ORSYS Solution décisionnelle de nouvelle génération, Qlik permet à des opérationnels métiers de créer eux-mêmes leurs tableaux de bord, de façon intuitive. Qlik, une solution décisionnelle Qlik fait partie de ces solutions décisionnelles qui tentent de dépoussiérer l’approche traditionnelle de la Business Intelligence (BI). Dans cette famille dite de la BI en libre-service ou de la BI 2.0, les métiers créent eux-mêmes leurs rapports par simples glisser-déposer. Ainsi, la restitution du jeu de données se fait de la façon la plus simple et la plus visuelle possible. Autonome, le responsable fonctionnel n’a plus à adresser sa demande de reporting à l’expert décisionnel maison qui lui retournera plusieurs jours voire plusieurs semaines après. Cette approche centrée sur l’utilisateur tranche avec les acteurs historiques du marché de la BI que sont les Business Objects, Cognos et Hyperion rachetés respectivement, il y a une dizaine d’années, par SAP, IBM et Oracle. La BI en libre-service Dans son dernier quadrant magique paru fin février, Gartner classe Qlik parmi les leaders du marché de l’analytics et de la Business Intelligence aux côtés de Microsoft et de Tableau Software. Et, le cabinet d’études salue notamment sa simplicité d’utilisation. Créée en 1993 en Suède, Qlik est aujourd’hui une société cotée au Nasdaq. Basé aux Etats-Unis, à Radnor (Pennsylvanie), l’éditeur est présent dans plus de cent pays et compte plus de 40 000 clients dans le monde. En juin 2016, le fonds d’investissement Thoma Bravoil le rachète trois milliards de dollars. Qlik propose deux produits principaux pour accéder aux données, les présenter et les explorer. Produit historique de son portefeuille, « QlikView exige une certaine appétence technique pour créer et publier des tableaux de bord, avance Nicolas Wazylezuck expert Qlik au sein de la société de conseil Bial X et formateur chez ORSYS. Par ce travail de paramétrages, QlikView offre des fonctionnalités étendues pour personnaliser l’expérience utilisateur ». Son modèle d’acquisition par licence on-premise le destine plutôt aux grands comptes. Plus récent, Qlik Sense s’inscrit dans la mouvance de la BI en libre-service décrite plus haut. Son interface intuitive permet à l’utilisateur final de créer lui-même ses rapports. En revanche, les possibilités de personnalisation sont moindres. Qlik Sense existe en licence on-premise ou en abonnement Cloud. L’utilisateur peut décider d’installer la solution sur un serveur en propre ou sur une plateforme Cloud de type Amazon Web Services ou Microsoft Azure. Enfin, avec l’offre Qlik Sense Cloud, le client s’affranchit de toutes les contraintes d’infrastructure. Tout se gère par Qlik. Cette offre est cependant moins complète que la version « entreprise ». En effet, elle propose moins de connecteurs aux données. Le principe de l’associativité Les deux outils sont basés sur le même moteur et c’est sur ce point que Qlik fait la différence. L’éditeur a breveté une technologie reposant sur le principe dit de l’associativité. Par un processus itératif, le moteur établit des liens entre les données et les résultats s’affinent au fur et à mesure des requêtes. « Cette technologie permet, selon Nicolas Wazylezuck, de faire des explorations […]

Qlik, la Business Intelligence à portée ...


2
Temps de lecture : 4 minutes Vaincre le mal par le mal. Alors que les commerçants doivent lutter contre le numérique avec le boom de l’e-commerce et le phénomène de showrooming (*), digitaliser leur point de vente peut leur venir en aide en augmentant leurs ventes. C’est la mission de l’affichage dynamique qui se propose de diffuser, depuis des moniteurs connectés judicieusement placés dans le magasin, des promotions et des informations produits ainsi que des informations pratiques de type météo ou circulation routière. L’affichage dynamique remplace avantageusement l’affichage papier et les outils traditionnels de la publicité sur le lieu de vente (PLV). Depuis la vitrine jusqu’à la caisse, les écrans communiquent aux consommateurs une information. Elle est personnalisée et en adéquation avec les habitudes de consommation locales. Objectif : générer des ventes complémentaires ou supérieures en gamme (crosselling, upselling). Le concept connaît un bel engouement. Selon une étude de Research and Markets, le marché du « digital signage » devrait atteindre un chiffre d’affaires de 31,7 milliards de dollars en 2021, sur la base d’un taux de croissance annuel de 7,9 %. Carrefour, Nike ou Toyota y ont notamment recours. Et techniquement ? Un dispositif d’affichage dynamique, c’est un moniteur, un lecteur de type mini-PC, dock embarqué, clé USB ou HDMI, un système d’exploitation embarqué, une solution logicielle de diffusion et un serveur local ou distant pour héberger les contenus multimédias. Quels cas d’usage ? Si l’affichage dynamique s’est surtout fait connaître dans le commerce de proximité, il se prête à de nombreux cas d’usage. En entreprise, il peut servir de relais à la communication interne en informant les salariés sur les dernières actualités de la société. Chez ORSYS par exemple, l’affichage dynamique s’utilise en communication interne et externe, pour les participants aux formations dans les salles de pause. Dans les transports en commun, l’affichage dynamique va guider les voyageurs en temps réel. Une mairie informera ses citoyens des festivités en cours ou des horaires d’hiver de la piscine. Dans un établissement scolaire, les écrans informeront les étudiants de l’absence d’un enseignant. Dans les Showrooms, sous forme d’écran miroir, dans l’utilisation de scans… Et les exemples sont infinis. Faire vivre le contenu Pour Stéphane Azoubel, président de Digital Partner Project (DPP), la réussite d’un projet se conditionne par des prérequis. Il estime que la France n’exploite pas le potentiel de l’affichage dynamique. « Comme son nom l’indique, l’affichage dynamique doit vivre. Or, on reste trop souvent sur du contenu statistique avec des vidéos qui tournent en boucle. » Afin de renouveler l’intérêt, il conseille de prévoir une personne à temps plein pour réactualiser les contenus. « Quand il regarde la TV chez lui, le spectateur est captif. Ce n’est pas le cas sur un point de vente, il faut aller chercher le chaland. » De même, dans une optique de communication interne, une personne doit être en charge de mettre à jour les actualités de la société. Il déplore, par ailleurs, le mauvais usage de l’affichage dynamique dans le paysage urbain. « Multiplier les écrans sur le parvis de La Défense pour diffuser le même […]

L’affichage dynamique, planche de salut du ...



7
Temps de lecture : 3 minutes Par la Rédaction ORSYS La mise en place du règlement européen sur la protection des données personnelles (RGPD) entre dans sa dernière ligne droite.   Il reste maintenant deux mois avant l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD). Un délai court au regard de l’ampleur du chantier à relever mais aussi de l’état d’avancement des entreprises. Selon une étude d’IDC France, réalisée pour Syntec Numérique, le syndicat professionnel des prestataires du numérique, 42 % des sociétés françaises déclarent « prendre tout juste conscience » du sujet. Seules 9 % d’entre elles considèrent être en conformité avec le nouveau règlement et la moitié d’entre elles assurent qu’elles le seront d’ici fin 2017 ou en 2018. Pour partie, les entreprises vont se reposer sur leurs fournisseurs. Le RGPD instaurant un régime de coresponsabilité entre le responsable du traitement et ses sous-traitants. Toujours selon IDC/Syntec Numérique, la mise en conformité représentera 670 millions d’euros de dépenses en logiciels et services en 2017. Et la facture montera à près d’un milliard en 2018. 99 articles et des changements en profondeur Pour autant, l’entreprise ne peut se dédouaner des exigences qu’impose le nouveau texte. Si le RGPD ne comprend que 99 articles et une centaine de pages – l’Association française des correspondants à la protection des données à caractère personnel (AFCDP) en propose une version annotée et commentée sur son site –, il introduit de profonds changements juridiques, techniques et organisationnels. Le RGPD change tout d’abord l’approche de la « data privacy » en jouant sur la notion d’auto-responsabilité (accountability). Dispensée des formations préalables à la CNIL, l’entreprise doit, en retour, démontrer à tout moment qu’elle respecte le cadre réglementaire. Le respect de la vie privée doit être pris en compte dès le début d’un projet faisant appel à des données personnelles (privacy by design). Les dispositifs qui assurent la sécurisation des données (chiffrement, anonymisation, pseudonymisation) s’activent par défaut (privacy by default). Comment se préparer ? Pour se préparer au RGPD, la CNIL conseille de procéder en six étapes. La première d’entre elles porte sur la nomination d’un Data Protection Officer (DPO) qui sera le chef d’orchestre du projet de mise en conformité au RGPD puis le garant de sa bonne application. Il s’agit ensuite de cartographier les traitements présentant des risques quant à la confidentialité des données personnelles. Cette cartographie va alimenter le registre des traitements, le document clé du RGPD. Tenu à jour par le DPO, il mentionnera la finalité de chaque traitement (prospection commerciale, gestion RH…), la typologie des personnes concernées (salariés, clients…) et le délai de conservation des données. Sur la base de ce registre, il faut, selon la CNIL, prioriser les actions à mener. De l’aveu même de son secrétaire général, le 25 mai 2018 ne doit pas être vécu comme une date couperet (source ZDNet). A cette échéance, les entreprises devront surtout démontrer qu’elles se sont engagées dans la bonne dynamique. Fini les cases pré-cochées, le responsable de traitement doit, tout d’abord, recueillir le consentement explicite (opt-in) […]

RGPD, il est plus que temps ...


4
Temps de lecture : 5 minutes Par la Rédaction ORSYS Qui l’eut cru ? Longtemps réservée à quelques chercheurs disséminés dans le monde, l’Intelligence Artificielle (IA) est devenue un sujet grand public, traité à la une des médias généralistes. Un sujet qui suscite les réactions les plus extrêmes. Certains pensent qu’elle déchargera l’homme des tâches fastidieuses, améliorera son quotidien et prolongera son espérance de vie. D’autres pensent que l’essor de l’IA entraînera la destruction d’un grand nombre d’emplois et, dépassant l’intelligence humaine, entravera notre libre arbitre.

L’Intelligence Artificielle modifie en profondeur les ...


1
Temps de lecture : 3 minutes Par Rudi Bruchez* SQL Server, les débuts… SQL Server est un système de gestion de bases de données relationnelles nées dans les années 80 sous l’impulsion d’une collaboration entre Sybase et Microsoft. Microsoft avait besoin d’un moteur de base de données pour son système d’exploitation serveur OS/2. Sybase développait un serveur de base de données sous Unix. Pendant quelques années, Microsoft disposait d’une licence pour commercialiser le portage de ce moteur sous OS/2. A la fin des années 80, un accord fut passé entre les deux partenaires pour que Microsoft puisse récupérer le code source de SQL Server. Cela lui permettait de continuer, de son côté, son développement pour la plateforme Windows.

SQL Server sur Linux, alors ?



1
Temps de lecture : 3 minutes Le Big Data recèle de nombreux cas d’usage insoupçonnés. L’analyse statistique d’un grand volume de données permet, en marketing, de mieux cerner les attentes des consommateurs. Ce qui s’applique à la relation client peut être transposé en entreprise dans la gestion des ressources humaines. L’employé étant en quelque sorte un client de la DRH. Pour le meilleur ou le pire.

Ce que peut apporter le Big ...


2
Temps de lecture : 3 minutes Un grand nombre d’entreprises devront désigner un DPO avant le 25 mai 2018 et l’entrée en application du règlement européen sur la protection des données personnelles (RGPD). Quel est son profil ? Son rôle ? Quelques éléments d’explication.   Après le CDO (chief digital officer) et le CTO (chief transformation officer), un nouvel acronyme fait son apparition dans les organigrammes. Place au DPO pour data protection officer ou, en bon français, DPD, le délégué à la protection des données. Un poste qui suscite les convoitises. C’est, en effet, lui qui sera le garant de la mise en conformité avec le RGPD, le projet règlementaire le plus sensible du moment.

Le DPO, fonction clé de la ...


2
Temps de lecture : 3 minutes Le LiFi (Light Fidelity) est une technologie de communication sans fil via la lumière. Traversé par un courant électrique, un éclairage Led génère un scintillement très rapide, une suite de 0 et de 1, soit le langage informatique. Des fréquences invisibles par l’œil humain mais qui permettent de transmettre de l’information. Un ordinateur ou un Smartphone peut ainsi se connecter à Internet en étant simplement placé dans le champ d’éclairage. La réception se fait à l’aide d’une clé USB ou via la caméra du Smartphone. Standardisé en 2011, le LiFi connait depuis quelques mois d’importantes évolutions. Désormais les débits sont très importants. Il n’est plus nécessaire d’avoir des lampes dédiées. Plusieurs utilisateurs peuvent surfer sur Internet sous une même lampe, les solutions deviennent compatibles PEO (Power Over Internet)… Sécurisation plus fine ? Par ailleurs, en complément du WiFi, le LiFi peut apporter Internet dans des bâtiments où les ondes ne passent pas comme un tunnel ou un parking. Par sa capacité de géolocalisation, il peut être une réponse à la connexion des objets connectés, en alternative aux réseaux dédiés de type Sigfox ou LoRa. Le LiFi garantit la confidentialité des données. Alors qu’un signal WiFi traverse les murs, les ondes lumineuses sont, elles, confinées à une pièce réduisant ainsi les risques de piratage (pour le moment). Des entreprises évoluant dans les secteurs d’activité critiques comme la défense ou la finance peuvent ainsi proposer un accès mobile sécurisé à leurs visiteurs ou équiper leurs salles de réunion. Nexity, Sogeprom (filiale de Société Générale) ou Microsoft ont équipé en LiFi leur siège social. Contrairement au WiFi qui nous expose en permanence à des ondes électromagnétiques – les personnes électrosensibles en savent quelque chose -, le LiFi n’est pas nocif pour la santé. Il utilise, rappelons-le, des signaux infrarouge ou des leds normalisées. La grande distribution déjà conquise Les cas d’usage sont multiples. Le LiFi peut être utilisé dans les lieux publics comme les hôpitaux, les écoles, les bibliothèques ou les aéroports, pour ces raisons sanitaires. La loi Abeille interdit en France l’installation de hotspots Wifi dans les lieux accueillant des enfants de moins de 3 ans comme les crèches. En milieu hospitalier, le Wifi peut aussi provoquer des interférences avec des équipements médicaux de type IRM. Dans la Smart City, un éclairage Led compatible remplace avantageusement les lampadaires traditionnels en apportant de nouveaux services. Palaiseau a ainsi équipé tout un quartier de lampadaires communicants. Un marché prometteur sachant qu’une directive européenne proscrit, à compter de 2020, les ampoules à incandescence pour l’éclairage public. Avec une précision de géolocalisation de 10 cm, le LiFi peut délivrer des informations géocontextualisées et donc être très utile en géomarketing. Il va remplacer les audio-guides dans les musées, informer des voyageurs sur un quai de gare ou à une station de bus. La grande distribution est également intéressée. Dans son nouveau magasin du 19ème arrondissement parisien, Leclerc a placé des capteurs LiFi dans les poignées de ses caddies. Avec deux utilités : tracer le parcours de ses clients dans […]

LiFi, et Internet vint de la ...



Temps de lecture : 4 minutes Alors que nos vies se digitalisent à vitesse grand V, les notions d’ergonomie et d’interface homme-machine deviennent essentielles. Pour interagir avec des environnements virtualisés, le triptyque clavier-souris-écran laisse peu à peu place à de nouvelles interfaces gestuelles, vocales ou textuelles. Psychologue cogniticienne, cofondatrice de la société LudoTIC et formatrice chez ORSYS, Teresa Colombi* se réjouit du chemin accompli. « En 1999 quand j’ai débuté, l’ergonomie n’était absolument pas prise en compte. A la fin de mes études, je ne trouvais pas de stage. »

Quand le numérique redonne ses lettres ...


Temps de lecture : 3 minutes Lancés récemment par Microsoft, ces nouveaux outils de création d’applications et d’automatisation de processus peuvent remplir un certain nombre de services chez les utilisateurs de SharePoint. Explications d’un expert.   Le 31 octobre dernier, Microsoft annonçait, dans un billet de blog, les versions finales de PowerApps et de Flow et leur intégration dans SharePoint. Une annonce passée un peu inaperçue mais pourtant riche en conséquences. Commençons par PowerApps, un outil de création d’applications web ou mobiles (Windows, iOS et Android) ne nécessitant aucune connaissance en développement. Il est appelé à remplacer InfoPath Services sur SharePoint on line même si le support de celui-ci, qui devait être arrêté en 2023, a finalement été prolongé jusqu’en 2026.

Doper SharePoint avec PowerApps et Microsoft ...


2
Temps de lecture : 4 minutes Par Teresa Colombi* Les applications de réalité augmentée ne se comptent plus : ludiques (comme PokemonGo), professionnelles (en chirurgie, dans l’Industrie, etc.). Mais au-delà des progrès techniques et technologiques qui permettent ces applications, ce sont les usages actuels et futurs qui interpellent. La réalité augmentée versus réalité virtuelle, comment ça marche ? Définitions La réalité augmentée est la superposition de la réalité et d’éléments calculés par un système informatique en temps réel.

La réalité augmentée, entre mythe et ...



3
Temps de lecture : 3 minutes Avec ses performances inédites en termes de débit et de réduction du temps de latence, le nouveau standard de téléphonie mobile devrait faire émerger des usages disruptifs dans l’automobile, la médecine ou l’industrie. Evolution ou révolution ? A chaque nouveau standard de téléphonie mobile, la question se pose. La 3G et la 4G ont permis des sauts qualitatifs en termes de débit et de couverture. Mais les réseaux de cinquième génération devraient nous faire faire un véritable bond en avant. La 5G est en cours de standardisation et les premières exploitations commerciales n’interviendront au mieux qu’en 2020. Pour autant, les annonces qui se sont succédé, en début d’année, au dernier CES de Las Vegas puis au Mobile World Congress de Barcelone permettent d’anticiper ce que nous attend.

Ce que nous réserve la 5G


3
Temps de lecture : 3 minutes Au-delà de la création d’intranet, SharePoint permet la gestion électronique de documents ou l’automatisation de flux de travail. Un potentiel qui s’exprime pleinement dans sa version Cloud. SharePoint fait partie du paysage informatique de nombreuses entreprises, au même titre que d’autres applications de la suite Office de Microsoft comme le célèbre trio Word, Excel et PowerPoint. Ses débuts remontent à 1999 avec la naissance de Microsoft Dashboard dont il est le descendant direct. Depuis, cet outil dédié à la gestion de contenus n’a cessé d’évoluer notamment dans sa version Cloud, SharePoint Online.

(Re)découvrez tout le potentiel de SharePoint ...


2
Temps de lecture : 3 minutes Par la Rédaction ORSYS Fini les clichés à la Germinal. Une usine serait forcément sale, bruyante, dangereuse et le travail pénible et répétitif. Ce n’est plus vrai. Pour renforcer l’attractivité de ses métiers, la Fédération des Industries Mécaniques a d’ailleurs mis en scène de jeunes professionnels épanouis dans une série de vidéos sur YouTube. La modernisation des lignes de production a, de fait, redonné à l’homme le rôle qu’il n’aurait jamais dû quitter. L’homme a ainsi longtemps été asservi à la machine. Mais aujourd’hui, c’est la machine qui se met à son service lui permettant d’exercer des tâches plus valorisantes.

L’usine du futur est déjà là



3
Temps de lecture : 3 minutes Par la Rédaction ORSYS Depuis bientôt un an, l’engouement pour les chatbots ne se dément pas. Ces agents conversationnels qui, de façon automatique, orientent, conseillent, assistent l’internaute sont présentés comme le futur de la relation client. En effet, suppléant les canaux de contacts traditionnels – centre d’appel, mail, live chat…. – ces robots ont pour avantage de délivrer une réponse en temps réel, 24 heures sur 24 et 7 jours sur 7. Ils ont déjà conquis Pizza Hut, Voyages-sncf.com, La Française des Jeux, KLM ou Meetic. Et ce n’est qu’un début. Selon Gartner, 85 % des interactions avec le client ne nécessiteront plus d’intervention humaine à horizon 2020.

Les chatbots réinventent la relation client


5
Temps de lecture : 4 minutes Par la Rédaction ORSYS On associe spontanément le terme d’objets connectés à des usages grand public. Il renvoie aux bracelets d’automesure (quantified self) et autres vêtements connectés (wearables), très prisés des habitués des salles de fitness. Les détecteurs de choc, de fumée ou de fuite de gaz protègent, eux, notre maison tout en réduisant notre consommation d’énergie. Ce n’est que la face émergée d’un phénomène plus important. Les industriels s’emparent progressivement de l’Internet des objets (IoT). A partir de capteurs mesurant la chaleur, l’humidité, la pression, l’accélération ou les vibrations, ils peuvent alors relever l’information à distance. Ces capteurs sont aussi utilisés pour connaître en temps réel l’état de santé d’un équipement, évaluer son niveau de performance (disponibilité, temps de latence…), repérer d’éventuels dysfonctionnements et, au final, prévenir les pannes.

Internet des objets, la nouvelle révolution ...


1
Temps de lecture : 4 minutes Avec la révolution numérique en cours, les entreprises traditionnelles basculent dans un nouveau monde. Celui mené par de nouveaux acteurs, les GAFA, Airbnb et autres Uber… Leur existence même est parfois remise en cause. Cette transformation spectaculaire change les rapports de la DSI à son organisation. Quel est donc le rôle des business relationship manager (BRM) dans cette transformation ? La DSI était jusqu’ici trop souvent « technocentrée ». Par nécessité étant donnée la complexité croissante des systèmes informatiques, ou car l’entreprise l’avait cantonnée à un rôle purement technique. Le Cloud la libère d’un certain nombre de contraintes. Jusqu’ici statique, l’infrastructure devient dynamique et programmable. Elle est capable de s’adapter de manière instantanée à la charge de travail. Ce changement de paradigme permet aux DSI de se focaliser sur l’optimisation des services et non plus sur le hardware.

BRM, la courroie de transmission entre ...



2
Temps de lecture : 3 minutes Reprise et mise à jour d’un article ORSYS Avec Claude COUDERC * 90 secondes pour vous expliquer SharePoint avec des mots simples et des exemples concrets En quelques années, SharePoint est devenu un outil capital dans l’organisation des données informelles. Depuis sa version novatrice de 2007, les entreprises ont commencé à connaître cet outil unique. Il a plus de 100 millions d’utilisateurs recensés dans le monde. Les dernières versions, SharePoint Online et SharePoint 2016, ont confirmé et renforcé son succès, aussi bien auprès de l’entreprise publique que privée. Ce dernier point est remarquable en soi car il confirme la pertinence du choix. Pourtant, peut-être à cause de sa richesse fonctionnelle, vous avez pu percevoir SharePoint comme une grosse nébuleuse avec des paramètres disséminés un peu partout. Ou bien, vous vous demandez tout simplement : « Qu’est-ce que SharePoint et à quoi sert-il ? »

90 secondes pour Microsoft SharePoint – ...


Temps de lecture : 3 minutes C’est un vrai BIM bang ! Le concept de modélisation des données du bâtiment ou Building Information Modeling (BIM) modifie en profondeur la façon de concevoir et de construire des bâtiments. Cette plateforme numérique contient ainsi toutes les caractéristiques physiques, techniques et fonctionnelles de l’édifice. Architecte, maître d’œuvre, gestionnaire de patrimoine, client final… Chaque intervenant partage la même vision de l’ouvrage, de sa conception à son exploitation. « Cette vision collaborative de la maquette 3D permet de réduire les coûts liés à construction mais surtout à la gestion et à l’entretien du bâtiment, le poste de dépense souvent le plus élevé », note Haïssem Ben Achour*, consultant CAO/DAO/PAO et formateur chez ORSYS.

Avec le BIM, le bâtiment entre ...


1
Temps de lecture : 3 minutes Par la Rédaction ORSYS Avez-vous remarqué combien l’impression 3D nous fascinait ? Avec elle, il semble que tout soit possible. Rappelons néanmoins ses particularités : les imprimantes tridimensionnelles nous permettent de créer des objets, sans contraintes de fabrication industrielle. On se dispense de tous les processus habituellement nécessaires : création de moules, quantités minimum, main-d’œuvre spécifique… Mais comment ça marche ? Si les procédés d’impression en 3D peuvent différer, les principes restent les mêmes. Le point de départ ? Un design sur ordinateur en trois dimensions de l’objet à reproduire. À noter : si l’on ne sait pas designer son objet, plusieurs bases de données participatives existent à ce jour pour y parvenir.

L’impression 3D : le futur est ...



Temps de lecture : 3 minutes L’outil de lignes de commande de Windows simplifie la vie des administrateurs et des développeurs. En une ou deux lignes de code, ils peuvent gérer un parc de machines à distance ou automatiser leurs développements. Notre expert Gaël Marot* rappelle tout son potentiel. PowerShell a fait parler de lui cet été. Le 18 août, Microsoft annonçait qu’il passait sous licence libre son outil de lignes de commande de Windows et interpréteur de langage de scripts. La firme de Redmond a aussi mis à disposition sur GitHub des versions alpha de PowerShell Core pour Linux et Mac OS X. Un geste salué par la communauté open source.

PowerShell, un outil à la puissance ...


4
Temps de lecture : 3 minutes Le monde des réseaux connaît deux mouvements contradictoires. Le cloud conduit à une concentration des infrastructures dans les datacenters tandis que la montée en puissance des objets connectés nécessite de déporter une partie du traitement des données en local. De fait, la montée en puissance du cloud a une forte incidence sur les architectures réseaux. Les équipements de communication se concentrent dans les datacenters. Des centres de données reliés entre eux par des liaisons en fibre de haute capacité. De nouveaux protocoles de communication gèrent ces échanges intra datacenters et inter datacenters. C’est le cas de TRILL (Transparent Interconnection of Lots of Links) ou Lisp (Locator/Identifier Separation Protocol). Ils prennent peu à peu la place des protocoles traditionnels d’Internet.

Le cloud et l’Internet des objets ...


Temps de lecture : 3 minutes ORSYS a lu pour vous… Avec le Big Data, la révolution des données est en marche. En 2015, Gilles Babinet, nommé Digital champion par la ministre déléguée au Numérique trois années plus tôt, donnait son point de vue sur cette révolution des données dans un nouvel opus. À lire sans tarder si vous vous demandez toujours comment le Big Data peut changer votre monde… Quel est l’impact du Big Data ? Les entreprises, les collectivités doivent-elles s’y intéresser ? Pour Gilles Babinet, le doute n’est pas permis.

« Big Data, penser l’homme et ...



1
Temps de lecture : 4 minutes Alors que les matériels de vidéosurveillance se démocratisent, la question des flux de données rend indispensable une formation complémentaire… Une formation animée depuis quatre ans chez ORSYS par Marc Pichaud*. Pourquoi se former à la vidéosurveillance ? On a pourtant l’impression que les systèmes se sont simplifiés… Marc Pichaud : Dotés de caméras analogiques coaxiales en noir et blanc, puis en couleur, les premiers systèmes sont apparus dans les années soixante-dix.

Comment gérer un projet de vidéosurveillance ...


1
Temps de lecture : 3 minutes Par la Rédaction ORSYS Les smart cities : des villes qui ont fait du numérique un axe de développement et de différenciation. Évolution « Science-fiction » ou déjà une réalité ?   Partant du principe que 70 % de la population mondiale serait urbaine à l’horizon 2050, les smart cities suscitent un engouement de certaines municipalités. Elles voient là une façon de résoudre les conséquences de l’urbanisation massive et du réchauffement climatique.

Smart city : la ville qui ...


Temps de lecture : 3 minutes La multiplication des caméras dans les rues, dans les bâtiments, autrefois sujet tabou, devient-elle souhaitée par les Français ? Marc Pichaud*, consultant et expert réseaux et vidéo, nous éclaire sur l’évolution du marché de la vidéosurveillance en France. Vidéosurveillance/vidéoprotection : désigne-t-on la même chose ? Marc Pichaud : Ces deux termes désignent des systèmes de visualisation et d’enregistrement à partir de caméras vidéo. Lorsqu’ils agissent en sites privés, et que les caméras sont reliées à des moniteurs, on parle de vidéosurveillance ; en site public ou sur la voie publique, le terme utilisé est plutôt la vidéoprotection, intégrant la dimension « sécurité » et de défense du citoyen.

Tous « vidéosurveillés » ?



5
Temps de lecture : 3 minutes Par la Rédaction ORSYS Santé, automobile, sécurité : les objets connectés envahissent tous les secteurs d’activité et notre quotidien. La contrepartie ? Des gigaoctects de données à gérer. Mais l’utilisateur – vous, moi, nous – est-il prêt à offrir (et le sait-il ?) ses données personnelles ? Et où en est la législation concernant l’utilisation de ce « big data » ? Une montre qui vous indique si vous avez bien et assez dormi, un réfrigérateur qui affiche la liste des produits présents avec leur date de péremption, la liste des courses, la télévision qui vous permet de lire vos mails…

Objets connectés : où vont nos ...


4
Temps de lecture : 3 minutes Lancé en 2003, WordPress est le système de gestion de contenus (CMS) utilisé par plus d’un quart des sites Web dans le monde* ! Plateforme libre, WordPress est facile d’accès mais souvent sous-exploitée. Notre expert, Stéphane Bataillard**, vous donne des conseils simples, très pratiques pour créer votre site Web avec cet outil. Outil qui utilise plusieurs langages et technologies pour créer et administrer un site Web sans connaissances techniques particulières, WordPress est proposé en téléchargement libre sur la plate-forme wordpress.org (à ne pas confondre avec la plateforme de blog wordpress.com). Il administre 29% de sites mondiaux (source : w3Techs) et représente 60% de part de marché des CMS (même source). Créé par Automattic il y a 15 ans, il est animé par une communauté dynamique et ouverte. C’est une formidable machine. A condition de bien l’utiliser.

5 étapes clés pour réussir son ...


3
Temps de lecture : 4 minutes En faisant travailler de concert les équipes de développement et de production, DevOps vise à raccourcir les délais de livraison. Une approche qui rend les organisations plus agiles face aux nouveaux enjeux du numérique. Même s’ils évoluent au sein de la même DSI, développeurs et responsables d’exploitation ont des intérêts contradictoires. Les premiers s’emploient à faire évoluer le système d’information et les seconds à le maintenir stable. Issus d’univers différents, ils travaillent généralement chacun dans leur coin, communiquant entre eux le moins possible.

DevOps, un préalable à toute transformation ...



3
Temps de lecture : 4 minutes Avec des modèles aux prix toujours plus bas et une large gamme de matériaux imprimables, l’impression 3D séduit un nombre croissant de secteurs d’activité dont l’aéronautique, l’architecture ou la médecine. Elle permet de réduire les temps de prototypage et de production. Si l’impression 3D connaît une belle couverture médiatique depuis quelques années, la technologie en elle-même, n’est pas nouvelle ! Siemens a découvert le procédé en 1984. Mais c’est le français Charles Hull, fondateur de 3D Systems, qui, la même année, a exploité et breveté la stéréolithographie. Avec cette technique, un laser grave un bloc de résine durcissant.

L’impression 3D étend son champ d’action


1
Temps de lecture : 3 minutes Le congrès Big Data Paris qui s’est tenu les 7 et 8 mars derniers a permis de faire le point sur les solutions et les usages en matière de traitement et d’analyse en masse de données. Finie la période du battage médiatique et de la confusion autour du Big Data, cette cinquième édition a permis de montrer un marché plus mûr que ce soit en termes d’offre ou de retours d’expérience. L’ère des POC (Proof Of Concept) a, de fait, laissé place à de vraies études de cas. Rexel, Seb, TF1 Publicité, la SNCF, Allianz, Carrefour, Randstad, Société Générale Corporate Investment Banking (SG CIB) ou ERDF sont ainsi venus témoigner au congrès parisien des apports du big data dans leurs activités respectives.

Le Big Data sur la voie ...


6
Temps de lecture : 3 minutes Ça y est, les courbes se sont croisées. Selon la dernière étude Médiamétrie publiée en octobre 2015, les Français surfent désormais davantage sur leurs terminaux mobiles que sur leur ordinateur fixe. Encore faut-il qu’ils puissent consulter leurs sites préférés dans les meilleures conditions. C’est tout le sens du responsive design qui consiste à offrir le meilleur confort visuel quel que soit le terminal. Le contenu du site s’adapte automatiquement à la largeur et à la hauteur de l’écran. Les colonnes s’ajustent, les images se redimensionnent et se replacent… Consultant-formateur en technologies Web, Stéphane Brunet* observe depuis deux ans un réel engouement pour le Responsive Design au détriment des sites mobiles. « La même page Web va s’afficher sur les différentes interfaces. Ce qui facilite les mises à jour et les données sont stockées au même endroit. Alors qu’avec un site mobile, on présupposait qu’il était en situation de mobilité, là, plus besoin de prédire les besoins de l’utilisateur en fonction du terminal. »

Responsive Design : les bonnes pratiques ...



Temps de lecture : 3 minutes En faisant transiter les appels sur les réseaux 4G, la Voice over Long Term Evolution offre non seulement une qualité vocale inégalée mais aussi de nouveaux services de type visioconférence ou partage de documents. L’occasion pour les opérateurs télécoms de reprendre la main face à Skype ou WhatsApp. En 2016, l’innovation en matière de téléphonie mobile s’appelle la VoLTE, pour Voice over Long Term Evolution. Cette nouvelle technologie se propose d’utiliser les réseaux tout IP de la 4G pour faire transiter la voix. La VoLTE offre une meilleure qualité vocale en s’appuyant sur un codec spécifique, l’AMR-WB pour Adaptative Multi Rate – Wide Band. Ce passage au haut débit ouvre surtout la voie aux services communications unifiées comme la messagerie instantanée, la visioconférence ou le partage de documents. « En cours d’appel, l’utilisateur peut échanger des données avec son correspondant comme une photo, un morceau de musique ou une présentation », avance Frédéric Launay*, enseignant à l’Université de Poitiers au sein du département Réseaux et Télécoms et chercheur au Laboratoire Informatique et d’Automatique pour les systèmes (LIAS).

Avec la VoLTE, enfin du nouveau ...


1
Temps de lecture : < 1 minute OpenStack est un ensemble de logiciels open source permettant de déployer des infrastructures de cloud computing.  Damien Boureille*, consultant système, nous présente , dans la vidéo ci-après, la formation pour découvrir le concept de Cloud privé et le mettre en œuvre à travers cette solution libre. Il aborde les différentes briques d’OpenStack, l’installation et l’administration du Cloud, notamment le stockage, la redondance et le réseau virtuel. Vidéo : Private Cloud, mise en œuvre avec OpenStack Damien Boureille est consultant en gouvernance SI – cloud computing, gestion de configuration, audit, supervision, ITIL. Il est aussi formateur indépendant dont pour ORSYS. Formations Cloud Computing

Openstack, solution libre, avenir du Cloud ...


1
Temps de lecture : 2 minutes « Près de la moitié des entreprises ne disposent toujours pas d’une stratégie adaptée pour lutter contre le piratage informatique » Jocelyn Grignon, Grant Thornton Sony, eBay, Home Depot, JP Morgan, Target, VTech… Les cyberattaques se multiplient et n’épargnent aucun secteur d’activité. La révolution numérique s’accompagne donc de nouveaux risques avec le vol et la fraude de données, les attaques par déni de service jusqu’au « breakdown » total des infrastructures. Ainsi en 2015, les risques IT figurent dans le top 5 des risques globaux identifiés par le Forum de Davos. C’est une première. Par où commencer ? Audit, analyse des risques, normes et référentiels, cadre juridique et réglementaire, rôle du RSSI, choix de solutions de protection et de supervision, sensibilisation des salariés, budget etc… Nous avons sollicité l’un de nos experts en sécurité, Pascal Gouache* pour qu’il nous fasse un état des lieux et nous donne ses prévisions sur les  normes ISO 27 001 : 2013 permettant de mettre en place un système de management (SMSI) du risque de la sécurité de l’information. La norme internationale de maîtrise du risque ISO/CEI 27001 lié à la sécurité de l’information décrit, sous forme d’exigences, les bonnes pratiques à mettre en place pour qu’une organisation puisse maîtriser efficacement les risques liés à l’information. Vidéo : Avis d’expert * Pascal GOUACHE Expert en cybersécurité et ingénieur Telecom Paris Tech (ENST), son expérience de la sécurité des technologies de l’Information lui a permis successivement de réaliser des missions d’intégration et de conseil auprès de grands groupes privés et publics, puis de devenir responsable du pôle Intégration de Sécurité IT au sein de Thales. En 2005, il est à l’initiative du développement du premier Appliance pare-feu applicatif français. Depuis huit ans, il assure également des missions d’audit de sécurité dans les domaines industriels et financiers. Il est un des référents français sur des projets de sécurité ISO 27001/27002 ainsi que sur le standard de sécurité de Visa/Mastercard PCI DSS. Formations associées : ■ ASE   Implémenter et gérer un projet ISO 27001:2013  ■ LAU   ISO 27001:2013 Lead Auditor, mise en pratique, certification ■ LED   ISO 27001:2013 Lead Implementer, mise en pratique, certification  

Sécurité des systèmes d’information : actualités ...



5
Temps de lecture : 3 minutes Par Stéphane Brunet* BootStrap, framework de référence créé par les développeurs de Twitter, rassemble une collection d’outils pour la création de pages web contemporaines. Découvrons cinq bonnes raisons de nous former avec Stéphane Brunet*, consultant sur les outils de développement web et formateur indépendant. BootStrap répond aux besoins des développeurs. Aujourd’hui, dans les entreprises, on exige des développeurs qu’ils prennent entièrement en charge l’intranet… design inclus. Or, ce n’est pas leur métier. BootStrap rassemble une collection d’outils utiles à la création web, contenant des codes HTML et CCS, des formulaires, des composants, plug-ins (accordéons, onglets, libellés, miniatures, barres de progression, boutons, outils de navigation…) et encore bien d’autres extensions JavaScript prêtes à être intégrées. Ceux qui ne raffolent pas de la technique peuvent ainsi s’appuyer sur une base « préfabriquée » bien développée et totalement personnalisable, répondant aux codes esthétiques des sites actuels. Ils peuvent intégrer un bouton, lui donner un habillage particulier afin qu’il ait automatiquement un look spécifique. Une boîte à outils fort utile pour ceux qui n’ont pas particulièrement de connaissances graphiques ! BootStrap répond aux besoins des entreprises. Si l’entreprise n’hésite pas à investir sur le design d’un site, elle est souvent réticente à investir un budget sur la partie graphique de l’interface administrateur. Avec BootStrap, ce travail sur la partie back-office pourra être pris en charge par n’importe quel développeur. Les fonctions JavaScript intégrées dans BootStrap se basent sur la librairie la plus utilisée dans le monde du web, JQuery. Avec quelques lignes de codes, le développeur pourra, en s’appuyant sur ce framework JQuery, créer quelque chose de très professionnel graphiquement. S’il doit construire un site, il lui suffira d’utiliser les squelettes BootStrap auxquels il ajoutera des fonctionnalités spécifiques. Ici, l’outil, techniquement simple, est bien au service de l’utilisateur (qui peut n’avoir qu’une connaissance de base HTML et CSS) et non l’inverse. BootStrap est particulièrement adapté aux intranets Force est de constater que rares sont les entreprises qui font appel à un webdesigner pour leur intranet. Or, ce que l’utilisateur perçoit dans un premier temps c’est l’ergonomie, puis le design. Si le graphisme est raté alors que l’utilisateur est tenu de consulter cet intranet, il en freine l’utilisation. De plus, la maquette doit pouvoir être modifiée aisément, car elle évolue régulièrement. On sait pourtant que lorsqu’un développeur intervient sur une maquette de designer, le rendu peut être aléatoire ! Avec BootStrap, tout est simplifié : taille de titre, police, couleur… inutile de s’interroger sur les feuilles de style ou de faire soi-même. BootStrap permet de coller au modèle proposé qui offrira tout de suite un rendu professionnel : une feuille de style principale englobe les feuilles de style des composants. Il suffit alors, pour les développeurs, de sélectionner les composants dont ils ont besoin en modifiant cette feuille principale. Parce que BootStrap est dans l’air du temps ! Ce qui séduit dans BootStrap : sa modularité. Le framework permet de créer un site intranet ou extranet lisible en différents formats grâce à un système de grille à douze colonnes. Ainsi, le site se […]

5 raisons de se former à ...


2
Temps de lecture : 5 minutes Par Razvan Bizoï** Fort attendue par les développeurs, la version 12c d’Oracle apporte plus de 500 nouveautés. Si certaines, mineures, ne transforment pas radicalement le monde des bases de données, d’autres offrent leur lot de changements. Razvan Bizoï, consultant senior spécialisé dans l’audit, l’optimisation et l’architecture des bases de données Oracle, répond à nos questions. Toutes les nouveautés se valent-elles pour cette version d’Oracle ? Non, mais certaines – si l’on veut parodier une phrase désormais célèbre – représentent une « vraie révolution ». La pièce maîtresse de cette nouvelle architecture est ce que j’appelle « l’architecture ouverte mutualisée ». Oracle passe d’une architecture monobase de données, au Multitenant container database (CDB) qui permet de fusionner plusieurs bases de données en une seule, accessible via une instance unique. Rappelons qu’avec la version précédente, réunir ces bases sous un même serveur pouvait créer des conflits d’accès aux données. Or, aujourd’hui, ces bases sont comme totalement indépendantes, chacune disposant de son propre dictionnaire de données. On peut donc héberger sur les mêmes serveurs deux sociétés aux activités similaires sans que cela ne pose de problème de sécurité. Une avancée pour les administrateurs ? Tout à fait. Mutualiser à l’intérieur d’une base centralisée permet à l’administrateur de gagner en performance, puisqu’il s’agit de gérer une base de données globale, même si plusieurs bases se stockent à l’intérieur du container. L’administrateur n’administre qu’une seule base, fait des sauvegardes centralisées de plusieurs bases à la fois, et effectue leur migration l’une après l’autre ou de façon totalement indépendante… Cette notion de centralisation et de consolidation des bases est particulièrement utile lors de l’application des patchs Oracle : un seul clic suffit pour N machines. Autre intérêt de cette architecture : on peut mutualiser dans la même base, différents métiers comme la production, la comptabilité, la gestion commerciale… sans possibilité d’accès aux données commerciales pour la production, ou à la comptabilité, etc. Cette architecture offre l’opportunité d’effectuer des opérations totalement distinctes : les DBA* peuvent se centrer sur l’administration et disposer de bases de données qui se gèrent chacune différemment : je peux arrêter la comptabilité car j’ai un traitement plus lourd à lancer par la suite, etc. Parlez-nous du déplacement de datafile… C’est en effet une fonctionnalité très pratique. Avec la 12c, selon les charges constatées sur la base, vous avez la possibilité de déplacer les fichiers de données d’un emplacement vers un autre. Imaginons qu’on est à l’étroit sur le stockage actuel, on peut prendre un nouvel espace de stockage et commencer à y déplacer les données. Si un fichier n’a pas été lu depuis six mois, on peut le transférer sur un espace de stockage moins onéreux. Une opération qui peut être également effectuée au niveau des tables et des partitions des tables. Il est aussi possible de créer une carte des charges au niveau de la base, où l’on va définir des règles qui vont répertorier les charges inhérentes aux différents objets, sur telle table ou telle table space. On peut ainsi décrire les règles automatiques qui s’exécutent à chaud sur la base. Cette fonctionnalité […]

Oracle 12c : une révolution ?


1
Temps de lecture : 4 minutes Par Christophe Blaess Le terme « système embarqué » est une traduction un peu maladroite de « embedded system » qui signifie plutôt système incorporé, intégré, enfoui. Prenons donc garde à ce mot « embarqué » qui est trop souvent connoté « mobilité ». Bien qu’un panneau d’affichage urbain ou un réfrigérateur soient plutôt statiques par nature, ils répondent parfaitement aux critères des systèmes embarqués… La notion de système embarqué Il serait peut-être plus juste de décrire un système embarqué comme un ensemble informatique. Il se trouve intégré dans une entité plus complexe dont il devient une pièce parmi d’autres. Ainsi, une carte à microprocesseur (système informatique complet) devient un simple composant d’un tableau de bord, d’un panneau de contrôle industriel, d’un objet grand-public, etc. Une caractéristique commune à la plupart des systèmes embarqués est le fait qu’ils sont conçus pour répondre à un ensemble de contraintes imposées par leur environnement de fonctionnement, ou leur destination. En voici quelques exemples courants : – contraintes matérielles. L’encombrement maximal du système (taille et poids) impose des limitations à l’autonomie (volume des batteries), au refroidissement (radiateurs et ventilateur) et par conséquent à la puissance processeur utilisable ; – contraintes logicielles. Le fonctionnement du système dans des environnements hostiles, soumis à des utilisateurs inexpérimentés ou malintentionnés… sa résilience face à des coupures d’alimentation intempestives et la possibilité de réaliser des mises à jour distantes et automatiques… sont des problèmes complexes. Il faut impérativement les prendre en considération lors de la conception d’un système embarqué ; – contraintes fonctionnelles : pour qu’un système soit en avance face à la concurrence, il est nécessaire de minimiser les coûts – donc la puissance matérielle disponible. Le tout en optimisant les fonctionnalités proposées à l’utilisateur. Le logiciel doit tirer parti de toutes les ressources disponibles via des techniques de programmation spécifiques (temps réel, multi-threading, IHM avancée, etc.). Domaines d’application Les systèmes embarqués prennent des formes très différentes et représentent une activité transverse de l’informatique. On peut toutefois les ranger dans quelques catégories couramment rencontrées : – Systèmes embarqués industriels. Ces systèmes ont essentiellement un rôle de pilotage et de supervision de processus de production industrielle. Le cœur du métier est souvent réalisé par des composants spécialisés (systèmes d’acquisition, FPGA, microcontrôleur, ASIC, etc.) dialoguant par l’intermédiaire de protocoles de communication adaptés (CAN, SPI, PCIe…) avec un processeur intégré sur une carte embarquée qui assure les fonctions secondaires (réseau, interface utilisateur, stockage…). – Électronique grand public. Les systèmes embarqués sont omniprésents dans les équipements technologiques actuels (smartphones, tablettes, liseuses…). Ils gagnent sans cesse du terrain dans de nombreux appareils domestiques (électroménager, domotique, etc.). L’interface utilisateur joue un rôle crucial dans le choix du public. Les systèmes d’exploitation et environnements logiciels doivent assurer une cohérence d’utilisation entre les différentes plateformes. C’est le domaine de prédilection des environnements comme Android, iOS, Tizen, etc. – Objets connectés, IoT (Internet of Things). Cette nouvelle branche des systèmes embarqués connaît un essor très important depuis quelques années. Le modèle repose généralement sur la connexion d’objets du […]

Tour d’horizon des systèmes embarqués



1
Temps de lecture : 3 minutes Par Frédéric Bordage* Une démarche qui a connu un véritable envol il y a plus de cinq ans, mais qui n’est toujours pas la priorité des DSI. En cause ? La peur des coûts… alors qu’une démarche rondement menée aboutit, pour les entreprises, à de belles économies. Frédéric Bordage, précurseur du numérique durable reconnu comme l’un des meilleurs experts Green IT en Europe, répond à nos questions… Le numérique peut-il vraiment être « vert » ? Expliquez-nous ce qu’est le Green IT… Le Green IT ou « Green for IT » est la rencontre entre le développement durable et le numérique. C’est une approche globale, une démarche d’amélioration continue qui vise à réduire l’empreinte économique, écologique et sociale d’un produit ou d’un service numérique. Le Green IT incite, par exemple, à allonger la durée d’utilisation des ordinateurs, à imprimer moins ou à revoir l’impact des logiciels qui nécessitent des serveurs. Bref, tout acte qui permet d’agir sur les trois piliers du développement durable. Concrètement ? Le Green IT va au-delà de la simple notion d’efficacité pour aller rechercher l’efficience. On ne répond pas à la seule question « Ai-je atteint mon but ? », mais à celle « Combien ai-je dépensé pour atteindre mon but ? ». On va donc chercher à réduire nos impacts sur l’environnement en pensant écoconception, et imaginer comment utiliser les outils informatiques pour réduire ces impacts. Avec le Green IT, il s’agit d’aller à l’essentiel. C’est l’idée de frugalité développée par Pierre Rabhi. Prenons l’exemple des sites web écoconçus : leur interface graphique est travaillée afin de disposer du minimum utile, et de répondre aux besoins fondamentaux de l’utilisateur. Lors de l’expression des besoins, seules les fonctionnalités indispensables sont retenues, pour utiliser moins de lignes de code. Il faut savoir qu’en moyenne 60 % des fonctionnalités demandées par les utilisateurs ne sont jamais utilisées. C’est l’exemple de Google qui, à l’inverse de Yahoo dont la page est chargée en logos, images…, ne propose qu’un champ de saisie.

Penser le digital « écoresponsable » ...


2
Temps de lecture : 3 minutes Tantôt aimé, tantôt détesté, JavaScript est un langage qui sort de son périmètre initial. Orsys a interviewé Florent Garin*, architecte logiciel, Expert JavaEE et dirigeant de l’entreprise DocDoku, spécialisée en solutions digitales pour l’industrie sur l’évolution de ce langage… Pourquoi s’intéresser à JavaScript aujourd’hui ? Si cette technologie était au départ essentiellement orientée client, dédiée aux applications web, elle s’est depuis répandue dans d’autres domaines : sur la partie serveur avec la plateforme Node.js, on peut désormais implémenter la partie webservices, des WebSockets ; on peut aussi coder des applications mobiles ainsi que des applications lourdes bureautiques desktop également en JavaScript. Ce qui auparavant nécessitait d’être conçu sous C# ou en Java peut désormais être conçu en JavaScript. Ce langage est sorti du WebFront, son domaine originel, pour devenir universel. On constate d’ailleurs aujourd’hui que JavaScript commence à être en concurrence avec Java. Pour exemple, l’entreprise américaine Paypal a délaissé Java au profit de JavaScript pour ses développements serveur. C’est un langage incontournable.

Le langage JavaScript au cœur des ...


1
Temps de lecture : 3 minutes Par la Rédaction ORSYS* Apparu pour la première fois en 1995 dans une publication scientifique américaine, le concept d’Open Data a été défini dans sa forme actuelle en 2007 par trente penseurs et activistes de l’internet. Depuis, les initiatives se développent tant du côté des organismes publics que des entreprises, qui en font un véritable levier d’innovation… Explications. L’Open Data ? Un concept issu de l’open source, revendiquant le libre accès aux données publiques ou privées par tous et pour tous. Il s’agit donc de rendre service à la « communauté », sans pour autant porter atteinte à la sécurité des données. Ainsi, chacun peut consulter, réutiliser des informations que des administrations ou des entreprises ont décidé de rendre publiques. Ce mouvement – proche d’une philosophie – qui concerne le monde entier, considère donc que l’information publique est d’intérêt général. Les administrations, fer de lance de l’Open Data En France, cette démarche touche avant tout les administrations contraintes par la loi à la transparence. Dès 1997, le premier ministre affirme que «les données publiques essentielles doivent désormais pouvoir être accessibles à tous gratuitement sur Internet».

L’Open Data, source d’innovations pour les ...



3
Temps de lecture : 3 minutes Depuis quelques années déjà, le monde du développement logiciel serait devenu agile. Pour exemple, eXtreme Programming et Scrum, les méthodes agiles les plus connues, sont nées il y a vingt ans. Le manifeste agile, rédigé par dix-sept experts du développement, date d’une quinzaine d’années. Un temps qui pourrait laisser penser que l’agile est désormais désuet compte tenu de l’évolution rapide de l’industrie du logiciel. Des méthodes plus actuelles ont-elles pour autant supplanté les méthodes agiles ? Par Stéphane Bagnier* L’agile pour un développement adapté aux réalités Créées dans les années 90, les méthodes agiles visent à briser le mur d’incompréhension souvent constaté entre le client et les développeurs, grâce à leurs marqueurs : dialogue direct, travail d’équipe, logiciel fonctionnel très tôt, cycles courts, retours critiques constants, process d’amélioration continue…

L’agile est-il dépassé ?