informatique


Raspberry PI ORSYS technologie
Temps de lecture : 5 minutes Près de dix ans après son lancement, le Raspberry Pi continue d’attirer aussi bien technophiles et bricoleurs que débutants en programmation et novices complets. Denis Réant*, expert IoT, nous explique pourquoi et comment une « simple carte mère » s’est imposée comme une référence parmi les nano-ordinateurs. Commercialisé pour la première fois en 2012, le Raspberry Pi a rapidement connu un grand succès. Il s’en est depuis vendu à plus de 20 millions d’exemplaires. Pourtant, à l’origine, ce qui ressemble à une simple carte mère de PC n’avait qu’un objectif pédagogique. Il s’adressait à un public au minimum technophile… En effet, vendu aux alentours de 35 € en France, le Raspberry Pi se présentait comme le parfait support pour apprendre le développement informatique à moindre coût. Alors comment expliquer que sa popularité se soit de toute évidence étendue à un public plus large ? Et de quoi s’agit-il exactement ? Qu’est-ce qu’un Raspberry Pi ? Un Raspberry Pi est un nano-ordinateur qui a la capacité de calcul d’un ordinateur « classique ». D’ailleurs, en le branchant à un écran, on peut tout à fait l’utiliser comme un ordinateur. En effet, le Raspberry Pi est doté d’autant de possibilités, et il est suffisamment puissant pour héberger un système d’exploitation – aussi bien Windows que Linux. Très facile d’utilisation, il peut ainsi servir à toute la famille pour une utilisation très basique. Comme ordinateur personnel ou, par exemple, pour s’initier à la programmation, quel que soit son niveau, le Raspberry Pi étant fourni avec des logiciels ludo-éducatifs. Son autre particularité, si on le compare à un ordinateur standard, est qu’il est conçu avec des broches directement connectées au processeur. Celles-ci permettent d’effectuer certains protocoles de communication, dans le but de lui adosser des capteurs comme une caméra, des micros… bref, tout un ensemble d’objets techniques qui vont apporter de nombreuses fonctionnalités supplémentaires d’interfaçage et ainsi combler la différence de puissance entre le Raspberry Pi et un ordinateur. Sa petite taille et son prix font de lui un support de prédilection pour expérimenter et développer différents types de projets et produits. Pour résumer, le Raspberry Pi est facile d’utilisation, pas cher, ludique et interfaçable. Des atouts qui peuvent expliquer son succès… Mais ce serait sans compter la communauté Linux. Très investie, elle contribue à faire évoluer au fil des années les services du Raspberry Pi, et ainsi à le rendre accessible à tout le monde, qu’on ait 7 ou 70 ans, qu’on soit un « geek » ou un novice ! Programmation, électronique… apprendre avec le Raspberry Pi On l’a vu, le Raspberry Pi peut s’utiliser à peu près de la même manière qu’un ordinateur traditionnel : pour faire du traitement de texte, du tableur ou de la présentation ; pour se connecter à son Drive et aller sur Internet ; pour télécharger des applications et brancher la caméra pour passer des appels en visio, etc. Mais ce qui fait sa force reste son aspect ludique. Les distributions par défaut proposent par exemple un environnement ludo-éducatif sur la programmation, et il est notamment possible : d’apprendre les bases […]

Le Raspberry Pi : pourquoi s’y ...


malware - orsys - digital
Temps de lecture : 4 minutes Les malwares se tapissent dans différents recoins de nos systèmes, comme dans les e-mails, des bandeaux publicitaires ou des logiciels téléchargés, et peuvent causer des dommages importants. Julien Valiente*, expert en cybersécurité/hacking éthique et formateur ORSYS, a répondu à nos questions pour mieux identifier les multiples facettes de ces logiciels malveillants… et les meilleures manières de s’en protéger. Quelle serait une bonne définition du malware ? Par définition, un malware (ou logiciel malveillant) est un logiciel. Leur but n’est pas forcément de porter préjudice à la victime, mais surtout d’apporter un gain à la personne qui va le mettre en œuvre. Par exemple, un logiciel malveillant peut être un ransomware (ou rançongiciel), qui séquestre les fichiers d’une victime dans le but de lui demander une rançon en échange de leur restitution. Ou encore un logiciel dont le but est d’utiliser l’ordinateur de la victime pour envoyer des campagnes de spams que l’attaquant propose en tant que service à des spammeurs qui le rémunèrent pour cela. Le logiciel malveillant ne porte donc pas nécessairement préjudice directement à la victime ; il peut aussi utiliser ses ressources au profit de l’attaquant, ce qui reste indésirable. Si des attaques, des spams ou du phishing sont émis par notre ordinateur, on peut notamment en être tenu responsable juridiquement car notre propre matériel aura participé à des actes répréhensibles, allant de la simple diffusion de spams, à des actes plus graves comme la propagation de contenus pédopornographiques… Quels sont les différents types de malwares ? On classifie les logiciels malveillants en fonction de trois facteurs : Le vecteur de propagation (comment le transmettre à la victime, par exemple par USB, e-mail, réseaux sociaux, etc.) ; La charge utile (que va-t-il faire : comme détruire un disque dur, chiffrer des fichiers, envoyer des e-mails, espionner son environnement, miner des bitcoins…) ; Le déclencheur (à quel moment le logiciel malveillant va-t-il agir, ce qui peut être continuellement lorsque l’ordinateur se met en veille ou à une date précise…). Le virus n’est pas le seul « malware ». C’est une grande famille qui comprend aussi le ver informatique (ou « worm »), ou le cheval de Troie, qui a l’apparence et toutes les propriétés d’un logiciel légitime. Ils comprennent aussi les adwares : des campagnes de publicité ou des clics réalisés à notre insu sur des bandeaux publicitaires rémunérés. En l’occurrence, ce ne sont pas des logiciels que l’on installe par mégarde sur notre ordinateur, mais des scripts installés sur des sites web. Ils s’exécutent automatiquement dans le navigateur. C’est intrusif, mais ils restent dans le navigateur… Ces techniques permettent aussi le vol d’identifiants par incitation via des pop-ups ou la création d’onglets. Les spywares et les ransomwares, enfin, ont pour objectif d’espionner leur environnement (webcam, touches frappées au clavier, WiFi, composant du réseau, etc.), ou de chiffrer les fichiers et de demander une rançon pour récupérer le contenu. On a l’impression d’avoir affaire à un système bien organisé… Il y a toute une activité bien organisée derrière le ransomware, comprenant même un support technique qui répond aux questions […]

Malwares et ransomwares : identifier le ...


externalisation informatique - ORSYS
Temps de lecture : 3 minutes En l’espace de vingt ans, le marché de l’externalisation informatique a beaucoup évolué. « Par le passé, la sous-traitance était réalisée à 80 % en régie et à 20 % au forfait. Aujourd’hui, la proportion est inverse« , observe Philippe Brunet, « IT and sourcing facilitator » et formateur chez ORSYS. Ce changement de modèle n’est pas sans incidence pour le donneur d’ordre. « Le forfait est plus contraignant. Il exige une véritable professionnalisation dans le pilotage du prestataire. » Selon Philippe Brunet, il manque parfois au sein des DSI une personne en charge de ce pilotage, c’est-à-dire un responsable de la sous-traitance ou vendor manager selon la nomenclature RH du Cigref. Il regrette également l’absence de management dans ce domaine ou « sponsor outsoursing de haut niveau ». « La DSI n’est pas toujours sensibilisée aux enjeux de gouvernance sourcing à l’exception des banques ou de grands comptes comme Total ou Carrefour qui ont adopté une véritable stratégie pour leur sous-traitance. » Pour organiser cette gouvernance, il existe un référentiel de bonnes pratiques, l’eSCM, qui est destiné aux deux parties. « C’est le seul à avoir une couverture totale de la sous-traitance. » Le passage au forfait peut aussi se révéler contradictoire avec le recours aux méthodes agiles. « Les entreprises sont de plus en plus nombreuses à sa lancer dans l’agilité mais elles n’ont pas toujours les profils adéquats (Scrum Master). Elles sous-traitent ces compétences au forfait alors que la méthode Scrum exige la présence d’une équipe unique client-prestataire. » « Shadow IT » et papy-boom Philippe Brunet observe également un changement dans les facteurs qui incitent une entreprise à recourir à l’externalisation ou outsourcing. « Le critère « coûts » devient de moins en moins important, surtout avec la transformation numérique en cours. On va chercher le prestataire pour une expertise ou une capacité d’innovation. » Le numérique intègre alors le cœur de métier, lequel ne s’externalise pas ou peu. Philippe Brunet estime que le recours à externalisation reste très important. « Beaucoup d’informaticiens partent à la retraite, notamment dans le monde occidental. Ils ne sont pas remplacés et leurs postes sont externalisés. Le DAF est satisfait, il transforme les coûts fixes en coûts variables. Un accompagnement de la DRH est souhaitable pour minimiser les impacts sociaux et intégrer la dimension de changement. » Toujours dans le sillage de la transformation digitale, l’essor du cloud a augmenté la part du shadow IT (SI sans contrôle de la DSI), fragilisant la DSI dans sa relation avec les fournisseurs. « Quand une direction métier a un besoin, il arrive qu’elle s’adresse directement aux éditeurs de solutions en mode SaaS, court-circuitant à tort la DSI. » Des entreprises ont aussi créé une direction numérique à côté de la DSI avec des risques de chevauchement dans les périmètres fonctionnels. À qui doivent s’adresser les prestataires ? Au DSI ou au chief digital officer ? La transformation numérique pose, par ailleurs, des questions de propriété intellectuelle et surtout de responsabilité juridique en cas de dysfonctionnement.   Multi-sourcing et offshore Des grands comptes sont aussi tentés de capturer le fameux esprit start-up en rachetant des start-up. Un […]

L’externalisation informatique : un marché en ...



Open Banking - ORSYS
Temps de lecture : 3 minutes Depuis septembre 2019, les banques doivent ouvrir l’accès à leurs données via des API*. Cette révolution dans un univers traditionnellement verrouillé, autrement appelée open banking, vient bouleverser le monde bancaire. Quel impact sur sa transformation et sur le parcours client ? Pour répondre à cette question, ORSYS a interviewé Yannick Delsahut**, expert fintech et innovation pour le monde bancaire. L’open banking bouleverse toute l’industrie financière Avec l’open banking, c’est tout le modèle « traditionnel » de la banque qui se voit bousculé. La connectivité des API (voir notre article précédent), ces interfaces de programmation applicative proposant un ensemble de fonctions, favorise l’émergence de services à valeur ajoutée. Ces briques technologiques, développées par les fintechs, sont indispensables aux banques qui souhaitent rester dans cette course à l’innovation. Yannick Delsahut explique : « L’open banking oblige les banques à entreprendre leur transformation… et à se différencier. Aujourd’hui, les offres se ressemblent d’un établissement à l’autre. Avec des taux de crédit de plus en plus bas, voire négatifs, les banques ont des difficultés à maintenir leurs marges. L’une d’elles a d’ailleurs annoncé qu’elle se désengageait en France en supprimant son réseau de distribution grand public. L’open banking bouleverse toute l’industrie financière. » Innover avant tout La clé de la transformation ? Pour Yannick Delsahut, elle réside sans nul doute dans l’innovation. « Ces dernières années, la banque est l’un des secteurs où les innovations ont été rares (outre les usages mobiles). Les fintechs, elles, proposent déjà des applications couplées à des services que la banque n’est pas en mesure de concevoir en un temps court. Elle a tout intérêt à s’associer les compétences de ces fournisseurs de technologies. Cette démarche se traduit par l’open innovation, espace collaboratif, autour duquel sont partagés vision du métier, innovation, transfert de compétences.» Le dirigeant ajoute : « On peut penser que certains établissements bancaires se cachent derrière un risque de sécurité pour repousser le plus tard possible l’échéance. Mais il en est une qui est non négociable : la banque doit dégager des revenus quoiqu’il arrive. En clair, soit elle considère ce changement comme une menace et elle est vouée à disparaître, soit elle s’appuie sur les fintechs déjà en avance sur le sujet pour en faire une opportunité… et accroître au passage son périmètre d’action ! Elle doit se redéfinir, diversifier ses métiers, accompagner plutôt que subir. » Être présent en amont et en aval du besoin bancaire Ainsi l’open banking va-t-il pousser la banque à créer de la valeur avec des offres extra-financières ? Yannick Delsahut explique : « exploiter les modèles opérationnels lui permettra de proposer de nouveaux services périphériques en accompagnant. Par exemple, ses clients en amont et en aval de ses besoins financiers. Un client a besoin d’un crédit immobilier. Sa banque pourra l’aider à trouver le bien immobilier correspondant à ses capacités d’emprunt, ou lui conseiller de rester locataire et l’aider dans sa recherche… mais aussi assurer son bien dès l’annonce de son déménagement, sans pour autant demander à son client de signer de nombreux papiers. C’est ce qu’on appelle le “beyond banking”. » L’expérience client au cœur des […]

Les banques à l’heure de l’open ...


cybersécurité - ORSYS 1
Temps de lecture : 4 minutes En 2020, la cybersécurité en entreprise demeure un enjeu important, quoique sous-estimé. Parmi les facteurs de risques : la négligence humaine. Hélène Courtecuisse*, consultante en sécurité, revient sur l’importance (et la manière) d’y sensibiliser ses collaborateurs. En matière de cybersécurité, il y a deux façons d’appréhender la dimension humaine : considérer que l’humain représente un maillon faible, la « négligence humaine », ou décider d’en faire le maillon fort. Évidemment, les deux perceptions se complètent ; mais il est essentiel de ne pas focaliser le dialogue sur la première, qui reste négative et quelque peu défaitiste. D’autant que la problématique existait déjà avant l’ère de la transformation digitale. Elle était différente, puisqu’Internet faisait à peine ses débuts. Les systèmes n’étaient pas ouverts et, sans smartphones ni laptops, la sécurité en entreprise ne connaissait pas les difficultés qu’entraîne la mobilité d’aujourd’hui. Mais les brèches de confidentialité n’étaient pas moins liées à cette négligence humaine. Parce qu’on se méfiait notamment beaucoup de l’espionnage physique, les entreprises devaient compter sur leurs collaborateurs pour appliquer certaines bonnes pratiques, telles que la mise sous clé de documents. Si la technique n’a plus rien à voir aujourd’hui, on demande toujours aux collaborateurs en entreprise de faire attention. Ce sont les précautions de base et les risques qui ont changé. Des risques « invisibles » difficiles à appréhender Pour commencer, les risques sont plus compliqués à appréhender ;  ils sont plus variés, parfois beaucoup plus techniques. Ils prennent différentes formes qui peuvent désarçonner toute personne non experte. Sans compter que les attaques se font de façon « silencieuse » et totalement invisible. On peut ne pas se rendre compte, par exemple, qu’un site Internet sur lequel on souhaite faire un achat, qu’il soit ou non d’une enseigne connue, est infesté par un malware. En termes de cyber malveillance, on parle aujourd’hui de haute technologie. Les attaques sont plus nombreuses, elles se sont perfectionnées et sont bien plus difficiles à contrer. Pour autant, la sensibilisation aux risques de base des collaborateurs, même non-spécialistes, reste non seulement possible, mais tout à fait nécessaire. On n’entendra évidemment pas couvrir tous les sujets en une journée. D’ailleurs, même des spécialistes ne peuvent pas prétendre appliquer toutes les consignes à 100%. Dans ce domaine, il faut faire son deuil de toute idée de perfection. Il faut plutôt s’appliquer à former les gens sur la durée. Dans le cas des OIV (Opérateurs d’importance vitale), qui sont des entreprises soumises à la loi de programmation militaire (domaines bancaires, de l’alimentation, etc.), il y a d’ailleurs une obligation d’assurer la formation de tous les collaborateurs au minimum une fois par an. Les bonnes pratiques doivent évoluer avec les technologies. Des menaces à (re)connaître On distingue deux catégories principales de cyber menaces à l’heure actuelle : Le phishing Une quantité impressionnante d’e-mails de phishing circulent. Ils incitent les gens à cliquer sur un lien, ouvrir une pièce-jointe et donner des informations personnelles. Il est déjà dangereux de cliquer, mais certaines personnes tombent encore dans le piège et fournissent les informations demandées. Le problème, au-delà du manque de […]

Pourquoi (et comment) sensibiliser ses collaborateurs ...


2
Temps de lecture : 4 minutes Par sa facilité d’utilisation, sa couverture fonctionnelle et sa politique tarifaire agressive, Power BI l’outil décisionnel et de datavisualisation de Microsoft connaît un fort engouement depuis deux ans. Il s’inscrit dans la nouvelle génération d’outils de « self service BI » aux côtés de Tableau Software et Qlik. Power BI désormais incontournable Power BI a fait une entrée discrète sur le marché en septembre 2013. Microsoft dévoilait alors une sorte de descendant analytique d’Excel, consolidant en une seule interface tous les add-ons qui étaient venus enrichir le célèbre tableur, comme Power Pivot pour l’analyse et la modélisation, Power Query pour le requêtage ou Power View pour la restitution. Puis, au fil des années, à raison d’une mise à jour par mois, la solution s’est fortement développée pour devenir aujourd’hui incontournable sur le marché du décisionnel. Dans son dernier quadrant magique, Gartner place Microsoft parmi les leaders des éditeurs de plateformes de business intelligence (BI), assez loin devant son dauphin, Tableau Software, qui a été récemment racheté par Salesforce. « Power BI connaît un réel engouement depuis deux ans, quel que soit le type d’organisation – PME, grand compte, administration – ou de secteur d’activité – santé, industrie, énergie… « , observe Nicolas Dubois, consultant formateur en data intelligence chez BIAL-X et formateur ORSYS. Plus de 70 connecteurs, des visuels pré-paramétrés Ce succès, Power BI le doit d’abord à sa facilité d’utilisation. « Un expert métier qui a déjà conçu des macros sous Visual Basic retrouvera l’environnement de développement familier d’Excel, poursuit-il. Il ne sera pas désarçonné. » Autre point fort : la connectivité de l’outil. « Avec plus de 70 connecteurs intégrés, Power BI peut accéder à n’importe quelle source de données qu’il s’agisse de pages web, de fichiers CSV, d’une base de données relationnelle ou de données non structurées dans le cloud. » Pour la restitution, Power BI propose une large palette de visuels et de graphiques pré-paramétrés qu’il suffit de personnaliser. Et si cette sélection ne suffit pas, la market place rassemble en ligne 250 visuels proposés gratuitement par la communauté. « Revers de la médaille : il y a tellement de visuels que l’on peut passer du temps à trouver le bon. » Pour Nicolas Dubois, Power BI s’adresse à tous les types de reporting et donc à toutes les strates de l’entreprise. À commencer par les opérationnels qui ont besoin de rapports leur permettant de suivre l’activité et de rendre compte aux managers intermédiaires. Cela peut se rapporter à des métriques comme le pourcentage de vente d’un produit rapporté au chiffre d’affaires global pour un service commercial ou le suivi du taux d’absentéisme pour les ressources humaines. Les experts métiers vont, eux, analyser les données depuis l’éditeur « R » ou « Python » directement pris en charge dans Power BI ou encore grâce aux « mesures rapides » apportant des fonctionnalités statistiques classiques comme les variations temporelles ou les calculs contextuels. Outil de stratégie Enfin, l’outil permet la construction de tableaux de bord stratégiques. « En un coup d’œil, un décisionnaire peut analyser l’état de santé de son entreprise en rassemblant dans une […]

Power BI, les raisons d’un succès



2
Temps de lecture : 3 minutes Si le passage au cloud est un prérequis à toute transformation numérique, il expose l’entreprise à de nouveaux risques. Celle-ci doit en tenir compte et changer son approche en matière de cybersécurité. Offrant une infrastructure « scalable » et une puissance de calcul infinie, le cloud est un levier incontournable pour toute stratégie de transformation numérique. Il expose toutefois à de nouveaux risques. Alors que jusqu’ici, ses données restaient au « chaud », hébergées dans les serveurs ou le datacenter de l’entreprise, elles sont désormais avec le cloud ouvertes à tous les vents. La montée vers le nuage se généralisant – 40 % de l’infrastructure informatique des entreprises françaises est sous architecture cloud selon un livre blanc de Rohde & Schwarz Cybersecurity et CXP Group –, les cybercriminels ont massivement jeté leur dévolu sur les services cloud. Les menaces portent avant tout sur les données que le cloud a rendues plus accessibles, qu’il s’agisse de demandes de rançons (ransomwares), d’utilisations frauduleuses de données tierces ou d’espionnage. Les principales vulnérabilités du cloud public Le cloud ayant multiplié les authentifications pour accéder à ses différents services, la menace autour des usurpations d’identité est devenue une préoccupation majeure, en particulier en ce qui concerne les comptes à privilèges. Si les prestataires de clouds publics investissent fortement dans la protection de leurs plateformes, ils peuvent aussi servir de rampe de lancement pour les cybercriminels. Fin juillet, les chercheurs de Proofpoint ont détecté une campagne de phishing hébergée dans les cloud d’Amazon Web Services (AWS) et de Microsoft Azure. Elle usurpe la marque DocuSign (solution de signature électronique) en copiant le formatage des e-mails pour cibler des individus spécifiques au sein d’une entreprise. Selon un récent rapport de Checkpoint, les principales vulnérabilités du cloud public concernent : les accès non autorisés (42 %), les interfaces non sécurisées (42 %), les erreurs de configuration (40 %) et les détournements de comptes (39 %). 66 % des personnes interrogées pour cette même étude ont déclaré que les solutions de sécurité traditionnelles ne fonctionnaient pas du tout ou ne fournissaient que des fonctionnalités limitées dans le cloud. Un autre rapport, réalisé par l’Unité 42 de l’éditeur Palo Alto Networks, note que l’exposition des données augmente avec l’adoption des conteneurs logiciels de type Docker et Kubernetes. Il a mis en évidence que plus de 40 000 plateformes de containerisation reposant sur des configurations par défaut étaient particulièrement vulnérables. Le shadow IT démultiplié par le cloud Et encore, il ne s’agit là que de la partie émergée de l’iceberg… le cloud favorise le shadow IT, notamment les applications installées sous le radar de la DSI. Selon une étude réalisée par le Club des experts de la sécurité de l’information et du numérique (Cesin) en partenariat avec Symantec, une entreprise utilise en moyenne cinquante fois plus d’applications et de services cloud qu’elle n’en a recensés. Les salarié.e.s font notamment grand usage des messageries web de type Gmail ou Yahoo Mail et des espaces de stockage en ligne comme Google Drive, Dropbox ou WeTransfer. Bloquer l’accès […]

Le cloud, talon d’Achille d’une politique ...


informatique quantique - ORSYS 3
Temps de lecture : 3 minutes Si l’informatique quantique est un sujet complexe, c’est aussi le sujet du moment… Philippe Nieuwbourg, expert en analyse de données, nous explique de quoi s’il s’agit, et pourquoi il est important de commencer à s’y intéresser. Si vous vous intéressez un peu aux tendances de l’informatique, vous avez certainement entendu parler d’ informatique quantique. Sans doute n’avez-vous pas compris grand-chose, et c’est tout à fait normal ! Pour comparer, savez-vous qu’il existe à peu près autant de différences entre les cartes perforées des débuts de l’informatique, et votre iPhone aujourd’hui ? Qu’entre les ordinateurs actuels et les futurs systèmes quantiques dans quelques décennies ? Nous sommes aux prémices d’une génération complètement différente de calculateurs qui se construit actuellement dans les laboratoires de Google, IBM, D-Wave, Rigetti, Fujitsu… et ce, dans les centres de recherche les plus secrets des États-Unis et de Chine en particulier. Un chiffre pour garder votre attention ? La Chine a décidé d’investir environ 10 milliards de dollars durant les prochaines années autour de la recherche dans le domaine du quantique. Des applications à complexité exponentielle dans le domaine de la simulation Commençons par les usages et non par la technique. Et par un inventaire à la Prévert : ABN AMRO, Barclays, BBVA, CaixaBank, Airbus, BMW, Daimler, Volkswagen, Thales, Merck, Roche, Total… qu’ont en commun ces entreprises et plusieurs dizaines d’autres ? Elles ont toutes mis en place des programmes de recherche et de développement en informatique quantique. Et pour résoudre quels types de problèmes ? Des problèmes inaccessibles aux ordinateurs traditionnels. Cela concerne, par exemple, l’optimisation individuelle des déplacements d’une population ; la modélisation des comportements d’une molécule en fonction de milliers de facteurs ; la mise en place de systèmes de cryptage résistants aux « hackers quantiques » ; l’optimisation de la dynamique des fluides ; la simulation avancée d’instruments financiers complexes… Les applications sont aussi nombreuses que créatrices de valeur. Dans certains cas, l’informatique quantique permettrait de passer de plusieurs jours de calculs de simulations à quelques minutes. Les secteurs de la finance, du transport, de la santé, de la chimie, de l’énergie, mais également militaire, électronique et de communication, sont particulièrement concernés. Puissance de calcul et gain de temps sont les deux arguments principaux de l’informatique quantique. De la physique traditionnelle à la physique quantique Mais de quoi s’agit-il ? D’ordinateurs à l’architecture et aux composants totalement nouveaux, basés sur les propriétés étonnantes de la physique quantique. Faut-il être docteur en physique pour s’intéresser au sujet ? Non, et heureusement. Les concepteurs de ces technologies sont en revanche les meilleurs experts mondiaux de la physique quantique. Nous nous contenterons donc de survoler leurs compétences. En revanche, c’est notre rôle de développer les applications qui permettront aux entreprises d’utiliser ces nouveaux ordinateurs quantiques. La physique quantique, donc… De quoi s’agit-il ? La physique traditionnelle est celle de notre monde. Thalès, Archimède, Newton, et bien d’autres, nous ont expliqué comment notre monde fonctionne. Mais depuis le début du XXème siècle, d’autres physiciens s’intéressent à l’infiniment petit : le monde quantique. Il s’agit de Einstein, Planck, de Broglie. Les règles du monde quantique sont […]

Informatique quantique : les premières applications ...


1
Temps de lecture : 4 minutes Le robot, un concentré d’Intelligence Artificielle Pour interagir avec l’homme, un robot humanoïde fait appel à tout ce que peut offrir l’IA pour se doter de la parole, de la vue, de l’ouïe et du toucher. Un concentré d’intelligence qui fait appel à de nombreuses expertises. L’Intelligence Artificielle est le grand sujet de discussion du moment, y compris dans le grand public. Il soulève des débats tant techniques que sociologiques ou éthiques. Pour autant, il est toutefois difficile de lui donner une représentation. Dans les médias, l’IA prend souvent la forme de robots humanoïdes comme les fameux Nao et Pepper de SoftBank Robotics. Pour ressentir les émotions humaines et adapter son comportement à l’humeur de son interlocuteur, ce type de robot réunit un concentré de tout ce que peut offrir l’IA. Les technologies de reconnaissance faciale et de formes, de compréhension du langage, de reconnaissance et de synthèse vocales lui permettent de le doter de la parole, de la vue, de l’ouïe et du toucher. La robotique fait appel à un grand nombre de domaines d’expertise Pour Cédric Vasseur, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS, « la robotique permet à l’IA de se frotter aux réalités du terrain. On sort de la théorie pour rentrer dans le concret. Est-ce que le robot accomplit correctement sa tâche ? Le feed-back est immédiat. » Pour arriver à embarquer cette intelligence dans un environnement contraint, la robotique fait appel à un grand nombre de domaines d’expertise. La conception du robot puis sa programmation supposent notamment des connaissances en électronique, en mécanique et en informatique embarquée. « Savoir à la fois souder des mini-composants et concevoir une IA est très rare. Un diplômé en électronique va se former à l’IA ou inversement un data scientist va se roder à la mécatronique. » Cette exigence explique, pour partie, le manque de vocations chez les jeunes diplômés et la pénurie de spécialistes, notamment en robotique industrielle. Le robot doit ressembler à l’homme mais pas trop Les progrès de la robotique ne sont toutefois pas aussi spectaculaires que le laissent imaginer certaines vidéos de Boston Dynamics comme celle-ci où l’on voit un robot courir, gravir une pente, sauter un obstacle. « Ces vidéos ne nous montrent que les fois où le robot a réussi, tempère Cédric Vasseur. Une telle prouesse suppose que le robot s’adapte au contexte en analysant son environnement puis en simulant le déplacement avant de passer à l’action. Nous n’en sommes pas encore là. » En revanche, un robot est capable de trier des objets, détecter des anomalies. « Par facilité, nous nous représentons mentalement un robot anthropomorphique mais il n’a pas forcément besoin de bras ou de jambes. Il peut se déplacer plus facilement avec un système de chenilles. Le projet Asimo de Honda vient d’être arrêté. Bardé de capteurs, il ne fonctionnait plus s’il y avait un problème d’éclairage. » Rendre le robot le plus humain possible ? Peut-être pas… Rendre le robot le plus humain possible peut créer un sentiment de malaise, à l’image du japonais […]

Projet IA 3/3 : quels progrès ...



Temps de lecture : 4 minutes Projet IA – Episode 2 L’essor de l’Intelligence Artificielle (IA) est une formidable opportunité pour libérer l’Homme des tâches les plus ingrates. Plus que concurrencer l’intelligence humaine, l’IA la complète et la nourrit. Depuis quelques années, nombre d’études et d’articles dépeignent un avenir sombre. L’essor de l’Intelligence Artificielle et de la robotisation aurait alors un impact négatif sur un grand nombre de métiers. De 9 % à 47 % des emplois actuels seraient concernés par la transformation numérique en cours si l’on prend en compte le constat du cabinet Roland Berger, de l’Université d’Oxford, de l’OCDE ou plus récemment du Conseil d’orientation pour l’emploi. Cette appréhension de se faire remplacer par la machine n’est pas nouvelle. Elle existe en effet de tout temps, rappelle Cédric Vasseur*, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS. « Les lavandières ont été remplacées par la machine à laver. Néanmoins aujourd’hui, qui est prêt à revenir en arrière et à abandonner son lave-linge ? ». Selon la célèbre théorie de la « destruction créatrice » de Joseph Schumpeter, chaque cycle d’innovation commence par détruire des emplois puis contribue à en créer plus qu’elle n’en supprime. « Le personnel des Postes n’aurait pas existé sans l’invention du téléphone », illustre Cédric Vasseur. Une révolution comparable à la machine à vapeur Pour McKinsey, l’Intelligence Artificielle devrait doper la croissance mondiale de 1,2% par an en moyenne jusqu’en 2030. Selon le cabinet d’études, nous vivons là un phénomène de rupture de même ampleur que la machine à vapeur au XIXème siècle. Et comme à chaque révolution technologique, des métiers sont appelés à se transformer, d’autres à disparaître. Un site en anglais indique sous forme de pourcentage les risques qu’a votre métier de se faire « uberiser ». Une forme de logique est respectée. Les personnes exécutant des tâches répétitives – manutentionnaire, caissier/ère, standardiste… – présentent davantage de risques de se faire remplacer. À l’inverse, les métiers au plus proche de l’humain, faisant appel au relationnel et à la créativité, devraient être épargnés. On pense aux médecins, aux psychologues, aux aides à domicile, aux artistes. IA et robotique, quelles opportunités ? Pour Cédric Vasseur, l’IA et la robotisation constituent une opportunité unique d’en finir avec la pénibilité de certains métiers. Elle permettrait de libérer l’homme des tâches les plus fastidieuses pour lui donner du temps pour réfléchir, innover, entreprendre. « Les magasiniers d’Amazon gagneraient à être réaffectés sur des postes moins rébarbatifs et plus créatifs. ». Déjà, le métier d’assistant(e) médical(e) a retrouvé de son intérêt depuis la généralisation des services en ligne de prise de rendez-vous. D’autres professions vont changer de nature. « Pour faire face à l’érosion continue du volume du courrier, les postiers assurent des services à la personne, comme veiller sur les personnes âgées ». En revanche, « les analphabètes du numérique » auront, selon lui, du mal à trouver leur place dans la société à venir. On parle ici d’ « illectronisme ». Pour financer les colossaux programmes de formation et de reconversion qu’il faudra consentir, il se dit favorable à des solutions politiques comme la taxe sur les […]

Projet IA 2/3 : avec l’Intelligence ...


cybersécurité - ORSYS
Temps de lecture : 4 minutes Par la Rédaction ORSYS Pour faire face à la multiplication des menaces, les fournisseurs de solutions de sécurité font appel à l’Intelligence Artificielle (IA). Les parades sont aussi organisationnelles et tous les collaborateurs doivent être sensibilisés aux cyber-risques.   Les récentes failles de sécurité chez Facebook et Google montrent qu’aucune organisation n’est à l’abri des pirates informatiques. Si les GAFA, avec leurs ressources infinies aussi bien technologiques que financières, ne peuvent se prémunir des cyber-attaques dont ils font l’objet, on imagine les entreprises lambda autrement plus vulnérables. Selon une étude du Cesin, le club des experts de la sécurité de l’information et du numérique, 92% des sociétés interrogées reconnaissent avoir fait l’objet d’attaques à plusieurs reprises avec une forte augmentation des tentatives d’intrusion en un an. La question n’est plus de savoir si une entreprise subira une attaque mais quand elle se produira. Un rapport, dressé par les instituts européens d’audit interne membres de l’ECIIA, place la cybersécurité en tête des risques qui menacent l’entreprise. Le risque est aussi financier. Entré en vigueur le 25 mai 2018, le RGPD fait aussi de la protection des données sensibles un enjeu d’entreprise avec un niveau de sanction jamais égalé. En cas de violation de données, l’autorité de contrôle – la CNIL en France – peut prononcer des amendes. Elles peuvent aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires global. Et elles retiennent le montant le plus élevé des deux. Les nouveaux risques Les sociétés doivent non seulement faire face à une multiplication des menaces mais aussi à une complexification. Au-delà des « traditionnels » vols d’information, attaques en déni de service et autres défigurations de site Web, sont apparus de nouveaux fléaux. En 2017, les logiciels malveillants WannaCry et NotPetya infectaientt des grands comptes comme Renault, Auchan et Saint-Gobain. Ils ont fait connaître au plus grand nombre le principe du ransomware ou rançongiciel. Les pirates chiffrent un fichier ou une base de données puis exigent une rançon en Bitcoins ou via PayPal pour le déverrouiller. Après avoir démarré sur les serveurs et les postes de travail, les ransomwares s’attaquent aux Smartphones et aux objets connectés. Autre menace qui est montée en puissance ces derniers mois, le cryptomining.  Il consiste à utiliser la puissance de calcul d’ordinateurs ou de serveurs pour effectuer le travail de minage. Travail nécessaire à l’extraction de crypto-monnaies de type Bitcoin. Les machines « chauffent » inutilement, consomment davantage de bande passante et d’électricité et vieillissent prématurément. L’essor de l’Internet des objets expose également les entreprises à de nouveaux risques. Le malware Mirai et ses variantes permettent de constituer des botnets d’objets connectés zombies. Et cela pour lancer des attaques massives en déni de service. Plus largement, tout dispositif contenant un composant numérique est potentiellement « hackable ».  La prise de contrôle à distance d’une voiture connectée l’a montré . La protection de type château fort a vécu Face à ces menaces protéiformes, les antivirus, les anti-malwares et autres pare-feu, reposant sur des bases de signatures connues, montrent […]

La cybersécurité, l’affaire de tous en ...


Temps de lecture : 3 minutes Par Rudi BRUCHEZ* Après trente ans d’existence, SQL Server est devenu un produit très riche. Que nous réserve l’avenir en termes de fonctionnalités et de rythme des mises à jour ? SQL Server, en constante évolution SQL Server, le Système de Gestion de Bases de Données Relationnelles (SGBDR) de Microsoft a maintenant plus de trente ans. C’est en effet en 1988 que Microsoft s’est allié avec Sybase et Ashton-Tate. Et cela pour développer une variante de Sybase pour OS/2. Depuis, et surtout à partir de SQL Server 2005, qui fut une révolution tant pour les fonctionnalités que pour l’architecture interne, Microsoft n’a cessé de renforcer et d’enrichir ce qui est devenu le troisième SGBD selon le classement de popularité de db-engines. Voyons alors quelles ont été les tendances récentes et ce que cela peut augurer pour les versions à venir. Méfiez-vous des nouvelles fonctionnalités Depuis 2005, à cause d’une longue période de développement entre 2000 et 2005, Microsoft a décidé d’un rythme de sortie de deux ans. Il s’y est tenu pendant une décennie : 2008, 2008 R2 en 2010, 2012, 2014 et 2016. Certaines versions ont été plus généreuses que d’autres, et chacune a proposé une ou deux nouveautés phares : AlwaysOn Availability Groups pour SQL Server 2012 In-Memory OLTP pour SQL Server 2014 Query Store pour SQL Server 2016. Ce rythme s’est accéléré l’an dernier, pour une raison spéciale : le port de SQL Server sur Linux, que j’ai déjà évoqué dans cet article. Avec l’expérience, on peut aussi identifier un schéma récurrent. Lorsqu’une nouvelle fonctionnalité, en tout cas lorsqu’elle touche les développeurs, est mise en production, elle l’est dans une sorte de pré-version alléchante mais inachevée. Cela fut le cas de l’indexation ColumnStore en SQL Server 2012. L’indexation de ce type forçait la table en lecture seule. Les équipes de développement de Microsoft n’avaient pas eu le temps de mettre au point un mécanisme de mise à jour suffisamment performant. Même problématique pour les tables In-Memory en SQL Server 2014. De nombreuses limites de syntaxes les rendaient pratiquement inutilisables dans cette première version. Le problème se présente aujourd’hui avec les tables de graphes en SQL Server 2017, où – c’est le comble ! – les algorithmes de traversées de graphes qui fondent ce type de structure, sont absents. La traduction française de la fonctionnalité est même tristement comique : « tables graphiques »… On a vraiment l’impression d’une pré-version passée en production, et on pourrait soupçonner une stratégie de « tâtage de terrain ». Y a-t-il une valeur forte à intégrer cette fonctionnalité dans SQL Server. Ou s’agit-il de remplir une case manquante, pour dire « nous l’avons fait » et pour évaluer ensuite l’intérêt des clients, qui déterminera l’effort déployé ensuite dans l’enrichissement de la fonctionnalité ? Le piège des premières versions En fait, le rythme de sortie de deux ans est un piège. Ainsi poussé à justifier une nouvelle version, Microsoft inclut des fonctionnalités majeures dans une étape de conception intermédiaire. Cela ressemble donc à une forme d’intégration continue directement en production. Mais les temps ont changé depuis […]

Quelles sont les tendances pour SQL ...



2
Temps de lecture : 3 minutes Un grand nombre d’entreprises devront désigner un DPO avant le 25 mai 2018 et l’entrée en application du règlement européen sur la protection des données personnelles (RGPD). Quel est son profil ? Son rôle ? Quelques éléments d’explication.   Après le CDO (chief digital officer) et le CTO (chief transformation officer), un nouvel acronyme fait son apparition dans les organigrammes. Place au DPO pour data protection officer ou, en bon français, DPD, le délégué à la protection des données. Un poste qui suscite les convoitises. C’est, en effet, lui qui sera le garant de la mise en conformité avec le RGPD, le projet règlementaire le plus sensible du moment.

Le DPO, fonction clé de la ...


3
Temps de lecture : 3 minutes Au-delà de la création d’intranet, SharePoint permet la gestion électronique de documents ou l’automatisation de flux de travail. Un potentiel qui s’exprime pleinement dans sa version Cloud. SharePoint fait partie du paysage informatique de nombreuses entreprises, au même titre que d’autres applications de la suite Office de Microsoft comme le célèbre trio Word, Excel et PowerPoint. Ses débuts remontent à 1999 avec la naissance de Microsoft Dashboard dont il est le descendant direct. Depuis, cet outil dédié à la gestion de contenus n’a cessé d’évoluer notamment dans sa version Cloud, SharePoint Online.

(Re)découvrez tout le potentiel de SharePoint ...


2
Temps de lecture : 3 minutes Par la Rédaction ORSYS Fini les clichés à la Germinal. Une usine serait forcément sale, bruyante, dangereuse et le travail pénible et répétitif. Ce n’est plus vrai. Pour renforcer l’attractivité de ses métiers, la Fédération des Industries Mécaniques a d’ailleurs mis en scène de jeunes professionnels épanouis dans une série de vidéos sur YouTube. La modernisation des lignes de production a, de fait, redonné à l’homme le rôle qu’il n’aurait jamais dû quitter. L’homme a ainsi longtemps été asservi à la machine. Mais aujourd’hui, c’est la machine qui se met à son service lui permettant d’exercer des tâches plus valorisantes.

L’usine du futur est déjà là



2
Temps de lecture : 3 minutes Reprise et mise à jour d’un article ORSYS Avec Claude COUDERC * 90 secondes pour vous expliquer SharePoint avec des mots simples et des exemples concrets En quelques années, SharePoint est devenu un outil capital dans l’organisation des données informelles. Depuis sa version novatrice de 2007, les entreprises ont commencé à connaître cet outil unique. Il a plus de 100 millions d’utilisateurs recensés dans le monde. Les dernières versions, SharePoint Online et SharePoint 2016, ont confirmé et renforcé son succès, aussi bien auprès de l’entreprise publique que privée. Ce dernier point est remarquable en soi car il confirme la pertinence du choix. Pourtant, peut-être à cause de sa richesse fonctionnelle, vous avez pu percevoir SharePoint comme une grosse nébuleuse avec des paramètres disséminés un peu partout. Ou bien, vous vous demandez tout simplement : « Qu’est-ce que SharePoint et à quoi sert-il ? »

90 secondes pour Microsoft SharePoint – ...


Temps de lecture : 3 minutes ORSYS a lu pour vous… Avec le Big Data, la révolution des données est en marche. En 2015, Gilles Babinet, nommé Digital champion par la ministre déléguée au Numérique trois années plus tôt, donnait son point de vue sur cette révolution des données dans un nouvel opus. À lire sans tarder si vous vous demandez toujours comment le Big Data peut changer votre monde… Quel est l’impact du Big Data ? Les entreprises, les collectivités doivent-elles s’y intéresser ? Pour Gilles Babinet, le doute n’est pas permis.

« Big Data, penser l’homme et ...


1
Temps de lecture : 4 minutes Alors que les matériels de vidéosurveillance se démocratisent, la question des flux de données rend indispensable une formation complémentaire… Une formation animée depuis quatre ans chez ORSYS par Marc Pichaud*. Pourquoi se former à la vidéosurveillance ? On a pourtant l’impression que les systèmes se sont simplifiés… Marc Pichaud : Dotés de caméras analogiques coaxiales en noir et blanc, puis en couleur, les premiers systèmes sont apparus dans les années soixante-dix.

Comment gérer un projet de vidéosurveillance ...



4
Temps de lecture : 3 minutes     François Olivier*, vous animez des formations en bureautique depuis plusieurs années et êtes spécialiste, notamment, du TOSA®, sujet qui nous intéresse aujourd’hui : Tout d’abord, pouvez-vous nous dire en quelques mots ce qu’est le TOSA® ? FO : Le TOSA® (Test on Software Applications) est une certification pour la bureautique et la programmation informatique éligible au CPF.

Pourquoi passer une certification en bureautique ...


1
Temps de lecture : 2 minutes « Près de la moitié des entreprises ne disposent toujours pas d’une stratégie adaptée pour lutter contre le piratage informatique » Jocelyn Grignon, Grant Thornton Sony, eBay, Home Depot, JP Morgan, Target, VTech… Les cyberattaques se multiplient et n’épargnent aucun secteur d’activité. La révolution numérique s’accompagne donc de nouveaux risques avec le vol et la fraude de données, les attaques par déni de service jusqu’au « breakdown » total des infrastructures. Ainsi en 2015, les risques IT figurent dans le top 5 des risques globaux identifiés par le Forum de Davos. C’est une première. Par où commencer ? Audit, analyse des risques, normes et référentiels, cadre juridique et réglementaire, rôle du RSSI, choix de solutions de protection et de supervision, sensibilisation des salariés, budget etc… Nous avons sollicité l’un de nos experts en sécurité, Pascal Gouache* pour qu’il nous fasse un état des lieux et nous donne ses prévisions sur les  normes ISO 27 001 : 2013 permettant de mettre en place un système de management (SMSI) du risque de la sécurité de l’information. La norme internationale de maîtrise du risque ISO/CEI 27001 lié à la sécurité de l’information décrit, sous forme d’exigences, les bonnes pratiques à mettre en place pour qu’une organisation puisse maîtriser efficacement les risques liés à l’information. Vidéo : Avis d’expert * Pascal GOUACHE Expert en cybersécurité et ingénieur Telecom Paris Tech (ENST), son expérience de la sécurité des technologies de l’Information lui a permis successivement de réaliser des missions d’intégration et de conseil auprès de grands groupes privés et publics, puis de devenir responsable du pôle Intégration de Sécurité IT au sein de Thales. En 2005, il est à l’initiative du développement du premier Appliance pare-feu applicatif français. Depuis huit ans, il assure également des missions d’audit de sécurité dans les domaines industriels et financiers. Il est un des référents français sur des projets de sécurité ISO 27001/27002 ainsi que sur le standard de sécurité de Visa/Mastercard PCI DSS. Formations associées : ■ ASE   Implémenter et gérer un projet ISO 27001:2013  ■ LAU   ISO 27001:2013 Lead Auditor, mise en pratique, certification ■ LED   ISO 27001:2013 Lead Implementer, mise en pratique, certification  

Sécurité des systèmes d’information : actualités ...


1
Temps de lecture : 4 minutes Par Christophe Blaess Le terme « système embarqué » est une traduction un peu maladroite de « embedded system » qui signifie plutôt système incorporé, intégré, enfoui. Prenons donc garde à ce mot « embarqué » qui est trop souvent connoté « mobilité ». Bien qu’un panneau d’affichage urbain ou un réfrigérateur soient plutôt statiques par nature, ils répondent parfaitement aux critères des systèmes embarqués… La notion de système embarqué Il serait peut-être plus juste de décrire un système embarqué comme un ensemble informatique. Il se trouve intégré dans une entité plus complexe dont il devient une pièce parmi d’autres. Ainsi, une carte à microprocesseur (système informatique complet) devient un simple composant d’un tableau de bord, d’un panneau de contrôle industriel, d’un objet grand-public, etc. Une caractéristique commune à la plupart des systèmes embarqués est le fait qu’ils sont conçus pour répondre à un ensemble de contraintes imposées par leur environnement de fonctionnement, ou leur destination. En voici quelques exemples courants : – contraintes matérielles. L’encombrement maximal du système (taille et poids) impose des limitations à l’autonomie (volume des batteries), au refroidissement (radiateurs et ventilateur) et par conséquent à la puissance processeur utilisable ; – contraintes logicielles. Le fonctionnement du système dans des environnements hostiles, soumis à des utilisateurs inexpérimentés ou malintentionnés… sa résilience face à des coupures d’alimentation intempestives et la possibilité de réaliser des mises à jour distantes et automatiques… sont des problèmes complexes. Il faut impérativement les prendre en considération lors de la conception d’un système embarqué ; – contraintes fonctionnelles : pour qu’un système soit en avance face à la concurrence, il est nécessaire de minimiser les coûts – donc la puissance matérielle disponible. Le tout en optimisant les fonctionnalités proposées à l’utilisateur. Le logiciel doit tirer parti de toutes les ressources disponibles via des techniques de programmation spécifiques (temps réel, multi-threading, IHM avancée, etc.). Domaines d’application Les systèmes embarqués prennent des formes très différentes et représentent une activité transverse de l’informatique. On peut toutefois les ranger dans quelques catégories couramment rencontrées : – Systèmes embarqués industriels. Ces systèmes ont essentiellement un rôle de pilotage et de supervision de processus de production industrielle. Le cœur du métier est souvent réalisé par des composants spécialisés (systèmes d’acquisition, FPGA, microcontrôleur, ASIC, etc.) dialoguant par l’intermédiaire de protocoles de communication adaptés (CAN, SPI, PCIe…) avec un processeur intégré sur une carte embarquée qui assure les fonctions secondaires (réseau, interface utilisateur, stockage…). – Électronique grand public. Les systèmes embarqués sont omniprésents dans les équipements technologiques actuels (smartphones, tablettes, liseuses…). Ils gagnent sans cesse du terrain dans de nombreux appareils domestiques (électroménager, domotique, etc.). L’interface utilisateur joue un rôle crucial dans le choix du public. Les systèmes d’exploitation et environnements logiciels doivent assurer une cohérence d’utilisation entre les différentes plateformes. C’est le domaine de prédilection des environnements comme Android, iOS, Tizen, etc. – Objets connectés, IoT (Internet of Things). Cette nouvelle branche des systèmes embarqués connaît un essor très important depuis quelques années. Le modèle repose généralement sur la connexion d’objets du […]

Tour d’horizon des systèmes embarqués



1
Temps de lecture : 3 minutes Par Frédéric Bordage* Une démarche qui a connu un véritable envol il y a plus de cinq ans, mais qui n’est toujours pas la priorité des DSI. En cause ? La peur des coûts… alors qu’une démarche rondement menée aboutit, pour les entreprises, à de belles économies. Frédéric Bordage, précurseur du numérique durable reconnu comme l’un des meilleurs experts Green IT en Europe, répond à nos questions… Le numérique peut-il vraiment être « vert » ? Expliquez-nous ce qu’est le Green IT… Le Green IT ou « Green for IT » est la rencontre entre le développement durable et le numérique. C’est une approche globale, une démarche d’amélioration continue qui vise à réduire l’empreinte économique, écologique et sociale d’un produit ou d’un service numérique. Le Green IT incite, par exemple, à allonger la durée d’utilisation des ordinateurs, à imprimer moins ou à revoir l’impact des logiciels qui nécessitent des serveurs. Bref, tout acte qui permet d’agir sur les trois piliers du développement durable. Concrètement ? Le Green IT va au-delà de la simple notion d’efficacité pour aller rechercher l’efficience. On ne répond pas à la seule question « Ai-je atteint mon but ? », mais à celle « Combien ai-je dépensé pour atteindre mon but ? ». On va donc chercher à réduire nos impacts sur l’environnement en pensant écoconception, et imaginer comment utiliser les outils informatiques pour réduire ces impacts. Avec le Green IT, il s’agit d’aller à l’essentiel. C’est l’idée de frugalité développée par Pierre Rabhi. Prenons l’exemple des sites web écoconçus : leur interface graphique est travaillée afin de disposer du minimum utile, et de répondre aux besoins fondamentaux de l’utilisateur. Lors de l’expression des besoins, seules les fonctionnalités indispensables sont retenues, pour utiliser moins de lignes de code. Il faut savoir qu’en moyenne 60 % des fonctionnalités demandées par les utilisateurs ne sont jamais utilisées. C’est l’exemple de Google qui, à l’inverse de Yahoo dont la page est chargée en logos, images…, ne propose qu’un champ de saisie.

Penser le digital « écoresponsable » ...


2
Temps de lecture : 3 minutes Tantôt aimé, tantôt détesté, JavaScript est un langage qui sort de son périmètre initial. Orsys a interviewé Florent Garin*, architecte logiciel, Expert JavaEE et dirigeant de l’entreprise DocDoku, spécialisée en solutions digitales pour l’industrie sur l’évolution de ce langage… Pourquoi s’intéresser à JavaScript aujourd’hui ? Si cette technologie était au départ essentiellement orientée client, dédiée aux applications web, elle s’est depuis répandue dans d’autres domaines : sur la partie serveur avec la plateforme Node.js, on peut désormais implémenter la partie webservices, des WebSockets ; on peut aussi coder des applications mobiles ainsi que des applications lourdes bureautiques desktop également en JavaScript. Ce qui auparavant nécessitait d’être conçu sous C# ou en Java peut désormais être conçu en JavaScript. Ce langage est sorti du WebFront, son domaine originel, pour devenir universel. On constate d’ailleurs aujourd’hui que JavaScript commence à être en concurrence avec Java. Pour exemple, l’entreprise américaine Paypal a délaissé Java au profit de JavaScript pour ses développements serveur. C’est un langage incontournable.

Le langage JavaScript au cœur des ...


1
Temps de lecture : < 1 minute Très impliqué dans le domaine des bases de données relationnelles et du langage SQL, Frédéric Brouard est devenu un expert reconnu en France, à la fois par ses publications (Web, Livre, presse) que par ses prestations auprès d’acteurs économiques très divers. Son travail est partagé en deux activités : la formation depuis 1996 notamment chez ORSYS et le conseil. Il nous présente dans la vidéo suivante : – un état des lieux SQL, – SQL versus Oracle, – également un petit aperçu du livre qu’il a co-écrit avec Christian Soutou, Nicolas Souquet et David Barbarin, publié aux Editions Eyrolles. Formations associées : Formations SQL Server  

SQL Server 2014



Temps de lecture : 4 minutes   Améliorer la qualité de service, simplifier la vie des citoyens, enrichir et valoriser les métiers d’une administration… Tels sont les enjeux de la démarche de dématérialisation. > Une étude de cas dans le secteur public Mise en œuvre par la mairie de Vincennes d’une démarche orchestrée par François Madjlessi*, directeur de l’Innovation numérique et du système d’information de la ville de Vincennes et consultant/formateur ORSYS. Simplifier la vie des citoyens Voici, aujourd’hui, le centre des préoccupations des collectivités. Cela fut aussi le point de départ de la réflexion de la mairie de Vincennes, portée avant tout par une volonté politique. Elle consiste à simplifier les démarches des usagers et moderniser l’image de l’administration à travers un projet transversal et innovant.

La dématérialisation multicanale au service des ...


1
Temps de lecture : < 1 minute Guy Chesnot est expert en Big Data, Cloud, Hadoop, Open Data… mais aussi formateur pour ORSYS, nous explique ce qu’est l’Open Data et son intérêt : Voir la vidéo : Open Data Pour aller plus loin : Séminaire Big Data Et se former : Formations Technologies numériques

ORSYS TV – L’avis d’expert : ...


2
Temps de lecture : 4 minutes   Un tiers des entreprises françaises utilisaient le cloud en 2014*. Le premier frein à l’adoption de ces solutions ? La sécurité. Pourtant, cinq ans plus tôt, le gouvernement annonçait la création d’un nuage informatique à la française. Qu’en est-il aujourd’hui ? Nicolas Fonrose** est fondateur de Teevity, start-up spécialisée en Cloud Costs Analytics. Il est aussi intervenant pour ORSYS, et nous livre ses impressions sur la problématique du cloud souverain… Quelles motivations ont poussé à la création d’un Cloud souverain ? Si le Cloud Computing connaît un réel essor, les entreprises et organisations européennes demeurent pour la plupart méfiantes. Rappelons-nous l’affaire de l’espionnage de la NSA (Agence nationale de sécurité américaine) dévoilée par Edward Snowden. Aujourd’hui, nos matériels, nos logiciels… sont américains, et le stockage des données est, la plupart du temps, proposé dans les datacenters des principaux acteurs du Cloud (Amazon Web Services – AWS, Google Cloud, Microsoft Azure…) qui sont tous à capital américain et donc soumis, entre autres, aux lois américaines. Dès 2009, l’État a donc pris la décision de bâtir un cloud à nationalité capitalistique française. Cet enjeu national fort implique une souveraineté technologique globale : avec le Cloud souverain, les serveurs, les hardwares, les logiciels… s’opèrent par des acteurs à capitaux français. De plus, les techniques de chiffrement sont issues d’acteurs connus, bénéficiant de la confiance de l’État français.

Cloud souverain : où en sommes-nous ...



2
Temps de lecture : 2 minutes   HTML5 est aujourd’hui une réalité qui concerne tous les acteurs participant au Web (décideurs, designers, intégrateurs, etc.). La migration vers HTML5 peut être opérée en douceur grâce à la rétro compatibilité avec la version 4. Elle est néanmoins profonde puisqu’elle autorise désormais la conception de véritables applications. Cela avec des interfaces aussi riches que celles d’une application Desktop fonctionnant dans un navigateur, sans plug-in. Mais pour en tirer réellement parti, il ne suffit pas de changer le DOCTYPE d’un document et d’intégrer quelques nouveaux éléments découverts par-ci par-là, au fil des articles rencontrés sur le Net à ce sujet. Elle implique au contraire une véritable compréhension de l’ensemble des nouveautés proposées. Par exemple le rôle des nouvelles balises sémantiques HTML5 et les attributs, notamment pour la validation des saisies utilisateur, CSS3, API Web basées sur du JavaScript–JQuery, etc. Ainsi que leur intégration progressive avec l’existant, en gérant de manière efficace et évolutive les problèmes de compatibilité. Ensuite, il est également indispensable de choisir et de prendre en main un environnement de développement performant. Il doit être véritablement adapté et évolutif pour obtenir une bonne productivité. Or, il se trouve que Microsoft, tout en maintenant son environnement propriétaire Windows basé sur des technologies telles que COM et WPF, confirme son engagement et sa contribution au respect des standards du Web, avec un support complet d’applications HTML5 à partir de Visual Studio 2012. Les applications phares de la suite Office de l’éditeur donnent, sous le nom d’Office 365 une illustration. Visual Studio suit d’ailleurs le même sort et fonctionne dès à présent en ligne. Cependant, il se trouve que les développeurs ASP .NET (WebForms ou MVC) sont traditionnellement à l’aise avec le code exécuté côté serveur, mais assez rarement avec la conception d’interfaces, davantage orientées design et ergonomie. Lancée avec succès à la rentrée 2014, le cours « .NET, développer des applications Web en HTML5, CSS3 et JavaScript » a donc été spécialement conçu à leur intention, afin de leur montrer comment exploiter les nombreuses fonctionnalités offertes par Visual Studio pour développer des applications Web riches et bien conçues côté client. Il ne s’agit pas naturellement d’un cours de design, mais de comprendre ce qu’apporte HTML5-CSS3. Mais aussi d’être capable d’exploiter les API Web standard avec du code JavaScript-JQuery. Le tout grâce à des ateliers et des exemples concrets. De plus, étant donné qu’une application Web réussie doit être également performante, cette formation se termine par la présentation des différentes techniques d’optimisation à connaître en général dans le monde du Web et avec le bundling et la minification intégrées à .NET en particulier. Formations associées : Voir les formations « Conception et développement » L’auteur : Gilles NICOT est passionné de nouvelles technologies, ses activités ont toujours été articulées autour des 3 axes suivants : veille et intégration des nouvelles technologies, conception et développement de solutions logicielles et Web et formation, notamment chez Orsys.   Du même auteur : Article : WinRT vs .NET Voir aussi la vidéo : Programmation Orientée Objet en .NET        

Développer des applications Web HTML5 en ...


Avis d'expert - Pascal Gouach 1
Temps de lecture : < 1 minute Pascal Gouache est expert en Sécurité des SI et formateur pour Orsys. Il nous donne ainsi son avis sur le degré d’information et de formation des dirigeants d’entreprises sur le sujet : Voir la vidéo : Sécurité des SI Pour aller plus loin : Sécurité des systèmes d’information, synthèse Et pour se former : Les formations et séminaires Sécurité SI

ORSYS TV – L’avis d’expert : ...


2
Temps de lecture : 4 minutes La planification de projets ? Un « art » devenu véritable compétence. Pour aider le gestionnaire de projet : des outils, parmi lesquels Microsoft Project, un trentenaire toujours sémillant. Mais cela suffit-il ? Bruno Corson est consultant en organisation et direction de projet, certifié PMP® du PMI®*, avec une certification sur Microsoft Project. Formateur pour ORSYS, il nous explique comment allier technologie et art de la planification… MS Project est né il y a 30 ans. Est-il toujours adapté à la gestion des projets des organisations en 2014 ? Les environnements changent de plus en plus rapidement. Pour les entreprises, quel que soit le secteur d’activité ou leur structure, les exigences sont fortes. Elles démultiplient la gestion en mode projet pour mieux prévoir leur fonctionnement, leurs dépenses, mieux les contrôler. Elles doivent prendre et faire prendre des décisions sur des éléments factuels, compris par toutes les parties prenantes du projet. MS Project va permettre d’avoir une vue harmonisée des contenus, structures, délais, moyens et coûts des projets. Les indicateurs vont aider les équipes en ce sens. Les portefeuilles de projets vont, eux, faciliter la coordination de tous ces projets. Les principes de référence, de date butoir, d’enregistrement du réalisé, de réestimation du restant, font passer d’un mode de projet subi à un mode piloté, donc maîtrisé. Je fais souvent le parallèle avec le capitaine d’un navire : mettriez-vous les pieds à bord d’un bateau s’il ne sait pas où il est, quel est l’environnement, comment il avance et où il va ? Faire confiance, c’est bien, mais quelques repères éviteront le stress ! MS Project est sans doute l’outil de planification de projet doté le plus diffusé aujourd’hui… et avec lequel les autres éditeurs de logiciels proposent souvent des passerelles !

MS Project, plus qu’un outil de ...



3
Temps de lecture : < 1 minute Yves Rougy est expert Unix, Linux/Logiciels Libres et formateur pour ORSYS. Il fait un état des lieux sur Unix et nous parle de l’avenir de ce système d’exploitation : Voir la vidéo : Unix, Linux, l’avis d’expert – ORSYS Formation Pour aller plus loin : Vidéo de présentation – Unix/Linux utilisateurs, l’essentiel Et se former : les cours et cycles Unix/Linux

ORSYS TV – L’avis d’expert : ...


4
Temps de lecture : 2 minutes En matière de test logiciel, la certification ISTQB* devient de plus en plus incontournable. Un graal que les professionnels du test cherchent tous à atteindre. Conseils de Francis Renoncet, associé dans un cabinet de conseil en management, formateur certifié et accrédité ISTQB/CFTL et REQB, MOA, ingénierie des exigences, conseil, PMO, testing, qualité, recette, CFTL, formation et coaching… pour être prêt le jour J ! 1. Se préparer, le minimum… Autant vous le dire tout de suite : la préparation est exigeante. Elle consiste en un mix d’apprentissages et pourquoi pas une bonne bibliographie (Foundations of software testing : ISTQB Certification, Black-Evans-Graham–Van Veeneendaal). Tout d’abord, soyons sincères : une petite expérience en test logiciel est appréciée et même requise dans certains pays. Vous pouvez aussi participer aux forums qui rassemblent des testeurs de logiciels. En parallèle, munissez-vous d’un Syllabus selon le niveau de certification souhaité – Fondation, avancé ou expert – qui vous permettra de mieux comprendre le découpage et le contenu de la certification. Il vous aidera également à vous imprégner du vocabulaire (voir le glossaire)  et du contenu des normes (CFL ou CTAL selon le niveau). Enfin, pour connaître les techniques de test, les produits de test et leurs contenus, équipez-vous des normes IEEE 829, 610, 1028,  ISO250 …

3 conseils pour réussir la certification ...


3
Temps de lecture : 3 minutes Depuis plusieurs années, Rudi Bruchez intervient pour auditer et améliorer les performances de serveurs MS SQL Server, tout en animant des formations d’optimisation, et les problématiques rencontrées sont souvent les mêmes. Il profite de ce billet pour les résumer.   « Même si Microsoft ne le dit pas toujours, Les SGBDR (Systèmes de gestion de bases de données relationnelles) comme SQL Server sont des outils exigeants. Pour en obtenir le meilleur, il faut avoir un certain niveau de connaissance. Non seulement sur le moteur lui-même, mais aussi sur le langage SQL. C’est un langage particulier, déclaratif et ensembliste, qui requiert une façon de penser différente des langages orientés objet. Malheureusement, ces connaissances manquent souvent aux équipes de développement et cela induit une utilisation sous optimale de SQL Server.

Avis d’expert : améliorer les performances ...



Temps de lecture : 2 minutes   ITIL, ISO 20000, CMMi et bien d’autres : des acronymes parfois obscurs dans le monde de l’entreprise et du management.  Un formateur ORSYS, spécialiste de la question, nous éclaire sur ITIL et ISO 20000 : ITIL « ITIL est avant tout un référentiel. Un ensemble de bonnes pratiques qui permettent d’optimiser la gestion des services informatiques au sein d’une entreprise. Les cinq livres de la version V3 traitent notamment des problématiques de gestion d’incidents ou de niveaux de services.  Il ne faut pas oublier néanmoins qu’ITIL ne permet que de regarder comment opère une entreprise et de comparer les pratiques entre elles pour tenter d’en dégager le meilleur modèle, sans pour autant définir les règles permettant d’établir le modèle en question.

ITIL et ISO 20 000 : ...