technologie


Raspberry PI ORSYS technologie
Temps de lecture : 5 minutes Près de dix ans après son lancement, le Raspberry Pi continue d’attirer aussi bien technophiles et bricoleurs que débutants en programmation et novices complets. Denis Réant*, expert IoT, nous explique pourquoi et comment une « simple carte mère » s’est imposée comme une référence parmi les nano-ordinateurs. Commercialisé pour la première fois en 2012, le Raspberry Pi a rapidement connu un grand succès. Il s’en est depuis vendu à plus de 20 millions d’exemplaires. Pourtant, à l’origine, ce qui ressemble à une simple carte mère de PC n’avait qu’un objectif pédagogique. Il s’adressait à un public au minimum technophile… En effet, vendu aux alentours de 35 € en France, le Raspberry Pi se présentait comme le parfait support pour apprendre le développement informatique à moindre coût. Alors comment expliquer que sa popularité se soit de toute évidence étendue à un public plus large ? Et de quoi s’agit-il exactement ? Qu’est-ce qu’un Raspberry Pi ? Un Raspberry Pi est un nano-ordinateur qui a la capacité de calcul d’un ordinateur « classique ». D’ailleurs, en le branchant à un écran, on peut tout à fait l’utiliser comme un ordinateur. En effet, le Raspberry Pi est doté d’autant de possibilités, et il est suffisamment puissant pour héberger un système d’exploitation – aussi bien Windows que Linux. Très facile d’utilisation, il peut ainsi servir à toute la famille pour une utilisation très basique. Comme ordinateur personnel ou, par exemple, pour s’initier à la programmation, quel que soit son niveau, le Raspberry Pi étant fourni avec des logiciels ludo-éducatifs. Son autre particularité, si on le compare à un ordinateur standard, est qu’il est conçu avec des broches directement connectées au processeur. Celles-ci permettent d’effectuer certains protocoles de communication, dans le but de lui adosser des capteurs comme une caméra, des micros… bref, tout un ensemble d’objets techniques qui vont apporter de nombreuses fonctionnalités supplémentaires d’interfaçage et ainsi combler la différence de puissance entre le Raspberry Pi et un ordinateur. Sa petite taille et son prix font de lui un support de prédilection pour expérimenter et développer différents types de projets et produits. Pour résumer, le Raspberry Pi est facile d’utilisation, pas cher, ludique et interfaçable. Des atouts qui peuvent expliquer son succès… Mais ce serait sans compter la communauté Linux. Très investie, elle contribue à faire évoluer au fil des années les services du Raspberry Pi, et ainsi à le rendre accessible à tout le monde, qu’on ait 7 ou 70 ans, qu’on soit un « geek » ou un novice ! Programmation, électronique… apprendre avec le Raspberry Pi On l’a vu, le Raspberry Pi peut s’utiliser à peu près de la même manière qu’un ordinateur traditionnel : pour faire du traitement de texte, du tableur ou de la présentation ; pour se connecter à son Drive et aller sur Internet ; pour télécharger des applications et brancher la caméra pour passer des appels en visio, etc. Mais ce qui fait sa force reste son aspect ludique. Les distributions par défaut proposent par exemple un environnement ludo-éducatif sur la programmation, et il est notamment possible : d’apprendre les bases […]

Le Raspberry Pi : pourquoi s’y ...


données - ORSYS
Temps de lecture : 2 minutes Les métiers de la data ne se limitent pas au seul data scientist. De nombreux profils interviennent tout au long de la chaîne de traitement de la donnée. Data : attention à l’arbre qui cache la forêt Le data scientist est la « superstar » de la data science que toutes les entreprises s’arrachent à prix d’or. Mais il ne doit pas occulter les autres métiers. Pour que le scientist puisse concevoir des modèles algorithmiques, il faut que la donnée soit préalablement extraite, qualifiée, préparée et transformée. Si la donnée est le nouvel or noir, elle doit, comme pour le pétrole, être raffinée avant d’être exploitée. Le data miner ou engineer va assurer la collecte et le traitement des données en paramétrant les logiciels et les bases de données ou en puisant directement dans un data lake. Le machine learning engineer fait le pont entre l’engineer et le scientist en assurant la mise en production industrielle des modèles algorithmiques. De l’éthique des algorithmes Plus haut dans la hiérarchie, le chief data officer (CDO) insuffle en interne une culture de la donnée et pose le cadre de la gouvernance des données. Le data protection officer (DPO) s’assure, lui, de la bonne conformité des traitements de données personnelles au RGPD, le règlement européen sur la protection des données. Aux États-Unis émerge aussi la fonction de chief ethics officer pour garantir l’éthique des algorithmes. À lui d’expliquer comment un modèle fonctionne et sur quels critères reposent les résultats obtenus afin de sortir de l’effet « boîte noire » de l’intelligence artificielle. Elle n’est pas le seul apanage des profils techniques Au sein des directions métiers, le data steward assure la bonne documentation des données et facilite leur mise à disposition. Des experts métiers sont également appelés à contributions. En amont, ils définissent le cas d’usage et les bénéfices attendus. En aval, ces opérationnels vont entraîner le modèle et le tester. Une fois en production, ils le suivront comme le lait sur le feu pour s’assurer qu’aucun biais ne vienne le faire dériver. Pour se former : Cycle certifiant Data Scientist          Data Mining, synthèse      Data Mining par la pratique          Chief Digital Officer, les clés du métier  Machine Learning, état de l’art   DPO, certification  RGPD, dpo : rôle, missions et obligations du délégué à la protection des données 

La data : ses multiples métiers ...


communication - technologies - ORSYS
Temps de lecture : 4 minutes Depuis le début des années 90, les leviers de communication se sont développés extrêmement rapidement. Nous sommes passés de quelques outils (fax, e-mailing, téléphone…) à une multitude de possibilités principalement issues du Web et de la technologie mobile. Citons-en quelques-uns : site Web, flux RSS, blog, vidéo en ligne, QR code, podcast, application mobile, réseaux sociaux… Ces technologies offrent de nouvelles perspectives de communication, mais lesquelles ? Frédéric Foschiani* nous donne quelques éléments de réponse. Le développement de ces outils de communication s’est accéléré. Notamment par la démocratisation des Smartphones et la facilité d’accès et d’utilisation de ces outils. Mais si la technologie ne cesse de proposer de nouvelles offres de solutions et de fonctionnalités, il peut être contre-productif de se laisser tenter par la forme, au détriment du fond. Si les outils sont multiples, une communication efficace devra respecter des principes de base : Définir son objectif Choisir son audience-cible Identifier les outils et les fonctionnalités adaptés Miser sur le fond de son message Personnaliser et humaniser Connaître les usages Objectif et ciblage Au sein d’une entreprise, de nombreux objectifs de communication existent. Ces messages s’adresseront à des audiences spécifiques : communication institutionnelle, relation client, prospection, fidélisation, recrutement, marque-employeur, communication interne… Le choix des outils dépendra non seulement de l’objectif mais également des spécificités de l’audience visée, voire d’un segment au sein d’une audience-cible. Ses comportements et attentes devront être pris en compte pour définir les outils de communication digitaux adaptés. Et ce, avec la même rigueur habituellement appliquée au travers de leviers de communications classiques. Importance des tendances digitales pour la communication De nouveaux usages se créent autour d’outils digitaux et de fonctionnalités. Il est important de connaître ces usages pour réussir à créer du lien avec son audience et ne pas commettre d’impairs. Optimiser sa rédaction La rédaction devra être adaptée aux spécificités de l’outil utilisé. Comme par exemple le nombre de caractères disponibles (LinkedIn : 1300, Facebook : 2000, Instagram : 2200, Twitter : 280, Pinterest : 500). Toutefois, il est recommandé de ne pas utiliser le maximum de caractères. Le lecteur doit pouvoir se faire une idée très rapidement de l’intérêt du contenu vers lequel on souhaite le rediriger. Titre, émojis, phrases courtes… sont régulièrement utilisés pour alléger son texte et en faciliter la lecture. Augmenter sa visibilité L’usage du hashtag est un incontournable de la rédaction digitale. Déployé sur tous les réseaux sociaux, le hashtag est un outil de référencement naturel puissant qui permet de faciliter les recherches, suivre une discussion, fédérer autour d’un sujet et participer en temps réel. L’usage du hashtag est l’une des solutions de contournement des algorithmes de visibilité appliqués par les réseaux sociaux. Augmenter son attractivité L’attractivité de ses communications sur les outils digitaux passe inévitablement par certains formats. Le texte ne sera bien souvent consulté qu’après avoir pris connaissance du visuel. Une publication sur un outil digital devra donc systématiquement être accompagnée d’un format attractif tel que le visuel ou la vidéo. Des outils simples et gratuits permettent de créer ou optimiser ses visuels ou photos aux […]

Communication : quand la technologie la ...



malware - orsys - digital
Temps de lecture : 4 minutes Les malwares se tapissent dans différents recoins de nos systèmes, comme dans les e-mails, des bandeaux publicitaires ou des logiciels téléchargés, et peuvent causer des dommages importants. Julien Valiente*, expert en cybersécurité/hacking éthique et formateur ORSYS, a répondu à nos questions pour mieux identifier les multiples facettes de ces logiciels malveillants… et les meilleures manières de s’en protéger. Quelle serait une bonne définition du malware ? Par définition, un malware (ou logiciel malveillant) est un logiciel. Leur but n’est pas forcément de porter préjudice à la victime, mais surtout d’apporter un gain à la personne qui va le mettre en œuvre. Par exemple, un logiciel malveillant peut être un ransomware (ou rançongiciel), qui séquestre les fichiers d’une victime dans le but de lui demander une rançon en échange de leur restitution. Ou encore un logiciel dont le but est d’utiliser l’ordinateur de la victime pour envoyer des campagnes de spams que l’attaquant propose en tant que service à des spammeurs qui le rémunèrent pour cela. Le logiciel malveillant ne porte donc pas nécessairement préjudice directement à la victime ; il peut aussi utiliser ses ressources au profit de l’attaquant, ce qui reste indésirable. Si des attaques, des spams ou du phishing sont émis par notre ordinateur, on peut notamment en être tenu responsable juridiquement car notre propre matériel aura participé à des actes répréhensibles, allant de la simple diffusion de spams, à des actes plus graves comme la propagation de contenus pédopornographiques… Quels sont les différents types de malwares ? On classifie les logiciels malveillants en fonction de trois facteurs : Le vecteur de propagation (comment le transmettre à la victime, par exemple par USB, e-mail, réseaux sociaux, etc.) ; La charge utile (que va-t-il faire : comme détruire un disque dur, chiffrer des fichiers, envoyer des e-mails, espionner son environnement, miner des bitcoins…) ; Le déclencheur (à quel moment le logiciel malveillant va-t-il agir, ce qui peut être continuellement lorsque l’ordinateur se met en veille ou à une date précise…). Le virus n’est pas le seul « malware ». C’est une grande famille qui comprend aussi le ver informatique (ou « worm »), ou le cheval de Troie, qui a l’apparence et toutes les propriétés d’un logiciel légitime. Ils comprennent aussi les adwares : des campagnes de publicité ou des clics réalisés à notre insu sur des bandeaux publicitaires rémunérés. En l’occurrence, ce ne sont pas des logiciels que l’on installe par mégarde sur notre ordinateur, mais des scripts installés sur des sites web. Ils s’exécutent automatiquement dans le navigateur. C’est intrusif, mais ils restent dans le navigateur… Ces techniques permettent aussi le vol d’identifiants par incitation via des pop-ups ou la création d’onglets. Les spywares et les ransomwares, enfin, ont pour objectif d’espionner leur environnement (webcam, touches frappées au clavier, WiFi, composant du réseau, etc.), ou de chiffrer les fichiers et de demander une rançon pour récupérer le contenu. On a l’impression d’avoir affaire à un système bien organisé… Il y a toute une activité bien organisée derrière le ransomware, comprenant même un support technique qui répond aux questions […]

Malwares et ransomwares : identifier le ...


5G - technologie - ORSYS
Temps de lecture : 2 minutes Avec un débit multiplié par dix et une forte réduction du temps de latence, les réseaux de cinquième génération (5G) ouvrent la voie à des usages disruptifs autour de la télémédecine, de la ville intelligente ou de l’usine du futur. 2020 sera l’année du lancement tant attendu de la 5G. La crise du COVID-19 a reporté à septembre les enchères pour l’attribution des fréquences. Mais les premières villes devraient néanmoins être couvertes d’ici la fin de l’année. La 5G ne sera pas le simple prolongement de la 2G, 3G et 4G Alors que les standards précédents n’apportaient que des évolutions, les réseaux de cinquième génération offriront un vrai saut de performance. Le débit sera multiplié par dix tandis que le temps de latence sera, lui, réduit par dix passant de l’ordre de deux millisecondes. Cette amélioration nette des performances ouvre la voie à des usages véritablement disruptifs autour de la réalité virtuelle et augmentée, la ville intelligente, la télémédecine ou l’usine du futur. Par ailleurs, la 5G apportera une densification du réseau permettant d’absorber l’explosion annoncée des terminaux mobiles et des objets connectés. Avec la technologie dite du « beamforming », le signal radio sera dirigé vers l’utilisateur quand il en a besoin. En cela, il diffère de la 4G qui arrose en permanence et dans toutes les directions. Les particuliers verront visuellement le changement. Les antennes paraboliques perchées sur les pylônes laisseront place à de petites antennes rectangulaires (« small cells ») disséminées dans le mobilier urbain. Des cas d’usage B to B infinis La montée en puissance sera toutefois progressive. Dans la phase transitoire dite « non-standalone », entre 2021 et 2023, la 5G sera exploitée sur le cœur de réseau 4G. Il faudra attendre le « standalone », à partir de 2023, pour tenir toutes les promesses de la 5G et notamment celle d’un temps de latence extrêmement faible. À cette échéance, le cœur de réseau sera virtualisé et déployable sur une infrastructure informatique banalisée. Cette virtualisation apportera le principe de « network slicing » soit la capacité à« découper » virtuellement un réseau en tranches, de les déployer à la volée et de leur associer des performances différentes en fonction des usages. Ce qui permettra de garantir des niveaux de qualité de service et une sécurisation accrue pour des applications critiques dans l’industrie, la logistique ou l’agroalimentaire. Les cas d’usage professionnels semblent, de fait, infinis Pour rentabiliser leurs lourds investissements, les opérateurs télécoms devront aussi séduire les particuliers. La 5G pourrait notamment pallier l’absence de la fibre optique dans les zones blanches. Pour se former Réseaux mobiles 5G, synthèse Volte, déploiement et nouveaux services Réseaux mobiles lte/4G Evolution des réseaux mobiles, synthèse Réseaux sans fil/WiFi, solutions et applications Réseaux et Internet, les nouvelles avancées

2020, l’année de la 5G


France - IA - ORSYS 1
Temps de lecture : 4 minutes Avec ses mathématiciens et ses chercheurs en sciences cognitives de renom, notre pays a de sérieux atouts à faire valoir en intelligence artificielle (IA). Les GAFAM ne s’y sont pas trompés en multipliant les partenariats et les investissements sur notre territoire. « Le pays qui dominera l’intelligence artificielle dominera le monde. » Cette phrase prononcée en 2017 par Vladimir Poutine donne le ton de la bataille qui se joue actuellement. La Chine ne doute pas de son issue : l’empire du Milieu a déjà déclaré qu’il serait le leader mondial de l’IA en 2030 avec, à la clé, un investissement de plus d’une centaine de milliards de dollars. Les « licornes » chinoises dépassent déjà les américaines en termes de valorisation. De leur côté, les États-Unis disposent de l’incroyable force de frappe des GAFAM (Google, Apple, Facebook, Amazon, Microsoft). Ils ont tous fait de l’IA leur priorité. Dans cette guerre des titans, quel est le poids de la France ? Notre pays n’égalera jamais les grandes puissances sur le terrain des moyens avec un programme doté de 1,5 milliard d’euros. Même au niveau de l’Union européenne, l’investissement – fonds publics et privés confondus – ne s’élève qu’à 20 milliards d’euros d’ici à fin 2020. En revanche, la France peut faire valoir l’excellence de ses mathématiciens et ses chercheurs en data science. Former des experts made in France Nos experts de la data sont courtisés par les géants de la Silicon Valley. Nombre de « frenchies » y occupent des postes clés. On connaît Yann LeCun, le « Monsieur IA » de Facebook fortement médiatisé. Il a été rejoint au sein du réseau social par Jérôme Pesenti, à l’origine du programme Watson d’IBM. Emmanuel Mogenet est, lui, à la tête de Google Research Europe, basé à Zurich, en Suisse. Père de Siri, l’assistant vocal d’Apple, Luc Julia est devenu vice-président de l’innovation chez Samsung. Pour éviter la fuite des cerveaux, un écosystème national prend forme. Il mêle formation initiale et continue, investisseurs privés, grandes entreprises utilisatrices et start-up. Au niveau de la formation, toutes les grandes écoles – HEC, Essec, Polytechnique, Telecom ParisTech, Epita… – ont créé des cursus spécialisés. Face à la pénurie de data scientists et autres experts du machine learning, le député Cédric Villani proposait, dans son rapport de mars 2018, de tripler le nombre de personnes formées à l’IA à l’horizon 2022, en élargissant notamment le périmètre aux bac + 2 et 3. Se former à l’école de l’IA Microsoft va même plus loin puisqu’avec son « école IA« . L’éditeur propose de former des personnes éloignées de l’emploi (demandeurs d’emploi de longue durée, décrocheurs scolaires…) au métier de « développeur data et intelligence artificielle ». Pas de prérequis en ce qui concerne le niveau d’études : le candidat doit avoir des connaissances élémentaires d’au moins un langage de programmation, une réelle appétence pour les chiffres et les statistiques et une motivation à toute épreuve. Cette formation, dispensée en partenariat avec Simplon, a obtenu, en février 2019, le label de la Grande École du Numérique (GEN). La formation peut aussi se […]

La France, grande nation de l’IA ...



externalisation informatique - ORSYS
Temps de lecture : 3 minutes En l’espace de vingt ans, le marché de l’externalisation informatique a beaucoup évolué. « Par le passé, la sous-traitance était réalisée à 80 % en régie et à 20 % au forfait. Aujourd’hui, la proportion est inverse« , observe Philippe Brunet, « IT and sourcing facilitator » et formateur chez ORSYS. Ce changement de modèle n’est pas sans incidence pour le donneur d’ordre. « Le forfait est plus contraignant. Il exige une véritable professionnalisation dans le pilotage du prestataire. » Selon Philippe Brunet, il manque parfois au sein des DSI une personne en charge de ce pilotage, c’est-à-dire un responsable de la sous-traitance ou vendor manager selon la nomenclature RH du Cigref. Il regrette également l’absence de management dans ce domaine ou « sponsor outsoursing de haut niveau ». « La DSI n’est pas toujours sensibilisée aux enjeux de gouvernance sourcing à l’exception des banques ou de grands comptes comme Total ou Carrefour qui ont adopté une véritable stratégie pour leur sous-traitance. » Pour organiser cette gouvernance, il existe un référentiel de bonnes pratiques, l’eSCM, qui est destiné aux deux parties. « C’est le seul à avoir une couverture totale de la sous-traitance. » Le passage au forfait peut aussi se révéler contradictoire avec le recours aux méthodes agiles. « Les entreprises sont de plus en plus nombreuses à sa lancer dans l’agilité mais elles n’ont pas toujours les profils adéquats (Scrum Master). Elles sous-traitent ces compétences au forfait alors que la méthode Scrum exige la présence d’une équipe unique client-prestataire. » « Shadow IT » et papy-boom Philippe Brunet observe également un changement dans les facteurs qui incitent une entreprise à recourir à l’externalisation ou outsourcing. « Le critère « coûts » devient de moins en moins important, surtout avec la transformation numérique en cours. On va chercher le prestataire pour une expertise ou une capacité d’innovation. » Le numérique intègre alors le cœur de métier, lequel ne s’externalise pas ou peu. Philippe Brunet estime que le recours à externalisation reste très important. « Beaucoup d’informaticiens partent à la retraite, notamment dans le monde occidental. Ils ne sont pas remplacés et leurs postes sont externalisés. Le DAF est satisfait, il transforme les coûts fixes en coûts variables. Un accompagnement de la DRH est souhaitable pour minimiser les impacts sociaux et intégrer la dimension de changement. » Toujours dans le sillage de la transformation digitale, l’essor du cloud a augmenté la part du shadow IT (SI sans contrôle de la DSI), fragilisant la DSI dans sa relation avec les fournisseurs. « Quand une direction métier a un besoin, il arrive qu’elle s’adresse directement aux éditeurs de solutions en mode SaaS, court-circuitant à tort la DSI. » Des entreprises ont aussi créé une direction numérique à côté de la DSI avec des risques de chevauchement dans les périmètres fonctionnels. À qui doivent s’adresser les prestataires ? Au DSI ou au chief digital officer ? La transformation numérique pose, par ailleurs, des questions de propriété intellectuelle et surtout de responsabilité juridique en cas de dysfonctionnement.   Multi-sourcing et offshore Des grands comptes sont aussi tentés de capturer le fameux esprit start-up en rachetant des start-up. Un […]

L’externalisation informatique : un marché en ...


VPN - ORSYS
Temps de lecture : 5 minutes Quand le confinement a été décrété pour pallier la pandémie de COVID-19, de nombreuses entreprises ont dû opérer rapidement un recours massif au VPN pour permettre le télétravail. Problème : elles n’étaient pas forcément prêtes. Retour sur un dispositif essentiel et ses solutions les plus adaptées avec Charlie Le Hoangan*, consultant IT  et formateur chez ORSYS. Alors que le télétravail était encore une pratique isolée en France, la mesure sanitaire du confinement décrétée par le gouvernement en réponse à la pandémie de COVID-19 a fait prendre un tournant décisif aux entreprises. En quelques jours, une majorité de salariés, cadres pour la plupart, pouvant travailler à distance ont vu leur environnement de travail être déplacé à leur domicile. Or pour permettre à tous ses collaborateurs de rester chez eux tout en gardant l’accès au réseau interne, une entreprise ne dispose que d’une solution : le VPN. Déjà en place chez certaines, d’autres ont dû réadapter leur dispositif au nombre de télétravailleurs… voire s’y intéresser pour la première fois. « Quand la crise est arrivée », explique Charlie Le Hoangan, consultant et formateur chez ORSYS, « les entreprises n’étaient pas prêtes. Elles ont fait comme elles ont pu pour s’adapter au télétravail quand elles y ont été contraintes et, dans la précipitation, ont connu tout simplement des problèmes de logistique. » Donner un accès à ses salariés implique en effet de mettre en place un dispositif à la fois dans les locaux de l’entreprise, et sur les ordinateurs portables. Qu’est-ce qu’un VPN ? « On a tout à fait, et depuis longtemps, les moyens techniques pour mettre en place le télétravail. Le problème venait davantage d’une résistance au niveau du management », précise Le Hoangan. Le VPN, ou « réseau privé virtuel » (Virtual Private Network), n’a donc rien d’une nouvelle technologie. Mais ce qu’a démontré la crise sanitaire est qu’elle est peut-être encore mal comprise, faute d’une utilisation étendue. « Il sert à fournir une utilisation privative d’un réseau public ou partagé. Dans la pratique, le VPN permet au télétravailleur d’accéder au réseau de son entreprise à travers le réseau public en créant un « tuyau » virtuel. » L’idée est que le télétravailleur puisse accéder aux outils, applications ou serveurs de son entreprise. Et ce, comme s’il y était présent physiquement. Le premier problème ? Des idées reçues concernant la sécurité… « Un VPN n’est pas obligatoirement sécurisé. Certaines techniques ne font que la séparation de trafic. Utiliser un VPN sécurisé signifie qu’on a mis en œuvre des techniques de cryptologie pour, de manière simplifiée, chiffrer les données de façon à ce qu’elles ne puissent pas être interceptées. » Pour cela, l’entreprise peut donc avoir comme solution de s’en remettre à un opérateur. Ainsi, pour se connecter au réseau de l’entreprise, les télétravailleurs passeront par les systèmes de l’opérateur. Ce sont eux qui vont séparer les trafics. C’est ce qu’on appelle les VPN « de confiance ». Mais avoir recours à cette technique de façon sécurisée implique pour l’entreprise de s’équiper également sur site. C’est-à-dire, pour commencer, faire installer un logiciel client sur les ordinateurs de ses collaborateurs. Il permettra […]

VPN : pourquoi il est urgent ...


blog entreprise - ORSYS
Temps de lecture : 4 minutes En 2019, sur 1,6 milliard de sites web dans le monde, plus de 500 millions sont reconnus comme des blogs (source : arobasenet). En complément d’un site web et de réseaux sociaux, les entreprises ont de plus en plus recours à ce canal de proximité pour s’adresser à leurs partenaires, à leurs clients les plus fidèles ou à leurs prospects. Cet espace d’expression offre aux entreprises plus d’opportunités pour affirmer leur marque ou enrichir l’expérience qu’elles proposent à leurs clients. Mais quelles sont les bonnes pratiques pour se servir au mieux de son blog d’entreprise ? Antoine Roland*, expert ORSYS, nous en parle. Pourquoi un blog d’entreprise ? Avant tout, il faut avant tout avoir à l’esprit que le blog n’est plus ce qu’il était. Ce qui ne signifie pas pour autant que « c’était mieux avant ». Le monde des nouvelles technologies a rendu possible la création de nombreux canaux de communication. Parmi eux, les blogs. Aujourd’hui, le blog fait partie intégrante des technologies de marketing et de communication dont toute entreprise peut (et devrait savoir) se servir. On aurait souvent tendance à opposer site internet et blog d’entreprise. Pourtant, il serait dépassé de considérer qu’ils ne peuvent pas s’additionner. En effet, si le site internet est une vitrine de l’entreprise (pages institutionnelles, catalogues, services, produits…), le blog est davantage un espace d’expression plus informel pour l’entreprise. On y emploie souvent un ton plus libre et on y communique de façon indirecte. Cette communication indirecte est un véritable vecteur pour l’entreprise. Elle lui permet d’engager une relation de proximité avec ses partenaires et sa clientèle, d’affirmer ses valeurs et sa marque, de se positionner comme experte sur ses domaines de prédilection contribuant ainsi à sa notoriété et à son image. Le blog ne se substitue donc pas au site internet mais en devient complémentaire. À quoi sert un blog d’entreprise ? Un blog offre la possibilité de mettre en avant tous types de supports (texte, vidéos, audios, podcasts). Les choix sont donc nombreux pour définir une ligne éditoriale originale et spécifique pour une entreprise. Pour vous guider dans ce choix, voici quelques exemples d’utilisation d’un blog d’entreprise : Publier des contenus Il est nécessaire de publier des contenus enrichis sur les produits et actualités de l’entreprise. Mais il faut le faire en complément de son site web et de ses réseaux sociaux. C’est la base. Le blog peut servir à enrichir la présentation de ses produits et services : atouts concurrentiels, modalités d’utilisation et usages envisageables, retours d’expériences clients ou tutoriels… Tout l’enjeu ici sera de créer de la complicité et du partage avec le lectorat. L’entreprise s’efface alors au profit de ce qu’en disent ses clients. Se démarquer de la concurrence Améliorer le positionnement d’une entreprise en se démarquant de la concurrence. La publication de contenus d’expertise de qualité peut apporter la preuve de la pertinence d’une entreprise dans son domaine. Cela peut se matérialiser par la diffusion de sa veille, par l’analyse régulière de l’actualité de son domaine, par des retours d’expériences sur des solutions apportées à […]

Pourquoi devez-vous posséder un blog d’entreprise ...



6
Temps de lecture : 3 minutes Article publié pour la 1ère fois le 9 mars 2017 Par la Rédaction ORSYS À l’heure où le monde vit une époque sur-connectée et où le flux d’information est plus important que jamais, l’accès permanent à Internet et aux supports de travail demande à être régulé puisqu’il est impossible à limiter. Droit à la déconnexion : origine La Loi Travail votée en juillet 2016 a parmi ses objectifs, d’adapter le droit du travail à l’ère du digital. En prenant un élément évoqué dans les rapports Mettling et Terrasse, le texte de la Loi Travail vise à permettre une protection pour les salariés. Et ce, dans l’équilibre entre vie personnelle et vie professionnelle mais aussi de prévenir certaines causes de burnout.

Droit à la déconnexion : c’est ...


Temps de lecture : 3 minutes En concevant des tableaux de bords centrés sur l’utilisateur, l’UX Design montre toute sa valeur dans le monde de la business intelligence. Grâce à une interface à la fois esthétique et fonctionnelle, elle favorise l’engagement des collaborateurs. Avec Power BI de Microsoft, Tableau Software ou Qlik, une nouvelle génération de solutions a permis la démocratisation de la business intelligence (BI). Pas de script ni de code : les experts métiers peuvent manipuler ce type d’outils sans dépendre, comme par le passé, du ou de la spécialiste BI au sein de la DSI. Concevoir un rapport ou un tableau de bord répond toutefois à un certain nombre de préceptes qui relèvent de l’UX Design (User eXperience Design) ou « design de l’expérience utilisateur ». Cette discipline vise à concevoir une interface accessible et facile à prendre en main tout en répondant pleinement aux besoins de l’utilisateur. Si l’UX Design est couramment utilisé pour concevoir un site d’e-commerce ou une application mobile, son apport est aussi précieux en BI. À qui s’adresse ce tableau de bord ? La première étape consiste à cerner la population visée afin de centrer la restitution des données du point de vue de ce fameux utilisateur. L’analyse de données sert trois strates dans l’entreprise : les responsables métiers qui souhaitent avoir un point de vue tactique reprenant toutes les données de leur business unit, les opérationnels terrain qui vont zoomer sur un service ou une activité et enfin, les dirigeant.e.s qui veulent un tableau de bord simplifié reprenant les informations les plus stratégiques. L’expert qui va construire le modèle d’analyse doit, par ailleurs, avoir une bonne connaissance du secteur d’activité afin de dégager les indicateurs les plus pertinents. La phase suivante consiste, en effet, à hiérarchiser l’information en mettant les données les plus importantes en avant. « Rien de plus frustrant qu’un tableau de bord rempli de données dans lequel on ne parvient pas à se retrouver« , estime Célia Jorat, chargée de communication digitale UX/UI Designer chez Bial-X et Bial-R, partenaires ORSYS. Comme en marketing, il faut, selon elle, faire du storytelling. « Les données racontent une histoire, il convient de la respecter. » Rendre la donnée plus humaine et chaleureuse L’esthétique de l’interface est un autre élément important pour donner un aspect plus humain et chaleureux à la donnée. Cela suppose de respecter la charte graphique de l’entreprise tout en reprenant là encore les conventions de la dataviz. Classiquement, les indicateurs sont en vert, jaune, orange ou rouge en fonction du degré de vigilance attendu. « Le tableau de bord doit être joli ET fonctionnel », rappelle Célia Jorat. « C’est l’une des règles de base de l’UX Design. » L’interface doit également être épurée, pour décharger la page d’accueil. Les données peuvent être thématisées et réparties par onglets, l’arborescence de l’interface servant de fil rouge à l’utilisateur. Sur la page d’accueil, on ne retrouvera que les indicateurs clés. D’un seul coup d’œil, l’utilisateur pourra dresser un bilan de l’état de santé d’un service ou de l’entreprise entière. « Ce diagnostic doit prendre moins de 30 secondes, […]

De l’importance de l’UX Design pour ...


RSE-transition digitale -RSE
Temps de lecture : 3 minutes L’urgence climatique incite plus que jamais les entreprises à soigner leur responsabilité sociale. Et pour développer une stratégie ou communiquer sur le sujet, celles-ci peuvent compter sur le digital. Nombreuses sont les entreprises françaises qui, chaque année, cherchent à s’engager dans une démarche de responsabilité sociale (RSE). L’objectif ? Répondre aux enjeux de société actuels, et prendre position par rapport à ces derniers. Un engagement qui implique donc de mettre en place différents types d’actions. Qu’il s’agisse de réduire l’empreinte écologique ou de répondre à des attentes en termes de transparence. Il faut dire que la transformation digitale, qui a bouleversé les codes de la communication, oblige les entreprises à faire preuve d’une rigueur supplémentaire. Le moindre faux-pas peut notamment se terminer en « bad buzz » sur les réseaux sociaux, et avoir de lourdes conséquences. Mais cette révolution digitale est à double-tranchant. Car en soulevant de nouveaux défis pour les entreprises, elle leur apporte également une « trousse à outils » dont le potentiel continue encore de se développer. Pour une communication « open source » Si la première étape de l’élaboration d’une stratégie RSE consiste à identifier les engagements environnementaux et sociaux les plus pertinents du point de vue de l’entreprise, l’accès à l’information et la facilitation de la communication doivent dans tous les cas faire partie des priorités. Le mot d’ordre : transparence. C’est pourquoi une stratégie RSE consiste à « mesurer, évaluer, calculer », pour reprendre la formule de Clément Fournier, rédacteur en chef de Youmatter. « Avec des données mesurables et mesurées », explique-t-il, « il sera bien plus simple de mettre en place une stratégie RSE efficace et pertinente. ». Sur ce point, les outils de suivi des indicateurs et de reporting ne manquent pas. Mais il convient également de publier ces données et d’être capable d’apporter une réponse à ses clients et collaborateurs sur la question de ses engagements. De plus en plus d’entreprises choisissent ainsi de faire figurer ces données sur leur site web – mises à jour une fois par an –, voire d’étendre la communication au sujet de leur RSE sur les réseaux sociaux. D’autres vont même encore plus loin dans la stratégie « open source » en laissant les données clés brutes, telles que la parité ou l’impact environnemental de leurs activités, en libre accès. Responsabilité sociale : QVT et outils « ludiques » Mais la transformation digitale a avant tout bouleversé les relations dans le monde du travail, et ainsi les méthodes de travail. Partager ses données ne suffit donc pas : il faut savoir ouvrir le dialogue avec les publics externes comme internes. Et sur ce plan, les entreprises disposent de nombreux outils dans le digital. Que ce soit réseaux sociaux, sondages ou plateformes d’échanges et baromètres. On vous parlait récemment de quelques innovations digitales qui se prêtaient au bon développement de la QVT. Les innovations sociales en interne, covoiturage, télétravail et outils de travail à distance viennent se rajouter à la liste des dispositifs d’écoute et de dialogue. Autre innovation : les serious games. Ces applications et outils pédagogiques, jeux, MOOCS (Massive open online course) et e-learning […]

La transformation digitale au service de ...



robot - cobot - IA - ORSYS 3
Temps de lecture : 3 minutes Flexible et conçu pour fonctionner en complémentarité avec l’humain, le cobot prend le contrepied de l’image du robot « voleur d’emploi ». Mais comment s’y prend-il, et en quoi diffère-t-il dans ce cas d’un robot traditionnel ? Son nom peut surprendre, et faire penser à une coquille sur le mot « robot ». Pourtant, c’est bien d’un cobot qu’il s’agit. Un robot, oui, mais d’un genre un peu spécial, il tire son nom de la contraction de « collaborative robot », et sa seule mission est d’assister l’être humain. Alors que la robotisation massive du secteur industriel – sans compter la quasi-omniprésence de robots et d’objets autonomes dans notre quotidien – suscite encore une profonde méfiance, on peut tout de même penser que son rôle à plus long terme sera de redorer le blason de la robotique… voire d’adoucir les relations humains-machines. L’interaction avec l’humain, raison d’être du cobot Il faut dire que le robot industriel traditionnel, souvent accusé d’être un générateur de chômage, n’a pas vraiment la cote. Ces machines puissantes n’ont après tout pas été pensées pour travailler aux côtés de l’humain, mais pour exécuter des tâches à des cadences qui le dépassent. Alors quand le « robot collaboratif », plus flexible, a fait son apparition au début des années 2000 en promettant économies et performance tout en conservant l’humain dans l’équation, il ne pouvait qu’attirer l’attention. Privé d’une certaine autonomie, il ne fonctionne que pour et avec l’humain. Finies les barrières et autres mesures de sécurité : le cobot se déplace au besoin pour manipuler des pièces lourdes ou exécuter des tâches répétitives et fastidieuses. Imaginez un bras robotique, par exemple, qu’un opérateur humain programme pour monter des colis à la chaîne. En termes de volumes de production, le robot traditionnel l’emporte toujours sur le cobot. Mais, moins encombrant et polyvalent, ce dernier permet un retour sur investissement plus rapide, tout en travaillant à proximité immédiate de l’humain. Le cobot, robot « human-friendly » D’ailleurs, le moindre détail de la conception d’un cobot trahit une volonté de s’attirer notre sympathie : un design soigné, des coins arrondis, des couleurs… Mais également une façon de travailler très différente de celle des robots industriels. Déjà, ils sont un peu plus lents et sont volontairement moins bruyants pour ne pas inquiéter. Et surtout, ils sont conçus pour détecter les forces extérieures et la moindre obstruction. La présence de capteurs sur le cobot est en effet une différence majeure avec le robot traditionnel. S’il est seul, le cobot va avancer sur sa tâche à plein régime… mais ralentir dès qu’une personne s’approche et s’arrêter automatiquement si on le touche ou qu’il détecte un obstacle. Cette mesure de sécurité est l’une de ses caractéristiques principales, car elle permet à son binôme humain de travailler avec lui sans se mettre en danger, et donc d’interagir avec le cobot. Une conception « human-friendly » qui appelle forcément à repenser non seulement la relation à la machine, mais également le rôle de l’humain dans l’industrie. De la robotique à la cobotique Car travailler à proximité d’un assistant (très) polyvalent permet […]

Robot versus cobot : quelles différences ...


lecture - lintelligence artificielle - robotique
Temps de lecture : 3 minutes L’ intelligence artificielle a de nombreuses raisons d’inquiéter. Découvrez dans cette première sélection des ouvrages qui s’efforcent de répondre à toutes les questions, voire à en poser d’autres. Robots-tueurs, créatures voleuses d’emplois, machines sans âmes… le caractère anxiogène de l’intelligence artificielle a de quoi alimenter les scénarios catastrophes les plus crédibles ! Pourtant, il y a une autre façon d’aborder cette technologie méconnue, qui pourrait adoucir les craintes qu’elle engendre : en apprenant à la connaître, tout simplement. C’est dans ce but que la rédaction ORSYS vous propose une petite sélection de lectures qui répondent à de nombreuses questions… ou permettent de rêver un peu avec la machine. Intelligence artificielle : vers une domination programmée ?, Jean-Gabriel Ganascia Quel(s) risque(s) l’intelligence artificielle représente-t-elle pour le futur de l’humanité ? Quel rapport avec le Golem ? Et au fait, que signifie « intelligence artificielle », exactement ? Dans ce livre, Jean-Gabriel Ganascia, qui n’en est pas à son premier essai sur le sujet, s’applique à démêler le faux du vrai dans la perception globale de cette nouvelle technologie. En partant des origines et sans négliger ni Histoire ni mythologie(s), l’informaticien et professeur à l’Université Pierre et Marie Curie reprend une à une les idées reçues pour les contrebalancer avec nos compétences technologiques et le réel potentiel de l’intelligence artificielle. Une lecture fluide et instructive qui apporte une meilleure compréhension des nouvelles technologies et leurs enjeux. Alors, l’humanité pourrait-t-elle un jour être réduite en esclavage par les robots ? Ou bien la question ne se pose-t-elle vraiment qu’au cinéma ? Disponible ou à commander dans votre librairie préférée sur Place des Libraires. La Voiture qui en savait trop ; les dilemmes moraux posés par l’intelligence artificielle, Jean-François Bonnefon « Au cœur de ce livre, réside une technologie révolutionnaire : la conduite autonome. Pourtant, ce n’est pas de technologie dont je vais parler, mais de morale. La voiture sans conducteur nous oblige à poser des questions nouvelles, à une échelle inédite. (…) Accepterions-nous que les passagers des véhicules autonomes n’aient quasiment plus d’accidents mortels, mais que les piétons et les cyclistes continuent à être tués avec la même régularité qu’aujourd’hui ? Et si une voiture autonome se trouve dans la situation dramatique où elle a le choix entre sacrifier son passager ou écraser un piéton, que doit-elle faire ? Et s’il s’agit de deux, de trois ou de quatre piétons ? Et si ce piéton est un enfant ? » Jean-François Bonnefon, docteur en psychologie cognitive de son état, s’est intéressé aux dilemmes moraux posés par les voitures autonomes. Loin d’être réfractaire vis-à-vis des nouvelles technologies, il ne fait pour autant aucune concession dans son travail de recherche visant à éclairer un « territoire moral nouveau », et aborde donc les voitures autonomes et le concept plus vaste de l’intelligence artificielle dans le cadre d’une réflexion philosophique. Un sujet complexe et passionnant, qui se lit très facilement quel que soit votre niveau d’affinité avec la technologie. Disponible ou à commander dans votre librairie préférée sur Place des Libraires. Libration (titre original : A Closed and Common Orbit), Becky Chambers Pour conclure cette sélection, partons […]

Les conseils lecture d’ORSYS : 3 livres ...


2
Temps de lecture : 4 minutes Par sa facilité d’utilisation, sa couverture fonctionnelle et sa politique tarifaire agressive, Power BI l’outil décisionnel et de datavisualisation de Microsoft connaît un fort engouement depuis deux ans. Il s’inscrit dans la nouvelle génération d’outils de « self service BI » aux côtés de Tableau Software et Qlik. Power BI désormais incontournable Power BI a fait une entrée discrète sur le marché en septembre 2013. Microsoft dévoilait alors une sorte de descendant analytique d’Excel, consolidant en une seule interface tous les add-ons qui étaient venus enrichir le célèbre tableur, comme Power Pivot pour l’analyse et la modélisation, Power Query pour le requêtage ou Power View pour la restitution. Puis, au fil des années, à raison d’une mise à jour par mois, la solution s’est fortement développée pour devenir aujourd’hui incontournable sur le marché du décisionnel. Dans son dernier quadrant magique, Gartner place Microsoft parmi les leaders des éditeurs de plateformes de business intelligence (BI), assez loin devant son dauphin, Tableau Software, qui a été récemment racheté par Salesforce. « Power BI connaît un réel engouement depuis deux ans, quel que soit le type d’organisation – PME, grand compte, administration – ou de secteur d’activité – santé, industrie, énergie… « , observe Nicolas Dubois, consultant formateur en data intelligence chez BIAL-X et formateur ORSYS. Plus de 70 connecteurs, des visuels pré-paramétrés Ce succès, Power BI le doit d’abord à sa facilité d’utilisation. « Un expert métier qui a déjà conçu des macros sous Visual Basic retrouvera l’environnement de développement familier d’Excel, poursuit-il. Il ne sera pas désarçonné. » Autre point fort : la connectivité de l’outil. « Avec plus de 70 connecteurs intégrés, Power BI peut accéder à n’importe quelle source de données qu’il s’agisse de pages web, de fichiers CSV, d’une base de données relationnelle ou de données non structurées dans le cloud. » Pour la restitution, Power BI propose une large palette de visuels et de graphiques pré-paramétrés qu’il suffit de personnaliser. Et si cette sélection ne suffit pas, la market place rassemble en ligne 250 visuels proposés gratuitement par la communauté. « Revers de la médaille : il y a tellement de visuels que l’on peut passer du temps à trouver le bon. » Pour Nicolas Dubois, Power BI s’adresse à tous les types de reporting et donc à toutes les strates de l’entreprise. À commencer par les opérationnels qui ont besoin de rapports leur permettant de suivre l’activité et de rendre compte aux managers intermédiaires. Cela peut se rapporter à des métriques comme le pourcentage de vente d’un produit rapporté au chiffre d’affaires global pour un service commercial ou le suivi du taux d’absentéisme pour les ressources humaines. Les experts métiers vont, eux, analyser les données depuis l’éditeur « R » ou « Python » directement pris en charge dans Power BI ou encore grâce aux « mesures rapides » apportant des fonctionnalités statistiques classiques comme les variations temporelles ou les calculs contextuels. Outil de stratégie Enfin, l’outil permet la construction de tableaux de bord stratégiques. « En un coup d’œil, un décisionnaire peut analyser l’état de santé de son entreprise en rassemblant dans une […]

Power BI, les raisons d’un succès



Temps de lecture : 3 minutes De l’analyseur d’e-mails au conseiller financier virtuel, l’intelligence artificielle (IA) est appelée à se généraliser dans tous les métiers de la banque. L’IA permet également aux banques de lutter contre le blanchiment d’argent et de se conformer au cadre réglementaire. Si tous les secteurs d’activité explorent actuellement les apports de l’intelligence artificielle, il en est un particulièrement mature sur le sujet : celui de la banque. Du back office au front office, tous ses métiers sont potentiellement concernés par la data science, selon une étude de l’Observatoire des Métiers de la Banque (OMB) remontant à décembre 2017. La banque de détail est la plus en avance en termes d’adoption Le Crédit Mutuel, Orange Bank, Generali ont ainsi récemment créé des « cognitive factories » pour industrialiser leur approche de l’IA en s’adossant à IBM et sa plateforme technologique Watson. Plusieurs cas d’usage ont déjà émergé. En interne, l’IA permet de « lire » les e-mails envoyés par les clients et de déceler l’intention qui se cache derrière un message pour les router vers les bons destinataires. En fonction de la nature de la demande, elle peut ensuite donner la priorité à certains e-mails, voire suggérer des réponses automatisées. Par ailleurs, l’IA, et plus spécifiquement une sous-famille, la RPA ou Robotic Process Automation, permet de décharger les gestionnaires des tâches, répétitives et chronophages. La RPA permet, entre autres, d’effectuer le travail de réconciliation comptable, en rapprochant les données comptables et de gestion. Les équipes IT, comme celles de BNP Paribas, utilisent l’IA pour renforcer leur politique de cybersécurité. L’écoute en continu de signaux faibles permet de détecter des comportements anormaux. Les algorithmes contribuent également à la lutte contre le blanchiment d’argent et les cas de fraude. En facilitant le contrôle des données, les algorithmes aident les banques à se mettre en conformité car il s’agit d’une profession particulièrement réglementée (BCBS 239, Bâle III, MiFID II…). Chatbot et robo-advisor Du côté du front office, les clients des banques de détail peuvent déjà voir les premières réalisations. Baptisé Djingo, l’agent conversationnel d’Orange Bank répond en langage naturel aux demandes des clients de la néobanque de l’opérateur télécom, comme effectuer des opérations ou bloquer/débloquer une carte bancaire. Le chatbot de Generali s’appelle, lui, Leo. Il fait découvrir aux internautes du site de l’assureur ses produits d’assurance habitation, santé et emprunteur. De son côté, Aviva a conçu un robo-advisor dédié à la gestion des contrats d’assurance-vie. Après avoir posé une douzaine de questions, ce conseiller financier virtuel définit le profil de l’épargnant – approche prudente, équilibrée ou dynamique -, dresse un bilan personnalisé et suggère des recommandations comme allouer tel pourcentage de l’épargne en actions et obligations, tel autre en fonds en euros. L’IA permet aussi d’établir un scoring pour l’octroi de prêts des particuliers en fonction d’un grand nombre de données, y compris celles issues des médias sociaux. Et le B 2 B ? Moins médiatisée et plus tardive, la révolution de l’IA concerne également les activités B 2 B des établissements bancaires comme la banque de financement […]

La banque, en première ligne sur ...


informatique quantique - ORSYS 3
Temps de lecture : 3 minutes Si l’informatique quantique est un sujet complexe, c’est aussi le sujet du moment… Philippe Nieuwbourg, expert en analyse de données, nous explique de quoi s’il s’agit, et pourquoi il est important de commencer à s’y intéresser. Si vous vous intéressez un peu aux tendances de l’informatique, vous avez certainement entendu parler d’ informatique quantique. Sans doute n’avez-vous pas compris grand-chose, et c’est tout à fait normal ! Pour comparer, savez-vous qu’il existe à peu près autant de différences entre les cartes perforées des débuts de l’informatique, et votre iPhone aujourd’hui ? Qu’entre les ordinateurs actuels et les futurs systèmes quantiques dans quelques décennies ? Nous sommes aux prémices d’une génération complètement différente de calculateurs qui se construit actuellement dans les laboratoires de Google, IBM, D-Wave, Rigetti, Fujitsu… et ce, dans les centres de recherche les plus secrets des États-Unis et de Chine en particulier. Un chiffre pour garder votre attention ? La Chine a décidé d’investir environ 10 milliards de dollars durant les prochaines années autour de la recherche dans le domaine du quantique. Des applications à complexité exponentielle dans le domaine de la simulation Commençons par les usages et non par la technique. Et par un inventaire à la Prévert : ABN AMRO, Barclays, BBVA, CaixaBank, Airbus, BMW, Daimler, Volkswagen, Thales, Merck, Roche, Total… qu’ont en commun ces entreprises et plusieurs dizaines d’autres ? Elles ont toutes mis en place des programmes de recherche et de développement en informatique quantique. Et pour résoudre quels types de problèmes ? Des problèmes inaccessibles aux ordinateurs traditionnels. Cela concerne, par exemple, l’optimisation individuelle des déplacements d’une population ; la modélisation des comportements d’une molécule en fonction de milliers de facteurs ; la mise en place de systèmes de cryptage résistants aux « hackers quantiques » ; l’optimisation de la dynamique des fluides ; la simulation avancée d’instruments financiers complexes… Les applications sont aussi nombreuses que créatrices de valeur. Dans certains cas, l’informatique quantique permettrait de passer de plusieurs jours de calculs de simulations à quelques minutes. Les secteurs de la finance, du transport, de la santé, de la chimie, de l’énergie, mais également militaire, électronique et de communication, sont particulièrement concernés. Puissance de calcul et gain de temps sont les deux arguments principaux de l’informatique quantique. De la physique traditionnelle à la physique quantique Mais de quoi s’agit-il ? D’ordinateurs à l’architecture et aux composants totalement nouveaux, basés sur les propriétés étonnantes de la physique quantique. Faut-il être docteur en physique pour s’intéresser au sujet ? Non, et heureusement. Les concepteurs de ces technologies sont en revanche les meilleurs experts mondiaux de la physique quantique. Nous nous contenterons donc de survoler leurs compétences. En revanche, c’est notre rôle de développer les applications qui permettront aux entreprises d’utiliser ces nouveaux ordinateurs quantiques. La physique quantique, donc… De quoi s’agit-il ? La physique traditionnelle est celle de notre monde. Thalès, Archimède, Newton, et bien d’autres, nous ont expliqué comment notre monde fonctionne. Mais depuis le début du XXème siècle, d’autres physiciens s’intéressent à l’infiniment petit : le monde quantique. Il s’agit de Einstein, Planck, de Broglie. Les règles du monde quantique sont […]

Informatique quantique : les premières applications ...


IA recrute humains - ORSYS 4
Temps de lecture : 4 minutes Avec la frénésie actuelle autour de l’Intelligence artificielle (IA), les data scientists, data engineers et autres data architects font la pluie et le beau temps sur le marché du travail. En parallèle de ces spécialistes de la donnée, les projets de machine learning et de deep learning requièrent aussi une expertise métier. Les impacts de l’intelligence artificielle sur l’emploi constituent l’un des sujets les plus clivants du moment. Au fil d’articles anxiogènes, des experts techno-sceptiques évoquent un avenir sombre où une horde de robots et d’assistants virtuels détruira les emplois par millions. À l’inverse, les techno-optimistes imaginent un monde où l’IA libérera l’humain des tâches ingrates, lui permettant de se consacrer à des missions plus nobles et créatives.   Comme toujours, la réalité devrait se situer dans l’entre-deux. Si la théorie de la « destruction créatrice » de Joseph Schumpeter continue de s’appliquer à cette révolution technologique, l’intelligence artificielle commencera par détruire massivement des emplois pour ensuite en créer davantage qu’elle n’en a détruits. IA : près de 50% des postes impactés ? Dans son dernier rapport sur « L’Avenir du travail », qui remonte à fin avril, l’Organisation de coopération et de développement économiques (OCDE) dresse ainsi un tableau plutôt nuancé. En France, pays un peu plus exposé que la moyenne, 16,4 % de postes seraient menacés et 32,8 % transformés par l’automatisation. En attendant, l’intelligence artificielle est surtout créatrice d’emplois ; les jeunes diplômé.e.s qui maîtrisent les rudiments du machine learning et du deep learning sont actuellement les rois et reines du marché du travail. Grands noms de la bancassurance, de l’industrie, ESN, start-up… s’arrachent ces expert.e.s en data science. Les GAFAM font aussi les yeux doux à nos mathématicien.ne.s et à nos chercheurs.ses en sciences cognitives, reconnu.e.s mondialement. Depuis plus d’un an, Microsoft, Google, Facebook, IBM, Samsung et Futjitsu ont multiplié les annonces pour lancer une école de l’IA et ouvrir un centre de R&D en France. À la clé, des millions d’euros d’investissement. Vers une pénurie de compétences ? Un emballement qui ne devrait que renforcer la pénurie de spécialistes de la donnée avec l’inflation salariale qui l’accompagne. D’après une étude 2019 de data recrutement, un.e data scientist démarre sa carrière à partir de 40 K€ bruts pour atteindre 80/100 K€ et plus après dix ans d’expérience. Si toutes les grandes écoles – HEC, Essec, Polytechnique ou Telecom ParisTech – ont créé des cursus dédiés, l’offre en formation initiale ne suit pas la demande. Reste la formation continue. ORSYS propose un ensemble de formations et de séminaires pour acculturer et former à l’IA des professionnel.le.s du numérique. Certaines entreprises vont jusqu’à entreprendre des plans ambitieux de reconversion pour faire monter en compétences des professionnel.le.s des statistiques, comme les actuaires dans le secteur de l’assurance, vers ces métiers de l’IA. IA : les stars de la data… Le plus connu des stars de l’IA, c’est bien sûr le data scientist, qualifié de « métier le plus sexy » par la Harvard Business Review. À la croisée de la statistique et de l’informatique, cet.te expert.e de la […]

IA recrute humains pour projets collaboratifs



interview-catalogue-technologies-numeriques
Temps de lecture : 4 minutes ORSYS évolue, et son offre avec ! Dans cette interview, Jean-Emmanuel Roux*, responsable de l’offre de formation en technologies numériques, nous dévoile les évolutions et les nouveautés de notre nouveau catalogue de la rentrée 2019… Quelle est ta fonction chez ORSYS ? Je suis responsable du développement de l’offre de formation en technologies numériques. J’encadre à ce titre  une équipe de sept ingénieurs pédagogiques qui œuvrent au quotidien à l’amélioration continue de notre offre afin qu’elle corresponde au mieux aux attentes de nos clients. Comment évolue le catalogue ORSYS ? Les produits évoluent dans le temps. De nouveaux langages, de nouveaux concepts, de nouvelles méthodologies apparaissent et disparaissent, des logiciels changent de version… il nous faut donc être à l’affût de l’actualité pour maintenir cette offre à niveau. Le processus d’amélioration continue que nous avons mis en place nous permet de suivre ces évolutions et de proposer toutes les six semaines de nouveaux cours. Ce processus ne saurait fonctionner sans être attentifs aux retours que font nos participants en formation, aux remontées terrain de nos intervenants experts,  aux retours de nos commerciaux ainsi qu’à l’activité de veille menée par nos ingénieurs pédagogiques. Que peut-on trouver dans ce catalogue ? L’informatique embrasse un très grand nombre de domaines (Réseaux, Sécurité, Intelligence artificielle, Développement logiciel, Base de données…). Notre catalogue se structure autour de ces grands domaines en proposant  une liste très complète de cours abordant de manière très opérationnelle ces thématiques. Pour une meilleure visibilité de notre offre, nous avons restructuré notre catalogue en mettant en avant trois nouveaux domaines : management de projet, MOA et Business analysis, et test et qualité des applications. La structure de notre catalogue s’adapte donc aux évolutions du secteur informatique. Nous retrouvons dans ce catalogue, sur plus de 500 pages, un bon millier de cours répartis en séminaires, cours de synthèse et stages pratiques : Les séminaires permettent de faire le point sur les récentes avancées technologiques et les approches les plus novatrices Les cours de synthèse présentent des sujets précis dans une optique opérationnelle Les stages pratiques sont conçus pour acquérir de nouvelles compétences techniques Seuls les deux-tiers de notre offre se retrouvent dans notre catalogue, le tiers restant étant consultable sur notre site Web. Quelles sont les nouveautés du catalogue ORSYS 2019/2020 ? Nous avons conçu une centaine de nouveaux cours,  en avons retiré tout autant, et une trentaine  ont été refondus afin de suivre les évolutions technologiques et les demandes de nos clients. Ce catalogue se caractérise par un renforcement de notre offre autour des grandes thématiques : Big data, data mining, text mining  et machine learning Intelligence artificielle, chatbot et robotique Cybersécurité, hacking et pentest, ethical hacking Parmi les grandes nouveautés, citons ITIL® 4 pour la gestion de services informatiques. ITIL® n’avait pas évolué depuis 2011. L’année 2019 traduit son évolution vers les domaines de l’agilité, du DevOps et du Lean. Une évolution indispensable pour vraiment s’adapter aux nouveautés des services informatiques.  Nous renforçons également notre offre de certifications internationales composée de plus de 200 certifications […]

Interview : découvrez notre catalogue Technologies ...


2
Temps de lecture : 3 minutes Nous exploitons toujours plus de données en tout genre dans les nouveaux écosystèmes analytiques. Nous engrangeons de la pollution qui va poser des problèmes à l’Intelligence Artificielle (IA). Il nous faut alors prendre un peu de recul pour tenter de dégager des axes fondamentaux d’amélioration. Par Pascal MUCKENHIRN* La pollution se multiplie au sein des nouveaux écosystèmes analytiques L’ouverture de l’analytique traditionnelle aux nouvelles techniques issues du Big Data et du prédictif, en particulier les réseaux de neurones profonds, a engendré l’apparition de nouveaux facteurs de pollution des données. Avant de continuer, définissons ce que nous entendons par « pollution des données ». Il s’agit de la dégradation, directe ou indirecte, des données, ce qui entraîne des détériorations susceptibles de perturber leur utilisation dans les écosystèmes d’analyse. Tout a commencé avec la BI libre-service. Au nom du temps passé à intégrer les nouvelles données par les IT, les métiers ont souhaité y avoir accès plus rapidement. Les IT ont ouvert la boîte de Pandore et avec, le relâchement des contrôles qui peuvent parfois sembler superflus aux personnes qui ont hâte d’extraire cette valeur tant promise. Ce qui a tendance à limiter/entraver le partage des contrôles effectués par chacun ou à produire plus de pollution. Deep Learning et Machine Learning Est venu ensuite le Deep Learning avec ses besoins énormes en échantillons d’apprentissage. Cela nécessite parfois de solliciter, via des plateformes, des participant.e.s pour recueillir leurs décisions. Par exemple, dans le cadre de la voiture autonome, pour régler le problème des dilemmes moraux, les chercheur.se.s ont bâti une base de plusieurs millions de réponses humaines qui peuvent servir de base d’apprentissage pour un algorithme. Même s’il existe des algorithmes de redressement d’erreur comme une analyse factorielle qui croise des données sociodémographiques et les réponses fournies, nous ne sommes pas à la merci d’influenceurs en tout genre. Sans oublier que les hackers ne se sont pas encore trop amusés avec l’IA. On ajoute à cela les biais d’apprentissage, ou les relations de cause à effet trop vite déduites d’une corrélation fortuite. Les données collectées sur les réseaux sociaux comportent une grande part de bruit. Ainsi, les robots sont sources de pollution. Le Machine Learning révèle et amplifie les défauts. Il n’a pas la souplesse de faire avec. Le besoin d’immédiateté et la tendance à tout collecter bien avant d’utiliser les données dans la couche de données brutes (Raw Data) du Datalake décalent la question de la qualification des données au moment de l’usage autonome et laisse rentrer les défauts qui, dans certains cas, peuvent être des signaux faibles d’alerte. Cependant, on le constate, les contrôles autonomes ne sont pas forcément complets ou bien chacun les refait à sa sauce, générant ainsi des surcoûts de productivité. Entreprise de dépollution La dépollution n’est pourtant pas si évidente… Le bon sens nous dit d’agir au plus près de la source de pollution, mais la réalité est tout autre, surtout en intégrant des données Open Data, de parcours Internet ou multipartenaires. L’analytique, dans sa vision transverse, récolte toutes […]

Quand la pollution s’invite dans les ...


QVT - digital - ORSYS 1
Temps de lecture : 3 minutes La transformation digitale inspire bien des innovations, y compris dans le domaine du management et de la Qualité de Vie au Travail (QVT). Voici quelques start-up qui ont su surfer sur la tendance. La QVT, vous connaissez ? Probablement… Si les origines de l’acronyme remontent aux années 1970, le concept qui se cache derrière connaît une vague de popularité toute récente en France. Après tout, la transformation digitale a bouleversé le monde de l’entreprise. Il était logique que la Qualité de Vie au Travail (car c’est bien d’elle qu’il s’agit) devienne une préoccupation majeure à l’heure de repenser les méthodes de management et les conditions de travail. Les enjeux de la QVT sont nombreux : innovation des processus de production, mobilité professionnelle, formation des salarié.e.s, adaptation des postes de travail… Nombreuses aussi sont donc les start-up qui ont décidé de puiser dans le potentiel du digital pour améliorer le cadre de travail des employé.e.s. Petit tour d’horizon. Yellow, la plateforme collaborative et interactive de Sensorit Le succès des outils collaboratifs n’est plus à refaire. De Trello à Asana, en passant par Paymo et Taskworld, cette méthode de travail qui facilite les échanges au sein des équipes a été massivement adoptée dans le monde de l’entreprise. Suivi des étapes d’un projet, planification et répartition des tâches, archivage… C’est bien connu : on travaille mieux avec un plan de travail propre et bien organisé. Sensorit a donc décidé de pousser le concept un peu plus loin, en alliant nouvelles technologies et pratiques traditionnelles. De cette union est née Yellow, une plateforme collaborative et cross platform dotée d’un écran interactif. Une sorte de tableau digital, qui permet aussi bien de brainstormer dans la même salle en écrivant sur l’écran ou en envoyant des post-it depuis son Smartphone… Que de remplir le même tableau en temps réel à Paris avec un collaborateur basé à New York. Adilson, la capsule de relaxation Si la pratique de la sieste au travail est encore peu répandue en France, elle gagne indéniablement du terrain. Il faut dire que les courtes siestes de 20 minutes, ou les « power naps », sont non seulement admises dans de nombreuses entreprises en Chine, aux États-Unis ou en Suède, mais aussi perçues comme un facteur de bien-être… et donc de productivité ! Partant de ce constat, la start-up Adilson a mis au point une capsule de repos. Pourquoi s’arrêter à la simple salle de pause, quand on peut se couper du monde quelques instants dans sa propre chambre de relaxation ? À la fois connectée et isolée, la capsule permet de personnaliser sa sieste, de la lumière aux arômes apaisants, puis de se réveiller en douceur. Une séance de relaxation qui pourra en séduire beaucoup, à condition peut-être de ne pas être claustrophobe… Kiplin, encourager à la pratique physique Après la détente, le sport. Et le sport en entreprise est de plus en plus encouragé, que ce soit en suivant un coach sportif entre midi et deux, seul.e ou en équipe, ou en relevant quelques défis au quotidien… […]

Top 5 des innovations digitales au ...



Cloud et technologie - ORSYS
Temps de lecture : 2 minutes Par la Rédaction ORSYS Le Cloud est devenu incontournable à la transformation numérique des entreprises. La montée vers le « nuage » se fait toutefois progressivement. Une fois passée l’étape de l’hybridation, le multicloud permet de profiter pleinement de toutes les richesses du Cloud. 214 milliards de dollars. C’est le chiffre que devrait atteindre, selon Gartner, le marché mondial du Cloud public cette année, soit une croissance de 17,5 % par rapport à 2018. Offrant une infrastructure « scalable » et une puissance de calcul infinie, le Cloud est devenu en quelques années un levier incontournable pour mener une stratégie de transformation numérique. Une fois les freins levés sur la sécurisation et la localisation des données, la question n’est plus de savoir s’il faut ou non monter dans le « nuage » mais à quelle vitesse. Si les entreprises sont en quête d’Agilité, elles ne peuvent faire fi de l’existant hérité du passé, ce fameux « legacy » informatique. Elles doivent conserver une partie de leur patrimoine on-premise pour des raisons réglementaires ou de temps de latence. Passer d’un Cloud à l’autre Hormis les start-up et quelques PME récentes, rares sont les organisations à pouvoir conduire une stratégie 100 % « Cloud first ». La tendance forte consiste donc à recourir au Cloud hybride afin de profiter du meilleur des deux mondes. En fonction de leur criticité, des applications seront supprimées ou réécrites pour passer en mode Cloud – privé ou public -, voire remplacées par des solutions nativement conçues en mode SaaS.  L’étape suivante, c’est le multicloud. Les entreprises ne veulent pas se retrouver bloquées avec un seul provider Cloud comme elles l’ont été par le passé avec les éditeurs de logiciel sous licence (vendor lock-in). Elles souhaitent déplacer indifféremment leurs charges de travail entre les Clouds de Google (GCP), d’Amazon (AWS) ou de Microsoft (Azure) en fonction de l’avance en termes d’innovation, de la qualité de service ou de la grille tarifaire affichés par l’un ou l’autre à un moment donné. Des solutions dites de « broker de Cloud » ou de CMP (Cloud Management Platform) permettent d’assurer cette bascule en s’affranchissant des consoles des fournisseurs. Elles aiguillent l’utilisateur vers le meilleur service en termes de coûts et de performances pour un besoin applicatif donné. Quels fournisseurs ? Les fournisseurs ne sont pas en reste. Pour élargir leur marché au-delà des convertis au Cloud public, elles proposent d’embarquer leurs technologies au sein même des data centers afin de faire le lien entre l’ancien et le nouveau monde. Avec Azure Stack, Microsoft a été le premier à proposer une telle offre, suivi par Amazon Web Services avec Outposts. AWS avait un peu plus tôt noué un partenariat fort avec VMware, spécialiste de la virtualisation, pour proposer la solution VMware Cloud on AWS. Plus récemment, Google Cloud a lancé Anthos. Reposant sur Kubernetes, l’orchestrateur de containers maison, cette plateforme permet de gérer des charges de travail exécutées sur des Clouds tiers. Pour Google, cette réversibilité n’est possible que par le recours généralisé à l’Open Source et à la containerisation. Envie d’aller plus loin […]

Le Cloud de demain sera hybride ...


2
Temps de lecture : 5 minutes L’engouement actuel autour de l’Intelligence Artificielle (IA) sème la confusion sur l’interaction et le rôle des différents domaines qui la composent. Ingénieur Data chez BIAL-R et formateur ORSYS, Yann Romestant* nous détaille les intérêts respectifs du Machine Learning et du Deep Learning et les grands cas d’usage associés. Intelligence Artificielle, Machine Learning, Deep Learning… Ces « buzzwords » sont depuis quelque temps diffusés dans la presse spécialisée comme grand public, sans que l’on sache véritablement ce que chaque terme recouvre. Des éditeurs et des fournisseurs de services participent d’ailleurs à cette confusion en apposant la mention IA à toutes leurs offres. Pour comprendre ce glissement sémantique, prenons le temps de faire un rappel historique. L’Intelligence Artificielle, qui consiste à concevoir des technologies capables de simuler/imiter certains traits de l’intelligence humaine, n’est pas récente. Tout commence avec Enigma  Des experts font démarrer ses débuts avec les travaux du mathématicien britannique Alan Turing. Il s’est rendu célèbre pour avoir contribué pendant la Seconde Guerre mondiale à décoder Enigma, la machine utilisée par le régime nazi pour chiffrer ses messages. Cet exploit aurait permis d’écourter le conflit d’au moins deux ans. Nombre de ses travaux ont permis l’essor de l’Intelligence Artificielle, comme le test de Turing ou encore son article « Computing Machinery and Intelligence ». Par la suite, l’IA est restée longtemps cantonnée aux laboratoires de recherche. Deux facteurs l’ont sortie du monde de la R&D : l’augmentation exponentielle du volume de données, d’une part, et la puissance de calcul et les capacités de stockage infinies apportées par le Cloud, d’autre part. Pour simplifier à l’extrême, il existe deux formes d’IA. Les systèmes experts, mis en production après le boom de l’IA des années 80, répondent à des tâches complexes en retenant un choix parmi une multitude de possibilités. Il s’agit, par exemple, de l’algorithme du GPS qui trouve le chemin le plus rapide. L’autre grande famille, ce sont les agents intelligents qui sont restés au stade de la recherche dans les années 80 pour les raisons évoquées plus haut. Ils représentent une « retranscription » mathématique d’un problème. Le Deep Learning fait franchir un nouveau cap Pour Yann Romestant, ingénieur Data chez BIAL-R et formateur ORSYS, un nouveau cap a été franchi avec l’essor récent du Deep Learning. « Il a permis de réaliser des progrès significatifs notamment dans la reconnaissance d’images ». Le Deep Learning est un sous-ensemble du Machine Learning, qui lui-même appartient à la grande famille de l’Intelligence Artificielle. Le Deep Learning tire sa force des réseaux de neurones dont le fonctionnement s’inspire du cerveau humain. Le réseau le plus connu (perceptron) est organisé en strates superposées. Les neurones d’une couche sont connectés à ceux d’une autre couche. C’est cette superposition de couches qui explique le terme d’apprentissage « profond ». AlphaGo de Google-DeepMind lui doit sa victoire sur l’un des champions mondiaux de Go, un jeu de stratégie jugé pourtant trop complexe pour être assimilé par une machine. Il y aurait plus de possibilités au jeu de Go que d’atomes observables dans […]

IA, Machine Learning, Deep Learning… De ...


Analyse forensique - ORSYS
Temps de lecture : 5 minutes Dans un contexte où les cyberattaques deviennent la norme, la « résistance » s’organise sous la forme de différentes prestations en sécurité. Parmi celles-ci, encore méconnue en France, s’impose pourtant l’analyse forensique, outil de prédilection de l’enquêteur informatique. Stéphane Reytan*, expert en cybersécurité et formateur ORSYS, a accepté de répondre à nos questions pour nous faire découvrir les réalités d’un métier. Quelle est la différence entre investigation numérique et analyse forensique ? L’analyse forensique fait référence à quelque chose de très technique. Tout administrateur est amené à faire de l’analyse forensique. La plupart du temps, cela revient à détecter comment un virus s’est infiltré ou comment des documents sont sortis de la société. (…) Les clients ont besoin de comprendre d’où est venue l’infection pour être capable de la cloisonner, d’améliorer sa sécurité pour éviter que ça se reproduise et, bien sûr, de s’assurer qu’il n’y a pas eu de propagation au reste du système informatique. Et [une attaque] ne va pas nécessairement déclencher un dépôt de plainte. L’investigation numérique fait quant à elle référence de façon globale aux enquêtes, et surtout aux enquêtes policières. Même si ce sont des sujets qui sont assez connexes, il y a quand même des nuances. Si le but est également d’améliorer sa sécurité, quelles sont les différences avec le pentest ? C’est totalement différent. Le pentester se fait passer pour un attaquant pour effectuer un test d’intrusion. Par exemple, le client va lui donner un périmètre très réduit, comme un site Web, et il va simuler une attaque sur ce site. C’est une prestation spectaculaire, qui permet souvent de valider de façon très fiable un niveau de sécurité sur un périmètre très réduit. Alors que dans le cas de l’analyse forensique, une attaque a réussi et on essaie de comprendre par où est passé l’attaquant, ce qu’il a fait, ce qu’il cherchait, quelles étaient ses motivations, est-ce qu’il est toujours là, et quelles sont les techniques qu’il a utilisées. En résumé, le forensique, c’est un peu Les experts à Miami… C’est la collecte des traces et une tentative de reconstitution d’une attaque. (…) L’objectif est-il de faire un recours en justice ? Oui, et non. Dans l’immense majorité des cas, il n’y a pas de suites judiciaires. Si vous avez été victime d’un virus, vers qui allez-vous vous tourner ? On va peut-être déposer une plainte pour des questions d’assurance, mais le forensique va surtout vous aider à comprendre par où c’est arrivé pour éviter que cela se reproduise. (…) Le forensique est, par définition, une analyse des traces numériques. Même si, parfois, il n’y a pas de traces. Par exemple, encore récemment, chez des clients, des serveurs ont été entièrement infectés… Les serveurs ont été éteints, mais il est maintenant impossible de les redémarrer parce que le disque dur est complètement détruit. C’est donc assez compliqué après de retrouver par où et comment ils se sont fait hacker. Quelles sont les techniques principales d’un enquêteur pour retrouver ces traces numériques ? Il y a des procédures de respect […]

L’analyse forensique : enquêtes spéciales [interview]



LegalTech
Temps de lecture : 4 minutes Rédaction assistée de documents juridiques, résolution de petits litiges, justice prédictive… Des start-up spécialisées entendent à la fois démocratiser l’accès au droit et décharger les juristes des tâches à faible valeur ajoutée. Tour d’horizon des LegalTechs. Il aura été dit qu’aucun métier ne sera épargné par l’ubérisation. Même une profession intellectuelle aussi ancienne et réglementée que celle d’avocat est bouleversée par les nouvelles technologies. Depuis trois ans déjà, le cabinet d’avocats d’affaires américain BakerHostetler fait travailler Ross, le premier robot avocat. Développé avec la plateforme Watson d’IBM, Ross épluche des milliers de textes et d’articles sur des cas similaires à celui qui sera plaidé afin d’étayer l’argumentaire de l’avocat en charge du dossier. Et demain, peut-être, un robot ira lui-même plaider à la barre… Avec son Projet Debater, le même IBM organise des concours d’éloquence où un débateur humain est opposé à une Intelligence Artificielle. Si on oublie sa voix mécanique et quelques erreurs ou répétitions, le discours de la machine, bâti en analysant des millions de documents, est assez bluffant [voir la vidéo]. Plus de 200 LegalTechs en France Pour l’heure, le marché n’a pas atteint ce niveau de maturité. Nées aux États-Unis dans les années 2000, les LegalTechs, les startups spécialisées dans le droit, ont fait leur apparition en France en 2013, avec la création de Legalstart et Captain Contrat. Aujourd’hui, selon l’Observatoire de la LegalTech du Village de la justice, il y avait, en février dernier, 213 acteurs et services sur ce marché de la disruption du droit. Première activité historique des LegalTechs, la rédaction d’actes et de documents juridiques concerne encore 35 % d’entre elles. Sur ce créneau, on trouve Captain Contrat ou Legalife. Sur la base de modèles-types personnalisables, un particulier, un créateur d’entreprise ou un dirigeant de PME édite lui-même ses documents juridiques en ligne, avec, le cas échéant, le conseil d’un juriste. Ces plateformes estiment ne pas nuire aux avocats en s’adressant à une population qui n’aurait de toute façon pas fait appel à ces derniers – par manque d’habitude ou pour des raisons financières. Selon une étude de Captain Contrat, les 1,8 million de TPE-PME françaises seraient freinées dans leur développement par les démarches juridiques et administratives. 69% des entrepreneurs passeraient deux jours et plus par mois à gérer des problématiques juridiques et administratives. Perte de temps et d’argent, méconnaissance des démarches à réaliser… La gestion du juridique et de l’administratif est vécue à 57% comme une contrainte stressante pesant sur l’activité de l’entreprise. Automatiser la résolution des petits litiges Même volonté de démocratisation du droit avec l’autre grande famille de LegalTechs, celles qui sont spécialisées dans l’arbitrage et le règlement de petits contentieux. eJust se propose ainsi de résoudre les litiges par une médiation en ligne. Pas d’audience physique au palais de justice, entreprises et professionnels du droit échangent sur sa plateforme et par visioconférence. Une médiation moins coûteuse. Autre créneau vendeur : les « small claims », les petits litiges du quotidien comme un loyer impayé, des frais bancaires jugés abusifs ou la […]

LegalTechs : le droit à l’épreuve ...


1
Temps de lecture : 4 minutes Le robot, un concentré d’Intelligence Artificielle Pour interagir avec l’homme, un robot humanoïde fait appel à tout ce que peut offrir l’IA pour se doter de la parole, de la vue, de l’ouïe et du toucher. Un concentré d’intelligence qui fait appel à de nombreuses expertises. L’Intelligence Artificielle est le grand sujet de discussion du moment, y compris dans le grand public. Il soulève des débats tant techniques que sociologiques ou éthiques. Pour autant, il est toutefois difficile de lui donner une représentation. Dans les médias, l’IA prend souvent la forme de robots humanoïdes comme les fameux Nao et Pepper de SoftBank Robotics. Pour ressentir les émotions humaines et adapter son comportement à l’humeur de son interlocuteur, ce type de robot réunit un concentré de tout ce que peut offrir l’IA. Les technologies de reconnaissance faciale et de formes, de compréhension du langage, de reconnaissance et de synthèse vocales lui permettent de le doter de la parole, de la vue, de l’ouïe et du toucher. La robotique fait appel à un grand nombre de domaines d’expertise Pour Cédric Vasseur, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS, « la robotique permet à l’IA de se frotter aux réalités du terrain. On sort de la théorie pour rentrer dans le concret. Est-ce que le robot accomplit correctement sa tâche ? Le feed-back est immédiat. » Pour arriver à embarquer cette intelligence dans un environnement contraint, la robotique fait appel à un grand nombre de domaines d’expertise. La conception du robot puis sa programmation supposent notamment des connaissances en électronique, en mécanique et en informatique embarquée. « Savoir à la fois souder des mini-composants et concevoir une IA est très rare. Un diplômé en électronique va se former à l’IA ou inversement un data scientist va se roder à la mécatronique. » Cette exigence explique, pour partie, le manque de vocations chez les jeunes diplômés et la pénurie de spécialistes, notamment en robotique industrielle. Le robot doit ressembler à l’homme mais pas trop Les progrès de la robotique ne sont toutefois pas aussi spectaculaires que le laissent imaginer certaines vidéos de Boston Dynamics comme celle-ci où l’on voit un robot courir, gravir une pente, sauter un obstacle. « Ces vidéos ne nous montrent que les fois où le robot a réussi, tempère Cédric Vasseur. Une telle prouesse suppose que le robot s’adapte au contexte en analysant son environnement puis en simulant le déplacement avant de passer à l’action. Nous n’en sommes pas encore là. » En revanche, un robot est capable de trier des objets, détecter des anomalies. « Par facilité, nous nous représentons mentalement un robot anthropomorphique mais il n’a pas forcément besoin de bras ou de jambes. Il peut se déplacer plus facilement avec un système de chenilles. Le projet Asimo de Honda vient d’être arrêté. Bardé de capteurs, il ne fonctionnait plus s’il y avait un problème d’éclairage. » Rendre le robot le plus humain possible ? Peut-être pas… Rendre le robot le plus humain possible peut créer un sentiment de malaise, à l’image du japonais […]

Projet IA 3/3 : quels progrès ...


Temps de lecture : 4 minutes Avant toute chose, il faut comprendre la révolution (relativement) douce qui s’est produite en 20 à 25 ans, avec le passage de la vidéo analogique à la vidéo numérique. Et par vidéo numérique, on entend toute la chaîne de production : de la captation au montage, en passant par la diffusion, sans oublier la viralité liée aux réseaux sociaux. Visionnez la vidéo de notre expert Comprendre Pour être précis, la vidéo numérique a trois avantages majeurs : Le passage de l’enregistrement sur bande magnétique à l’enregistrement numérique sur ordinateur. Même si l’enregistrement numérique s’est fait un temps sur bandes magnétiques (cf. K7 DV et mini-DV), aujourd’hui, qu’on utilise un smartphone, un appareil photo ou un caméscope, les vidéos sont enregistrées en mémoire et transférées sur PC/MacBook pour le montage. Quand on ne les publie pas directement sur YouTube ou sur ses réseaux sociaux. Sans vous raconter comment nous faisions des montages avec la vidéo analogique, sachez que le montage de vidéos numériques sur PC, voire avec Smartphone, est 100 fois plus simple et 100 fois moins coûteuse qu’à l’époque de la vidéo analogique. La diffusion se fait à l’échelle planétaire, voire instantanément en haute définition. Et n’oublions pas le partage des vidéos, que nous en soyons producteurs ou simplement consommateurs, via les réseaux sociaux. Une révolution en deux temps La révolution de la vidéo numérique s’est faite en deux temps. Dans un premier temps, le passage technologique de l’analogique au numérique sur l’ensemble de la chaîne de vidéo production : captation-enregistrement, stockage, montage et diffusion sur les portails type YouTube ou Vimeo. Ensuite, point très important, l’arrivée de l’iPhone en 2007 a été l’élément déterminant qui a démocratisé la photo-vidéo. Elle est aujourd’hui une application de base dans les Smartphones. Les fabricants d’appareils photos grand public en ont sérieusement souffert depuis 2011. La courbe STATISTA : Les bons réflexes Que l’on soit utilisateur d’un iPhone, d’un Smartphone sous Android (Samsung, LG, Huawei, etc.) ou autre, et au-delà des différentes versions de ses équipements, on a tous un caméscope dans la poche. Le premier réflexe à avoir est de savoir dégainer son Smartphone au moment où il y a un événement à filmer. Nous avons tous aujourd’hui le réflexe de faire des photos pour tout et n’importe quoi, mais beaucoup moins de faire des vidéos. Exemple de vidéo faite au débotté avec mon iPhone… Mieux placé que BFM et TF1 ? Deuxième réflexe : choisir de filmer en vertical ou en horizontal. Les utilisateurs Snapchat et Instagram privilégieront pour la majorité la verticalité. Les utilisateurs un tantinet cinéphiles privilégieront l’horizontalité, notamment parce qu’ils regarderont leur vidéo à partir de grands écrans 16/9. On n’oubliera pas la question de la stabilité de l’iPhone ou du Smartphone, sachant que dans la très grande majorité des cas les prises de vues se font à main levée. Troisième réflexe : la diffusion aux bonnes cibles, via « les bons vecteurs ». I.e. : YouTube, Vimeo, Facebook, Instagram, LinkedIn, Twitter, WhatsApp, etc. Les mauvais réflexes Pour « apprécier » les défauts courants des vidéos amateures, […]

Faire ses vidéos professionnelles avec son ...



Temps de lecture : 4 minutes Depuis quelques années, nombre d’études et d’articles dépeignent un avenir sombre. L’essor de l’ intelligence artificielle et de la robotisation aurait alors un impact négatif sur un grand nombre de métiers. De 9 % à 47 % des emplois actuels seraient concernés par la transformation numérique en cours si l’on prend en compte le constat du cabinet Roland Berger, de l’Université d’Oxford, de l’OCDE ou plus récemment du Conseil d’orientation pour l’emploi. Cette appréhension de se faire remplacer par la machine n’est pas nouvelle. Elle existe en effet de tout temps, rappelle Cédric Vasseur*, expert en intelligence artificielle et robotique, conférencier et formateur chez ORSYS. « Les lavandières ont été remplacées par la machine à laver. Néanmoins aujourd’hui, qui est prêt à revenir en arrière et à abandonner son lave-linge ? ». Selon la célèbre théorie de la « destruction créatrice » de Joseph Schumpeter, chaque cycle d’innovation commence par détruire des emplois puis contribue à en créer plus qu’elle n’en supprime. « Le personnel des Postes n’aurait pas existé sans l’invention du téléphone », illustre Cédric Vasseur. Une révolution comparable à la machine à vapeur Pour McKinsey, l’intelligence artificielle devrait doper la croissance mondiale de 1,2% par an en moyenne jusqu’en 2030. Selon le cabinet d’études, nous vivons là un phénomène de rupture de même ampleur que la machine à vapeur au XIXème siècle. Et comme à chaque révolution technologique, des métiers se transformeront, d’autres disparaîtront. Un site en anglais indique sous forme de pourcentage les risques qu’a votre métier de se faire « uberiser ». Une forme de logique est respectée. Les personnes exécutant des tâches répétitives – manutentionnaire, caissier/ère, standardiste… – présentent davantage de risques de se faire remplacer. À l’inverse, les métiers au plus proche de l’humain, faisant appel au relationnel et à la créativité, devraient être épargnés. On pense aux médecins, aux psychologues, aux aides à domicile, aux artistes. Intelligence artificielle et robotique, quelles opportunités ? Pour Cédric Vasseur, l’IA et la robotisation constituent une opportunité unique d’en finir avec la pénibilité de certains métiers. Elle permettrait de libérer l’homme des tâches les plus fastidieuses pour lui donner du temps pour réfléchir, innover, entreprendre. « Les magasiniers d’Amazon gagneraient à être réaffectés sur des postes moins rébarbatifs et plus créatifs. ». Déjà, le métier d’assistant(e) médical(e) a retrouvé de son intérêt depuis la généralisation des services en ligne de prise de rendez-vous. D’autres professions vont changer de nature. « Pour faire face à l’érosion continue du volume du courrier, les postiers assurent des services à la personne, comme veiller sur les personnes âgées ». En revanche, « les analphabètes du numérique » auront, selon lui, du mal à trouver leur place dans la société à venir. On parle ici d’ « illectronisme ». Pour financer les colossaux programmes de formation et de reconversion qu’il faudra consentir, il se dit favorable à des solutions politiques comme la taxe sur les robots proposée par Bill Gates. L’ intelligence artificielle : association gagnante Homme-machine Optimiste, Cédric Vasseur estime que l’IA va moins remplacer l’homme que l’« augmenter ». « Dans la sphère médicale, lil y a déjà une assistance […]

Avec l’intelligence artificielle, l’Homme ne sera ...


Temps de lecture : 4 minutes Toute donnée géolocalisable peut potentiellement servir à la prise de décision. S’il est inéluctable, le rapprochement entre les mondes du décisionnel et de la cartographie bute encore sur des obstacles à la fois techniques, culturels et historiques. Dans le monde du décisionnel, le temps est un élément clé. Un dirigeant comparera l’évolution des ventes de sa société sur une année ou entre deux périodes équivalentes. La dimension spatiale n’est, elle, pas suffisamment prise en compte. Formateur ORSYS, consultant BI et SIG chez Bial-R et animateur du blog Decigeo, Antoine Dirat le regrette. « Il faut davantage jouer sur l’espace-temps. Quand je donne une date et un lieu, c’est sans équivoque. Il n’y a pas lieu à interprétation. » Pour notre expert, le rapprochement entre les mondes du décisionnel et du SIG (Système d’Information Géographique) est toutefois inéluctable. « Un géographe fait de l’analyse à 90 % de son temps. Il réduit un territoire pour mieux le comprendre. Le découper en régions, en départements et en communes s’apparente à une méthode décisionnelle ». On fait tous du géodécisionnel ? En utilisant une application cartographique de type Google Maps, tout un chacun fait du géodécisionnel sans le savoir, comme monsieur Jourdain. En réduisant l’échelle de la carte, on réalise une synthèse. Quand on zoome sur un carrefour, on fait de l’analyse. Une station de bus qui indique l’heure d’arrivée du prochain bus participe également à cette tendance au géodécisionnel. Toute donnée localisable est alors susceptible d’être géodécisionnelle. « Quand un directeur commercial découpe un territoire en zones de prospection, il souhaite que ces zones soient homogènes et réservent le même potentiel commercial à chacun de ses vendeurs », poursuit Antoine Dirat. Le SIG, 40 ans d’histoire Cette convergence entre BI et SIG butte toutefois sur des obstacles à la fois techniques, culturels et historiques. Tout d’abord, le SIG est un marché particulièrement mature. Cette branche de l’informatique a émergé très tôt. Dès 1968, au Canada, le géographe Roger Tomlinson générait des statistiques spatiales pour l’occupation du sol. Dans les années 70, des éditeurs commerciaux proposaient cette information géographique statistique pour les agences gouvernementales américaines. Plus tard, dans les années 80, sont apparues les premières applications de traitement des images satellite. Dans les années 2000, c’est un canadien à nouveau, Yvan Bédard de l’université Laval au Québec, qui créé le concept d’« Olap spatial ». Il s’agit d’un cube décisionnel dont l’une des faces se dédie aux données spatiales. Un marché de niche ? Autre point bloquant : les éditeurs de SIG évoluent sur un marché de niche. « Le marché est important mais concerne peu d’organisations », observe Antoine Dirat. « Certaines se sont équipées pour la première fois il y a 30 ou 40 ans, elles ont un existant à maintenir. Ces applications sont parfois critiques, comme le suivi en temps réel des routes pour les services d’évacuation ou la livraison logistique. Les utilisateurs n’ont pas envie de tout révolutionner. » Sur le plan technique, le SIG est intrinsèquement lié aux bases de données relationnelles. C’est même le premier consommateur de SGBDR. Les applications […]

L’inévitable convergence du SI Géographique (SIG) ...


5
Temps de lecture : 3 minutes Mener à bien un projet d’Intelligence Artificielle Méthodologie de gestion de projet, qualité de données, choix de l’algorithme… Cédric Vasseur*, expert en Intelligence Artificielle (IA), donne quelques clés pour mener à bien un projet d’IA. Depuis quelques mois, l’Intelligence Artificielle fait la une des journaux, y compris grand public. L’homme rêve qu’elle soit plus performante qu’elle ne l’est. Selon les articles, les robots vont le libérer des tâches les plus ingrates ou, inversement, prendre son travail et contrôler sa vie. La question de l’éthique des algorithmes se pose et soulève des questions à la fois sociologiques et philosophiques. Mais il convient selon Cédric Vasseur, expert en Intelligence Artificielle et robotique, conférencier et formateur chez ORSYS, de relativiser. « Aujourd’hui, l’Intelligence Artificielle ne peut pas tout faire. Elle montre rapidement ses limites. » Pour s’en persuader, il suffit, selon lui, d’utiliser les assistants vocaux d’Amazon ou de Google. « Monolocuteurs, ils fonctionnent par instructions et compréhension de mots-clés. Nous ne sommes pas encore dans le dialogue en langage naturel. » Services « sur étagère » ou développements spécifiques L’époque reste donc à l’évangélisation. En multipliant les démonstrations et les formations, il s’agit de montrer concrètement ce que peut apporter l’IA aux entreprises. Et comme il n’y a rien de mieux que de se frotter directement aux technologies, Cédric Vasseur rappelle qu’il existe des services d’IA disponibles « sur étagère ». « Certaines solutions peuvent être mises en place en quelques minutes voire en une après-midi ». Des outils en ligne comme Chatfuel et Botsify permettent, par exemple, de créer rapidement et sans notions de programmation un chatbot. Un cran plus loin dans l’intégration, les grands noms du Cloud public – Amazon Web Services, Microsoft Azure, Google Cloud Platform – proposent toute une panoplie de services cognitifs. Ils sont prêts à l’emploi dévolus à la traduction automatique, à l’analyse de texte ou à la reconnaissance d’images. Ils se présentent sous forme d’APIs externes. Enfin, pour des solutions « sur mesure » ou pour des raisons de confidentialité (hébergement sur ses propres serveurs), l’entreprise recourra à des développements spécifiques. Ce qui suppose donc de faire appel à une méthodologie de gestion de projet. Et ce, avec les étapes classiques de l’analyse de l’existant, de l’expression du besoin et de la rédaction du cahier des charges. Les spécialistes de l’IA, de type Data Scientists, devront être en communication étroite avec les experts métiers. Ils sont les seuls à même de définir les besoins business attendus. Filtrage bayésien, réseau de neurones, apprentissage par renforcement Sur la question souvent évoquée de la qualité des données, Cédric Vasseur note qu’il n’est plus nécessaire d’avoir des données parfaitement propres comme par le passé. « Dorénavant, les modèles actuels d’IA peuvent, par exemple, comprendre les différentes orthographies approximatives d’un même mot. » Un autre point particulièrement sensible porte sur le choix de l’algorithme. Au-delà de la distinction entre Machine Learning et Deep Learning, mode supervisé ou non supervisé, il existe un très grand nombre d’algorithmes en fonction du problème à résoudre. Le filtrage bayésien permet de séparer les spams des emails. Les […]

Projet IA : comment conduire un ...



Temps de lecture : 3 minutes Par Rudi BRUCHEZ* Après trente ans d’existence, SQL Server est devenu un produit très riche. Que nous réserve l’avenir en termes de fonctionnalités et de rythme des mises à jour ? SQL Server, en constante évolution SQL Server, le Système de Gestion de Bases de Données Relationnelles (SGBDR) de Microsoft a maintenant plus de trente ans. C’est en effet en 1988 que Microsoft s’est allié avec Sybase et Ashton-Tate. Et cela pour développer une variante de Sybase pour OS/2. Depuis, et surtout à partir de SQL Server 2005, qui fut une révolution tant pour les fonctionnalités que pour l’architecture interne, Microsoft n’a cessé de renforcer et d’enrichir ce qui est devenu le troisième SGBD selon le classement de popularité de db-engines. Voyons alors quelles ont été les tendances récentes et ce que cela peut augurer pour les versions à venir. Méfiez-vous des nouvelles fonctionnalités Depuis 2005, à cause d’une longue période de développement entre 2000 et 2005, Microsoft a décidé d’un rythme de sortie de deux ans. Il s’y est tenu pendant une décennie : 2008, 2008 R2 en 2010, 2012, 2014 et 2016. Certaines versions ont été plus généreuses que d’autres, et chacune a proposé une ou deux nouveautés phares : AlwaysOn Availability Groups pour SQL Server 2012 In-Memory OLTP pour SQL Server 2014 Query Store pour SQL Server 2016. Ce rythme s’est accéléré l’an dernier, pour une raison spéciale : le port de SQL Server sur Linux, que j’ai déjà évoqué dans cet article. Avec l’expérience, on peut aussi identifier un schéma récurrent. Lorsqu’une nouvelle fonctionnalité, en tout cas lorsqu’elle touche les développeurs, est mise en production, elle l’est dans une sorte de pré-version alléchante mais inachevée. Cela fut le cas de l’indexation ColumnStore en SQL Server 2012. L’indexation de ce type forçait la table en lecture seule. Les équipes de développement de Microsoft n’avaient pas eu le temps de mettre au point un mécanisme de mise à jour suffisamment performant. Même problématique pour les tables In-Memory en SQL Server 2014. De nombreuses limites de syntaxes les rendaient pratiquement inutilisables dans cette première version. Le problème se présente aujourd’hui avec les tables de graphes en SQL Server 2017, où – c’est le comble ! – les algorithmes de traversées de graphes qui fondent ce type de structure, sont absents. La traduction française de la fonctionnalité est même tristement comique : « tables graphiques »… On a vraiment l’impression d’une pré-version passée en production, et on pourrait soupçonner une stratégie de « tâtage de terrain ». Y a-t-il une valeur forte à intégrer cette fonctionnalité dans SQL Server. Ou s’agit-il de remplir une case manquante, pour dire « nous l’avons fait » et pour évaluer ensuite l’intérêt des clients, qui déterminera l’effort déployé ensuite dans l’enrichissement de la fonctionnalité ? Le piège des premières versions En fait, le rythme de sortie de deux ans est un piège. Ainsi poussé à justifier une nouvelle version, Microsoft inclut des fonctionnalités majeures dans une étape de conception intermédiaire. Cela ressemble donc à une forme d’intégration continue directement en production. Mais les temps ont changé depuis […]

Quelles sont les tendances pour SQL ...


5
Temps de lecture : 3 minutes Par la rédaction ORSYS Solution décisionnelle de nouvelle génération, Qlik permet à des opérationnels métiers de créer eux-mêmes leurs tableaux de bord, de façon intuitive. Qlik, une solution décisionnelle Qlik fait partie de ces solutions décisionnelles qui tentent de dépoussiérer l’approche traditionnelle de la Business Intelligence (BI). Dans cette famille dite de la BI en libre-service ou de la BI 2.0, les métiers créent eux-mêmes leurs rapports par simples glisser-déposer. Ainsi, la restitution du jeu de données se fait de la façon la plus simple et la plus visuelle possible. Autonome, le responsable fonctionnel n’a plus à adresser sa demande de reporting à l’expert décisionnel maison qui lui retournera plusieurs jours voire plusieurs semaines après. Cette approche centrée sur l’utilisateur tranche avec les acteurs historiques du marché de la BI que sont les Business Objects, Cognos et Hyperion rachetés respectivement, il y a une dizaine d’années, par SAP, IBM et Oracle. La BI en libre-service Dans son dernier quadrant magique paru fin février, Gartner classe Qlik parmi les leaders du marché de l’analytics et de la Business Intelligence aux côtés de Microsoft et de Tableau Software. Et, le cabinet d’études salue notamment sa simplicité d’utilisation. Créée en 1993 en Suède, Qlik est aujourd’hui une société cotée au Nasdaq. Basé aux Etats-Unis, à Radnor (Pennsylvanie), l’éditeur est présent dans plus de cent pays et compte plus de 40 000 clients dans le monde. En juin 2016, le fonds d’investissement Thoma Bravoil le rachète trois milliards de dollars. Qlik propose deux produits principaux pour accéder aux données, les présenter et les explorer. Produit historique de son portefeuille, « QlikView exige une certaine appétence technique pour créer et publier des tableaux de bord, avance Nicolas Wazylezuck expert Qlik au sein de la société de conseil Bial X et formateur chez ORSYS. Par ce travail de paramétrages, QlikView offre des fonctionnalités étendues pour personnaliser l’expérience utilisateur ». Son modèle d’acquisition par licence on-premise le destine plutôt aux grands comptes. Plus récent, Qlik Sense s’inscrit dans la mouvance de la BI en libre-service décrite plus haut. Son interface intuitive permet à l’utilisateur final de créer lui-même ses rapports. En revanche, les possibilités de personnalisation sont moindres. Qlik Sense existe en licence on-premise ou en abonnement Cloud. L’utilisateur peut décider d’installer la solution sur un serveur en propre ou sur une plateforme Cloud de type Amazon Web Services ou Microsoft Azure. Enfin, avec l’offre Qlik Sense Cloud, le client s’affranchit de toutes les contraintes d’infrastructure. Tout se gère par Qlik. Cette offre est cependant moins complète que la version « entreprise ». En effet, elle propose moins de connecteurs aux données. Le principe de l’associativité Les deux outils sont basés sur le même moteur et c’est sur ce point que Qlik fait la différence. L’éditeur a breveté une technologie reposant sur le principe dit de l’associativité. Par un processus itératif, le moteur établit des liens entre les données et les résultats s’affinent au fur et à mesure des requêtes. « Cette technologie permet, selon Nicolas Wazylezuck, de faire des explorations […]

Qlik, la Business Intelligence à portée ...


4
Temps de lecture : 5 minutes Par la Rédaction ORSYS Qui l’eut cru ? Longtemps réservée à quelques chercheurs disséminés dans le monde, l’Intelligence Artificielle (IA) est devenue un sujet grand public, traité à la une des médias généralistes. Un sujet qui suscite les réactions les plus extrêmes. Certains pensent qu’elle déchargera l’homme des tâches fastidieuses, améliorera son quotidien et prolongera son espérance de vie. D’autres pensent que l’essor de l’IA entraînera la destruction d’un grand nombre d’emplois et, dépassant l’intelligence humaine, entravera notre libre arbitre.

L’Intelligence Artificielle modifie en profondeur les ...



2
Temps de lecture : 4 minutes La digitalisation des banques, qui est paradoxalement intervenue plus tardivement que dans certains secteurs de l’économie (voir notre article précédent), est aujourd’hui bien en marche. Une mise en œuvre qui impacte leur organisation. Au cœur de cette transformation : le client. Michelle Goldberger et Aurélie Brugère du cabinet The Smartworking Company®*, partenaire d’ORSYS, expliquent…   La digitalisation des process bancaires : une petite « révolution » ?   Dans le secteur bancaire, elle concerne toute la chaîne de valeur : de la technologie à la relation client. Enrichir l’expérience client par la digitalisation passe forcément par une appréhension des pratiques internes de la banque, de son organisation…

Digitalisation bancaire : réussir la transformation


Temps de lecture : 2 minutes Avant de plonger totalement en 2018, la rédaction ORSYS vous propose de retrouver un top 5 de ses articles technos les plus lus en 2017. De la transformation digitale à la question du Big Data, les sujets qui vous ont le plus intéressés sont ceux qui touchent la question des nouvelles possibilités offertes par l’évolution des technologies.

TOP 5 des articles Techno 2017 ...


Temps de lecture : 4 minutes Quand société rime avec technologie, l’évolution de la seconde facilite la vie de la première. À l’heure où le digital fait tourner le monde et apporte toujours plus d’innovations, la question du handicap ne devrait plus se poser comme étant celle de l’exclusion mais plutôt comme étant celle de l’autonomie. Aujourd’hui, quelle est la situation des personnes handicapées en entreprise, où le statut de travailleur en situation de handicap reste complexe ?

Handicap et digital : la marche ...



2
Temps de lecture : 3 minutes Le LiFi (Light Fidelity) est une technologie de communication sans fil via la lumière. Traversé par un courant électrique, un éclairage Led génère un scintillement très rapide, une suite de 0 et de 1, soit le langage informatique. Des fréquences invisibles par l’œil humain mais qui permettent de transmettre de l’information. Un ordinateur ou un Smartphone peut ainsi se connecter à Internet en étant simplement placé dans le champ d’éclairage. La réception se fait à l’aide d’une clé USB ou via la caméra du Smartphone. Standardisé en 2011, le LiFi connait depuis quelques mois d’importantes évolutions. Désormais les débits sont très importants. Il n’est plus nécessaire d’avoir des lampes dédiées. Plusieurs utilisateurs peuvent surfer sur Internet sous une même lampe, les solutions deviennent compatibles PEO (Power Over Internet)… Sécurisation plus fine ? Par ailleurs, en complément du WiFi, le LiFi peut apporter Internet dans des bâtiments où les ondes ne passent pas comme un tunnel ou un parking. Par sa capacité de géolocalisation, il peut être une réponse à la connexion des objets connectés, en alternative aux réseaux dédiés de type Sigfox ou LoRa. Le LiFi garantit la confidentialité des données. Alors qu’un signal WiFi traverse les murs, les ondes lumineuses sont, elles, confinées à une pièce réduisant ainsi les risques de piratage (pour le moment). Des entreprises évoluant dans les secteurs d’activité critiques comme la défense ou la finance peuvent ainsi proposer un accès mobile sécurisé à leurs visiteurs ou équiper leurs salles de réunion. Nexity, Sogeprom (filiale de Société Générale) ou Microsoft ont équipé en LiFi leur siège social. Contrairement au WiFi qui nous expose en permanence à des ondes électromagnétiques – les personnes électrosensibles en savent quelque chose -, le LiFi n’est pas nocif pour la santé. Il utilise, rappelons-le, des signaux infrarouge ou des leds normalisées. La grande distribution déjà conquise Les cas d’usage sont multiples. Le LiFi peut être utilisé dans les lieux publics comme les hôpitaux, les écoles, les bibliothèques ou les aéroports, pour ces raisons sanitaires. La loi Abeille interdit en France l’installation de hotspots Wifi dans les lieux accueillant des enfants de moins de 3 ans comme les crèches. En milieu hospitalier, le Wifi peut aussi provoquer des interférences avec des équipements médicaux de type IRM. Dans la Smart City, un éclairage Led compatible remplace avantageusement les lampadaires traditionnels en apportant de nouveaux services. Palaiseau a ainsi équipé tout un quartier de lampadaires communicants. Un marché prometteur sachant qu’une directive européenne proscrit, à compter de 2020, les ampoules à incandescence pour l’éclairage public. Avec une précision de géolocalisation de 10 cm, le LiFi peut délivrer des informations géocontextualisées et donc être très utile en géomarketing. Il va remplacer les audio-guides dans les musées, informer des voyageurs sur un quai de gare ou à une station de bus. La grande distribution est également intéressée. Dans son nouveau magasin du 19ème arrondissement parisien, Leclerc a placé des capteurs LiFi dans les poignées de ses caddies. Avec deux utilités : tracer le parcours de ses clients dans […]

LiFi, et Internet vint de la ...


1
Temps de lecture : 3 minutes Par la Rédaction ORSYS Avez-vous remarqué combien l’impression 3D nous fascinait ? Avec elle, il semble que tout soit possible. Rappelons néanmoins ses particularités : les imprimantes tridimensionnelles nous permettent de créer des objets, sans contraintes de fabrication industrielle. On se dispense de tous les processus habituellement nécessaires : création de moules, quantités minimum, main-d’œuvre spécifique… Mais comment ça marche ? Si les procédés d’impression en 3D peuvent différer, les principes restent les mêmes. Le point de départ ? Un design sur ordinateur en trois dimensions de l’objet à reproduire. À noter : si l’on ne sait pas designer son objet, plusieurs bases de données participatives existent à ce jour pour y parvenir.

L’impression 3D : le futur est ...


3
Temps de lecture : 4 minutes Avec des modèles aux prix toujours plus bas et une large gamme de matériaux imprimables, l’impression 3D séduit un nombre croissant de secteurs d’activité dont l’aéronautique, l’architecture ou la médecine. Elle permet de réduire les temps de prototypage et de production. Si l’impression 3D connaît une belle couverture médiatique depuis quelques années, la technologie en elle-même, n’est pas nouvelle ! Siemens a découvert le procédé en 1984. Mais c’est le français Charles Hull, fondateur de 3D Systems, qui, la même année, a exploité et breveté la stéréolithographie. Avec cette technique, un laser grave un bloc de résine durcissant.

L’impression 3D étend son champ d’action