DATA INTELLIGENCE

Big Data Analytics

Appréhender les données massives multi-structurées, c’est savoir collecter, décrypter, traiter les mégadonnées ou Big Data pour activer les leviers de croissance et de performance des entreprises, quel que soit leur taille ou leur secteur économique.

C’est aussi construire de nouveaux Business Models pour assurer leur pérennité et leur développement. 

C’est enfin créer des avantages concurrentiels durables, en exploitant, d’une part,  les gisements de connaissances issues de l’analyse fine de nouvelles sources de données, et, d’autre part, la capacité d’anticipation, voire de prédiction, construite à partir de cette analyse.


  • Valoriser les données massives en les transformant en connaissances exploitables
  • Augmenter les capacités d’analyse pour une meilleure anticipation et prédiction
  • Améliorer la performance des dispositifs digitaux de nouvelle génération
  • Optimiser et faire évoluer les architectures décisionnelles

Leader du Big Data et cofondateur de la chaire Data Scientist de l’École polytechnique, Keyrus possède à la fois la connaissance métier, l’expertise analytique et la maîtrise technologique indispensables au succès de vos projets Big Data.

NOS OFFRES

  • L'innovation par la Donnée

    Nous accompagnons nos clients dans leur projet d’évangélisation de l’analytique, afin de faciliter l’émergence d’idées innovantes autour de la valorisation des données. Notre approche est ancrée dans la réalité des entreprises et se focalise sur des cas concrets afin de délivrer des résultats tangibles.

    • Lancer et animer les initiatives de Data-driven Innovation
    • Collecter, exploiter, analyser, valoriser les Données
    • Construire les écosystèmes et les cas d’usages

  • Architectures Big Data & Optimisation TCO

    Keyrus aide les organisations à mettre en œuvre les bases indispensables du Big Data en concevant et en déployant les architectures de valorisation de données de nouvelle génération. Le groupe analyse le contexte spécifique et la réalité de chaque entreprise afin de définir des solutions pertinentes et rentables en valorisant les investissements passés et le capital informationnel de l’entreprise.

    • Concevoir et déployer les Roadmaps Big Data
    • Évaluer et recommander des technologies innovantes
    • Élaborer des Business Cases, analyser les coûts-bénéfices (TCO)

  • Conseil en Data Science

    Conscients que le changement de paradigme imposé par les données massives et multistructurées requiert des connaissances scientifiques et des compétences technologiques très pointues, Keyrus recrute et forme, à travers son partenariat avec l’École polytechnique, des professionnels de la Data Science pour accompagner ses clients dans la conception et dans l’implémentation d’algorithmes Big Data efficients.

    • Développer des algorithmes avancés et sur-mesure (Machine-learning)
    • Mettre en place des solutions analytiques prédictives et prescriptives hautement évolutives : scalabilité,élasticité, « paiement à l’usage » 

  • Laboratoire agile Big Data

    Keyrus conseille l’entreprise dans la définition de ses processus de validation des approches Big Data Analytics à partir de cas d’usages concrets et accessibles. Sensibles à la spécificité de chaque entreprise, le groupe définit avec ses clients une Roadmap réaliste et porteuse de valeurs économiques quantifiables et mesurables.

    • Démontrer la valeur et les choix technologiques associés
    • Mettre en œuvre un laboratoire « agile » d’expérimentation Big Data
    • Qualifier les écosystèmes de données performants

  • Big Data Service Factory

    En offrant un prototypage rapide, la plate-forme algorithmique Big Data de Keyrus raccourcit considérablement les délais de mise en œuvre de vos projets analytiques avancés. Elle délivre des services sous la forme d’une PaaS - Platform as a Service. S’adressant à la fois aux experts en Data Science mais aussi aux utilisateurs métiers en fonction du besoin, elle est hautement évolutive et exécute tout type d’algorithmes et de Data Visualisation, quel que soit le langage.

    • Proposer un prototypage agile et Proof of Value (démonstration chiffrée de la valeur créée)
    • Afficher une montée rapide en capacités analytiques à coûts maîtrisés
    • Présenter des solutions analytiques évolutives : scalabilité et élasticité
    • Construire des modèles payables à la consommation (Big Analytics in the Cloud)

  • Communiqué de Presse
    Keyrus s’associe à TIBCO Software pour renforcer son offre Data Intelligence

    17.11.16

    TIBCO Software Inc. et Keyrus annoncent un partenariat stratégique autour de la ...
    LIRE PLUS VOIR TOUS
  • Événement
    Nantes - Prenez en main Spotfire ! Participez à notre atelier

    01.06.17

    Prenez en main Spotfire à Nantes ! Augment Intelligence for your business Jeudi ...
    LIRE PLUS VOIR TOUS
  • Avis d'Expert
    « L’Uberisation, l’automatisation... Le travail, les emplois de la seconde ...

    10.02.16

    « L’Uberisation, l’automatisation... Le travail, les emplois de la seconde ...
    LIRE PLUS VOIR TOUS

RÉFÉRENCES

  • Grand groupe d'assurances

    Génération de leads dans l'industrie de l'assurance vie en tirant parti des données externes.

  • Grand groupe de distribution

    Accompagnement de la direction financière dans la mise en œuvre d’une solution permettant l’industrialisation de l’élaboration des plans stratégiques à 5 ans du groupe leader de bricolage.

  • Grande banque française

    Recette de la librairie de calcul de risques de contrepartie sur opérations de marché. Recette fonctionnelle des nouvelles versions de la librairie sur les expositions de CA-CIB. Restitution des nouveaux indicateurs de risque dans le portail intranet de la Banque et des fichiers produits par les outils de DRCOM à destination des systèmes aval.

  • Grande banque française

    Roadmap d'une architecture logique d'un entrepôt Big Data.

  • Groupe bancaire international

    Au sein du département "Rates Parameters and Model Control" : vérification indépendante de la valorisation du Front office  à partir d’informations externes de marché (Totem, Collateral, Bloomberg, Brokers…), méthodologies et calcul des réserves spécifiquement sur les produits structurés, quantification de l’incertitude de la valorisation de certains paramètres, de certains modèles de valorisation ou de certaines conditions de marché, calcul de la prise en compte du risque de crédit sur la valorisation, calibration des modèles.