SAS® Unified Insights MM Features

Market-leading data mining & machine learning

  • Provides GUI-based data mining and machine learning via a single, collaborative and highly scalable environment.
  • Provides open source integration with R, Python, Java and Lua models.
  • Lets you use model competition to identify and deploy the most effective model.

View more market-leading data mining & machine learning features

Interactive programming in a web-based development environment

  • Visual interface for the entire analytical life cycle process.
  • Drag-and-drop interactive interface requires no coding, though coding is an option.
  • Supports automated code creation at each node in the pipeline.
  • Best practice templates (basic, intermediate or advanced) help users get started quickly with machine learning tasks.
  • Interpretability reports.
  • Explore data from within Model Studio and launch directly into SAS Visual Analytics.
  • Edit models imported from SAS Visual Analytics in Model Studio.
  • View data within each node in Model Studio.
  • Run SAS® Enterprise Miner 14.3 batch code within Model Studio.
  • Provides a collaborative environment for easy sharing of data, code snippets, annotations and best practices among different personas.
  • Create, manage and share content and administer content permissions via SAS Drive.
  • The SAS lineage viewer visually displays the relationships between decisions, models, data and decisions.

Embedded support for Python and R languages

  • Embed open source code within an analysis, and call open source algorithms within Model Studio.
  • The Open Source Code node in Model Studio is agnostic to Python or R versions.

Deep Learning with Python (DLPy)

  • Build deep learning models for image, text, audio and time-series data using Jupyter Notebook.
  • High level APIs are available on GitHub for:
    • Deep neural networks for tabular data.
    • Image classification and regression.
    • Object detection.
    • RNN-based tasks – text classification, text generation and sequence labeling.
    • RNN-based time-series processing and modeling.
  • Support for predefined network architectures, such as LeNet, VGG, ResNet, DenseNet, Darknet, Inception and YOLOv2 and Tiny YOLO.
  • Import and export deep learning models in the ONNX format.

SAS® procedures (PROCs) and CAS actions

  • A programming interface (SAS Studio) allows IT or developers to access a CAS server, load and save data directly from a CAS server, and support local and remote processing on a CAS server.
  • Python, Java, R, Lua and Scala programmers or IT staff can access data and perform basic data manipulation against a CAS server, or execute CAS actions using PROC CAS.
  • CAS actions support for interpretability, feature engineering and modeling.
  • Integrate and add the power of SAS to other applications using REST APIs.

Highly scalable, distributed in-memory analytical processing

  • Distributed, in-memory processing of complex analytical calculations on large data sets provides low-latency answers.
  • Analytical tasks are chained together as a single, in-memory job without having to reload the data or write out intermediate results to disks.
  • Concurrent access to the same data in memory by many users improves efficiency.
  • Data and intermediate results are held in memory as long as required, reducing latency.
  • Built-in workload management ensures efficient use of compute resources.
  • Built-in failover management guarantees submitted jobs always finish.
  • Automated I/O disk spillover for improved memory management.

Model development with modern machine learning algorithms

  • Decision forests:
    • Automated ensemble of decision trees to predict a single target.
    • Automated distribution of independent training runs.
    • Supports intelligent autotuning of model parameters.
    • Automated generation of SAS code for production scoring. 
  • Gradient boosting:
    • Automated iterative search for optimal partition of the data in relation to selected label variable.
    • Automated resampling of input data several times with adjusted weights based on residuals.
    • Automated generation of weighted average for final supervised model.
    • Supports binary, nominal and interval labels.
    • Ability to customize tree training with variety of options for numbers of trees to grow, splitting criteria to apply, depth of subtrees and compute resources. 
    • Automated stopping criteria based on validation data scoring to avoid overfitting.
    • Automated generation of SAS code for production scoring.
  • Neural networks:
    • Automated intelligent tuning of parameter set to identify optimal model.
    • Supports modeling of count data.
    • Intelligent defaults for most neural network parameters.
    • Ability to customize neural networks architecture and weights.
    • Techniques include deep forward neural network (DNN), convolutional neural networks (CNNs), recurrent neural networks (RNNs) and autoencoders.
    • Ability to use an arbitrary number of hidden layers to support deep learning.
    • Support for different types of layers, such as convolution and pooling.
    • Automatic standardization of input and target variables.
    • Automatic selection and use of a validation data subset.
    • Automatic out-of-bag validation for early stopping to avoid overfitting.
    • Supports intelligent autotuning of model parameters.
    • Automated generation of SAS code for production scoring.
  • Support vector machines:
    • Models binary target labels.
    • Supports linear and polynomial kernels for model training.
    • Ability to include continuous and categorical in/out features.
    • Automated scaling of input features.
    • Ability to apply the interior-point method and the active-set method.
    • Supports data partition for model validation.
    • Supports cross-validation for penalty selection.
    • Automated generation of SAS code for production scoring.
  • Factorization machines:
    • Supports the development of recommender systems based on sparse matrices of user IDs and item ratings.
    • Ability to apply full pairwise-interaction tensor factorization.
    • Includes additional categorical and numerical input features for more accurate models.
    • Supercharge models with timestamps, demographic data and context information.
    • Supports warm restart (update models with new transactions without full retraining).
    • Automated generation of SAS score code for production scoring.
  • Bayesian networks:
    • Learns different Bayesian network structures, including naive, tree-augmented naive (TAN), Bayesian network-augmented naive (BAN), parent-child Bayesian networks and Markov blanket.
    • Performs efficient variable selection through independence tests.
    • Selects the best model automatically from specified parameters.
    • Generates SAS code or an analytics store to score data.
    • Loads data from multiple nodes and performs computations in parallel.
  • Dirichlet Gaussian mixture models (GMM):
    • Can execute clustering in parallel and is highly multithreaded.
    • Performs soft clustering, which provides not only the predicted cluster score but also the probability distribution over the clusters for each observation.
    • Learns the best number of clusters during the clustering process, which is supported by the Dirichlet process.
    • Uses a parallel variational Bayes (VB) method as the model inference method. This method approximates the (intractable) posterior distribution and then iteratively updates the model parameters until it reaches convergence.
  • Semisupervised learning algorithm:
    • Highly distributed and multithreaded.
    • Returns the predicted labels for both the unlabeled data table and the labeled data table.
  • T-distributed stochastic neighbor embedding (t-SNE):
    • Highly distributed and multithreaded.
    • Returns low-dimensional embeddings that are based on a parallel implementation of the t-SNE algorithm.

Analytical data preparation

  • Feature engineering best practice pipeline includes best transformations.
  • Distributed data management routines provided via a visual front end.
  • Large-scale data exploration and summarization.
  • Cardinality profiling:
    • Large-scale data profiling of input data sources.
    • Intelligent recommendation for variable measurement and role.
  • Sampling: 
    • Supports random and stratified sampling, oversampling for rare events and indicator variables for sampled records.

Data exploration, feature engineering and dimension reduction

  • T-distributed stochastic neighbor embedding (t-SNE).
  • Feature binning.
  • High-performance imputation of missing values in features with user-specified values, mean, pseudo median and random value of nonmissing values.
  • Feature dimension reduction.
  • Large-scale principal components analysis (PCA), including moving windows and robust PCA.
  • Unsupervised learning with cluster analysis and mixed variable clustering.
  • Segment profiles for clustering.

Integrated text analytics

  • Supports 33 native languages out of the box:
    • English
    • Arabic
    • Chinese
    • Croatian
    • Czech
    • Danish
    • Dutch
    • Farsi
    • Finnish
    • French
    • German
    • Greek
    • Hebrew
    • Hindi
    • Hungarian
    • Indonesian
    • Italian
    • Japanese
    • Kazakh
    • Korean
    • Norwegian
    • Polish
    • Portuguese
    • Romanian
    • Russian
    • Slovak
    • Slovenian
    • Spanish
    • Swedish
    • Tagalog
    • Turkish
    • Thai
    • Vietnamese
  • Stop lists are automatically included and applied for all languages.
  • Automated parsing, tokenization, part-of-speech tagging and lemmatization.
  • Predefined concepts extract common entities such as names, dates, currency values, measurements, people, places and more.
  • Automated feature extraction with machine-generated topics (singular value decomposition and latent Dirichlet allocation).
  • Supports machine learning and rules-based approaches within a single project.
  • Automatic rule generation with the BoolRule.
  • Classify documents more accurately with deep learning (recurrent neural networks).

Model assessment

  • Automatically calculates supervised learning model performance statistics.
  • Produces output statistics for interval and categorical targets.
  • Creates lift table for interval and categorical target.
  • Creates ROC table for categorical target.
  • Creates Event Classification and Nominal Classification charts for supervised learning models with a class target.

Model scoring

  • Automatically generates SAS DATA step code for model scoring.
  • Applies scoring logic to training, holdout data and new data.

SAS® Viya® in-memory engine

  • CAS (SAS Cloud Analytic Services) performs processing in memory and distributes processing across nodes in a cluster.
  • User requests (expressed in a procedural language) are translated into actions with the parameters needed to process in a distributed environment. The result set and messages are passed back to the procedure for further action by the user.
  • Data is managed in blocks and can be loaded in memory and on demand.
  • If tables exceed memory capacity, the server caches the blocks on disk. Data and intermediate results are held in memory as long as required, across jobs and user boundaries.
  • Includes highly efficient node-to-node communication. An algorithm determines the optimal number of nodes for a given job.
  • Communication layer supports fault tolerance and lets you remove or add nodes from a server while it is running. All components can be replicated for high availability.
  • Support for legacy SAS code and direct interoperability with SAS 9.4M6 clients.
  • Supports multitenancy deployment, allowing for a shared software stack to support isolated tenants in a secure manner.

Deployment options

  • On-site deployments:
    • Single-machine server to support the needs of small to midsize organizations.
    • Distributed server to meet growing data, increasing workloads and scalability requirements.
  • Cloud deployments:
    • Enterprise hosting.
    • Private or public cloud (e.g., BYOL in Amazon) infrastructure.
    • SAS managed software as a service (SaaS).
    • Cloud Foundry platform as a service (PaaS) to support multiple cloud providers.

Streamlined model deployment

  • Streamlines the process of creating, managing, administering, deploying and monitoring your analytical models.
  • Provides a framework for model registration, validation, monitoring and retraining.
  • Enables you to assess candidate models to identify and publish the champion model.
  • Ensures complete auditability and regulatory compliance.

View more streamlined model deployment features

Accessible, web-based, centralized and secure repository for managing analytical models

  • Access all models in the model repository – whether they’re located in a folder or project.
  • Access models and model-score artifacts using open REST APIs.
  • Support for SAS model registration from SAS Visual Analytics, SAS Visual Statistics, SAS Studio, and Model Studio for SAS Visual Text Analytics and SAS Visual Data Mining and Machine Learning.
  • Set up, maintain and manage separate versions for models:
    • Champion model is automatically defined as a new version when the model is set as champion, updated or published in a project.
    • Only one champion model is produced per project. New versions are automatically created when new model projects are registered from the Model Studio environment in SAS Visual Data Mining and Machine Learning and SAS Visual Text Analytics.
    • Choose challenger models to the project champion model.
    • Monitor and publish challenger and champion models.
    • Integration of champion models with SAS Event Stream Processing, including automated notifications when model project champion is updated.
  • Monitor performance of champion models for all projects using performance report definition and execution.
  • Publish SAS models to SAS Cloud Analytic Services (CAS), Hadoop, SAS Micro Analytic Service or Teradata.
  • Python code publishing support for SAS Micro Analytic Service execution target.
  • Provides accounting and auditability, including event logging of major actions, including model creation, project creation and versioning.
  • Add general properties as columns to the listing for models and projects, such as model name, role, type of algorithm, date modified, modified by, repository location, description, version and keywords (tags).
  • Import models from the SAS Platform, including training code, score logic, estimate tables, target and input variables and output variables, using SAS package files (.SPK), PMML and ZIP format files.
  • Export models as .ZIP format, including all model file contents for movement across environments.
  • Easily copy models from one project to another, simplifying model movement within the repository.
  • Import code snippets/models from any code base (C, C++, Java, Python, etc.) into the managed inventory.
  • Create DATA step score code for PMML models on import for inclusion in scoring tasks, reporting and performance monitoring.
  • Model repository can be searched, queried, sorted and filtered by attributes used to store models – such as type of asset, algorithm, input or target variables, model ID, etc. – as well as user-defined properties and editable keywords.
  • Register, compare, report, score and monitor models built in R or Python (classification and prediction).
  • Compare two or more models using automatically calculated model fit statistics to easily understand model differences through plots and analytical metrics.
  • Provides secure, reliable model storage and access administration, including backup and restore capabilities, overwrite protection, event logging and user authentication.

Analytical workflow management

  • Create custom processes for each model using SAS Workflow Studio:
    • The workflow manager is fully integrated with SAS Model Manager so you can manage workflows and track workflow tasks within the same user interface.
    • Import, update and export generic models at the folder level – and duplicate or move to another folder.
  • Provides collaboration across teams with automated notifications.
  • Perform common model management tasks such as importing, viewing and attaching supporting documentation; setting a project champion model and flagging challenger models; publishing models for scoring purposes; and viewing dashboard reports.

Scoring logic validation before models are exported to production

  • Define test and production score jobs for SAS and Python models using required inputs and outputs.
  • Define and execute scoring tasks, and specify where to save the output and job history.
  • Publish model updates to different scoring channels and notify subscribers via message queues.
  • Create model input and output variables from the score.sas file to generate missing metadata from model variables.
  • Integration with SAS Scoring Accelerator for in-database model deployment.
  • Integration with SAS Micro Analytic Service – for SAS and Python code testing and result validation.

Model performance monitoring and reporting during test and production

  • Integrated retraining for data mining and machine learning models using Model Studio: 
    • Retrain data mining and machine learning models when performance reporting threshold metrics are reached.
    • Automated, configured registration after model retraining is completed from Model Studio. No need to import separately.
  • Model performance reports produced for champion and challenger models include variable distribution plots, lift charts, stability charts, ROC, K-S and Gini reports with SAS Visual Analytics using performance-reporting output result sets.
  • SAS Visual Analytics provides a wide range of model comparison reports.
  • Performance results are prepared and made available to SAS Visual Analytics for simplified access to a wide range of model comparison reports.
  • Ability to specify multiple data sources and time-collection periods when defining performance-monitoring tasks.

Distributed, accessible and cloud-ready

  • Runs on SAS Viya, a scalable and distributed in-memory engine of the SAS Platform.
  • Distributes analysis and data tasks across multiple computing nodes.
  • Provides fast, concurrent, multiuser access to data in memory.
  • Includes fault tolerance for high availability.
  • Lets you add the power of SAS Analytics to other applications using RESTful APIs. 

Self-service data preparation

  • Provides an interactive, self-service environment for data access, blending, shaping and cleansing to prepare data for analytics and reporting.
  • Fully integrates with your analytics pipeline.
  • Includes data lineage and automation.

View more self-service data preparation features

Data and metadata access

  • Use any authorized internal source, accessible external data sources and data held in-memory in SAS Viya.
    • View a sample of a table or file loaded in the in-memory engine of SAS Viya, or from data sources registered with SAS/ACCESS, to visualize the data you want to work with.
    • Quickly create connections to and between external data sources.
    • Access physical metadata information like column names, data types, encoding, column count and row count to gain further insight into the data.
  • Data sources and types include:
    • Amazon S3.
    • Amazon Redshift.
    • DNFS, HDFS, PATH-based files (CSV, SAS, Excel, delimited).
    • DB2.
    • Hive.
    • Impala.
    • SAS® LASR.
    • ODBC.
    • Oracle.
    • Postgres.
    • Teradata.
    • Feeds from Twitter, YouTube, Facebook, Google Analytics, Google Drive, Esri and local files.
    • SAS® Cloud Analytic Services (CAS).

Data provisioning

  • Parallel load data from desired data sources into memory simply by selecting them – no need to write code or have experience with an ETL tool. (Data cannot be sent back to the following data sources: Twitter, YouTube, Facebook, Google Analytics, Esri; it can only be sourced form these sites).
    • Reduce the amount of data being copied by performing row filtering or column filtering before the data is provisioned.
    • Retain big data in situ, and push processing to the source system by including SAS In-Database optional add-ons.

    Guided, interactive data preparation

    • Transform, blend, shape, cleanse and standardize data in an interactive, visual environment that guides you through data preparation processes.
    • Easily understand how a transformation affected results, getting visual feedback in near-real-time through the distributed, in-memory processing of SAS Viya.

    Column-based transformations

    • Use column-based transformations to standardize, remediate and shape data without doing configurations. You can:
      • Change case.
      • Convert column.
      • Rename.
      • Remove.
      • Split.
      • Trim whitespace.
      • Custom calculation.
    • Support for wide tables allows for the saving of data plans for quick data preparation jobs.

    Row-based transformations

    • Use row-based transformations to filter and shape data.
    • Create analytical-based tables using the transpose transformation to prepare the data for analytics and reporting tasks.
    • Create simple or complex filters to remove unnecessary data.

    Code-based transformations

    • Write custom code to transform, shape, blend, remediate and standardize data.
    • Write simple expressions to create calculated columns, write advanced code or reuse code snippets for greater transformational flexibility.
    • Import custom code defined by others, sharing best practices and collaborative productivity.

    Multiple-input-based transformations

    • Use multiple-input-based transformations to blend and shape data.
    • Blend or shape one or more sets of data together using the guided interface – there’s no requirement to know SQL or SAS. You can:
      • Append data.
      • Join data.
      • Transpose data.

    Data profiling

    • Profile data to generate column-based and table-based basic and advanced profile metrics.
    • Use the table-level profile metrics to uncover data quality issues and get further insight into the data itself.
    • Drill into each column for column-level profile metrics and to see visual graphs of pattern distribution and frequency distribution results that help uncover hidden insights.
    • Use a variety of data types/sources (listed previously). To profile data from Twitter, Facebook, Google Analytics or YouTube, you must first explicitly import the data into the SAS Viya in-memory environment.

    Data quality processing

    (SAS® Data Quality on SAS® Viya® is included in SAS Data Preparation)

    Data cleansing

    • Use locale- and context-specific parsing and field extraction definitions to reshape data and uncover additional insights.
    • Use the extraction transformation to identify and extract contact information (e.g., name, gender, field, pattern, identify, email and phone number) in a specified column.
    • Use parsing when data in a specified column needs to be tokenized into substrings (e.g., a full name tokenized into prefix, given name, middle name and family name).
    • Derive unique identifiers from match codes that link disparate data sources.
    • Standardize data with locale- and context-specific definitions to transform data into a common format, like casing.

    Identity definition

    • Analyze column data using locale-specific rules to determine gender or context.
    • Use identification analysis to analyze the data and determine its context, which is particularly valuable if the data or source of data is unfamiliar.
    • Use gender analysis to determine the gender of a name using locale-specific rules so the data can be easily filtered or segmented.
    • Create a unique ID for each row with unique ID generator.
    • Identify the subject data in each column with identification analysis.
    • Identify, find and sort data by tagging data with columns and tables.

    Data matching

    • Determine matching records based upon locale- and context-specific definitions.
    • Easily identify matching records using more than 25 context-specific rules such as date, address, name, email, etc.
    • Use the results of the match code transformation to remove duplicates, perform a fuzzy search or a fuzzy join.
    • Find like records and logically group together.

    System and job monitoring

    • Use integrated monitoring capabilities for system- and job-level processes.
    • Gain insight into how many processes are running, how long they’re taking and who is running them.
    • Easily filter through all system jobs based on job status (running, successful, failed, pending and cancelled).
    • Access job error logs to help with root-cause analysis and troubleshooting. (Note: Monitoring is available using SAS Environment Manager and the job monitor application.)

    Data import and data preparation job scheduling

    • Create a data import job from automatically generated code to perform a data refresh using the integrated scheduler.
    • Schedule data explorer imports as jobs so they will become an automatic, repeatable process.
    • Specify a time, date, frequency and/or interval for the jobs.

    Data lineage

    • Explore relationships between accessible data sources, data objects and jobs.
    • Use the relationship graph to visually show the relationships that exist between objects, making it easier to understand the origin of data and trace its processing.
    • Create multiple views with different tabs, and save the organization of those views.

    Plan templates and project collaboration

    • Use data preparation plans (templates), which consist of a set of transformation rules that get applied to one or more sources of data, to improve productivity (spend less time preparing data).
    • Reuse the templates by applying them to different sets of data to ensure that data is transformed consistently to adhere to enterprise data standards and policies.
    • Rely on team-based collaboration through a project hub used with SAS Viya projects. The project’s activity feed shows who did what and when, and can be used to communicate with other team members.

    Batch text analysis

    • Quickly extract contents of documents, and perform text identification and extraction.

    Cloud data exchange

    • Securely copy data from on-site repositories to a cloud-based SAS Viya instance running in a private or public cloud for use in SAS Viya applications – as well as sending data back to on-site locations.
    • Preprocess data locally, which reduces the amount of data that needs to be moved to remote locations.
    • Use a Command Line Input (CLI) interface for administration and control.
    • Securely and responsibly negotiates your on-site firewall.  

    Visual data exploration & insights development

    • Provides bi-modal support for both governed and self-service exploration and visualization.
    • Enables self-service discovery, reporting and analysis.
    • Provides access to easy-to-use predictive analytics with “smart algorithms.”
    • Enables report sharing via email, web browser, MS Office or mobile devices.
    • Provides centralized, web-based administration, monitoring and governance of platform.

    View more visual data exploration & insights development features

    Découverte des données en libre-service

    • Découverte interactive des données pour identifier facilement des relations, tendances, valeurs hors norme, etc. 
    • Représentation graphique automatique sélectionnant le graphique le mieux adapté pour afficher les données sélectionnées.
    • Visualisations analytiques comprenant des diagrammes en boîte, cartes thermiques, graphiques à bulles animés, diagrammes de réseau, matrices de corrélation, courbes avec des prévisions, tracés de coordonnées parallèles, graphiques en anneau, arbres de décision, etc.
    • Vues de cartes géographiques permettant d'appréhender rapidement les données géospatiales. 
    • Diagrammes de réseau, avec possibilité d'afficher les réseaux sur une carte. 
    • Possibilité de publier une visualisation sous forme d'objet de rapport. 
    • Calculs personnalisés permettant d’associer des fonctions, des opérateurs et des éléments de données pour formuler des valeurs adaptées à vos besoins. 
    • Barre de présentation redimensionnable permettant de créer interactivement des sous-ensembles d'éléments visuels comportant de nombreux points. 
    • Objets de tableau de bord pouvant être reliés à des objets de découverte pour créer des interactions. 
    • Importation de visualisations interactives personnalisées (graphiques D3.js, visualisations C3, graphiques Google, etc.) dans SAS Visual Analytics, afin qu'elles reposent toutes sur les mêmes données.    
    • Nouvelle visualisation des valeurs clés permettant d'afficher des indicateurs importants (valeurs numériques ou modalités) dans un style infographique, pour une consultation rapide.
    • Diagrammes de Sankey permettant de réaliser une analyse des chemins pour visualiser les relations entre différentes séquences d'événements. Analyse des chemins représentant le flux des données d'un événement (valeur) à un autre sous la forme d'une série de chemins.

    Analytique en libre-service

    • Statistiques descriptives (min, max et moyenne, par exemple) permettant d'appréhender globalement une mesure donnée. 
    • Création de critères calculés et ajout à une vue. 
    • Génération de prévisions à la volée, avec intervalles de confiance. 
    • L'algorithme de prévision le plus approprié pour des données spécifiques est sélectionné automatiquement 
    • Analyse de scénario permettant d'évaluer l'impact des modifications de variables sur les prévisions. 
    • Simulation consistant à indiquer une valeur cible pour votre prévision, puis à déterminer les valeurs des facteurs sous-jacents qui seraient nécessaires pour obtenir la valeur cible.
    • Arbres de décision présentant les résultats potentiels sous forme graphique. Un niveau expert vous permet de modifier certains paramètres d'influence avant la génération de l'arbre. 
    • Discrétisation personnalisée pour déplacer les données continues dans un petit nombre de groupes afin de mieux interpréter et présenter les résultats. 
    • Fonctions d'analyse de texte pour rechercher automatiquement des thèmes et connaître le ressenti à partir de documents texte, y compris des commentaires Facebook, Twitter, Google Analytics et YouTube.

    Reporting et tableaux de bord interactifs

    • Fonctions de mise en page claires et adaptables procurant une réelle souplesse dans la conception et la mise en page de rapports. Les éléments peuvent être empilés ou regroupés, etc.
    • Large choix d'objets graphiques et de diagrammes : barres, camemberts, anneaux, courbes, nuages de points, de dispersion, à bulles animés ou statiques, en mosaïque, en points, en bâtons, séries numériques, de planification, vectoriels, etc.
    • Ajout de contenu web (vidéos YouTube et applications web, par exemple) et d'images (logos, etc.) dans les rapports.
    • Une variété de commandes rapides permettent aux créateurs de rapports et aux consommateurs de mieux interagir avec le rapport.
    • Fonction de tri personnalisé permettant de classer les éléments de données de catégorie d'un tableau ou d'un graphique.
    • Outils de filtrage automatique (unidirectionnel ou bidirectionnel, par exemple) et de sélection liée accélérant la liaison manuelle du contenu (visualisations, rapports, etc.).
    • Objets texte pouvant contenir du texte contextuel reposant sur les données ou généré par le système.
    • Collaboration facilitée entre les utilisateurs sur les terminaux mobiles ou le web par ajout de commentaires dans un rapport.
    • Synchronisation de la sélection et des filtres entre les différentes visualisations d'un rapport ou d'un tableau de bord.
    • Liens entre différents rapports (rapprochement d'un rapport de vente et d'un rapport d'inventaire, par exemple).
    • Possibilité pour les destinataires des rapports de modifier les paramètres utilisés dans les calculs et les règles d'affichage à l'aide de contrôles, de filtres, etc., pour afficher les informations qui les intéressent.
    • Création d'alertes pour un objet de rapport afin d'informer les abonnés, par e-mail ou SMS, que la condition de seuil est remplie.
    • Diffusion sécurisée de rapports au format PDF ou par e-mail, ponctuellement ou à intervalles réguliers (chaque jour, semaine ou mois, par exemple).
    • Récupération des rapports en cas d'interruption inattendue d'une session de modification. Enregistrement automatique des rapports toutes les cinq secondes en cas de modification.
    • Configuration par les administrateurs de l'accès des utilisateurs en mode Invité aux rapports ou aux visualisations. Possibilité pour les utilisateurs en mode Invité de visualiser les informations mises à la disposition du public.
    • Création d'arborescences en libre-service sans qu'il soit nécessaire de définir des chemins d'accès prédéfinis. 

    Mobile BI

    • Prise en charge native des tablettes et smartphones sous iOS, Windows 10 et Android, ce qui permet d'utiliser la gestuelle et les fonctionnalités courantes pour offrir une expérience utilisateur adaptée et enrichissante. 
    • Rapports créés une seule fois et visualisables sur tous les supports. 
    • Accès sécurisé au contenu sur terminaux mobiles, en ligne et hors ligne. 
    • Partage d'écran en direct permettant aux utilisateurs distants de partager l'écran de leur appareil mobile avec leurs collègues restés au bureau.
    • Possibilité d'annoter les rapports, de les commenter, de les partager et de les envoyer par e-mail.
    • Transmission de captures d'écran annotées. 
    • Notifications adressées aux utilisateurs métier en cas de modification d'un rapport ou des données, ou de mise à jour de l'application.
    • Compatibilité avec des prestataires MDM tiers, tels que Good Technologies, MobileIron et AirWatch. 

    Analyse de localisation

    • Activation de cartes géographiques via Esri ArcGIS Online ou OpenStreetMap.
    • Possibilité d'appliquer la fonction Lasso aux points de données sur les cartes afin de sélectionner des données pour une analyse approfondie.
    • Accès à tous les fonds de carte Esri et géolocalisation via Esri ArcGIS Online sans frais supplémentaires.
    • Polygones personnalisés (secteurs commerciaux, circonscriptions électorales, plans de cabine, plans de salle, etc.) offrant une perspective adaptée aux besoins de votre entreprise.
    • Regroupement de points géographiques qui facilite la visualisation de gros volumes de données de géolocalisation et l'identification des zones d'intérêt, avec différents niveaux de zoom permettant d'obtenir plus ou moins de détails.
    • Analyse du temps et de la distance du trajet avec une licence premium Esri ArcGIS Online (achetée séparément à Esri).
    • Service GeoEnrichment permettant de visualiser des données démographiques et d’autres types de données d’Esri (licence Esri ArcGIS Online requise, disponible auprès d'Esri) dans des contextes différents, pour révéler de nouvelles informations.
    • Cartes choroplèthes simplifiant la visualisation des variances de mesure sur une zone géographique.

    Préparation des données en libre-service

    • Importation de données de sources diverses — bases de données, Hadoop, feuilles de calcul Excel, Presse-papiers, médias sociaux, etc.
    • Diagrammes de réseau permettant de visualiser le lignage.     
    • Fonctions de qualité des données élémentaires, dont :
      • Modification de la casse.
      • Conversion, changement de nom, suppression et scission de colonnes.
      • Création de colonnes calculées et de transformations à l'aide de code personnalisé.
    • Nouveau profiling de tables et de colonnes pour une compréhension instantanée des données.      
    • Préparation des données à l'aide de fonctions d'ajout, d'assemblage, de filtrage et de transposition.
    • Réutilisation, ordonnancement et contrôle des tâches.

    Administration et gestion

    • Administration et surveillance web centralisées de votre environnement BI et analytique (incluant utilisateurs, données, contenu, serveurs, services et sécurité) dans SAS Environment Manager. 
    • Gouvernance :
      • Authentification des utilisateurs et autorisations d'accès au contenu.
      • Sécurité au niveau des objets (dossiers, rapports, etc.) et des données (tables et lignes).
      • Fonctionnalités applicatives de correspondance de règles pour les utilisateurs et les groupes.
    • Intégration aisée dans des annuaires d'identité d'entreprise, comme LDAP.
    • Détermination des droits d'accès à SAS Mobile BI en fonction de listes blanches ou de listes noires des terminaux mobiles.
    • Surveillance de l'intégrité du système et des principales activités via un tableau de bord en temps quasi réel.
    • Ajout et suppression de nœuds de traitement distribué. 
    • API sous forme de scripts exécutant des tâches administratives en batch, dont la gestion de la sécurité, des bibliothèques, des groupes d'utilisateurs et des configurations.
    • Suivi et rapports de performances personnalisés.
    • Exécution dans l'environnement des historiques d'activité, de la planification des tâches et surveillance.

    Moteur in-memory SAS® Viya®

    • SAS Cloud Analytic Services (CAS) procède au traitement en mémoire et répartit les tâches de traitement entre les nœuds d'un cluster.
    • Mise en œuvre des requêtes des utilisateurs (exprimées dans un langage procédural) avec les paramètres nécessaires à leur traitement dans un environnement distribué. Le jeu de résultats et les messages sont renvoyés à la procédure pour être traités par l'utilisateur. 
    • Données gérées en blocs et pouvant être chargées en mémoire à la demande. 
    • Mise en cache des blocs sur le disque en cas de dépassement de la capacité mémoire des tables. Les données et les résultats intermédiaires sont conservés en mémoire aussi longtemps que nécessaire, d'une tâche et d'un utilisateur à l'autre.
    • Communication de nœud à nœud extrêmement efficace. Un algorithme détermine le nombre optimal de nœuds pour une tâche donnée. 
    • Couche réseau prenant en charge la tolérance aux pannes et permettant le retrait ou l'ajout de nœuds sur un serveur en fonctionnement. Possibilité de répliquer tous les composants pour une haute disponibilité.       
    • Moteur SAS Viya prenant en charge le code SAS hérité et offrant une interopérabilité directe avec les clients SAS 9.4 M5.        
    • Prise en charge du déploiement en mode multi-utilisateur permettant à une pile logicielle partagée de prendre en charge des utilisateurs isolés de manière sécurisée.

    Procédures SAS® (PROC) et actions CAS

    • Interface de programmation (SAS Studio) permettant au service informatique ou aux développeurs d'accéder à un serveur CAS, de charger ou d'enregistrer des données directement depuis un serveur CAS, et de prendre en charge le traitement local et distant sur un serveur CAS.
    • Possibilité pour les programmeurs Python, Java ou Lua et le personnel du service informatique d'accéder aux données et de procéder à des manipulations élémentaires à partir d'un serveur CAS ou d'exécuter des actions CAS à l'aide de PROC CAS. 
    • API REST permettant d'intégrer SAS à d'autres applications.

    Options de déploiement

    • Déploiements sur site :
      • Serveur machine unique pour répondre aux besoins des PME.
      • Serveur distribué pour gérer la multiplication des données, l’augmentation des charges de travail et les besoins d'évolutivité.
    • Déploiements dans le cloud :
      • Serveur d'entreprise
      • Infrastructure de cloud privé ou public (par exemple, BYOL dans Amazon).
      • Solution SaaS (Software as a Service) gérée de SAS.
      • Solution PaaS (Platform as a Service) de Cloud Foundry pour prendre en charge plusieurs fournisseurs de cloud.

    Descriptive & predictive modeling

    • Explore and evaluate segments for further analysis using k-means clustering, scatter plots and detailed summary statistics.
    • Use machine learning techniques to build predictive models from a visual or programming interface.

    View more descriptive & predictive modeling features

    Exploration et découverte visuelle des données (disponible via SAS® Visual Analytics)

    • Interprétation rapide de relations complexes ou de variables clés qui influent sur les résultats de la modélisation des données à haute volumétrie.
    • Filtrage des observations pour comprendre le niveau d'influence d'une variable sur l'effet de levier global d'un modèle. 
    • Détection des valeurs hors norme et/ou points d'influence afin de les identifier, de les capturer et de les supprimer dans l'analyse en aval (dans les modèles, par exemple). 
    • Exploration des données à l'aide d'histogrammes, de boîtes à moustaches, de cartes thermiques, de graphiques à bulles, de cartes géographiques, etc. 
    • Génération de résultats prédictifs ou de segmentations directement exploitables dans d'autres tâches de modélisation ou de visualisation. Les résultats peuvent être enregistrés et transmis aux utilisateurs non habilités à créer des modèles.

    Accès par interface visuelle à des techniques d'analyse

    • Clusterisation :
      • Classification par la méthode des K-means, des k-modes ou k-prototypes.
      • Graphiques de coordonnées parallèles pour évaluer interactivement l’appartenance à un cluster.
      • Graphique en nuages de points des données avec profils de cluster pour les petits ensembles de données, et de cartes thermiques avec profils de cluster pour les ensembles de données plus volumineux.
      • Statistiques descriptives détaillées (moyennes de chaque classe, nombre d'observations dans chaque classe, etc.).
      • Génération à la demande de l'identifiant de la classe dans une nouvelle colonne.
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles. 
    • Arbres de décision : 
      • Calcul des mesures de l'importance des variables. 
      • Prise en charge des arbres de classification et de régression. 
      • Basés sur un algorithme C4.5 modifié ou sur la méthode de "cost-complexity pruning". 
      • Croissance et élagage interactifs des arbres. Apprentissage interactif de sous-arbres. 
      • Définition de la profondeur de l'arborescence, du nombre maximal de branches, de la taille des feuilles, de l'étendue de l'élagage, etc. 
      • Utilisation de représentations de l'arborescence pour une navigation interactive. 
      • Génération à la demande de l'identifiant des feuilles, des valeurs prédites et des résidus dans de nouvelles colonnes. 
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles.
      • Prise en charge de l’automatisation des hyperparamètres (dans les modèles de machine learning)
    • Régression linéaire :
      • Statistiques d'influence.
      • Prise en charge de la sélection de variable par méthode ascendante, descendante, pas à pas et lasso.
      • Variables de fréquence et de pondération.
      • Diagnostics des résidus.
      • Tableau de synthèse incluant l'analyse ANOVA globale, les dimensions du modèle, les tests d'ajustement, l'ANOVA du modèle, les tests de type III et les estimations de paramètres.
      • Génération à la demande des valeurs prédites et des résidus en tant que nouvelles colonnes.
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles.
    • Régression logistique :
      • Modèles pour données binaires avec fonctions de liaison logit et probit.
      • Statistiques d'influence.
      • Prise en charge de la sélection de variable par méthode ascendante, descendante, pas à pas et lasso.
      • Variables de fréquence et de pondération.
      • Diagnostics des résidus.
      • Tableau de synthèse incluant les dimensions du modèle, l'historique des itérations, les correspondances statistiques, le Convergence Status, les tests de type III, les estimations de paramètres et le profil de réponse.
      • Génération à la demande des libellés prédits et des probabilités d'événement prédit en tant que nouvelles colonnes. Ajustement du cutoff de prédiction pour désigner une observation comme événement ou non-événement.
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles.
    • Modèles linéaires généralisés :
      • Prise en charge des lois de distribution : bêta, normale, binaire, exponentielle, gamma, géométrique, Poisson, Tweedie, gaussienne inverse et binomiale négative.
      • Prise en charge de la sélection de variable par méthode ascendante, descendante, pas à pas et lasso.
      • Prise en charge des variables retardées.
      • Variables de fréquence et de pondération.
      • Diagnostics des résidus.
      • Tableau de synthèse incluant le résumé du modèle, l'historique des itérations, les correspondances statistiques, la table de tests de type III et les estimations de paramètres.
      • Options d'information pour le traitement des valeurs manquantes sur la variable de prédiction.
      • Génération à la demande des valeurs prédites et des résidus en tant que nouvelles colonnes.
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles.
    • Modèles additifs généralisés :
      • Prise en charge des lois de distribution : normale, binaire, gamma, Poisson, Tweedie, gaussienne inverse et binomiale négative.
      • Prise en charge des effets de courbe spline unidimensionnelle et bidimensionnelle.
      • Méthodes GCV, GACV et UBRE pour la sélection des effets de lissage.
      • Prise en charge des variables retardées.
      • Variables de fréquence et de pondération.
      • Diagnostics des résidus.
      • Tableau de synthèse incluant le résumé du modèle, l'historique des itérations, les tests d'ajustement et les estimations de paramètres.
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles.
    • Régression logistique non paramétrique :
      • Modèles pour données binaires avec fonctions de liaison logit, probit, log-log et c-log-log.
      • Prise en charge des effets de courbe spline unidimensionnelle et bidimensionnelle.
      • Méthodes GCV, GACV et UBRE pour la sélection des effets de lissage.
      • Prise en charge des variables retardées.
      • Variables de fréquence et de pondération.
      • Diagnostics des résidus.
      • Tableau de synthèse incluant le résumé du modèle, l'historique des itérations, les tests d'ajustement et les estimations de paramètres.
      • Prise en charge des données d'exclusion (apprentissage et validation) pour l'évaluation de modèles.

    Accès par programmation aux techniques analytiques

    • Les programmeurs et data scientists peuvent accéder à SAS Viya (serveur CAS) depuis SAS Studio en utilisant des procédures SAS (PROC) et d'autres tâches.
    • Les programmeurs peuvent exécuter des actions CAS à l'aide de PROC CAS ou utiliser d'autres environnements de programmation comme Python, R, Lua et Java.
    • Les utilisateurs peuvent également accéder à SAS Viya (serveur CAS) à partir de leurs propres applications à l'aide d'API REST publiques.
    • Intégration native aux DataFrames Python Pandas. Les programmeurs Python peuvent charger des DataFrames dans CAS et récupérer les résultats de CAS sous forme de DataFrames pour interagir avec d'autres packages Python, comme Pandas, matplotlib, Plotly, Bokeh, etc.
    • Logiciels SAS/STAT® et SAS/GRAPH® inclus.
    • Analyse en composantes principales (PCA) :
      • Réduction des dimensions par calcul des composantes principales.
      • Algorithmes de décomposition de la valeur propre, NIPALS et ITERGS.
      • Sortie des scores en composantes principales dans toutes les observations.
      • Création de diagrammes des valeurs propres et de diagrammes des profils de schéma.
    • Arbres de décision :
      • Prise en charge des arbres de classification et de régression.
      • Prise en charge des fonctions catégorielles et numériques.
      • Critères de fractionnement de nœuds en fonction des mesures d'impureté et des tests statistiques.
      • Méthodes de complexité de coût et de réduction d'erreur pour l'élagage des arbres.
      • Partitionnement des données pour l'apprentissage, la validation et les tests.
      • Prise en charge de l'utilisation des données de validation pour sélectionner le sous-arbre le plus approprié.
      • Prise en charge de l'utilisation des données de test pour évaluer le modèle d'arbre final.
      • Diverses méthodes de traitement des valeurs manquantes, notamment par des règles de substitution.
      • Création de diagrammes arborescents.
      • Statistiques pour l'évaluation de l'ajustement du modèle, notamment les statistiques basées sur le modèle (resubstitution).
      • Calcul des mesures de l'importance des variables.
      • Sortie des affectations de feuilles et des valeurs prédites pour les observations.
    • Clusterisation :
      • Algorithme des nuées dynamiques (k-moyennes) pour la clusterisation des variables continues.
      • Algorithme k-modes pour la clusterisation des variables nominales.
      • Diverses mesures de distance pour la similarité.
      • Méthode ABC (Aligned Box Criterion) pour estimer le nombre de classes.
      • Sortie de l'appartenance de clusterisation et des mesures de distance dans toutes les observations.
    • Régression linéaire :
      • Prise en charge de modèles linéaires avec variables continues et variables de classification.
      • Prise en charge de diverses paramétrisations pour les effets de classification.
      • Prise en charge de tout degré d'interaction et d'effets imbriqués.
      • Prise en charge des effets de polynôme et de courbe spline.
      • Prise en charge des méthodes de sélection ascendante, descendante, pas à pas, Least Angle Regression (LAR) et Lasso.
      • Prise en charge des méthodes de critères d'informations et de validation pour contrôler la sélection de modèles.
      • Possibilité de sélectionner différents niveaux d'effets de classification.
      • Maintien de la hiérarchie entre les effets.
      • Partitionnement des données pour l'apprentissage, la validation et les tests.
      • Nombreuses statistiques de diagnostic.
      • Génération de code SAS pour le scoring de production.
    • Régression logistique :
      • Prise en charge des réponses binaires et binomiales.
      • Prise en charge de diverses paramétrisations pour les effets de classification.
      • Prise en charge de tout degré d'interaction et d'effets imbriqués.
      • Prise en charge des effets de polynôme et de courbe spline.
      • Prise en charge des méthodes de sélection ascendante, descendante, descendante rapide et Lasso.
      • Prise en charge des méthodes de critères d'informations et de validation pour contrôler la sélection de modèles.
      • Possibilité de sélectionner différents niveaux d'effets de classification.
      • Maintien de la hiérarchie entre les effets.
      • Partitionnement des données pour l'apprentissage, la validation et les tests.
      • Choix de statistiques pour l'évaluation de modèles.
      • Choix de méthodes d'optimisation pour l’estimation du maximum de vraisemblance.
    • Modèles linéaires généralisés :
      • Prise en charge des réponses avec de nombreuses lois de distribution, notamment binaire, normale, Poisson et gamma.
      • Prise en charge de diverses paramétrisations pour les effets de classification.
      • Prise en charge de tout degré d'interaction et d'effets imbriqués.
      • Prise en charge des effets de polynôme et de courbe spline.
      • Prise en charge des méthodes de sélection ascendante, descendante, descendante rapide, pas à pas, Lasso et Group Lasso.
      • Prise en charge des méthodes de critères d'informations et de validation pour contrôler la sélection de modèles.
      • Possibilité de sélectionner différents niveaux d'effets de classification.
      • Maintien de la hiérarchie entre les effets.
      • Partitionnement des données pour l'apprentissage, la validation et les tests.
      • Choix de statistiques pour l'évaluation de modèles.
      • Choix de méthodes d'optimisation pour l’estimation du maximum de vraisemblance.
    • Modèles de régression non linéaire :
      • Ajustement des modèles de régression non linéaires aux lois de distribution standard et générales.
      • Calcul de dérivées analytiques à partir d'expressions fournies par les utilisateurs pour des estimations de paramètres plus performantes.
      • Évaluation des expressions fournies par les utilisateurs à l'aide des instructions ESTIMATE et PREDICT (procédure uniquement).
      • Recours à une table de données contenant la banque d'éléments CMP si la PROC NLMOD n’est pas utilisée.
      • Estimation de paramètres à l'aide de la méthode des moindres carrés partiels.
      • Estimation de paramètres à l'aide de la méthode du maximum de vraisemblance
    • Modèles de régression quantile :
      • Prise en charge de la régression quantile pour un ou plusieurs niveaux de quantile.
      • Prise en charge de plusieurs paramétrisations pour les effets de classification.
      • Prise en charge de tout degré d'interaction (effets croisés) et d'effets imbriqués.
      • Prise en charge de la stratégie de sélection de modèles hiérarchiques dans les effets.
      • Méthodes de sélection d'effets multiples.
      • Sélection d'effets en fonction de divers critères de sélection.
      • Prise en charge de règles d'arrêt et de sélection.
    • Modèles prédictifs de moindres carrés partiels :
      • Syntaxe de programmation avec variables de classification, variables continues, interactions et imbrications.
      • Syntaxe de construction d'effet pour les effets de polynôme ou de courbe spline.
      • Partitionnement des données pour l'apprentissage et les tests.
      • Validation des tables de test pour choisir le nombre de facteurs extraits.
      • Implémentation des méthodes de régression suivantes : composante principale, rang réduit et moindres carrés partiels.
    • Modèles additifs généralisés :
      • Ajustement des modèles additifs généralisés en fonction des splines de régression de rang réduit.
      • Estimation des paramètres de régression selon l'estimation de la vraisemblance pénalisée.
      • Estimation des paramètres de lissage selon la méthode d'itération de performances ou la méthode de pénalité extérieure.
      • Estimation des paramètres de régression à l'aide de techniques de maximum de vraisemblance.
      • Test de la contribution totale de chaque spline en fonction de la statistique de Wald.
      • Syntaxe de création de modèles pouvant inclure des variables de classification, des variables continues, des interactions et des imbrications.
      • Possibilité de construire une spline à l'aide de plusieurs variables.
    • Modèle de COX à hasard proportionnel :
      • Ajustement du modèle de COX à hasard proportionnel aux données de survie et sélection de variables.
      • Syntaxe de création de modèles avec variables de classification, variables continues, interactions et imbrications.
      • Syntaxe de construction d'effet pour les effets de polynôme ou de courbe spline.
      • Estimation du maximum de vraisemblance partielle, analyse stratifiée et sélection de variables.
      • Partitionnement des données, en données d'apprentissage, de validation et de tests.
      • Analyse pondérée et analyse groupée.
    • Contrôle statistique des procédés : 
      • Analyse du graphique de contrôle Shewhart.
      • Analyse de plusieurs variables de procédé pour identifier les procédés hors contrôle statistique. 
      • Ajustement des limites de contrôle pour compenser des tailles de sous-groupes inégales.
      • Estimation des limites de contrôle à partir des données, calcul des limites de contrôle à partir des valeurs spécifiées pour les paramètres de population (normes connues) ou lecture des limites à partir d'une table de données en entrée.
      • Test des facteurs spéciaux sur la base de modèles d'exécution (règles Western Electric).
      • Estimation de l'écart-type des procédés à l'aide de différentes méthodes (diagrammes de variables uniquement).
      • Enregistrement des statistiques des diagrammes et des limites de contrôle dans les tables de données de sortie.

    Statistiques descriptives

    • Effectifs distincts pour comprendre la cardinalité.
    • Boîtes à moustaches pour évaluer le caractère central et la répartition, y compris les valeurs hors norme d'une ou de plusieurs variables.
    • Corrélations pour mesurer le coefficient de corrélation de Pearson sur un ensemble de variables. Prise en charge des analyses groupées et pondérées.
    • Tableaux croisés, avec prise en charge des pondérations.
    • Tables de contingence et mesures d'associations
    • Histogrammes avec options de contrôle des valeurs de discrétisation, des seuils maximaux, des valeurs hors norme, etc.
    • Synthèses multidimensionnelles en une seule opération.
    • Centiles pour une ou plusieurs variables.
    • Statistiques descriptives, telles que le nombre d'observations, le nombre de valeurs manquantes, la somme des valeurs non manquantes, la moyenne, l'écart-type, les erreurs type, les sommes des carrés corrigées et non corrigées, les valeurs minimales et maximales et le coefficient de variation.
    • Estimations de la densité du noyau à l'aide de fonctions normales, tricubes et quadratiques.
    • Construction de tables de fréquences de un à n-critères de classification et de tableaux croisés.

    Traitement du Group By

    • Création de modèles, calcul et traitement des résultats à la volée pour chaque groupe ou segment sans tri ni indexation des données.
    • Création instantanée de modèles basés sur des segments (autrement dit, modélisation stratifiée) à partir d'un arbre de décision ou d'une analyse de regroupement.

    Comparaison de modèles, évaluation et scoring

    • Génération de synthèses de comparaison d'un ou de plusieurs modèles, telles que courbes de lift, courbes ROC, statistiques de concordance et tables de mauvaise classification.
    • Glissement interactif du cutoff de prédiction pour mettre automatiquement à jour les statistiques d'évaluation et les tables de classification.
    • Évaluation interactive de l'effet de levier à différents centiles.
    • Exportation de modèles en tant que code d'étape DATA SAS pour les intégrer à d'autres applications. Le script de scoring est automatiquement concaténé si un modèle utilise des sorties dérivées d'autres modèles (ID de feuille, ID de classe, etc.).

    Scoring de modèles

    • Exportation de modèles en tant que code d'étape DATA SAS pour les intégrer à d'autres applications. Le script de scoring est automatiquement concaténé si un modèle utilise des sorties dérivées d'autres modèles (ID de feuille, ID de classe, etc.).

    Moteur d'exécution in-memory SAS® Viya®

    • SAS Cloud Analytic Services (CAS) procède au traitement en mémoire et répartit les tâches de traitement entre les nœuds d'un cluster.
    • Mise en œuvre des requêtes des utilisateurs (exprimées dans un langage procédural) avec les paramètres nécessaires à leur traitement dans un environnement distribué. Le jeu de résultats et les messages sont renvoyés à la procédure pour être traités par l'utilisateur.
    • Données gérées en blocs et pouvant être chargées en mémoire à la demande. Mise en cache des blocs sur le disque en cas de dépassement de la capacité mémoire des tables. Les données et les résultats intermédiaires sont conservés en mémoire aussi longtemps que nécessaire, d'une tâche et d'un utilisateur à l'autre.
    • Un algorithme détermine le nombre optimal de nœuds pour une tâche donnée.
    • Une couche réseau prend en charge la tolérance aux pannes et permet le retrait ou l'ajout de nœuds sur un serveur en fonctionnement. Possibilité de répliquer tous les composants de l'architecture pour une haute disponibilité. 
    • Déploiement de produits en mode multi-utilisateurs permettant à une pile logicielle partagée de prendre en charge des clients isolés de manière sécurisée.

    Options de déploiement

    • Déploiements sur site :
      • Mode machine unique pour répondre aux besoins des PME.
      • Mode distribué pour gérer la multiplication des données, l’augmentation des charges de travail et les besoins d'évolutivité.
    • Déploiements dans le cloud :
      • Serveur d'entreprise
      • Infrastructure de cloud privé ou public (par exemple, BYOL dans Amazon).
      • Solution SaaS (Software as a Service) gérée de SAS.
      • Solution PaaS (Platform as a Service) de Cloud Foundry pour prendre en charge plusieurs fournisseurs de cloud. 

    Back to Top