SAS® Unified Insights MM Features

Market-leading data mining & machine learning

  • Provides GUI-based data mining and machine learning via a single, collaborative and highly scalable environment.
  • Provides open source integration with R, Python, Java and Lua models.
  • Lets you use model competition to identify and deploy the most effective model.

View more market-leading data mining & machine learning features

Programmation interactive dans un environnement de développement web

  • Une interface visuelle pour l'ensemble du cycle de vie analytique.
  • Interface interactive de type glisser-lâcher ne nécessitant aucune programmation, même si cela reste possible.
  • Création automatique de code à chaque nœud.
  • Possibilité de choisir des modèles type (basiques, intermédiaires ou avancés) pour prendre rapidement en main les fonctionnalités de machine learning ou tirer parti de nos fonctionnalités de modélisation automatisée.
  • Rapports d'interprétabilité tels que PD, LIME, ICE, et Kernel SHAP.
  • Exploration des données depuis Model Studio et lancement direct dans SAS Visual Analytics.
  • Modification des modèles importés depuis SAS Visual Analytics dans Model Studio.
  • Visualisation des données de chaque nœud dans Model Studio.
  • Exécution du code batch SAS® Enterprise Miner 14.3 dans Model Studio.
  • Environnement collaboratif facilitant le partage des données, du code, des annotations et des bonnes pratiques entre différents profils utilsateurs.
  • Création, gestion et partage de contenus, et gestion des autorisations d'accès correspondantes via SAS Drive.
  • Outil de visualisation de l'historique SAS affichant les relations entre les décisions, les modèles et les données sous forme graphique.

Automatisation intelligente

  • API publique pour automatiser de nombreuses étapes de modélisation complexes et manuelles, de la manipulation des données au feature engineering en passant par la sélection des algorithmes et leur déploiement.
  • Nœud de Feature Engineering Automatique pour nettoyer, transformer et sélectionner automatiquement les variables des modèles.
  • Nœud de modélisation automatique pour sélectionner le meilleur modèle en utilisant un ensemble de routines d'optimisation automatique pour différentes techniques.

Génération du langage naturel

  • Présentation des résultats dans un langage simple pour faciliter la compréhension des rapports, y compris l'interprétabilité et l'évaluation des modèles.

Prise en charge intégrée des langages Python et R 

  • Possibilité d'intégrer du code open source dans une analyse et d'appeler des algorithmes open source depuis Model Studio.
  • Nœud de code open source dans Model Studio indépendant des versions Python ou R.

Deep learning avec Python (DLPy)

  • Création de modèles de deep learning pour les séries chronologiques, l'analyse d'images, de textes et de sons à l'aide de Jupyter Notebook.
  • Disponibilités d'API de haut niveau sur GitHub pour :
    • Les réseaux de neurones profonds.
    • La classification des images et la régression.
    • La détection d'objets.
    • Les tâches RNN : classification de texte, génération de texte et étiquetage de séquence.
    • Le traitement et la modélisation de séries chronologiques RNN.
  • Prise en charge d'architectures réseau prédéfinies, telles que LeNet, VGG, ResNet, DenseNet, Darknet, Inception, ShuffleNet, MobileNet, YOLO, Tiny YOLO, Faster R-CNN et U-Net.
  • Importation et exportation de modèles de deep learning au format ONNX.

Procédures SAS® (PROC) et actions CAS

  • Interface de programmation (SAS Studio) permettant au service informatique ou aux développeurs d'accéder à un serveur CAS, de charger ou d'enregistrer des données directement depuis un serveur CAS, et de prendre en charge le traitement local et distant sur un serveur CAS.
  • Possibilité pour les programmeurs Python, Java, R, Lua et Scala et l'IT d'accéder aux données et de les manipuler à partir d'un serveur CAS ou d'exécuter des actions CAS à l'aide de PROC CAS.
  • Prise en charge des actions CAS pour l'interprétabilité, le feature engineering et la modélisation.
  • Intégration de SAS à d'autres applications via des API REST.

Traitement analytique « in-memory » distribué

  • Le traitement distribué « in-memory » de calculs analytiques complexes sur des tables volumineuses fournit des réponses dans un temps optimisé
  • Les tâches analytiques sont enchaînées ensemble comme une seule tâche « in-memory » sans avoir à recharger les données ou stocker des résultats intermédiaires sur disques.
  • L'accès simultané aux mêmes données « in-memory » par de nombreux utilisateurs améliore l'efficacité.
  • Les données et les résultats intermédiaires sont conservés en mémoire aussi longtemps que nécessaire, ce qui permet de réduire la latence.
  • La gestion intégrée de la charge assure une utilisation optimisée des ressources de calcul.
  • La gestion intégrée du failover garantit que les tâches soumises sont toujours terminées.
  • Propagation automatisée des E/S disque pour une meilleure gestion de la mémoire.

Développement de modèles avec des algorithmes évolués de machine learning

  • Forêts d'arbres de décision :
    • Ensemble automatisé d'arbres de décision pour expliquer une variable unique.
    • Distribution automatisée d’apprentissages indépendants.
    • Optimisation automatique et intelligente des paramètres de modèles.
    • Génération automatisée de code SAS pour le scoring en production. 
  • Gradient boosting :
    • Recherche itérative automatisée pour un partitionnement optimal des données en fonction de la variable d'étiquette sélectionnée.
    • Rééchantillonnage automatisé des données en entrée à plusieurs reprises avec des pondérations ajustées en fonction des résidus.
    • Génération automatisée d'une moyenne pondérée pour le modèle supervisé final.
    • Prise en charge des étiquettes binaires, nominales et continues.
    • Personnalisation de l'apprentissage des arborescences avec différentes options de nombres d'arborescences à développer, de critères de fractionnement à appliquer, de profondeur des sous-arbres et de ressources de calcul. 
    • Critères d'arrêt automatisés en fonction du scoring des données de validation pour éviter tout surapprentissage.
    • Génération automatisée de code SAS pour le scoring en production.
  • Réseaux de neurones :
    • Ajustement automatisé et intelligent des paramètres pour identifier le modèle optimal.
    • Prise en charge de la modélisation des données d'effectif.
    • Sélection intelligente des valeurs par défaut pour la plupart des paramètres de réseaux de neurones.
    • Possibilité de personnalisation l'architecture et les pondérations des réseaux de neurones.
    • Techniques incluant les réseaux de neurones profonds (DNN), les réseaux de neurones convolutifs (CNN), les réseaux de neurones récurrents (RNN) et les auto-encodeurs.
    • Possibilité d’utiliser un nombre défini de couches masquées pour prendre en charge le deep learning.
    • Prise en charge de différents types de couches, comme la convolution et la répartition.
    • Normalisation automatique des variables à expliquer et explicatives.
    • Sélection et utilisation automatiques d'un sous-ensemble de données de validation.
    • Validation « out-of-bag » automatique pour un arrêt précoce afin d’éviter tout surapprentissage.
    • Optimisation automatique et intelligente des paramètres de modèles.
    • Génération automatisée de code SAS pour le scoring en production.
  • Machines "vector support" :
    • Modélisation de variables binaires à expliquer.
    • Prise en charge des noyaux linéaires et polynominaux pour l'apprentissage du modèle.
    • Intégration de fonctions d'entrée/sortie continue et catégorielle.
    • Adaptation automatique des fonctions d'entrée.
    • Possibilité d'appliquer la méthode de point intérieur et la méthode d'ensemble actif.
    • Prise en charge du partitionnement des données pour la validation de modèle.
    • Prise en charge de la validation croisée pour la sélection de pénalité.
    • Génération automatisée de code SAS pour le scoring en production.
  • "Factorization machines": :
    • Prise en charge du développement de systèmes de recommandations en fonction de matrices éparses d'ID utilisateur et de notations d'éléments.
    • Application d'une factorisation tensorielle complète d'interactions appariées.
    • Intégration de fonctions de variable numérique et catégorielle pour des modèles plus précis.
    • Modèles optimisés avec des horodatages, des données démographiques et des informations contextuelles.
    • Prise en charge du redémarrage à chaud (mise à jour des modèles avec de nouvelles transactions sans recalibrage complet).
    • Génération automatisée de script de scoring SAS pour le scoring de production.
  • Réseaux bayésiens :
    • Apprentissage de différentes structures de réseaux bayésiens, y compris les réseaux naïfs, les réseaux naïfs augmentés par un arbre (TAN), les réseaux naïfs augmentés par un réseau bayésien (BAN), les réseaux bayésiens parent-enfant et les réseaux avec couverture de Markov.
    • Sélection efficace de variables par le biais de tests d'indépendance.
    • Sélection automatique du meilleur modèle à partir des paramètres spécifiés.
    • Génération d'un code SAS ou d'un fichier binaire pour le scoring des données.
    • Chargement des données de plusieurs nœuds et exécution de calculs en parallèle.
  • Modèles de mélange gaussien (GMM) Dirichlet :
    • Clusterisation exécutée en parallèle et hautement multithread.
    • Clusterisation souple, qui fournit non seulement le scoring de cluster prédit, mais aussi la distribution de probabilité sur les clusters pour chaque observation.
    • Apprentissage du meilleur nombre de clusters pendant le processus de clusterisation, qui est pris en charge par le processus Dirichlet.
    • Utilisation d'une méthode bayésienne variationnelle (VB) parallèle comme méthode d'inférence de modèle. Cette méthode évalue approximativement la distribution a posteriori (complexe), puis met à jour de façon itérative les paramètres du modèle jusqu'à ce qu'il atteigne la convergence.
  • Algorithme d'apprentissage semi-supervisé :
    • Hautement distribué et multithread.
    • Produit les valeurs prédites sur les données labellisées et non labellisées.
  • Algorithme t-SNE (T-distributed stochastic neighbor embedding) :
    • Hautement distribué et multithread.
    • Renvoi d'incorporations de faible dimension basées sur une implémentation parallèle de l'algorithme t-SNE.

Préparation des données analytiques

  • Pipeline de bonnes pratiques feature engineering incluant les meilleures transformations.
  • Routines de gestion des données distribuées fournies via une interface visuelle.
  • Exploration et synthétisation des données à grande échelle.
  • Profilage de cardinalité :
    • Profilage à grande échelle des sources de données en entrée.
    • Recommandation intelligente pour la mesure et le rôle de la variable.
  • Échantillonnage : 
    • Prise en charge de l'échantillonnage aléatoire et stratifié, du suréchantillonnage d'événements rares et des variables d'indicateurs d'enregistrements échantillonnés.

Exploration des données, feature engineering et réduction des dimensions

  • Algorithme t-SNE (T-distributed stochastic neighbor embedding).
  • Discrétisation de variables.
  • Imputation hautes performances des valeurs manquantes des variables avec les valeurs spécifiées par l'utilisateur, la moyenne, la pseudo médiane et la valeur aléatoire des valeurs non manquantes.
  • Réduction de la dimension des variables.
  • Analyse en composantes principales (PCA) à grande échelle (fenêtres mobiles et PCA robuste, notamment).
  • Apprentissage non supervisé avec analyse de classification et clusterisation de variables mixtes.
  • Segmentation des profils pour la clusterisation.

Analyse textuelle intégrée

  • Prise en charge de 33 langues natifs :
    • Français
    • Arabe
    • Chinois
    • Croate
    • Tchèque
    • Danois
    • Néerlandais
    • Farsi
    • Finnois
    • Français
    • Allemand
    • Grec
    • Hébreu
    • Hindi
    • Hongrois
    • Indonésien
    • Italien
    • Japonais
    • Kazakh
    • Coréen
    • Norvégien
    • Polonais
    • Portugais
    • Roumain
    • Russe
    • Slovaque
    • Slovène
    • Espagnol
    • Suédois
    • Tagalog
    • Turc
    • Thaï
    • Vietnamien
  • Listes d'exclusion automatiquement incluses et appliquées pour toutes les langues.
  • Parsing, tokenisation, balisage morphosyntaxique et lemmatisation automatisés.
  • Extraction par des concepts prédéfinis d'entités communes (noms, dates, valeurs de devise, mesures, personnes, lieux, etc.).
  • Extraction automatisée de variables avec des thèmes générés par la machine (décomposition en valeurs singulières et allocation de Dirichlet latente).
  • Prise en charge du machine learning et des approches basées sur des règles au sein d'un projet unique.
  • Génération automatique de règles avec la procédure BoolRule.
  • Classification plus précise des documents avec le deep learning (réseaux de neurones récurrents).

Évaluation du modèle

  • Calcul automatique des statistiques de performance du modèle d'apprentissage supervisé.
  • Production de statistiques pour les variables continues et catégorielles à expliquer.
  • Création d'une table de lift pour les variables continues et catégorielles à expliquer.
  • Création d'une table ROC pour les variables catégorielles à expliquer.
  • Création de graphiques de classification d'événements et de classification nominale pour les modèles d'apprentissage supervisé avec une variable qualitative à expliquer.

Scoring de modèles

  • Génération automatique du code SAS pour le scoring de modèles.
  • Application d'une logique de scoring à l'apprentissage, aux données d'exclusion et aux nouvelles données.

Moteur in-memory SAS® Viya®

  • CAS (SAS Cloud Analytic Services) procède au traitement en mémoire et répartit les tâches de traitement entre les nœuds d'un cluster.
  • Mise en œuvre des requêtes des utilisateurs (exprimées dans un langage de procédure) avec les paramètres nécessaires à leur traitement dans un environnement distribué. Le jeu de résultats et les messages sont renvoyés à la procédure pour être traités par l'utilisateur.
  • Données gérées en blocs et pouvant être chargées en mémoire et à la demande.
  • Mise en cache des blocs sur le disque en cas de dépassement de la capacité mémoire des tables. Les données et les résultats intermédiaires sont conservés en mémoire aussi longtemps que nécessaire, d'une tâche et d'un utilisateur à l'autre.
  • Communication de nœud à nœud extrêmement efficace. Un algorithme détermine le nombre optimal de nœuds pour une tâche donnée.
  • Communication prenant en charge la tolérance aux pannes et permettant le retrait ou l'ajout de nœuds sur un serveur en fonctionnement. Possibilité de répliquer tous les composants pour une haute disponibilité.
  • Prise en charge du code SAS hérité et interopérabilité directe avec les clients SAS 9.4M6.
  • Gestion du déploiement multi tenant, permettant à une pile logicielle partagée de prendre en charge des utilisateurs isolés de manière sécurisée.

Options de déploiement

  • Déploiements sur site :
    • Serveur machine unique pour répondre aux besoins des PME.
    • Serveur distribué pour gérer la multiplication des données, l’augmentation des charges de travail et les besoins d'évolutivité.
  • Déploiements dans le cloud :
    • Serveur d'entreprise
    • Infrastructure de cloud privé ou public (par exemple, BYOL dans Amazon).
    • Solution SaaS (Software as a Service) gérée de SAS.
    • Solution PaaS (Platform as a Service) de Cloud Foundry pour prendre en charge plusieurs fournisseurs de cloud.

Streamlined model deployment

  • Streamlines the process of creating, managing, administering, deploying and monitoring your analytical models.
  • Provides a framework for model registration, validation, monitoring and retraining.
  • Enables you to assess candidate models to identify and publish the champion model.
  • Ensures complete auditability and regulatory compliance.

View more streamlined model deployment features

Model registration

  • Provides a web page that includes information on any new features and functionality released each month, as well as "how to" content and the ability to interact with the user community. 
  • Provides secure, reliable, versioned storage for all types of models, as well as access administration, including backup and restore capabilities, overwrite protection and event logging.
  • Once registered, models can be searched, queried, sorted and filtered by attributes used to store them – type of asset, algorithm, input or target variables, model ID, etc – as well as user-defined propertied and editable keywords.
  • Add general properties as columns to the listing for models and projects, such as model name, role, type of algorithm, date modified, modified by, repository location, description, version and keywords (tags).
  • Access models and model-score artifacts using open REST APIs.
  • Directly supports Python models for scoring and publishing. Convert PMML and ONNX (using dlPy) to standard SAS model types. Manage and version R code like other types of code.
  • Provides accounting and auditability, including event logging of major action – e.g., model creation, project creation and publishing.
  • Export models as .ZIP format, including all model file contents for movement across environments.
  • Easily copy models from one project to another, simplifying model movement within the repository.

Analytical workflow management

  • Create custom processes for each model using SAS Workflow Studio:
    • The workflow manager is fully integrated with SAS Model Manager so you can manage workflows and track workflow tasks within the same user interface.
    • Import, update and export generic models at the folder level – and duplicate or move to another folder.
  • Facilitates collaboration across teams with automated notifications.
  • Perform common model management tasks, such as importing, viewing and attaching supporting documentation; setting a project champion model and flagging challenger models; publishing models for scoring purposes; and viewing dashboard reports.
  • Transparency and analytics governance provides visibility into your analytical process with a centralized model repository, life cycle templates and version control. Ensures complete traceability and analytics governance.

Model scoring

  • Place a combination of Python, SAS or other open source models in the same project for users to compare and assess using different model fit statistics.
  • Set up, maintain and manage separate versions for models:
    • The champion model is automatically defined as a new version when the model is set as champion, updated or published in a project.
    • Choose challenger models to the project champion model.
    • Monitor and publish challenger and champion models.
  • Define test and production score jobs for SAS and Python models using required inputs and outputs.
  • Create and execute scoring tasks, and specify where to save the output and job history.
  • Compare models side-by-side to quickly evaluate and select the champion model from all competing models (SAS and open source) for a specific business problem.

Model deployment

  • Depending on the use case, you can publish models to batch/operational systems – e.g., SAS server, in-database, in-Hadoop/Spark, SAS Cloud Analytic Services (CAS) Server, or to on-demand systems using Micro Analytic Score (MAS) service.
  • Publish Python and SAS models to run time containers with embedded binaries and score code files. Promote run time containers to local Docker, AWS Docker and Amazon EKS (elastic kubernetes service) environments.
  • New Azure container publishing destination for open source models.
  • Publish SAS and open-source models to Azure Machine Learning as an Azure container.
  • Publish SAS models using SAS runtime container.

Model monitoring

  • Monitor the performance of models with any type of score code. Performance reports produced for champion and challenger R, Python and SAS models include variable distribution plots, lift charts, stability charts, ROC, K-S and Gini reports with SAS Visual Analytics using performance-reporting output result sets.
  • Built-in reports display the measures for input and output data and fit statistics for classification and regression models to evaluate whether to retrain, retire or create new models. Performance reports for champion and challenger analytical models involving Python, SAS, R, etc., with different accuracy statistics are available.
  • Monitor performance of champion models for all projects using performance report definition and execution.
  • Schedule recurring and future jobs for performance monitoring.
  • Specify multiple data sources and time-collection periods when defining performance-monitoring tasks.
  • Generate custom performance reports, and create and monitor custom business KPIs with access to model performance data.
  • Generate custom, out-of-the-box KPI performance modeling using a convenient wizard, and get simple alert notifications.

Self-service data preparation

  • Provides an interactive, self-service environment for data access, blending, shaping and cleansing to prepare data for analytics and reporting.
  • Fully integrates with your analytics pipeline.
  • Includes data lineage and automation.

View more self-service data preparation features

Data & metadata access

  • Use any authorized internal source, accessible external data sources and data held in-memory in SAS Viya.
    • View a sample of a table or file loaded in the in-memory engine of SAS Viya, or from data sources registered with SAS/ACCESS, to visualize the data you want to work with.
    • Quickly create connections to and between external data sources.
    • Access physical metadata information like column names, data types, encoding, column count and row count to gain further insight into the data.
  • Data sources and types include:
    • Amazon S3.
    • Amazon Redshift.
    • DNFS, HDFS, PATH-based files (CSV, SAS, Excel, delimited).
    • DB2.
    • Hive.
    • Impala.
    • SAS® LASR.
    • ODBC.
    • Oracle.
    • Postgres.
    • Teradata.
    • Feeds from Twitter, YouTube, Facebook, Google Analytics, Google Drive, Esri and local files.
    • SAS® Cloud Analytic Services (CAS).

Data provisioning

  • Parallel load data from desired data sources into memory simply by selecting them – no need to write code or have experience with an ETL tool. (Data cannot be sent back to the following data sources: Twitter, YouTube, Facebook, Google Analytics, Esri; it can only be sourced form these sites).
    • Reduce the amount of data being copied by performing row filtering or column filtering before the data is provisioned.
    • Retain big data in situ, and push processing to the source system by including SAS In-Database optional add-ons.

    Guided, interactive data preparation

    • Transform, blend, shape, cleanse and standardize data in an interactive, visual environment that guides you through data preparation processes.
    • Easily understand how a transformation affected results, getting visual feedback in near-real-time through the distributed, in-memory processing of SAS Viya.

    Machine learning & AI suggestions

    • Take advantage of AI and machine learning to scan data and make intelligent transformation suggestions.
    • Accept suggestions and complete transformations at the click of a button. No advanced or complex coding required.
    • Automated suggestions include:
      • Casing.
      • Gender analysis.
      • Match code.
      • Parse.
      • Standardization.
      • Missing value imputation for numeric variables.
      • One hot encoding.
      • Remove column.
      • Whitespace trimming.
      • Convert column data type.
      • Center and scale.
      • Dedupe.
      • Unique ID creation.
      • Column removal for sparse data.

    Column-based transformations

    • Use column-based transformations to standardize, remediate and shape data without doing configurations. You can:
      • Change case.
      • Convert column.
      • Rename.
      • Remove.
      • Split.
      • Trim whitespace.
      • Custom calculation.
    • Support for wide tables allows for the saving of data plans for quick data preparation jobs.

    Row-based transformations

    • Use row-based transformations to filter and shape data.
    • Create analytical-based tables using the transpose transformation to prepare the data for analytics and reporting tasks.
    • Create simple or complex filters to remove unnecessary data.

    Code-based transformations

    • Write custom code to transform, shape, blend, remediate and standardize data.
    • Write simple expressions to create calculated columns, write advanced code or reuse code snippets for greater transformational flexibility.
    • Import custom code defined by others, sharing best practices and collaborative productivity.

    Multiple-input-based transformations

    • Use multiple-input-based transformations to blend and shape data.
    • Blend or shape one or more sets of data together using the guided interface – there’s no requirement to know SQL or SAS. You can:
      • Append data.
      • Join data.
      • Transpose data.

    Data profiling

    • Profile data to generate column-based and table-based basic and advanced profile metrics.
    • Use the table-level profile metrics to uncover data quality issues and get further insight into the data itself.
    • Drill into each column for column-level profile metrics and to see visual graphs of pattern distribution and frequency distribution results that help uncover hidden insights.
    • Use a variety of data types/sources (listed previously). To profile data from Twitter, Facebook, Google Analytics or YouTube, you must first explicitly import the data into the SAS Viya in-memory environment.

    Data quality processing

    (SAS® Data Quality in SAS® Viya® is included in SAS Data Preparation)

    Data cleansing

    • Use locale- and context-specific parsing and field extraction definitions to reshape data and uncover additional insights.
    • Use the extraction transformation to identify and extract contact information (e.g., name, gender, field, pattern, identify, email and phone number) in a specified column.
    • Use parsing when data in a specified column needs to be tokenized into substrings (e.g., a full name tokenized into prefix, given name, middle name and family name).
    • Derive unique identifiers from match codes that link disparate data sources.
    • Standardize data with locale- and context-specific definitions to transform data into a common format, like casing.

    Identity definition

    • Analyze column data using locale-specific rules to determine gender or context.
    • Use identification analysis to analyze the data and determine its context, which is particularly valuable if the data or source of data is unfamiliar.
    • Use gender analysis to determine the gender of a name using locale-specific rules so the data can be easily filtered or segmented.
    • Create a unique ID for each row with unique ID generator.
    • Identify the subject data in each column with identification analysis.
    • Identify, find and sort data by tagging data with columns and tables.

    Data matching

    • Determine matching records based upon locale- and context-specific definitions.
    • Easily identify matching records using more than 25 context-specific rules such as date, address, name, email, etc.
    • Use the results of the match code transformation to remove duplicates, perform a fuzzy search or a fuzzy join.
    • Find like records and logically group together.

    System & job monitoring

    • Use integrated monitoring capabilities for system- and job-level processes.
    • Gain insight into how many processes are running, how long they’re taking and who is running them.
    • Easily filter through all system jobs based on job status (running, successful, failed, pending and cancelled).
    • Access job error logs to help with root-cause analysis and troubleshooting. (Note: Monitoring is available using SAS Environment Manager and the job monitor application.)

    Data import & data preparation job scheduling

    • Create a data import job from automatically generated code to perform a data refresh using the integrated scheduler.
    • Schedule data explorer imports as jobs so they will become an automatic, repeatable process.
    • Specify a time, date, frequency and/or interval for the jobs.

    Data lineage

    • Explore relationships between accessible data sources, data objects and jobs.
    • Use the relationship graph to visually show the relationships that exist between objects, making it easier to understand the origin of data and trace its processing.
    • Create multiple views with different tabs, and save the organization of those views.

    Plan templates & project collaboration

    • Use data preparation plans (templates), which consist of a set of transformation rules that get applied to one or more sources of data, to improve productivity (spend less time preparing data).
    • Reuse the templates by applying them to different sets of data to ensure that data is transformed consistently to adhere to enterprise data standards and policies.
    • Rely on team-based collaboration through a project hub used with SAS Viya projects. The project’s activity feed shows who did what and when, and can be used to communicate with other team members.

    Batch text analysis

    • Quickly extract contents of documents, and perform text identification and extraction.

    Visual data exploration & insights development

    • Provides bi-modal support for both governed and self-service exploration and visualization.
    • Enables self-service discovery, reporting and analysis.
    • Provides access to easy-to-use predictive analytics with “smart algorithms.”
    • Enables report sharing via email, web browser, MS Office or mobile devices.
    • Provides centralized, web-based administration, monitoring and governance of platform.

    View more visual data exploration & insights development features

    Descriptive & predictive modeling

    • Explore and evaluate segments for further analysis using k-means clustering, scatter plots and detailed summary statistics.
    • Use machine learning techniques to build predictive models from a visual or programming interface.

    View more descriptive & predictive modeling features