SAS® Unified Insights MM Features

Market-leading data mining & machine learning

  • Provides GUI-based data mining and machine learning via a single, collaborative and highly scalable environment.
  • Provides open source integration with R, Python, Java and Lua models.
  • Lets you use model competition to identify and deploy the most effective model.

View more market-leading data mining & machine learning features

Interactive programming in a web-based development environment

  • Visual interface for the entire analytical life cycle process.
  • Drag-and-drop interactive interface requires no coding, though coding is an option.
  • Supports automated code creation at each node in the pipeline.
  • Best practice templates (basic, intermediate or advanced) help users get started quickly with machine learning tasks.
  • Interpretability reports.
  • Explore data from within Model Studio and launch directly into SAS Visual Analytics.
  • Edit models imported from SAS Visual Analytics in Model Studio.
  • View data within each node in Model Studio.
  • Run SAS® Enterprise Miner 14.3 batch code within Model Studio.
  • Provides a collaborative environment for easy sharing of data, code snippets, annotations and best practices among different personas.
  • Create, manage and share content and administer content permissions via SAS Drive.
  • The SAS lineage viewer visually displays the relationships between decisions, models, data and decisions.

Embedded support for Python and R languages

  • Embed open source code within an analysis, and call open source algorithms within Model Studio.
  • The Open Source Code node in Model Studio is agnostic to Python or R versions.

Deep Learning with Python (DLPy)

  • Build deep learning models for image, text, audio and time-series data using Juypter Notebook.
  • High level APIs are available on GitHub for:
    • Deep neural networks for tabular data.
    • Image classification and regression.
    • Object detection.
    • RNN-based tasks – text classification, text generation and sequence labeling.
    • RNN-based time-series processing and modeling.
  • Support for predefined network architectures, such as LeNet, VGG, ResNet, DenseNet, Darknet, Inception and YOLOv2 and Tiny YOLO.
  • Import and export deep learning models in the ONNX format.

SAS® procedures (PROCs) and CAS actions

  • A programming interface (SAS Studio) allows IT or developers to access a CAS server, load and save data directly from a CAS server, and support local and remote processing on a CAS server.
  • Python, Java, R, Lua and Scala programmers or IT staff can access data and perform basic data manipulation against a CAS server, or execute CAS actions using PROC CAS.
  • CAS actions support for interpretability, feature engineering and modeling.
  • Integrate and add the power of SAS to other applications using REST APIs.

Highly scalable, distributed in-memory analytical processing

  • Distributed, in-memory processing of complex analytical calculations on large data sets provides low-latency answers.
  • Analytical tasks are chained together as a single, in-memory job without having to reload the data or write out intermediate results to disks.
  • Concurrent access to the same data in memory by many users improves efficiency.
  • Data and intermediate results are held in memory as long as required, reducing latency.
  • Built-in workload management ensures efficient use of compute resources.
  • Built-in failover management guarantees submitted jobs always finish.
  • Automated I/O disk spillover for improved memory management.

Model development with modern machine learning algorithms

  • Decision forests:
    • Automated ensemble of decision trees to predict a single target.
    • Automated distribution of independent training runs.
    • Supports intelligent autotuning of model parameters.
    • Automated generation of SAS code for production scoring. 
  • Gradient boosting:
    • Automated iterative search for optimal partition of the data in relation to selected label variable.
    • Automated resampling of input data several times with adjusted weights based on residuals.
    • Automated generation of weighted average for final supervised model.
    • Supports binary, nominal and interval labels.
    • Ability to customize tree training with variety of options for numbers of trees to grow, splitting criteria to apply, depth of subtrees and compute resources. 
    • Automated stopping criteria based on validation data scoring to avoid overfitting.
    • Automated generation of SAS code for production scoring.
  • Neural networks:
    • Automated intelligent tuning of parameter set to identify optimal model.
    • Supports modeling of count data.
    • Intelligent defaults for most neural network parameters.
    • Ability to customize neural networks architecture and weights.
    • Techniques include deep forward neural network (DNN), convolutional neural networks (CNNs), recurrent neural networks (RNNs) and autoencoders.
    • Ability to use an arbitrary number of hidden layers to support deep learning.
    • Support for different types of layers, such as convolution and pooling.
    • Automatic standardization of input and target variables.
    • Automatic selection and use of a validation data subset.
    • Automatic out-of-bag validation for early stopping to avoid overfitting.
    • Supports intelligent autotuning of model parameters.
    • Automated generation of SAS code for production scoring.
  • Support vector machines:
    • Models binary target labels.
    • Supports linear and polynomial kernels for model training.
    • Ability to include continuous and categorical in/out features.
    • Automated scaling of input features.
    • Ability to apply the interior-point method and the active-set method.
    • Supports data partition for model validation.
    • Supports cross-validation for penalty selection.
    • Automated generation of SAS code for production scoring.
  • Factorization machines:
    • Supports the development of recommender systems based on sparse matrices of user IDs and item ratings.
    • Ability to apply full pairwise-interaction tensor factorization.
    • Includes additional categorical and numerical input features for more accurate models.
    • Supercharge models with timestamps, demographic data and context information.
    • Supports warm restart (update models with new transactions without full retraining).
    • Automated generation of SAS score code for production scoring.
  • Bayesian networks:
    • Learns different Bayesian network structures, including naive, tree-augmented naive (TAN), Bayesian network-augmented naive (BAN), parent-child Bayesian networks and Markov blanket.
    • Performs efficient variable selection through independence tests.
    • Selects the best model automatically from specified parameters.
    • Generates SAS code or an analytics store to score data.
    • Loads data from multiple nodes and performs computations in parallel.
  • Dirichlet Gaussian mixture models (GMM):
    • Can execute clustering in parallel and is highly multithreaded.
    • Performs soft clustering, which provides not only the predicted cluster score but also the probability distribution over the clusters for each observation.
    • Learns the best number of clusters during the clustering process, which is supported by the Dirichlet process.
    • Uses a parallel variational Bayes (VB) method as the model inference method. This method approximates the (intractable) posterior distribution and then iteratively updates the model parameters until it reaches convergence.
  • Semisupervised learning algorithm:
    • Highly distributed and multithreaded.
    • Returns the predicted labels for both the unlabeled data table and the labeled data table.
  • T-distributed stochastic neighbor embedding (t-SNE):
    • Highly distributed and multithreaded.
    • Returns low-dimensional embeddings that are based on a parallel implementation of the t-SNE algorithm.

Analytical data preparation

  • Feature engineering best practice pipeline includes best transformations.
  • Distributed data management routines provided via a visual front end.
  • Large-scale data exploration and summarization.
  • Cardinality profiling:
    • Large-scale data profiling of input data sources.
    • Intelligent recommendation for variable measurement and role.
  • Sampling: 
    • Supports random and stratified sampling, oversampling for rare events and indicator variables for sampled records.

Data exploration, feature engineering and dimension reduction

  • T-distributed stochastic neighbor embedding (t-SNE).
  • Feature binning.
  • High-performance imputation of missing values in features with user-specified values, mean, pseudo median and random value of nonmissing values.
  • Feature dimension reduction.
  • Large-scale principal components analysis (PCA), including moving windows and robust PCA.
  • Unsupervised learning with cluster analysis and mixed variable clustering.
  • Segment profiles for clustering.

Integrated text analytics

  • Supports 33 native languages out of the box:
    • English
    • Arabic
    • Chinese
    • Croatian
    • Czech
    • Danish
    • Dutch
    • Farsi
    • Finnish
    • French
    • German
    • Greek
    • Hebrew
    • Hindi
    • Hungarian
    • Indonesian
    • Italian
    • Japanese
    • Kazakh
    • Korean
    • Norwegian
    • Polish
    • Portuguese
    • Romanian
    • Russian
    • Slovak
    • Slovenian
    • Spanish
    • Swedish
    • Tagalog
    • Turkish
    • Thai
    • Vietnamese
  • Stop lists are automatically included and applied for all languages.
  • Automated parsing, tokenization, part-of-speech tagging and lemmatization.
  • Predefined concepts extract common entities such as names, dates, currency values, measurements, people, places and more.
  • Automated feature extraction with machine-generated topics (singular value decomposition and latent Dirichlet allocation).
  • Supports machine learning and rules-based approaches within a single project.
  • Automatic rule generation with the BoolRule.
  • Classify documents more accurately with deep learning (recurrent neural networks).

Model assessment

  • Automatically calculates supervised learning model performance statistics.
  • Produces output statistics for interval and categorical targets.
  • Creates lift table for interval and categorical target.
  • Creates ROC table for categorical target.
  • Creates Event Classification and Nominal Classification charts for supervised learning models with a class target.

Model scoring

  • Automatically generates SAS DATA step code for model scoring.
  • Applies scoring logic to training, holdout data and new data.

SAS® Viya® in-memory engine

  • CAS (SAS Cloud Analytic Services) performs processing in memory and distributes processing across nodes in a cluster.
  • User requests (expressed in a procedural language) are translated into actions with the parameters needed to process in a distributed environment. The result set and messages are passed back to the procedure for further action by the user.
  • Data is managed in blocks and can be loaded in memory and on demand.
  • If tables exceed memory capacity, the server caches the blocks on disk. Data and intermediate results are held in memory as long as required, across jobs and user boundaries.
  • Includes highly efficient node-to-node communication. An algorithm determines the optimal number of nodes for a given job.
  • Communication layer supports fault tolerance and lets you remove or add nodes from a server while it is running. All components can be replicated for high availability.
  • Support for legacy SAS code and direct interoperability with SAS 9.4M6 clients.
  • Supports multitenancy deployment, allowing for a shared software stack to support isolated tenants in a secure manner.

Deployment options

  • On-site deployments:
    • Single-machine server to support the needs of small to midsize organizations.
    • Distributed server to meet growing data, increasing workloads and scalability requirements.
  • Cloud deployments:
    • Enterprise hosting.
    • Private or public cloud (e.g., BYOL in Amazon) infrastructure.
    • SAS managed software as a service (SaaS).
    • Cloud Foundry platform as a service (PaaS) to support multiple cloud providers.

Streamlined model deployment

  • Streamlines the process of creating, managing, administering, deploying and monitoring your analytical models.
  • Provides a framework for model registration, validation, monitoring and retraining.
  • Enables you to assess candidate models to identify and publish the champion model.
  • Ensures complete auditability and regulatory compliance.

View more streamlined model deployment features

Accessible, web-based, centralized and secure repository for managing analytical models

  • Access all models in the model repository – whether they’re located in a folder or project.
  • Access models and model-score artifacts using open REST APIs.
  • Support for SAS model registration from SAS Visual Analytics, SAS Visual Statistics, SAS Studio, and Model Studio for SAS Visual Text Analytics and SAS Visual Data Mining and Machine Learning.
  • Set up, maintain and manage separate versions for models:
    • Champion model is automatically defined as a new version when the model is set as champion, updated or published in a project.
    • Only one champion model is produced per project. New versions are automatically created when new model projects are registered from the Model Studio environment in SAS Visual Data Mining and Machine Learning and SAS Visual Text Analytics.
    • Choose challenger models to the project champion model.
    • Monitor and publish challenger and champion models.
    • Integration of champion models with SAS Event Stream Processing, including automated notifications when model project champion is updated.
  • Monitor performance of champion models for all projects using performance report definition and execution.
  • Publish SAS models to SAS Cloud Analytic Services (CAS), Hadoop, SAS Micro Analytic Service or Teradata.
  • Python code publishing support for SAS Micro Analytic Service execution target.
  • Provides accounting and auditability, including event logging of major actions, including model creation, project creation and versioning.
  • Add general properties as columns to the listing for models and projects, such as model name, role, type of algorithm, date modified, modified by, repository location, description, version and keywords (tags).
  • Import models from the SAS Platform, including training code, score logic, estimate tables, target and input variables and output variables, using SAS package files (.SPK), PMML and ZIP format files.
  • Export models as .ZIP format, including all model file contents for movement across environments.
  • Easily copy models from one project to another, simplifying model movement within the repository.
  • Import code snippets/models from any code base (C, C++, Java, Python, etc.) into the managed inventory.
  • Create DATA step score code for PMML models on import for inclusion in scoring tasks, reporting and performance monitoring.
  • Model repository can be searched, queried, sorted and filtered by attributes used to store models – such as type of asset, algorithm, input or target variables, model ID, etc. – as well as user-defined properties and editable keywords.
  • Register, compare, report, score and monitor models built in R or Python (classification and prediction).
  • Compare two or more models using automatically calculated model fit statistics to easily understand model differences through plots and analytical metrics.
  • Provides secure, reliable model storage and access administration, including backup and restore capabilities, overwrite protection, event logging and user authentication.

Analytical workflow management

  • Create custom processes for each model using SAS Workflow Studio:
    • The workflow manager is fully integrated with SAS Model Manager so you can manage workflows and track workflow tasks within the same user interface.
    • Import, update and export generic models at the folder level – and duplicate or move to another folder.
  • Provides collaboration across teams with automated notifications.
  • Perform common model management tasks such as importing, viewing and attaching supporting documentation; setting a project champion model and flagging challenger models; publishing models for scoring purposes; and viewing dashboard reports.

Scoring logic validation before models are exported to production

  • Define test and production score jobs for SAS and Python models using required inputs and outputs.
  • Define and execute scoring tasks, and specify where to save the output and job history.
  • Publish model updates to different scoring channels and notify subscribers via message queues.
  • Create model input and output variables from the score.sas file to generate missing metadata from model variables.
  • Integration with SAS Scoring Accelerator for in-database model deployment.
  • Integration with SAS Micro Analytic Service – for SAS and Python code testing and result validation.

Model performance monitoring and reporting during test and production

  • Integrated retraining for data mining and machine learning models using Model Studio: 
    • Retrain data mining and machine learning models when performance reporting threshold metrics are reached.
    • Automated, configured registration after model retraining is completed from Model Studio. No need to import separately.
  • Model performance reports produced for champion and challenger models include variable distribution plots, lift charts, stability charts, ROC, K-S and Gini reports with SAS Visual Analytics using performance-reporting output result sets.
  • SAS Visual Analytics provides a wide range of model comparison reports.
  • Performance results are prepared and made available to SAS Visual Analytics for simplified access to a wide range of model comparison reports.
  • Ability to specify multiple data sources and time-collection periods when defining performance-monitoring tasks.

Distributed, accessible and cloud-ready

  • Runs on SAS Viya, a scalable and distributed in-memory engine of the SAS Platform.
  • Distributes analysis and data tasks across multiple computing nodes.
  • Provides fast, concurrent, multiuser access to data in memory.
  • Includes fault tolerance for high availability.
  • Lets you add the power of SAS Analytics to other applications using RESTful APIs. 

Self-service data preparation

  • Provides an interactive, self-service environment for data access, blending, shaping and cleansing to prepare data for analytics and reporting.
  • Fully integrates with your analytics pipeline.
  • Includes data lineage and automation.

View more self-service data preparation features

Data and metadata access

  • Use any authorized internal source, accessible external data sources and data held in-memory in SAS Viya.
    • View a sample of a table or file loaded in the in-memory engine of SAS Viya, or from data sources registered with SAS/ACCESS, to visualize the data you want to work with.
    • Quickly create connections to and between external data sources.
    • Access physical metadata information like column names, data types, encoding, column count and row count to gain further insight into the data.
  • Data sources and types include:
    • Amazon S3.
    • Amazon Redshift.
    • DNFS, HDFS, PATH-based files (CSV, SAS, Excel, delimited).
    • DB2.
    • Hive.
    • Impala.
    • SAS® LASR.
    • ODBC.
    • Oracle.
    • Postgres.
    • Teradata.
    • Feeds from Twitter, YouTube, Facebook, Google Analytics, Google Drive, Esri and local files.
    • SAS® Cloud Analytic Services (CAS).

Data provisioning

  • Parallel load data from desired data sources into memory simply by selecting them – no need to write code or have experience with an ETL tool. (Data cannot be sent back to the following data sources: Twitter, YouTube, Facebook, Google Analytics, Esri; it can only be sourced form these sites).
    • Reduce the amount of data being copied by performing row filtering or column filtering before the data is provisioned.
    • Retain big data in situ, and push processing to the source system by including SAS In-Database optional add-ons.

    Guided, interactive data preparation

    • Transform, blend, shape, cleanse and standardize data in an interactive, visual environment that guides you through data preparation processes.
    • Easily understand how a transformation affected results, getting visual feedback in near-real-time through the distributed, in-memory processing of SAS Viya.

    Column-based transformations

    • Use column-based transformations to standardize, remediate and shape data without doing configurations. You can:
      • Change case.
      • Convert column.
      • Rename.
      • Remove.
      • Split.
      • Trim whitespace.
      • Custom calculation.
    • Support for wide tables allows for the saving of data plans for quick data preparation jobs.

    Row-based transformations

    • Use row-based transformations to filter and shape data.
    • Create analytical-based tables using the transpose transformation to prepare the data for analytics and reporting tasks.
    • Create simple or complex filters to remove unnecessary data.

    Code-based transformations

    • Write custom code to transform, shape, blend, remediate and standardize data.
    • Write simple expressions to create calculated columns, write advanced code or reuse code snippets for greater transformational flexibility.
    • Import custom code defined by others, sharing best practices and collaborative productivity.

    Multiple-input-based transformations

    • Use multiple-input-based transformations to blend and shape data.
    • Blend or shape one or more sets of data together using the guided interface – there’s no requirement to know SQL or SAS. You can:
      • Append data.
      • Join data.
      • Transpose data.

    Data profiling

    • Profile data to generate column-based and table-based basic and advanced profile metrics.
    • Use the table-level profile metrics to uncover data quality issues and get further insight into the data itself.
    • Drill into each column for column-level profile metrics and to see visual graphs of pattern distribution and frequency distribution results that help uncover hidden insights.
    • Use a variety of data types/sources (listed previously). To profile data from Twitter, Facebook, Google Analytics or YouTube, you must first explicitly import the data into the SAS Viya in-memory environment.

    Data quality processing

    (SAS® Data Quality on SAS® Viya® is included in SAS Data Preparation)

    Data cleansing

    • Use locale- and context-specific parsing and field extraction definitions to reshape data and uncover additional insights.
    • Use the extraction transformation to identify and extract contact information (e.g., name, gender, field, pattern, identify, email and phone number) in a specified column.
    • Use parsing when data in a specified column needs to be tokenized into substrings (e.g., a full name tokenized into prefix, given name, middle name and family name).
    • Derive unique identifiers from match codes that link disparate data sources.
    • Standardize data with locale- and context-specific definitions to transform data into a common format, like casing.

    Identity definition

    • Analyze column data using locale-specific rules to determine gender or context.
    • Use identification analysis to analyze the data and determine its context, which is particularly valuable if the data or source of data is unfamiliar.
    • Use gender analysis to determine the gender of a name using locale-specific rules so the data can be easily filtered or segmented.
    • Create a unique ID for each row with unique ID generator.
    • Identify the subject data in each column with identification analysis.
    • Identify, find and sort data by tagging data with columns and tables.

    Data matching

    • Determine matching records based upon locale- and context-specific definitions.
    • Easily identify matching records using more than 25 context-specific rules such as date, address, name, email, etc.
    • Use the results of the match code transformation to remove duplicates, perform a fuzzy search or a fuzzy join.
    • Find like records and logically group together.

    System and job monitoring

    • Use integrated monitoring capabilities for system- and job-level processes.
    • Gain insight into how many processes are running, how long they’re taking and who is running them.
    • Easily filter through all system jobs based on job status (running, successful, failed, pending and cancelled).
    • Access job error logs to help with root-cause analysis and troubleshooting. (Note: Monitoring is available using SAS Environment Manager and the job monitor application.)

    Data import and data preparation job scheduling

    • Create a data import job from automatically generated code to perform a data refresh using the integrated scheduler.
    • Schedule data explorer imports as jobs so they will become an automatic, repeatable process.
    • Specify a time, date, frequency and/or interval for the jobs.

    Data lineage

    • Explore relationships between accessible data sources, data objects and jobs.
    • Use the relationship graph to visually show the relationships that exist between objects, making it easier to understand the origin of data and trace its processing.
    • Create multiple views with different tabs, and save the organization of those views.

    Plan templates and project collaboration

    • Use data preparation plans (templates), which consist of a set of transformation rules that get applied to one or more sources of data, to improve productivity (spend less time preparing data).
    • Reuse the templates by applying them to different sets of data to ensure that data is transformed consistently to adhere to enterprise data standards and policies.
    • Rely on team-based collaboration through a project hub used with SAS Viya projects. The project’s activity feed shows who did what and when, and can be used to communicate with other team members.

    Batch text analysis

    • Quickly extract contents of documents, and perform text identification and extraction.

    Cloud data exchange

    • Securely copy data from on-site repositories to a cloud-based SAS Viya instance running in a private or public cloud for use in SAS Viya applications – as well as sending data back to on-site locations.
    • Preprocess data locally, which reduces the amount of data that needs to be moved to remote locations.
    • Use a Command Line Input (CLI) interface for administration and control.
    • Securely and responsibly negotiates your on-site firewall.  

    Visual data exploration & insights development

    • Provides bi-modal support for both governed and self-service exploration and visualization.
    • Enables self-service discovery, reporting and analysis.
    • Provides access to easy-to-use predictive analytics with “smart algorithms.”
    • Enables report sharing via email, web browser, MS Office or mobile devices.
    • Provides centralized, web-based administration, monitoring and governance of platform.

    View more visual data exploration & insights development features

    Esplorazione dati self-service

    • L’esplorazione dati interattiva consente a utenti aziendali e analisti di individuare facilmente relazioni, tendenze, outlier e altro. 
    • Le funzionalità di autocharting individuano automaticamente il grafico più appropriato per la visualizzazione dei dati selezionati.
    • Le visualizzazioni analitiche includono box plot, heatmap, grafici a bolle animati, diagrammi di rete, matrici di correlazione, grafici lineari per le previsioni, grafici a coordinate parallele, grafici ad anello, alberi decisionali e altre ancora.
    • Le visualizzazioni delle mappe geografiche offrono una rapida comprensione dei dati geospaziali. 
    • I diagrammi di rete consentono di visualizzare le reti all’interno di una mappa. 
    • Tutte le visualizzazione possono essere pubblicate come report. 
    • I calcoli personalizzati ti consentono di combinare funzioni, operatori ed elementi dati esistenti, per formulare valori specifici alle tue esigenze. 
    • Una barra di riepilogo ridimensionabile consente di creare sottoinsiemi di una porzione di elementi visivi con numerosi punti dati. 
    • Gli oggetti del dashboard possono essere collegati agli oggetti di esplorazione a scopo di interazione. 
    • Puoi importare le tue visualizzazioni interattive personalizzate (ad es. grafici D3.js, visualizzazioni C3 o grafici Google) in SAS Visual Analytics, così da poterle gestire con gli stessi dati.    
    • La nuova visualizzazione dei key value consente di esaminare le metriche più significative (valori numerici o categorici) in uno stile infografico per una più rapida consultazione.
    • I diagrammi di Sankey consentono di eseguire l’analisi dei percorsi per individuare relazioni tra sequenze distinte di eventi. L’analisi dei percorsi visualizza il flusso di dati da un evento (valore) a un altro come serie di percorsi.

    Self-service analytics

    • La statistiche descrittive (ad es. valori Min, Max e Medio) forniscono il senso generale di una particolare misura. 
    • Gli utenti possono creare nuove misure calcolate da aggiungere a qualsiasi visualizzazione. 
    • Le previsioni che includono intervalli di confidenza e di previsione possono essere generate all’istante. 
    • L’algoritmo di previsione più appropriato per determinati dati viene selezionato automaticamente. 
    • Tramite l’analisi dello scenario puoi comprendere in che modo le modifiche apportate a diverse variabili potrebbero influire sulle previsioni. 
    • La ricerca dell'obiettivo consente di specificare un valore target per il tuo forecast e quindi determina i valori dei fattori sottostanti, necessari ad ottenere il valore target.
    • Gli alberi decisionali rappresentano graficamente i probabili esiti. Un livello “esperto” ti consente di modificare determinati parametri di influenza per la generazione dell’albero. 
    • Il binning personalizzato sposta i dati continui in un piccolo numero di gruppi per offrire una migliore interpretazione e presentazione dei risultati. 
    • Le funzionalità di text analysis consentono di individuare automaticamente gli argomenti e cogliere il sentiment delle fonti testuali, inclusi i commenti di Facebook, Twitter, Google Analytics e YouTube.

    Reporting e dashboard interattivi

    • La precisione e la reattività dei layout permettono una maggiore flessibilità nella progettazione dei report. Puoi impilare, raggruppare elementi e altro ancora.
    • L’applicazione include diversi oggetti grafici o diagrammi: barra a righe multiple, a torta, ad anello, a linee, a dispersione, heatmap, a bolle, a bolle animate, mappa ad albero, a punti, ad aghi, a serie numerica, grafico di pianificazione, vettoriale e altro ancora.
    • Aggiungi contenuti web ai tuoi report (ad es. video di YouTube, web app) e immagini (ad es. loghi).
    • Diversi controlli del prompt consentono agli autori e utilizzatori una migliore interazione con il report.
    • Funzionalità di classificazione personalizzata permettono di ordinare gli elementi dati di una categoria in una tabella o in un grafico.
    • L’applicazione automatica di filtri (ad es. monodirezionale, bidirezionale) e le selezioni collegate riducono il tempo impiegato a collegare manualmente i contenuti (ad es. visualizzazioni, report).
    • Gli oggetti di testo possono includere testo data-driven o generato dal sistema dato un contesto specifico.
    • Gli utenti possono collaborare facilmente da più dispositivi mobili e sul web aggiungendo commenti ai report.
    • Sincronizza la selezione e i filtri in tutte le visualizzazioni di un report o dashboard.
    • Collega diversi tipi di report (ad es. collega un report sulle vendite ad un report di inventario).
    • Gli utilizzatori dei report possono modificare i parametri impiegati nei calcoli e visualizzare le regole tramite comandi, filtri etc. per accedere alle informazioni più significative secondo le loro esigenze.
    • Crea degli alert per un oggetto del report e notifica agli altri utenti, via e-mail o messaggio di testo, quando la condizione è stata soddisfatta.
    • Distribuisci i report in modo sicuro via PDF o e-mail, una sola volta o a intervalli ricorrenti (giornalieri, settimanali o mensili).
    • Recupera i report su cui stai lavorando se la sessione si arresta in modo imprevisto. Il salvataggio dei report avviene automaticamente cinque secondi dopo ogni modifica.
    • Gli amministratori possono configurare il supporto per l'accesso Guest ai report o ad altre visualizzazioni. Gli utenti con accesso Guest possono visualizzare i contenuti pubblici.
    • Le gerarchie con funzionalità drill-down possono essere create autonomamente senza dover predefinire i percorsi utente. 

    Mobile BI

    • Il supporto nativo a iOS, Windows 10 e Android per tablet e smartphone utilizza gesture e le funzionalità native per offrire un’esperienza utente sofisticata e reattiva. 
    • I report possono essere creati una sola volta e poi visualizzati ovunque. 
    • Accedi in modo sicuro ai contenuti dai dispositivi mobili, sia online che offline. 
    • La condivisione dello schermo in tempo reale consente agli utenti remoti di condividere gli schermi dei loro dispositivi mobili con i colleghi dell’ufficio.
    • Il supporto per la collaborazione include la capacità di creare note e commenti sui report da condividere e inviare via e-mail ad altri utenti.
    • È possibile acquisire schermate e condividere commenti con altri utenti. 
    • Le notifiche avvertono gli utenti aziendali in caso di aggiornamenti ai report o all’applicazione o di modifiche ai dati.
    • Utilizza fornitori MDM di terze parti, ad es. Good Technologies, MobileIron e AirWatch. 

    Location analytics

    • L’accesso alle mappe geografiche avviene tramite Esri ArcGIS Online o OpenStreetMap.
    • Puoi selezionare dati specifici da analizzare ulteriormente applicando lo strumento lazo sui punti dati delle mappe geografiche.
    • Accedi gratuitamente a tutte le basemap e alla ricerca geografica Esri tramite Esri ArcGIS Online.
    • Poligoni personalizzati (ad es. aree di vendita, collegi elettorali, piante architettoniche, mappe dei posti a sedere) ti mostreranno il mondo che ti circonda come richiesto dalla tua attività.
    • Il clustering delle coordinate geografiche semplifica la visualizzazione di grandi volumi di dati di geolocalizzazione e individua le aree di interesse. Puoi visualizzare un maggiore o minore numero di dettagli utilizzando diversi livelli di zoom.
    • L’opzione di analisi dei tempi e delle distanze di viaggio è disponibile acquistando una licenza premium di Esri ArcGIS Online (da richiedere separatamente ad Esri).
    • Le funzionalità di arricchimento geografico consentono di visualizzare dati demografici e altri tipi di dati in un contesto diverso per scoprire così nuove informazioni (è richiesta la licenza Esri ArcGIS Online) .
    • Le mappe coropletiche semplificano la visualizzazione delle varianze di misurazione di un’area geografica.

    Data preparation self-service

    • Importa dati da diverse origini: database, Hadoop, fogli di calcolo Excel, appunti, social media, ecc.
    • I diagrammi di rete consentono di visualizzare le gerarchie.     
    • Utilizza funzioni base di data quality, tra cui:
      • Commutazione da maiuscolo a minuscolo e viceversa.
      • Conversione, ridenominazione, eliminazione e suddivisione delle colonne.
      • Creazione di colonne calcolate e trasformazioni tramite un codice personalizzato.
    • La nuova funzionalità di profilazione di tabelle e colonne ti garantisce una comprensione immediata dei dati.      
    • Prepara i dati utilizzando funzioni di aggiunta, unione, filtro e trasposizione.
    • Riutilizza, pianifica e monitora i job.

    Amministrazione e gestione

    • SAS Environment Manager fornisce una soluzione di amministrazione e monitoraggio centralizzata, intuitiva e basata su web, per i tuoi ambienti di business intelligence e analisi, comprendente utenti, dati, contenuti, server, servizi e sicurezza. 
    • Supporto alla governance grazie a:
      • Autenticazione utente e autorizzazione di accesso ai contenuti.
      • Sicurezza a livello di oggetto (cartelle, report, ecc.) e sicurezza dati (a livello di tabella e riga).
      • Mappatura delle regole per le capacità applicative di utenti e gruppi.
    • Perfetta integrazione con le directory dell'identità aziendale, come LDAP.
    • Determina l'accesso a SAS Mobile BI tramite whitelist o blacklist dei dispositivi mobili.
    • Monitoraggio dello stato del sistema e delle attività chiave tramite un cruscotto in near-real-time.
    • Aggiungi ed elimina i nodi di elaborazione distribuiti. 
    • Le API con script consentono di eseguire attività amministrative in modalità batch, tra cui la gestione di sicurezza, librerie, gruppi di utenti e configurazioni.
    • Personalizza i report di monitoraggio e delle prestazioni.
    • Esegui a livello di ambiente esplorazione dei log, pianificazione e monitoraggio dei job.

    SAS® Viya® in-memory engine

    • SAS Cloud Analytic Services (CAS) esegue elaborazioni dei dati in-memory e le distribuisce su tutti i nodi di un cluster.
    • Le richieste degli utenti, espresse in linguaggio procedurale, si traducono in azioni basate su parametri necessari ad eseguire l’elaborazione dei dati in un ambiente distribuito. Il set di risultati e i messaggi vengono restituiti alla procedura per le attività aggiuntive dell’utente. 
    • I dati vengono gestiti in blocchi e possono essere caricati in memory su richiesta. 
    • Se le tabelle superano la capacità di memoria, il server salva i blocchi nella cache del disco. I dati e i risultati intermedi vengono conservati in memoria per tutto il tempo necessario, in tutti i job ed entro i limiti definiti dall'utente.
    • La soluzione offre anche una comunicazione tra nodi altamente efficace. Un algoritmo determina il numero ottimale di nodi per ogni specifico job. 
    • Un layer di comunicazione supporta la tolleranza agli errori e consente di rimuovere o aggiungere nodi da un server mentre è in esecuzione. Tutti i componenti possono essere replicati per una maggiore disponibilità.       
    • L’engine di SAS Viya supporta il codice SAS legacy e l’interoperabilità diretta con i client SAS 9.4 M5.        
    • Include il supporto per il deployment multi-tenant che permette allo stack software condiviso di supportare in modo sicuro i tenant isolati.

    Procedure SAS® (PROCs) e azioni CAS

    • L’interfaccia di programmazione SAS Studio consente all'IT e agli sviluppatori di accedere ad un server CAS, caricare e salvare dati direttamente da un server CAS e supportare l’elaborazione locale e remota su un server CAS.
    • I programmatori Python, Java, R o Lua e l'IT possono accedere e avviare un'editing di base dei dati su server CAS o eseguire azioni CAS utilizzando PROC CAS. 
    • Con le API REST è possibile integrare e aggiungere la potenza di SAS ad altre applicazioni.

    Opzioni di deployment

    • Deployment on-site:
      • Server basato su macchina singola per supportare le esigenze delle piccole e medie imprese.
      • Server distribuito per far fronte alla crescita dei volumi di dati, all’aumento dei carichi di lavoro e ai requisiti di scalabilità.
    • Deployment su cloud:
      • Hosting aziendale.
      • Infrastruttura basata su cloud privato o pubblico (ad es. BYOL di Amazon).
      • Software as a Service (SaaS) gestito da SAS.
      • Cloud Foundry Platform as a Service (PaaS) per supportare più cloud provider.

    Descriptive & predictive modeling

    • Explore and evaluate segments for further analysis using k-means clustering, scatter plots and detailed summary statistics.
    • Use machine learning techniques to build predictive models from a visual or programming interface.

    View more descriptive & predictive modeling features

    Esplorazione e scoperta dei dati a livello visuale (disponibile tramite SAS® Visual Analytics)

    • Interpreta rapidamente le relazioni complesse o le variabili più importanti che influenzano i risultati di modellazione nei data set di grandi dimensioni.
    • Applica filtri alle osservazioni e osserva il livello di influenza di una variabile sul lift globale dei modelli. 
    • Rileva eventuali outlier e/o punti di influenza in modo da definirli, acquisirli ed eliminarli dall’analisi downstream (ad es. modelli). 
    • Esplora i dati su grafici a barre, istogrammi, box plot, heatmap, grafici a bolle, mappe geografiche e altro. 
    • Determina le segmentazioni o gli output predittivi da utilizzare direttamente in altre attività di modellazione o visualizzazione. Gli output possono essere salvati e trasferiti in attività prive di ruoli e di capacità nella costruzione dei modelli.

    Accesso alle tecniche analitiche dall’interfaccia grafica

    • Clustering:
      • classificazione basata sul metodo dei k-means, k-modes o k-prototypes.
      • Grafici a coordinate parallele per la valutazione interattiva dell'appartenenza a un cluster.
      • Grafici a dispersione degli input con profili cluster sovrapposti per piccoli data set e heatmap con profili cluster sovrapposti per data set di grandi dimensioni.
      • Statistiche di riepilogo dettagliate (medie di ogni cluster, numero di osservazioni in ogni cluster e così via).
      • Generazione di ID cluster on-demand come nuova colonna.
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli. 
    • Alberi decisionali: 
      • Calcolo delle misure di importanza delle variabili. 
      • Supporto degli alberi di classificazione e regressione. 
      • Funzionalità basata su un algoritmo C4.5 modificato o algoritmo “Cost-Complexity Pruning”. 
      • Crescita e pruning interattive dell’albero. Addestramento interattivo del sottoalbero. 
      • Possibilità di impostare profondità dell'albero, estensione massima dei rami, dimensione della foglia, aggressività dell'algoritmo di pruning e altri aspetti. 
      • Utilizzo di visualizzazioni tree map per navigare in modo interattivo nella struttura ad albero. 
      • Generazione on-demand delle colonne Leaf ID, valori previsti e valori residui. 
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli.
      • Supporto dell'autotuning.
    • Regressione lineare:
      • Statistiche di influenza.
      • Supporto della selezione delle variabili avanti, indietro, stepwise e lasso.
      • Variabili di frequenza e peso.
      • Residual diagnostics.
      • La tabella di riepilogo contiene: ANOVA, dimensioni del modello, statistiche di stima, modello ANOVA, test di Tipo III e stime dei parametri.
      • Generazione on-demand di nuove colonne per i valori di probabilità e valori residui.
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli.
    • Regressione logistica:
      • Modelli per dati binari con funzioni di collegamento logit e probit.
      • Statistiche di influenza.
      • Supporto della selezione delle variabili avanti, indietro, stepwise e lasso.
      • Variabili di frequenza e peso.
      • Residual diagnostics.
      • La tabella di riepilogo contiene dimensioni del modello, cronologia delle iterazioni, statistiche di stima, stato di convergenza, test di Tipo III, stime dei parametri e profilo di risposta.
      • Generazione on-demand di nuove colonne per le predicted label ed event probability. Adattamento del cutoff della previsione per etichettare un’osservazione come evento o non-evento.
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli.
    • Modelli lineari generalizzati:
      • Distribuzioni supportate: beta, normale, binaria, esponenziale, gamma, geometrica, Poisson, Tweedie, Gaussiana inversa e binomiale negativa.
      • Supporto della selezione delle variabili avanti, indietro, stepwise e lasso.
      • Supporto delle variabili offset.
      • Variabili di frequenza e peso.
      • Residual diagnostics.
      • La tabella di riepilogo contiene riepilogo del modello, cronologia delle iterazioni, statistiche di stima, test di Tipo III e stime dei parametri.
      • Opzione Mancante esplicativa per il trattamento dei valori mancanti sulla variabile predittore.
      • Generazione on-demand di nuove colonne per i valori di probabilità e valori residui.
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli.
    • Generalized additive models:
      • Distribuzioni supportate: normale, binaria, gamma, Poisson, Tweedie,Ggaussiana inversa e binomiale negativa.
      • Supporto degli effetti spline mono e bidimensionali.
      • Metodi GCV, GACV e UBRE per la selezione degli effetti di smoothing.
      • Supporto delle variabili offset.
      • Variabili di frequenza e peso.
      • Residual diagnostics.
      • La tabella di riepilogo contiene riepilogo del modello, cronologia delle iterazioni, statistiche di stima e stime dei parametri.
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli.
    • Regressione logistica non parametrica:
      • Modelli per dati binari con funzioni di collegamento logit, probit, log-log e c-log-log.
      • Supporto degli effetti spline mono e bidimensionali.
      • Metodi GCV, GACV e UBRE per la selezione degli effetti di smoothing.
      • Supporto delle variabili offset.
      • Variabili di frequenza e peso.
      • Residual diagnostics.
      • La tabella di riepilogo contiene riepilogo del modello, cronologia delle iterazioni, statistiche di stima e stime dei parametri.
      • Supporto dei dati di holdout (addestramento e validazione) per la valutazione dei modelli.

    Accesso alla programmazione per le tecniche analitiche

    • Programmatori e data scientist possono accedere a SAS Viya (server CAS) da SAS Studio tramite le procedure SAS (PROCs) e altre attività.
    • I programmatori possono eseguire azioni CAS utilizzando PROC CAS o numerosi altri ambienti di programmazione, come Python, R, Lua e Java.
    • Gli utenti possono accedere a SAS Viya (server CAS) anche dalle proprie applicazioni tramite le API REST pubbliche.
    • Integrazione nativa per Python Pandas DataFrames. I programmatori Python possono caricare DataFrames in CAS e recuperare risultati da CAS come DataFrames in grado di interagire con altri pacchetti Python, ad es. Pandas, matplotlib, Plotly, Bokeh e altri.
    • Software SAS/STAT® SAS/GRAPH® incluso.
    • Analisi delle componenti principali (PCA):
      • Esegue la riduzione delle dimensioni in base alle componenti principali di calcolo.
      • Esegue la decomposizione agli autovalori e gli algoritmi NIPALS e ITERGS.
      • Genera output di score delle componenti principali in tutte le osservazioni.
      • Crea grafici scree e grafici di profilazione dei modelli.
    • Alberi decisionali:
      • Supporto degli alberi di classificazione e regressione.
      • Supporto delle funzionalità categoriche e numeriche.
      • Criteri di suddivisione dei nodi basati sulle misure dei test statistici e delle impurità.
      • Pruning degli alberi con metodi cost-complexity e di riduzione dell’errore.
      • Supporto del partizionamento dati nei ruoli di addestramento, validazione e test.
      • Supporto dell’utilizzo dei dati di validazione per la selezione del sottoalbero migliore.
      • Supporto dell’utilizzo di dati test per la valutazione finale del modello di albero.
      • Diversi metodi di gestione dei valori mancanti, tra cui i ruoli surrogati.
      • Creazione di diagrammi ad albero.
      • Statistiche per la valutazione di stima del modello, tra cui le statistiche basate sul modello (risostituzione).
      • Calcolo della misura di importanza delle variabili.
      • Generazione delle attribuzioni foglia e dei valori di probabilità per le osservazioni.
    • Clustering:
      • Algoritmo k-means per il clustering delle variabili continue (intervallo).
      • Algoritmo k-means per il clustering delle variabili nominali.
      • Svariate misure di distanza per la similarità.
      • Metodo basato sul criterio dei box allineati per la stima del numero di cluster.
      • Generazione dell’appartenenza ai cluster e delle misure di distanza in tutte le osservazioni.
    • Regressione lineare:
      • Supporto dei modelli lineari con variabili continue e di classificazione.
      • Supporto di diverse parametrizzazioni per gli effetti di classificazione.
      • Supporto delle interazioni e degli effetti nidificati di qualsiasi grado.
      • Supporto degli effetti polinomiali e spline.
      • Supporto dei metodi di selezione avanti, indietro, stepwise, least angle regression e lasso.
      • Supporto dei criteri informativi e dei metodi di validazione per il controllo della selezione dei modelli.
      • Selezione di livelli individuali degli effetti di classificazione.
      • Mantenimento della gerarchia tra i vari effetti.
      • Supporto del partizionamento dati nei ruoli di addestramento, validazione e test.
      • Ampia gamma di statistiche diagnostiche.
      • Generazione di codice SAS per lo scoring dei processi produttivi.
    • Regressione logistica:
      • Supporto delle risposte binarie e binomiali.
      • Supporto di diverse parametrizzazioni per gli effetti di classificazione.
      • Supporto delle interazioni e degli effetti nidificati di qualsiasi grado.
      • Supporto degli effetti polinomiali e spline.
      • Supporto dei metodi di selezione avanti, indietro, indietro veloce e lasso.
      • Supporto dei criteri informativi e dei metodi di validazione per il controllo della selezione dei modelli.
      • Selezione di livelli individuali degli effetti di classificazione.
      • Mantenimento della gerarchia tra i vari effetti.
      • Supporto del partizionamento dati nei ruoli di addestramento, validazione e test.
      • Numerose statistiche di valutazione dei modelli.
      • Svariati metodi di ottimizzazione per la stima di massima verosimiglianza.
    • Modelli lineari generalizzati:
      • Supporto delle risposte con svariate distribuzioni, ad es. binarie, normali, Poisson e gamma.
      • Supporto di diverse parametrizzazioni per gli effetti di classificazione.
      • Supporto delle interazioni e degli effetti nidificati di qualsiasi grado.
      • Supporto degli effetti polinomiali e spline.
      • Supporto dei metodi di selezione in avanti, all’indietro, all’indietro veloce, stepwise e group lasso.
      • Supporto dei criteri informativi e dei metodi di validazione per il controllo della selezione dei modelli.
      • Selezione di livelli individuali degli effetti di classificazione.
      • Mantenimento della gerarchia tra i vari effetti.
      • Supporto del partizionamento dati nei ruoli di addestramento, validazione e test.
      • Numerose statistiche di valutazione dei modelli.
      • Svariati metodi di ottimizzazione per la stima di massima verosimiglianza.
    • Modelli di regressione non lineare:
      • Adattamento dei modelli di regressione non lineare alle distribuzioni standard o generali.
      • Calcolo di derivate analitiche dalle espressioni fornite dall’utente per ottenere stime più precise dei parametri.
      • Valutazione delle espressioni fornite dall’utente tramite gli enunciati ESTIMATE e PREDICT (solo procedura).
      • È richiesta una tabella dati contenente l’item store CMP se non si utilizza PROC NLMOD.
      • Stima dei parametri con il metodo dei minimi quadrati.
      • Stima dei parametri con il metodo di massima verosimiglianza.
    • Modelli di regressione quantile:
      • Supporto delle regressione quantile per livelli di quantili singoli o multipli.
      • Supporto di più parametrizzazioni per gli effetti di classificazione.
      • Supporto delle interazioni (effetti incrociati) e degli effetti nidificati di qualsiasi grado.
      • Supporto della strategia di selezione dei modelli gerarchici tra i vari effetti.
      • Offre diversi metodi di selezione degli effetti.
      • Offre una selezione degli effetti basata su numerosi criteri.
      • Supporto delle regole di arresto e selezione.
    • Modelli predittivi per i minimi quadrati parziali:
      • Sintassi di programmazione con variabili di classificazione, variabili continue, interazioni e nidificazioni.
      • Sintassi di costruzione degli effetti per effetti polinomiali e spline.
      • Supporto del partizionamento dati nei ruoli di addestramento e test.
      • Validazione dei set di test per selezionare il numero dei fattori estratti.
      • Implementazione dei seguenti metodi: regressione delle componenti principali, regressione di rango ridotto e regressione dei minimi quadrati parziali.
    • Generalized additive models:
      • Stima dei modelli additivi generalizzati basati su spline di regressione low-rank.
      • Stima dei parametri di regressione calcolata tramite la stima di verosimiglianza penalizzata.
      • Stima dei parametri di smoothing calcolata tramite il metodo iterativo della performance o il metodo iterativo esterno.
      • Stima dei parametri di regressione con le tecniche di massima verosimiglianza.
      • Test sul contributo globale di ogni intervallo spline in base alla statistica di Wald.
      • Sintassi per la costruzione dei modelli che può includere variabili di classificazione, variabili continue, interazioni e nidificazioni.
      • Possibilità di costruire un intervallo spline utilizzando variabili multiple.
    • Regressione dei rischi proporzionali:
      • Adattamento del modello di regressione dei rischi proporzionali Cox ai dati di sopravvivenza ed esecuzione della selezione variabile.
      • Sintassi per la costruzione dei modelli con variabili di classificazione, variabili continue, interazioni e nidificazioni.
      • Sintassi di costruzione degli effetti per effetti polinomiali e spline.
      • Stima di massima verosimiglianza parziale, dell’analisi stratificata e della selezione delle variabili.
      • Partizionamento dati nei ruoli di addestramento, validazione e test.
      • Analisi ponderata e analisi raggruppata.
    • Controllo statistico di processo: 
      • Analisi della carta di controllo di Shewhart.
      • Analisi di più variabili di processo per individuare i processi che si trovano fuori dal controllo statistico. 
      • Adattamento dei limiti di controllo per compensare le dimensioni non corrispondenti dei sottogruppi.
      • Stima dei limiti di controllo dei dati, calcolo dei limiti di controllo di specifici valori per i parametri di una popolazione (standard noti) o lettura dei limiti di una tabella dei dati di input.
      • Esecuzione di test per cause speciali basati su pattern ciclici (regole Western Electric).
      • Stima della deviazione standard dei processi utilizzando vari metodi (grafici delle variabili).
      • Salvataggio delle statistiche dei grafici e limiti di controllo nelle tabelle dei dati di output.

    Statistica descrittiva

    • Funzioni di calcolo dei valori distinti per interpretare la cardinalità.
    • Box plot per la valutazione delle misure di centralità e spread, inclusi gli outlier per una o più variabili.
    • Correlazioni per misurare l’indice di correlazione di Pearson di un insieme di variabili. Supporto delle analisi raggruppate e ponderate.
    • Tabulazioni incrociate, incluso il supporto delle funzioni di ponderazione.
    • Tabelle di contingenza, incluse le misure di associazione.
    • Istogrammi con opzioni per il controllo dei valori di binning, dei valori massimi di soglia, degli outlier e altro.
    • Riepiloghi multidimensionali mediante un’unica trasmissione di dati.
    • Percentili per una o più variabili.
    • Statistiche di riepilogo, ad es. numero di osservazioni, numero di valori mancanti, totale di valori non mancanti, media, deviazione standard, somme dei quadrati corrette e non corrette, minimo e massimo, e coefficiente di variazione.
    • Stime kernel di densità con funzioni kernel normali, tri-cubiche e quadratiche.
    • Costruzione di tabelle di frequenza unidirezionali/n-direzionali e di tabulazione incrociata.

    Elaborazione group-by

    • Creazione di modelli, calcolo ed elaborazione istantanei di risultati per ogni gruppo o segmento senza dover classificare o indicizzare i dati ogni volta.
    • Creazione istantanea di modelli basati sui segmenti (ad es., modellazione stratificata) da un albero decisionale o da una clustering analysis.

    Confronto, valutazione e scoring dei modelli

    • Generazione di riepiloghi di confronto tra modelli (grafici lift, grafici ROC, statistiche di concordanza, tabelle di errori di classificazione) per uno o più modelli.
    • Scorrimento interattivo del cutoff di predizione per consentire l’aggiornamento automatico di statistiche di valutazione e tabelle di classificazione.
    • Valutazione interattiva del lift a percentili diversi.
    • Esportazione di modelli come SAS DATA step code da integrare con altre applicazioni. Il codice di scoring viene automaticamente concatenato se un modello utilizza output derivati da altri modelli (ID foglia, ID cluster e altro).

    Model scoring

    • Esportazione di modelli come SAS DATA step code da integrare con altre applicazioni. Il codice di scoring viene automaticamente concatenato se un modello utilizza output derivati da altri modelli (Leaf ID, Cluster ID e altro).

    SAS® Viya® in-memory runtime engine

    • SAS Cloud Analytic Services (CAS) esegue elaborazioni in-memory e le distribuisce su tutti i nodi di un cluster.
    • Le richieste degli utenti, espresse in linguaggio procedurale, si traducono in azioni dotate dei parametri necessari all’elaborazione dei dati in un ambiente distribuito. Il set di risultati e i messaggi vengono restituiti alla procedura per ulteriori analisi dell’utente.
    • I dati vengono gestiti in blocchi e possono essere caricati in memory su richiesta. Se le tabelle superano la capacità di memoria, il server salva i blocchi nella cache del disco. I dati e i risultati intermedi di tutti i job vengono conservati in memoria per tutto il tempo necessario ed entro i limiti definiti dall'utente.
    • Un algoritmo determina il numero ottimale di nodi secondo le specifiche del job.
    • Un layer di comunicazione supporta la tolleranza agli errori e consente di rimuovere o aggiungere nodi da un server in esecuzione. Tutte le componenti dell’architettura possono essere replicate per garantire la massima disponibilità. 
    • I prodotti possono essere distribuiti in modalità multi-tenant che permette allo stack software condiviso di supportare in modo sicuro i tenant isolati.

    Opzioni di deployment

    • Deployment on-site:
      • Server basato su una macchina singola a supporto delle esigenze di piccole e medie imprese.
      • Modalità distribuita per far fronte alla crescita dei volumi di dati e dei carichi di lavoro e ai requisiti di scalabilità.
    • Deployment su cloud:
      • Hosting aziendale.
      • Infrastruttura basata su cloud privato o pubblico (ad es. BYOL di Amazon).
      • Software as a Service (SaaS) gestito da SAS.
      • Platform as a Service (PaaS) Cloud Foundry per supportare più cloud provider. 

    Back to Top