SAS® Unified Insights MM Features

Market-leading data mining & machine learning

  • Provides GUI-based data mining and machine learning via a single, collaborative and highly scalable environment.
  • Provides open source integration with R, Python, Java and Lua models.
  • Lets you use model competition to identify and deploy the most effective model.

View more market-leading data mining & machine learning features

Interactive programming in a web-based development environment

  • Visual interface for the entire analytical life cycle process.
  • Drag-and-drop interactive interface requires no coding, though coding is an option.
  • Supports automated code creation at each node in the pipeline.
  • Best practice templates (basic, intermediate or advanced) help users get started quickly with machine learning tasks.
  • Interpretability reports.
  • Explore data from within Model Studio and launch directly into SAS Visual Analytics.
  • Edit models imported from SAS Visual Analytics in Model Studio.
  • View data within each node in Model Studio.
  • Run SAS® Enterprise Miner 14.3 batch code within Model Studio.
  • Provides a collaborative environment for easy sharing of data, code snippets, annotations and best practices among different personas.
  • Create, manage and share content and administer content permissions via SAS Drive.
  • The SAS lineage viewer visually displays the relationships between decisions, models, data and decisions.

Embedded support for Python and R languages

  • Embed open source code within an analysis, and call open source algorithms within Model Studio.
  • The Open Source Code node in Model Studio is agnostic to Python or R versions.

Deep Learning with Python (DLPy)

  • Build deep learning models for image, text, audio and time-series data using Juypter Notebook.
  • High level APIs are available on GitHub for:
    • Deep neural networks for tabular data.
    • Image classification and regression.
    • Object detection.
    • RNN-based tasks – text classification, text generation and sequence labeling.
    • RNN-based time-series processing and modeling.
  • Support for predefined network architectures, such as LeNet, VGG, ResNet, DenseNet, Darknet, Inception and YOLOv2 and Tiny YOLO.
  • Import and export deep learning models in the ONNX format.

SAS® procedures (PROCs) and CAS actions

  • A programming interface (SAS Studio) allows IT or developers to access a CAS server, load and save data directly from a CAS server, and support local and remote processing on a CAS server.
  • Python, Java, R, Lua and Scala programmers or IT staff can access data and perform basic data manipulation against a CAS server, or execute CAS actions using PROC CAS.
  • CAS actions support for interpretability, feature engineering and modeling.
  • Integrate and add the power of SAS to other applications using REST APIs.

Highly scalable, distributed in-memory analytical processing

  • Distributed, in-memory processing of complex analytical calculations on large data sets provides low-latency answers.
  • Analytical tasks are chained together as a single, in-memory job without having to reload the data or write out intermediate results to disks.
  • Concurrent access to the same data in memory by many users improves efficiency.
  • Data and intermediate results are held in memory as long as required, reducing latency.
  • Built-in workload management ensures efficient use of compute resources.
  • Built-in failover management guarantees submitted jobs always finish.
  • Automated I/O disk spillover for improved memory management.

Model development with modern machine learning algorithms

  • Decision forests:
    • Automated ensemble of decision trees to predict a single target.
    • Automated distribution of independent training runs.
    • Supports intelligent autotuning of model parameters.
    • Automated generation of SAS code for production scoring. 
  • Gradient boosting:
    • Automated iterative search for optimal partition of the data in relation to selected label variable.
    • Automated resampling of input data several times with adjusted weights based on residuals.
    • Automated generation of weighted average for final supervised model.
    • Supports binary, nominal and interval labels.
    • Ability to customize tree training with variety of options for numbers of trees to grow, splitting criteria to apply, depth of subtrees and compute resources. 
    • Automated stopping criteria based on validation data scoring to avoid overfitting.
    • Automated generation of SAS code for production scoring.
  • Neural networks:
    • Automated intelligent tuning of parameter set to identify optimal model.
    • Supports modeling of count data.
    • Intelligent defaults for most neural network parameters.
    • Ability to customize neural networks architecture and weights.
    • Techniques include deep forward neural network (DNN), convolutional neural networks (CNNs), recurrent neural networks (RNNs) and autoencoders.
    • Ability to use an arbitrary number of hidden layers to support deep learning.
    • Support for different types of layers, such as convolution and pooling.
    • Automatic standardization of input and target variables.
    • Automatic selection and use of a validation data subset.
    • Automatic out-of-bag validation for early stopping to avoid overfitting.
    • Supports intelligent autotuning of model parameters.
    • Automated generation of SAS code for production scoring.
  • Support vector machines:
    • Models binary target labels.
    • Supports linear and polynomial kernels for model training.
    • Ability to include continuous and categorical in/out features.
    • Automated scaling of input features.
    • Ability to apply the interior-point method and the active-set method.
    • Supports data partition for model validation.
    • Supports cross-validation for penalty selection.
    • Automated generation of SAS code for production scoring.
  • Factorization machines:
    • Supports the development of recommender systems based on sparse matrices of user IDs and item ratings.
    • Ability to apply full pairwise-interaction tensor factorization.
    • Includes additional categorical and numerical input features for more accurate models.
    • Supercharge models with timestamps, demographic data and context information.
    • Supports warm restart (update models with new transactions without full retraining).
    • Automated generation of SAS score code for production scoring.
  • Bayesian networks:
    • Learns different Bayesian network structures, including naive, tree-augmented naive (TAN), Bayesian network-augmented naive (BAN), parent-child Bayesian networks and Markov blanket.
    • Performs efficient variable selection through independence tests.
    • Selects the best model automatically from specified parameters.
    • Generates SAS code or an analytics store to score data.
    • Loads data from multiple nodes and performs computations in parallel.
  • Dirichlet Gaussian mixture models (GMM):
    • Can execute clustering in parallel and is highly multithreaded.
    • Performs soft clustering, which provides not only the predicted cluster score but also the probability distribution over the clusters for each observation.
    • Learns the best number of clusters during the clustering process, which is supported by the Dirichlet process.
    • Uses a parallel variational Bayes (VB) method as the model inference method. This method approximates the (intractable) posterior distribution and then iteratively updates the model parameters until it reaches convergence.
  • Semisupervised learning algorithm:
    • Highly distributed and multithreaded.
    • Returns the predicted labels for both the unlabeled data table and the labeled data table.
  • T-distributed stochastic neighbor embedding (t-SNE):
    • Highly distributed and multithreaded.
    • Returns low-dimensional embeddings that are based on a parallel implementation of the t-SNE algorithm.

Analytical data preparation

  • Feature engineering best practice pipeline includes best transformations.
  • Distributed data management routines provided via a visual front end.
  • Large-scale data exploration and summarization.
  • Cardinality profiling:
    • Large-scale data profiling of input data sources.
    • Intelligent recommendation for variable measurement and role.
  • Sampling: 
    • Supports random and stratified sampling, oversampling for rare events and indicator variables for sampled records.

Data exploration, feature engineering and dimension reduction

  • T-distributed stochastic neighbor embedding (t-SNE).
  • Feature binning.
  • High-performance imputation of missing values in features with user-specified values, mean, pseudo median and random value of nonmissing values.
  • Feature dimension reduction.
  • Large-scale principal components analysis (PCA), including moving windows and robust PCA.
  • Unsupervised learning with cluster analysis and mixed variable clustering.
  • Segment profiles for clustering.

Integrated text analytics

  • Supports 33 native languages out of the box:
    • English
    • Arabic
    • Chinese
    • Croatian
    • Czech
    • Danish
    • Dutch
    • Farsi
    • Finnish
    • French
    • German
    • Greek
    • Hebrew
    • Hindi
    • Hungarian
    • Indonesian
    • Italian
    • Japanese
    • Kazakh
    • Korean
    • Norwegian
    • Polish
    • Portuguese
    • Romanian
    • Russian
    • Slovak
    • Slovenian
    • Spanish
    • Swedish
    • Tagalog
    • Turkish
    • Thai
    • Vietnamese
  • Stop lists are automatically included and applied for all languages.
  • Automated parsing, tokenization, part-of-speech tagging and lemmatization.
  • Predefined concepts extract common entities such as names, dates, currency values, measurements, people, places and more.
  • Automated feature extraction with machine-generated topics (singular value decomposition and latent Dirichlet allocation).
  • Supports machine learning and rules-based approaches within a single project.
  • Automatic rule generation with the BoolRule.
  • Classify documents more accurately with deep learning (recurrent neural networks).

Model assessment

  • Automatically calculates supervised learning model performance statistics.
  • Produces output statistics for interval and categorical targets.
  • Creates lift table for interval and categorical target.
  • Creates ROC table for categorical target.
  • Creates Event Classification and Nominal Classification charts for supervised learning models with a class target.

Model scoring

  • Automatically generates SAS DATA step code for model scoring.
  • Applies scoring logic to training, holdout data and new data.

SAS® Viya® in-memory engine

  • CAS (SAS Cloud Analytic Services) performs processing in memory and distributes processing across nodes in a cluster.
  • User requests (expressed in a procedural language) are translated into actions with the parameters needed to process in a distributed environment. The result set and messages are passed back to the procedure for further action by the user.
  • Data is managed in blocks and can be loaded in memory and on demand.
  • If tables exceed memory capacity, the server caches the blocks on disk. Data and intermediate results are held in memory as long as required, across jobs and user boundaries.
  • Includes highly efficient node-to-node communication. An algorithm determines the optimal number of nodes for a given job.
  • Communication layer supports fault tolerance and lets you remove or add nodes from a server while it is running. All components can be replicated for high availability.
  • Support for legacy SAS code and direct interoperability with SAS 9.4M6 clients.
  • Supports multitenancy deployment, allowing for a shared software stack to support isolated tenants in a secure manner.

Deployment options

  • On-site deployments:
    • Single-machine server to support the needs of small to midsize organizations.
    • Distributed server to meet growing data, increasing workloads and scalability requirements.
  • Cloud deployments:
    • Enterprise hosting.
    • Private or public cloud (e.g., BYOL in Amazon) infrastructure.
    • SAS managed software as a service (SaaS).
    • Cloud Foundry platform as a service (PaaS) to support multiple cloud providers.

Streamlined model deployment

  • Streamlines the process of creating, managing, administering, deploying and monitoring your analytical models.
  • Provides a framework for model registration, validation, monitoring and retraining.
  • Enables you to assess candidate models to identify and publish the champion model.
  • Ensures complete auditability and regulatory compliance.

View more streamlined model deployment features

Accessible, web-based, centralized and secure repository for managing analytical models

  • Access all models in the model repository – whether they’re located in a folder or project.
  • Access models and model-score artifacts using open REST APIs.
  • Support for SAS model registration from SAS Visual Analytics, SAS Visual Statistics, SAS Studio, and Model Studio for SAS Visual Text Analytics and SAS Visual Data Mining and Machine Learning.
  • Set up, maintain and manage separate versions for models:
    • Champion model is automatically defined as a new version when the model is set as champion, updated or published in a project.
    • Only one champion model is produced per project. New versions are automatically created when new model projects are registered from the Model Studio environment in SAS Visual Data Mining and Machine Learning and SAS Visual Text Analytics.
    • Choose challenger models to the project champion model.
    • Monitor and publish challenger and champion models.
    • Integration of champion models with SAS Event Stream Processing, including automated notifications when model project champion is updated.
  • Monitor performance of champion models for all projects using performance report definition and execution.
  • Publish SAS models to SAS Cloud Analytic Services (CAS), Hadoop, SAS Micro Analytic Service or Teradata.
  • Python code publishing support for SAS Micro Analytic Service execution target.
  • Provides accounting and auditability, including event logging of major actions, including model creation, project creation and versioning.
  • Add general properties as columns to the listing for models and projects, such as model name, role, type of algorithm, date modified, modified by, repository location, description, version and keywords (tags).
  • Import models from the SAS Platform, including training code, score logic, estimate tables, target and input variables and output variables, using SAS package files (.SPK), PMML and ZIP format files.
  • Export models as .ZIP format, including all model file contents for movement across environments.
  • Easily copy models from one project to another, simplifying model movement within the repository.
  • Import code snippets/models from any code base (C, C++, Java, Python, etc.) into the managed inventory.
  • Create DATA step score code for PMML models on import for inclusion in scoring tasks, reporting and performance monitoring.
  • Model repository can be searched, queried, sorted and filtered by attributes used to store models – such as type of asset, algorithm, input or target variables, model ID, etc. – as well as user-defined properties and editable keywords.
  • Register, compare, report, score and monitor models built in R or Python (classification and prediction).
  • Compare two or more models using automatically calculated model fit statistics to easily understand model differences through plots and analytical metrics.
  • Provides secure, reliable model storage and access administration, including backup and restore capabilities, overwrite protection, event logging and user authentication.

Analytical workflow management

  • Create custom processes for each model using SAS Workflow Studio:
    • The workflow manager is fully integrated with SAS Model Manager so you can manage workflows and track workflow tasks within the same user interface.
    • Import, update and export generic models at the folder level – and duplicate or move to another folder.
  • Provides collaboration across teams with automated notifications.
  • Perform common model management tasks such as importing, viewing and attaching supporting documentation; setting a project champion model and flagging challenger models; publishing models for scoring purposes; and viewing dashboard reports.

Scoring logic validation before models are exported to production

  • Define test and production score jobs for SAS and Python models using required inputs and outputs.
  • Define and execute scoring tasks, and specify where to save the output and job history.
  • Publish model updates to different scoring channels and notify subscribers via message queues.
  • Create model input and output variables from the score.sas file to generate missing metadata from model variables.
  • Integration with SAS Scoring Accelerator for in-database model deployment.
  • Integration with SAS Micro Analytic Service – for SAS and Python code testing and result validation.

Model performance monitoring and reporting during test and production

  • Integrated retraining for data mining and machine learning models using Model Studio: 
    • Retrain data mining and machine learning models when performance reporting threshold metrics are reached.
    • Automated, configured registration after model retraining is completed from Model Studio. No need to import separately.
  • Model performance reports produced for champion and challenger models include variable distribution plots, lift charts, stability charts, ROC, K-S and Gini reports with SAS Visual Analytics using performance-reporting output result sets.
  • SAS Visual Analytics provides a wide range of model comparison reports.
  • Performance results are prepared and made available to SAS Visual Analytics for simplified access to a wide range of model comparison reports.
  • Ability to specify multiple data sources and time-collection periods when defining performance-monitoring tasks.

Distributed, accessible and cloud-ready

  • Runs on SAS Viya, a scalable and distributed in-memory engine of the SAS Platform.
  • Distributes analysis and data tasks across multiple computing nodes.
  • Provides fast, concurrent, multiuser access to data in memory.
  • Includes fault tolerance for high availability.
  • Lets you add the power of SAS Analytics to other applications using RESTful APIs. 

Self-service data preparation

  • Provides an interactive, self-service environment for data access, blending, shaping and cleansing to prepare data for analytics and reporting.
  • Fully integrates with your analytics pipeline.
  • Includes data lineage and automation.

View more self-service data preparation features

Data and metadata access

  • Use any authorized internal source, accessible external data sources and data held in-memory in SAS Viya.
    • View a sample of a table or file loaded in the in-memory engine of SAS Viya, or from data sources registered with SAS/ACCESS, to visualize the data you want to work with.
    • Quickly create connections to and between external data sources.
    • Access physical metadata information like column names, data types, encoding, column count and row count to gain further insight into the data.
  • Data sources and types include:
    • Amazon S3.
    • Amazon Redshift.
    • DNFS, HDFS, PATH-based files (CSV, SAS, Excel, delimited).
    • DB2.
    • Hive.
    • Impala.
    • SAS® LASR.
    • ODBC.
    • Oracle.
    • Postgres.
    • Teradata.
    • Feeds from Twitter, YouTube, Facebook, Google Analytics, Google Drive, Esri and local files.
    • SAS® Cloud Analytic Services (CAS).

Data provisioning

  • Parallel load data from desired data sources into memory simply by selecting them – no need to write code or have experience with an ETL tool. (Data cannot be sent back to the following data sources: Twitter, YouTube, Facebook, Google Analytics, Esri; it can only be sourced form these sites).
    • Reduce the amount of data being copied by performing row filtering or column filtering before the data is provisioned.
    • Retain big data in situ, and push processing to the source system by including SAS In-Database optional add-ons.

    Guided, interactive data preparation

    • Transform, blend, shape, cleanse and standardize data in an interactive, visual environment that guides you through data preparation processes.
    • Easily understand how a transformation affected results, getting visual feedback in near-real-time through the distributed, in-memory processing of SAS Viya.

    Column-based transformations

    • Use column-based transformations to standardize, remediate and shape data without doing configurations. You can:
      • Change case.
      • Convert column.
      • Rename.
      • Remove.
      • Split.
      • Trim whitespace.
      • Custom calculation.
    • Support for wide tables allows for the saving of data plans for quick data preparation jobs.

    Row-based transformations

    • Use row-based transformations to filter and shape data.
    • Create analytical-based tables using the transpose transformation to prepare the data for analytics and reporting tasks.
    • Create simple or complex filters to remove unnecessary data.

    Code-based transformations

    • Write custom code to transform, shape, blend, remediate and standardize data.
    • Write simple expressions to create calculated columns, write advanced code or reuse code snippets for greater transformational flexibility.
    • Import custom code defined by others, sharing best practices and collaborative productivity.

    Multiple-input-based transformations

    • Use multiple-input-based transformations to blend and shape data.
    • Blend or shape one or more sets of data together using the guided interface – there’s no requirement to know SQL or SAS. You can:
      • Append data.
      • Join data.
      • Transpose data.

    Data profiling

    • Profile data to generate column-based and table-based basic and advanced profile metrics.
    • Use the table-level profile metrics to uncover data quality issues and get further insight into the data itself.
    • Drill into each column for column-level profile metrics and to see visual graphs of pattern distribution and frequency distribution results that help uncover hidden insights.
    • Use a variety of data types/sources (listed previously). To profile data from Twitter, Facebook, Google Analytics or YouTube, you must first explicitly import the data into the SAS Viya in-memory environment.

    Data quality processing

    (SAS® Data Quality on SAS® Viya® is included in SAS Data Preparation)

    Data cleansing

    • Use locale- and context-specific parsing and field extraction definitions to reshape data and uncover additional insights.
    • Use the extraction transformation to identify and extract contact information (e.g., name, gender, field, pattern, identify, email and phone number) in a specified column.
    • Use parsing when data in a specified column needs to be tokenized into substrings (e.g., a full name tokenized into prefix, given name, middle name and family name).
    • Derive unique identifiers from match codes that link disparate data sources.
    • Standardize data with locale- and context-specific definitions to transform data into a common format, like casing.

    Identity definition

    • Analyze column data using locale-specific rules to determine gender or context.
    • Use identification analysis to analyze the data and determine its context, which is particularly valuable if the data or source of data is unfamiliar.
    • Use gender analysis to determine the gender of a name using locale-specific rules so the data can be easily filtered or segmented.
    • Create a unique ID for each row with unique ID generator.
    • Identify the subject data in each column with identification analysis.
    • Identify, find and sort data by tagging data with columns and tables.

    Data matching

    • Determine matching records based upon locale- and context-specific definitions.
    • Easily identify matching records using more than 25 context-specific rules such as date, address, name, email, etc.
    • Use the results of the match code transformation to remove duplicates, perform a fuzzy search or a fuzzy join.
    • Find like records and logically group together.

    System and job monitoring

    • Use integrated monitoring capabilities for system- and job-level processes.
    • Gain insight into how many processes are running, how long they’re taking and who is running them.
    • Easily filter through all system jobs based on job status (running, successful, failed, pending and cancelled).
    • Access job error logs to help with root-cause analysis and troubleshooting. (Note: Monitoring is available using SAS Environment Manager and the job monitor application.)

    Data import and data preparation job scheduling

    • Create a data import job from automatically generated code to perform a data refresh using the integrated scheduler.
    • Schedule data explorer imports as jobs so they will become an automatic, repeatable process.
    • Specify a time, date, frequency and/or interval for the jobs.

    Data lineage

    • Explore relationships between accessible data sources, data objects and jobs.
    • Use the relationship graph to visually show the relationships that exist between objects, making it easier to understand the origin of data and trace its processing.
    • Create multiple views with different tabs, and save the organization of those views.

    Plan templates and project collaboration

    • Use data preparation plans (templates), which consist of a set of transformation rules that get applied to one or more sources of data, to improve productivity (spend less time preparing data).
    • Reuse the templates by applying them to different sets of data to ensure that data is transformed consistently to adhere to enterprise data standards and policies.
    • Rely on team-based collaboration through a project hub used with SAS Viya projects. The project’s activity feed shows who did what and when, and can be used to communicate with other team members.

    Batch text analysis

    • Quickly extract contents of documents, and perform text identification and extraction.

    Cloud data exchange

    • Securely copy data from on-site repositories to a cloud-based SAS Viya instance running in a private or public cloud for use in SAS Viya applications – as well as sending data back to on-site locations.
    • Preprocess data locally, which reduces the amount of data that needs to be moved to remote locations.
    • Use a Command Line Input (CLI) interface for administration and control.
    • Securely and responsibly negotiates your on-site firewall.  

    Visual data exploration & insights development

    • Provides bi-modal support for both governed and self-service exploration and visualization.
    • Enables self-service discovery, reporting and analysis.
    • Provides access to easy-to-use predictive analytics with “smart algorithms.”
    • Enables report sharing via email, web browser, MS Office or mobile devices.
    • Provides centralized, web-based administration, monitoring and governance of platform.

    View more visual data exploration & insights development features

    Descubrimiento de datos con autoservicio

    • El descubrimiento interactivo de datos permite a usuarios de negocios y analistas identificar fácilmente relaciones, tendencias, valores atípicos, etc. 
    • La generación automática de diagramas elige automáticamente la gráfica más adecuada para mostrar los datos seleccionados.
    • Las visualizaciones analíticas incluyen diagramas de caja, mapas de calor, diagramas de burbuja animados, diagramas de red, matrices de correlación, diagramas de líneas con pronóstico, diagrama de coordenadas paralelas, diagramas de dona, árboles de decisión y más.
    • Las vistas de mapas geográficos proveen un rápido entendimiento de datos geoespaciales. 
    • Los diagramas de red le permiten mostrar redes en un mapa. 
    • Cualquier visualización puede ser publicada como objeto de reporte. 
    • Los cálculos personalizados le permiten combinar funciones, operadores y elementos de datos existentes para formular valores específicos a sus necesidades. 
    • Una barra de observación ajustable le permite subdividir de forma interactiva una porción de elementos visuales con muchos puntos de datos. 
    • Los objetos de tableros de instrumentos se pueden conectar a objetos de descubrimiento, lo que hace posible una interacción entre ellos. 
    • Puede incorporar sus visualizaciones interactivas personalizadas (por ejemplo, gráficas D3.js, visualizaciones C3 o diagramas de Google) a SAS Visual Analytics, de modo que todas ellas estén basadas en los mismos datos.    
    • Una nueva visualización de valores clave le permite mostrar métricas importantes (valores numéricos o categóricos) en un estilo infográfico para rápida referencia.
    • Los diagramas Sankey le permiten realizar análisis de ruta a fin de visualizar relaciones entre distintas secuencias de eventos. El análisis de ruta muestra el flujo de datos de un evento (valor) a otro como una serie de rutas.

    Analítica con autoservicio

    • Las estadísticas descriptivas – como mínimo, máximo y media – proveen un sentido global de una medida en particular. 
    • Los usuarios pueden crear nuevas medidas calculadas y agregarlas a cualquier vista. 
    • Los pronósticos que incluyen el pronóstico de intervalos de confianza se pueden generar al instante. 
    • El algoritmo de pronóstico más apropiado para datos específicos se selecciona de forma automática. 
    • El análisis del escenario le permite ver cómo los cambios en diferentes variables afectarían los pronósticos. 
    • La búsqueda de metas le permite especificar un valor de destino para su pronóstico y luego determina el valor de factores implícitos que se requerirían para obtener ese valor de destino.
    • Los árboles de decisión representan gráficamente resultados probables. Un nivel experto le permite modificar ciertos parámetros de influencia para la generación de un árbol. 
    • La sectorización personalizada mueve datos continuos a un número reducido de grupos para una mejor interpretación y presentación de los resultados. 
    • Las capacidades analíticas de texto le permiten encontrar temas de forma automática y entender el sentimiento de fuentes de datos, incluyendo comentarios en Facebook, Twitter, Google Analytics y YouTube.

    Reportes y dashboards interactivos

    • Capacidades de distribución precisas y receptivas la proporcionan opciones flexibles de distribución y diseño de reportes. Puede apilar o agrupar elementos, y más.
    • Se incluyen diversos objetos de gráficas o diagramas: barras con múltiples líneas, de sectores, de dona, de líneas, de dispersión, mapa de calor, de burbuja, de burbuja animada, mapa de árbol, de puntos, de aguja, de serie numérica, diagrama de planificación, vectorial, etc.
    • Agregue contenido Web (por ejemplo, videos de YouTube, aplicaciones Web) e imágenes (por ejemplo, logotipos) a sus reportes.
    • Diversos controles de línea de comandos permiten a los creadores y consumidores de reportes interactuar mejor con el reporte.
    • El recurso de clasificación personalizada le permite clasificar elementos de datos de categoría en una tabla o gráfica.
    • El filtrado automático (por ejemplo, en un sentido, bidireccional) y las seleccionadas vinculadas reducen la cantidad de tiempo que se invierte vinculando contenido de modo manual (por ejemplo, visualizaciones, reportes).
    • Los objetos de texto pueden incluir texto basado en fecha o generado por el sistema de contexto relacionado.
    • Los usuarios pueden colaborar fácilmente con dispositivos móviles y la Web agregando comentarios a un reporte.
    • Sincronice la selección y filtros en todas las visualizaciones de un reporte o tablero de instrumentos.
    • Vincule diferentes reportes (por ejemplo, vincule un reporte de ventas a un reporte de inventario).
    • Los consumidores de reportes pueden cambiar parámetros que se utilizan en cálculos y mostrar reglas utilizando controles, filtros, etc., para ver la información que les resulte más pertinente.
    • Cree alertas para un objeto de reporte para notificar a los suscriptores por correo electrónico o mensaje de texto cuando se alcance la condición de umbral o valor máximo.
    • Distribuya reportes de forma segura por medio de archivos PDF o correo electrónico, ya sea una vez o en intervalos recurrentes (por ejemplo, diario, una vez por semana o una vez por mes).
    • Recupere reportes que esté modificando cuando su sesión termine de forma inesperada. Los reportes se guardan de forma automática cada cinco segundos después de que se hace una modificación.
    • Los administradores pueden configurar soporte para el acceso de invitados para que vean reportes o visualizaciones. Los usuarios invitados pueden ver los insights disponibles para el público.
    • Se pueden crear jerarquías analizables a fondo en modo de autoservicio sin que se necesiten predefinir rutas del usuario. 

    Inteligencia de negocios móvil

    • El soporte nativo para iOS, Windows 10 y Android para tablets y teléfonos inteligentes utiliza gesticulaciones y capacidades nativas para brindar una experiencia enriquecida y receptiva al usuario. 
    • Los reportes se pueden crear una vez y luego se pueden ver en cualquier lugar. 
    • Acceda de forma segura a contenido en dispositivos móviles, en línea y sin conexión. 
    • La posibilidad de compartir pantallas en vivo permite a usuarios remotos compartir sus pantallas móviles con colegas en la oficina.
    • El soporte para colaboración incluye la posibilidad de hacer anotaciones, comentarios, compartir y enviar por correo electrónico reportes a otros usuarios.
    • Se pueden hacer capturas de pantallas y se pueden compartir comentarios con otros usuarios. 
    • Las notificaciones alertan a los usuarios de negocios cuando se actualiza un reporte, cuando se cambian datos o cuando se actualiza la aplicación.
    • Trabaja con proveedores terceros de MDM, como Good Technologies, MobileIron y AirWatch. 

    Analítica de ubicación

    • Se habilitan mapas geográficos a través de Esri ArcGIS Online o bien OpenStreetMap.
    • También puede enlazar puntos de datos en mapas geográficos para seleccionar datos específicos para un análisis más a fondo.
    • El acceso a todos los mapas de base Esri y búsqueda geográfica está disponible a través de Esri ArcGIS Online sin costo adicional.
    • Los polígonos personalizados (por ejemplo, territorios de ventas, distritos de votación, plantas industriales, diagramas de asientos) le permitirán ver el mundo según lo requieran sus necesidades de negocios.
    • La agrupación en clústeres de puntos geográficos facilita visualizar datos de ubicación de alto volumen e identificar áreas de interés. Puede obtener más o menos detalles en diferentes niveles de zoom (acercamiento o alejamiento).
    • El análisis del tiempo de viaje y de la distancia de viaje está disponible a través de una licencia premium de Esri ArcGIS Online (que se compra por separado a Esri).
    • El geo-enriquecimiento le permite visualizar datos demográficos y otros tipos de datos desde Esri (requiere licencia de Esri ArcGIS Online de Esri) en un contexto diferente para revelar nuevos insights.
    • Los mapas de coropletas facilitan visualizar variancias de medición sobre un área geográfica.

    Preparación de datos con autoservicio

    • Importe datos de diversas fuentes – bases de datos, Hadoop, hojas de cálculo de Excel, el portapapeles, medios sociales, etc.
    • Los diagramas de red le permiten ver el linaje.     
    • Use funciones básicas de calidad de datos, incluyendo:
      • Cambiar entre minúsculas y mayúsculas.
      • Convertir, cambiar nombre, eliminar, dividir columnas.
      • Cree columnas y transformaciones calculadas utilizando código personalizado.
    • Nuevos perfiles de tablas y columnas le permiten entender los datos de inmediato.      
    • Prepare datos utilizando funciones de adjuntar, unir, filtrar y transponer.
    • Reutilice, programe y monitoree trabajos.

    Administración y gestión

    • SAS Environment Manager provee una administración y monitoreo centralizados basados en la Web de fácil uso de su entorno de inteligencia de negocios y analítica, incluyendo usuarios, datos, contenido, servidores, servicios y seguridad. 
    • Consolide el gobierno con:
      • Autenticación del usuario y autorización del contenido.
      • Seguridad en el nivel de objetos (carpetas, reportes, etc.) y seguridad de datos (en el nivel de tabla y fila).
      • Recursos de aplicaciones de mapeo de reglas para usuarios y grupos.
    • Intégrelos de forma imperceptible con directorios de identidad corporativa, como LDAP.
    • Determine la autorización para SAS Mobile BI poniendo dispositivos móviles en listas seguras o inseguras.
    • Monitoree la condición del sistema y actividades clave utilizando un tablero de instrumentos casi en tiempo real.
    • Agregue y elimine nodos de procesamiento distribuido. 
    • APIs automatizables por secuencias de comandos le permiten realizar tareas administrativas en lote, incluyendo gestión de la seguridad, librerías, grupos de usuarios y configuraciones.
    • Personalice reportes de monitoreo y desempeño.
    • Realice exploración de registros, programación de trabajos y monitoreo de todo el entorno.

    Motor en memoria de  SAS® Viya®

    • SAS Cloud Analytic Services (CAS) realiza procesamiento en memoria y distribuye el procesamiento en todos los nodos de un clúster.
    • Las solicitudes del usuario (expresadas en un lenguaje procedural) se traducen en acciones con los parámetros que se necesitan procesar en un entorno distribuido. El conjunto de resultados y los mensajes se devuelven al procedimiento para que el usuario realice acciones adicionales en ellos. 
    • Los datos se gestionan en bloques y se pueden cargar en la memoria on demand. 
    • Si las tablas exceden la capacidad de memoria, el servidor aloja los bloques en la caché del disco. Los datos y resultados intermedios se alojan en la memoria mientras se requieran, entre los diferentes trabajos y fronteras del usuario.
    • Incluye comunicación de nodo a nodo altamente eficiente. Un algoritmo determina el número óptimo de nodos de un trabajo dado. 
    • Una capa de comunicación ofrece tolerancia a fallos y le permite eliminar o agregar nodos desde un servidor mientras éste funciona. Todos los componentes pueden ser replicados para lograr una alta disponibilidad.       
    • El motor de SAS Viya admite código SAS heredado e interoperatividad directa con clientes SAS 9.4 M5.        
    • Incluye soporte para la implementación de múltiples usuarios, permitiendo que una pila de software compartida dé soporte a usuarios aislados de manera segura.

    Procedimientos SAS® (PROCs) y acciones CAS

    • Una interfaz de programación (SAS Studio) permite que el equipo de TI o a los programadores acceder a un servidor CAS, cargar y guardar datos directamente desde un servidor CAS, y dar soporte a procesamiento local y remoto en un servidor CAS.
    • Programadores de Python, Java, R o Lua o personal de TI pueden acceder a datos y realizar manipulación básica de datos contra un servidor CAS o bien ejecutar acciones CAS utilizando PROC CAS. 
    • Con APIs REST, usted puede integrar y agregar el poder de SAS a otras aplicaciones.

    Opciones de implementación

    • Implementaciones en sitio:
      • Servidor con una sola máquina para satisfacer las necesidades de organizaciones de pequeñas a medianas.
      • Servidor distribuido para cumplir requisitos de datos, cargas de trabajo y escalabilidad crecientes.
    • Implementaciones en la nube:
      • Alojamiento empresarial.
      • Infraestructura de nube privada o pública (por ejemplo, BYOL en Amazon).
      • Software como servicio (SaaS) gestionado por SAS.
      • Plataforma como servicio (PaaS) Cloud Foundry para dar soporte a múltiples proveedores de la nube.

    Descriptive & predictive modeling

    • Explore and evaluate segments for further analysis using k-means clustering, scatter plots and detailed summary statistics.
    • Use machine learning techniques to build predictive models from a visual or programming interface.

    View more descriptive & predictive modeling features

    Descubrimiento y exploración de datos visuales (disponible a través de SAS® Visual Analytics)

    • Interprete al instante relaciones complejas o variables clave que influencien resultados del proceso de generación de modelos en conjuntos de datos grandes.
    • Filtre observaciones y entienda el nivel de influencia de una variable en el aumento global del modelo. 
    • Detecte valores atípicos y/o puntos de influencia que le ayuden a determinarlos, capturarlos y eliminarlos del análisis posterior (por ejemplo, modelos). 
    • Explore datos utilizando diagramas de barras, histogramas, gráficos de caja, mapas de calor, gráficos de burbuja, mapas geográficos y más. 
    • Derive resultados o segmentaciones predictivos que se puedan utilizar directamente en otras tareas de modelado o visualización. Los resultados se pueden guardar y pasar a aquellos usuarios que no tengan funciones y capacidades de generación de modelos.

    Acceso a técnicas analíticas por medio de una interfaz visual

    • Agrupación en clúster:
      • Agrupación en clúster por medios k, modos k o prototipos k.
      • Gráficos coordenados paralelos para evaluar la membresía de clústeres de forma interactiva.
      • Gráficos de dispersión de entradas con perfiles de clúster superpuestos para conjuntos de datos pequeños y mapas de calor con perfiles de clúster superpuestos para conjuntos de datos grandes.
      • Estadísticas de resumen detalladas (medios de cada clúster, número de observaciones en cada clúster, etc.).
      • Genere el ID de clúster on-demand como una nueva columna.
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos. 
    • Árboles de decisión: 
      • Calcula medidas de importancia variable. 
      • Admite árboles de clasificación y regresión. 
      • Basado en un algoritmo C4.5 modificado o recorte de costo-complejidad. 
      • Crezca y afine el árbol de forma interactiva. Capacite un subárbol de forma interactiva. 
      • Determine la profundidad del árbol, rama máxima, tamaño de la hoja, agresividad de la limpieza del árbol y más. 
      • Use representaciones de mapas de árboles pra navegar de forma interactiva por la estructura del árbol. 
      • Genere ID de hoja, valores anticipados y residuos on-demand como nuevas columnas. 
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos.
      • Permite la sintonía automática.
    • Regresión lineal:
      • Estadísticas de influencia.
      • Permite la selección de variables hacia adelante, hacia atrás, por paso y enlace.
      • Variables de frecuencia y peso.
      • Diagnósticos residuales.
      • La tabla de resumen incluye ANOVA global, dimensiones del modelo, estadísticas de ajuste, ANOVA de modelo, prueba Type III y estimados de parámetros.
      • Genere valores y residuos anticipados on-demand como nuevas columnas.
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos.
    • Regresión logística:
      • Modelos para datos binarios con funciones de enlace logit y probit.
      • Estadísticas de influencia.
      • Permite la selección de variables hacia adelante, hacia atrás, por paso y enlace.
      • Variables de frecuencia y peso.
      • Diagnósticos residuales.
      • La tabla de resumen incluye dimensiones del modelo, historia de iteraciones, estadísticas de ajuste, estado de convergencia, pruebas Type III, estimados de parámetros y perfil de respuesta.
      • Genere etiquetas anticipadas on-demand y probabilidades de eventos anticipadas como nuevas columnas. Ajuste el recorte de la predicción para etiquetar una observación como evento o no evento.
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos.
    • Modelos lineales generalizados:
      • Las distribuciones permitidas incluyen beta, normal, binaria, exponencial, gama, geométrica, Poisson, Tweedie, Gaussiana inversa y binomial negativa.
      • Permite la selección de variables hacia adelante, hacia atrás, por paso y enlace.
      • Soporte a variables de compensación.
      • Variables de frecuencia y peso.
      • Diagnósticos residuales.
      • La tabla de resumen incluye resumen de modelo, historia de iteraciones, estadísticas de ajuste, tabla de pruebas Type III y estimados de parámetros.
      • Opción de faltantes informativa para el tratamiento de valores faltantes en la variable predictora.
      • Genere valores y residuos anticipados on-demand como nuevas columnas.
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos.
    • Modelos aditivos generalizados:
      • Las distribuciones permitidas incluyen normal, binaria, gama, Poisson, Tweedie, Gaussiana inversa y binomial negativa.
      • Permite efectos de ranura en una y dos dimensiones.
      • Métodos GCV, GACV y UBRE para seleccionar los efectos de suavizado.
      • Soporte a variables de compensación.
      • Variables de frecuencia y peso.
      • Diagnósticos residuales.
      • La tabla de resumen incluye resumen de modelo, historia de iteraciones, estadísticas de ajuste y estimados de parámetros.
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos.
    • Regresión logística no paramétrica:
      • Modelos de datos binarios con funciones de enlace logit, probit, log-log y c-log-log.
      • Permite efectos de ranura en una y dos dimensiones.
      • Métodos GCV, GACV y UBRE para seleccionar los efectos de suavizado.
      • Soporte a variables de compensación.
      • Variables de frecuencia y peso.
      • Diagnósticos residuales.
      • La tabla de resumen incluye resumen de modelo, historia de iteraciones, estadísticas de ajuste y estimados de parámetros.
      • Admite datos de oposición (capacitación y validación) para la evaluación de modelos.

    Acceso por programación a técnicas analíticas

    • Los programadores y científicos de datos pueden acceder a SAS Viya (servidor CAS) desde SAS Studio utilizando procedimientos SAS (PROCs) y otras tareas.
    • Los programadores pueden ejecutar acciones CAS utilizando PROC CAS o bien usar diferentes entornos de programación como Python, R, Lua y Java.
    • Asimismo, los usuarios pueden acceder a SAS Viya (servidor CAS) desde sus aplicaciones utilizando APIs REST públicas.
    • Provee integración nativa con Python Pandas DataFrames. Los programadores que usan Python pueden cargar DataFrames a CAS y buscar resultados de CAS como DataFrames para interactuar con otros paquetes Python, como Pandas, matplotlib, Plotly, Bokeh, etc.
    • Incluye software SAS/STAT® y SAS/GRAPH®.
    • Análisis de componentes principales (PCA):
      • Realiza reducción de dimensión calculando componentes principales.
      • Provee la descomposición del valor específico o autovalor, algoritmos NIPALS e ITERGS.
      • Produce calificaciones de componentes principales en todas las observaciones.
      • Crea diagramas y gráficos de perfil de patrón.
    • Árboles de decisión:
      • Admite árboles de clasificación y de regresión.
      • Admite características categóricas y numéricas.
      • Provee criterios para separar nodos con base en medidas de impureza y pruebas estadísticas.
      • Provee los métodos de complejidad de costo y error reducido de la poda de árboles.
      • Permite la partición de datos en roles de capacitación, validación y prueba.
      • Permite el uso de datos de validación para seleccionar el mejor subárbol.
      • Permite el uso de datos de prueba para la evaluación del modelo de árbol final.
      • Provee diversos métodos de manejo de valores faltantes, incluyendo roles sustitutos.
      • Crea diagramas de árbol.
      • Proporciona estadísticas para la evaluación del ajuste del modelo, incluyendo estadísticas basadas en modelos (resustitución) .
      • Calcula medidas de importancia variable.
      • Produce asignaciones de hojas y valores anticipados de observaciones.
    • Agrupación en clúster:
      • Provee el algoritmo de medios k para la agrupación en clúster de variables continuas (de intervalo).
      • Provee el algoritmo de modos k para la agrupación en clúster de variables nominales.
      • Provee diversas medidas de distancia por similitud.
      • Provee el método de criterio de caja alineada para calcular el número de clústeres.
      • Produce membresía de clúster y medidas de distancia entre las observaciones.
    • Regresión lineal:
      • Admite modelos lineales con variables continuas y de clasificación.
      • Permite diversas parametrizaciones para efectos de clasificación.
      • Permite cualquier grado de interacción y efectos guardados.
      • Admite efectos polinómicos y de ranura.
      • Admite métodos de selección hacia adelante, hacia atrás, por paso, de regresión del menor ángulo y lasso.
      • Admite criterios de información y métodos de validación para controlar la selección del modelo.
      • Ofrece una selección de niveles individuales de efectos de clasificación.
      • Preserva la jerarquía entre los efectos.
      • Permite la partición de datos en roles de capacitación, validación y prueba.
      • Provee diversas estadísticas de diagnóstico.
      • Genera código SAS para valuación de la producción.
    • Regresión logística:
      • Admite respuestas binarias y binomiales.
      • Permite diversas parametrizaciones para efectos de clasificación.
      • Permite cualquier grado de interacción y efectos guardados.
      • Admite efectos polinómicos y de ranura.
      • Admite métodos de selección hacia adelante, hasta atrás, hacia atrás rápido y lasso.
      • Admite criterios de información y métodos de validación para controlar la selección del modelo.
      • Ofrece una selección de niveles individuales de efectos de clasificación.
      • Preserva la jerarquía entre los efectos.
      • Permite la partición de datos en roles de capacitación, validación y prueba.
      • Provee diversas estadísticas para la evaluación de modelos.
      • Provee diversos métodos de optimización para la estimación de la máxima probabilidad.
    • Modelos lineales generalizados:
      • Admite respuestas con diversas distribuciones, incluyendo binaria, normal, Poisson y gama.
      • Permite diversas parametrizaciones para efectos de clasificación.
      • Permite cualquier grado de interacción y efectos guardados.
      • Admite efectos polinómicos y de ranura.
      • Admite métodos de selección hacia adelante, hasta atrás, hacia atrás rápido, por paso y lasso en grupo.
      • Admite criterios de información y métodos de validación para controlar la selección del modelo.
      • Ofrece una selección de niveles individuales de efectos de clasificación.
      • Preserva la jerarquía entre los efectos.
      • Permite la partición de datos en roles de capacitación, validación y prueba.
      • Provee diversas estadísticas para la evaluación de modelos.
      • Provee diversos métodos de optimización para la estimación de la máxima probabilidad.
    • Modelos de regresión no lineal:
      • Ajusta modelos de regresión no lineal con distribuciones estándar o generales.
      • Calcula derivadas analíticas de expresiones provistas por el usuario para realizar estimaciones de parámetros más precisas.
      • Evalúa expresiones provistas por el usuario utilizando las instrucciones ESTIMATE y PREDICT (sólo procedimiento).
      • Requiere una tabla de datos que contenga el almacén de elementos CMP si no se utiliza PROC NLMOD.
      • Estima parámetros empleando el método de cuadrados mínimos.
      • Estima parámetros empleando el método de máxima probabilidad.
    • Modelos de regresión porcentuales:
      • Admite la regresión de porcentajes para niveles individuales o múltiples de porcentuales.
      • Permite múltiples parametrizaciones para efectos de clasificación.
      • Permite cualquier grado de interacciones (efectos cruzados) y efectos guardados.
      • Permite una estrategia de selección jerárquica de modelos entre efectos.
      • Provee múltiples métodos de selección de efectos.
      • Provee selección de efectos basada en diversos criterios de selección.
      • Admite reglas de paro y selección.
    • Modelos de cuadrados mínimos parciales predictivos:
      • Provee sintaxis de programación con variables de clasificación, variables continuas, interacciones y anidaciones.
      • Provee sintaxis de construcción de efectos polinómicos y de ranura.
      • Permite la partición de datos en roles de capacitación y prueba.
      • Provee validación del conjunto de pruebas para elegir el número de factores extraídos.
      • Implementa los métodos siguientes: regresión de componentes principales, regresión de rango reducido y regresión parcial de cuadrados mínimos.
    • Modelos aditivos generalizados:
      • Ajusta modelos aditivos generalizados basados en ranuras de regresión de bajo rango.
      • Estima los parámetros de regresión utilizando estimación de probabilidad penalizada.
      • Estima los parámetros de suavizado empleando el método de iteración de desempeño o el método de iteración exterior.
      • Estima los parámetros de regresión empleando técnicas de máxima probabilidad.
      • Prueba la contribución total de cada término de ranura basado en la estadística Wald.
      • Provee sintaxis de construcción de modelos que puede incluir variables de clasificación, variables continuas, interacciones y anidaciones.
      • Le permite construir un término de ranura utilizando múltiples variables.
    • Regresión de peligro proporcional:
      • Ajuste el modelo de regresión de peligros proporcionales a datos de supervivencia y realice la selección de variables.
      • Provee sintaxis de generación de modelos con variables de clasificación, variables continuas, interacciones y anidaciones.
      • Provee sintaxis de construcción de efectos polinómicos y de ranura.
      • Realiza estimación de probabilidad parcial máxima, análisis estratificado y selección de variables.
      • Particiona datos en funciones de capacitación, validación y prueba.
      • Provee análisis ponderado y análisis agrupado.
    • Control de procesos estadísticos: 
      • Realice un análisis de diagrama de control Shewhart.
      • Analice múltiples variables de proceso para identificar procesos que estén fuera del control estadístico. 
      • Ajuste límites de control para compensar tamaños de subgrupos desiguales.
      • Estime límites de control a partir de los datos, calcule límites de control a partir de valores especificados de parámetros de población (estándares conocidos) o bien lea límites de una tabla de datos de entrada.
      • Realice pruebas para causas especiales basadas en patrones de ejecución (reglas de Western Electric).
      • Estime la desviación estándar del proceso empleando diversos métodos (sólo diagramas de variables).
      • Guarde estadísticas de diagramas y límites de control en tablas de datos de salida.

    Estadísticas descriptivas

    • Cuentas diferentes para entender la cardinalidad.
    • Diagramas de caja para evaluar centralidad y dispersión, incluyendo valores atípicos de una o más variables.
    • Correlaciones para medir el coeficiente de correlación de Pearson de un conjunto de variables. Permite análisis agrupado y ponderado.
    • Tabulaciones cruzadas, incluyendo soporte para valores ponderados.
    • Tablas de contingencia, incluyendo medidas de asociaciones.
    • Histogramas con opciones para controlar valores de sectorización, umbrales de valor máximo, valores atípicos y más.
    • Resúmenes multidimensionales en un pase único de los datos.
    • Porcentajes de una o más variables.
    • Estadísticas de resumen, como número de observaciones, número de valores faltantes, suma de valores no faltantes, media, desviación estándar, errores estándar, sumas de cuadrados corregidas y no corregidas, mínimo y máximo, y el coeficiente de variación.
    • Estimados de densidad de kernel utilizando funciones normales, triple cubo y kernel cuadráticas.
    • Construye tablas de frecuencia de un camino a 'n' caminos y de tabulaciones cruzadas.

    Procesamiento por grupo

    • Construya modelos, calcule y procese resultados al instante para cada grupo o segmento sin tener que clasificar o indizar los datos cada vez.
    • Construya modelos basados en segmentos al instante (es decir, modelos estratificados) a partir de un árbol de decisión o análisis de agrupación en clúster.

    Comparación, evaluación y valuación de modelos

    • Genere resúmenes de comparación de modelos, como diagramas de aumento, diagramas ROC, estadísticas de concordancia y tablas de clasificación errónea de uno o más modelos.
    • Deslice de forma interactiva el recorte de la predicción para la actualización automática de estadísticas de evaluación y tablas de clasificación.
    • Evalúe el aumento de forma interactiva en diferentes porcentajes.
    • Exporte modelos cómo código SAS DATA step para integrar modelos con otras aplicaciones. El código de valuación se enlaza de forma automática si un modelo utiliza resultados obtenidos de otros modelos (ID de hoja, ID de clúster, etc.).

    Valuación de modelos

    • Exporte modelos cómo código SAS DATA step para integrar modelos con otras aplicaciones. El código de valuación se enlaza de forma automática si un modelo utiliza resultados obtenidos de otros modelos (ID de hoja, ID de clúster, etc.).

    Motor de tiempo de ejecución en memoria de  SAS® Viya®

    • SAS Cloud Analytic Services (CAS) realiza procesamiento en memoria y distribuye procesamiento a todos los nodos de un clúster.
    • Las solicitudes del usuario (expresadas en un lenguaje procedural) se traducen en acciones con parámetros necesarios para procesarlos en un entorno distribuido. El conjunto de resultados y los mensajes se devuelven al procedimiento para que el usuario ejecute acciones adicionales con ellos.
    • Los datos se gestionan en bloques y se pueden cargar en la memoria bajo demanda. Si las tablas exceden la capacidad de memoria, el servidor aloja los bloques en caché del disco. Los datos y resultados intermedios se alojan en la memoria el tiempo que se requiera, entre diferentes trabajos y fronteras de usuarios.
    • Un algoritmo determina el número óptimo de nodos de un trabajo determinado.
    • Una capa de comunicación permite tolerancia a fallos y le permite eliminar o agregar nodos de un servidor mientras se ejecuta. Todos los componentes de la arquitectura pueden ser replicados para lograr alta disponibilidad. 
    • Se pueden implementar productos en modo multiusuario, permitiendo con ello que una pila de software compartida dé soporte a usuarios aislados de manera segura.

    Opciones de implementación

    • Implementaciones en sitio:
      • Modo de máquina individual para satisfacer las necesidades de organizaciones pequeñas a medianas.
      • Modo distribuido para cumplir requisitos de datos, carga de trabajo y escalabilidad crecientes.
    • Implementaciones en la nube:
      • Alojamiento empresarial.
      • Infraestructura de nube privada o pública (por ejemplo, BYOL en Amazon).
      • Software como servicio (SaaS) gestionado por SAS.
      • Plataforma como servicio (PaaS) Cloud Foundry para dar soporte a múltiples proveedores de la nube. 

    Back to Top