Apache Spark principal plataforma líder en análisis de datos. NVIDIA Jarvis para crear IA conversacional

/COMUNICAE/

NVIDIA acelera Apache Spark, la principal plataforma líder en el de análisis de datos del mundo.Procesamiento de ETL y SQL de alta velocidad para miles de terabytes de datos. NVIDIA Jarvis simplifica la creación de servicios de inteligencia artificial conversacionales de última generación. La nueva aplicación permite la creación de servicios personalizados de inteligencia artificial basados en el lenguaje, desde la atención al cliente hasta realizar transcripciones en tiempo real

Apache Spark principal plataforma líder en análisis de datos
NVIDIA anunció que está colaborando con los líderes de la comunidad de código abierto para incorporar la aceleración por GPU integral a Apache Spark 3.0, un motor de análisis para el procesamiento de big data que utilizan más de 500,000 científicos de datos alrededor de todo el mundo.

Con el lanzamiento anticipado de Spark 3.0 por primera vez, los científicos de datos y los ingenieros de machine learning podrán aplicar una revolucionaria aceleración del GPU a las cargas de trabajo de procesamiento de datos de ETL que se llevan a cabo en las operaciones con bases de datos SQL.

Otro aspecto revolucionario es que la capacitación del modelo de IA podrá procesarse en el mismo clúster de Spark, en lugar de ejecutar las cargas de trabajo como procesos separados en una infraestructura separada. Este avance permite el análisis de datos de alto rendimiento en todo el proceso de la ciencia de datos, para acelerar decenas a miles de terabytes de datos, desde el conjunto de datos hasta el entrenamiento del modelo, sin realizar ningún cambio en el código existente utilizado por las aplicaciones Spark, que se ejecutan en las instalaciones y en la nube.

El avance en el rendimiento en Spark 3.0 mejora la precisión del modelo ya que permite a los científicos entrenar modelos con conjuntos de datos más grandes y repetir los entrenamientos con mayor frecuencia. Esto proporciona nuevas y poderosas capacidades para aquellos que necesitan procesar terabytes de datos nuevos todos los días, como los científicos de datos que respaldan los sistemas de recomendación en línea o analizan nuevos datos de investigación. Además, un procesamiento más rápido significa que se necesitan menos recursos de hardware para entregar resultados, lo que proporciona un ahorro de costos significativo.

Databricks y NVIDIA aportan más velocidad a Spark.
Apache Spark es una creación de los fundadores de Databricks, cuya plataforma de análisis de datos unificada y basada en la nube, se ejecuta en más de un millón de máquinas virtuales cada día. NVIDIA y Databricks también han colaborado para optimizar el conjunto de software RAPIDSTM para Databricks, que ejecuta cargas de trabajo de ciencia de datos y machine learning para la atención de la salud, las finanzas, la venta minorista y muchas otras industrias.

Transferencias de datos y ETL más rápidos en Spark con las GPUs de NVIDIA.
NVIDIA aporta un nuevo acelerador de RAPIDS con código abierto para Apache Spark para ayudar a los científicos de datos a aumentar el rendimiento de sus procesos de forma integral. El acelerador intercepta funciones previamente realizadas por las CPUs y, en su lugar, utiliza las GPUs para hacer lo siguiente:

– Acelerar los procesos de ETL en Spark mejorando drásticamente el rendimiento de las operaciones de Spark SQL y DataFrame sin requerir ningún cambio de código.

– Acelerar la preparación de datos y la capacitación de modelos en el mismo conjunto de infraestructura, donde no se requiere un clúster separado para machine learning y deep learning.

– Acelerar el rendimiento de la transferencia de datos a través de nodos en un clúster distribuido de Spark. Estas bibliotecas aprovechan el marco de trabajo de código abierto UCX (Unified Communication X) y minimizan la latencia, ya que permiten que los datos se muevan directamente entre la memoria de la GPU.

###

NVIDIA Jarvis simplifica la creación de servicios de inteligencia artificial conversacionales de última generación
El día de hoy, NVIDIA anunció hoy el lanzamiento de NVIDIA Jarvis, un marco de aplicación acelerado por GPU que permite a las empresas utilizar datos de video y voz para construir servicios de IA conversacionales de última generación, personalizados para su propia industria, productos y clientes.

El cambio hacia el trabajo desde el hogar, la telemedicina y el aprendizaje remoto han creado un aumento en la demanda de servicios de IA personalizados basados en el lenguaje, que van desde la atención al cliente hasta transcripciones en tiempo real y resumen de videollamadas para mantener a las personas productivas y conectadas.

Entre las primeras compañías en aprovechar los productos y servicios de IA conversacionales basados en Jarvis para sus clientes están Voca, un agente de inteligencia IA automátizadas de voz para la industria financiera y Square, con su asistente virtual para la programación de citas.

Las aplicaciones creadas con Jarvis pueden aprovechar las innovaciones en el nuevo NVIDIA A100 Tensor Core GPU para computación de IA y las últimas optimizaciones en NVIDIA TensorRT ™ para inferencia. Por el primera vez, ahora, es posible ejecutar una aplicación multimodal completa, utilizando la visión más poderosa y modelos de voz, más rápidos que el umbral de 300 milisegundos para interacciones en tiempo real.

Jarvis proporciona una pila completa de software acelerado por GPU y herramientas que facilitan a los desarrolladores crear, implementar y ejecutar aplicaciones de IA de conversación de principio a fín en tiempo real, que puedan entender la terminología exclusiva de cada empresa y de sus clientes.

Primeros adoptantes: Voca, Kensho, Square.

Las empresas de todo el mundo están utilizando la plataforma de conversación de IA de NVIDIA para mejorar sus servicios
Los agentes virtuales de IA de Voca, que usan NVIDIA para realizar compromisos más rápidos, más interactivos y humanos, son utilizados por Toshiba, AT&T y otras compañías líderes mundiales. Voca usa IA para comprender toda la intención de la conversación hablada y el discurso de un cliente. Esto hace posible que los agentes identifiquen automáticamente diferentes tonos y pistas vocales para discernir entre lo que dice un cliente y lo que quiere decir un cliente. Además, utilizando las funciones de escalabilidad integradas en la plataforma de IA de NVIDIA, se puede reducir drásticamente el tiempo de espera de un cliente.

Kensho, el centro de innovación para S&P Global ubicado en Cambridge, Massachusetts, que implementa escalabilidad en los sistemas de análisis y de aprendizaje automátizado, han utilizado la IA conversacional de NVIDIA para desarrollar Scribe, una solución de reconocimiento de voz para la industria financiera y los negocios. Con NVIDIA, Scribe supera a otras soluciones comerciales en llamadas de ganancias y audio financiero similar en términos de precisión por un margen de hasta un 20 por ciento.

Square, una empresa conocida por las terminales de pago, creó un asistente virtual de AI que permite a las empresas usar la IA para confirmar, cancelar o cambiar citas con sus clientes automáticamente, y los libera para realizer mejores relaciones con sus clientes y compromisos más estratégicas.

Fuente Comunicae

Powered by WPeMatico

Automotrices usan robots desarrollados plataforma Isaac y NVIDIA expande Clara para enfrentar al COVID-19

/COMUNICAE/

Las fábricas automotrices incorporan robots de IA desarrollados con la nueva plataforma Isaac de NVIDIA. NVIDIA expande NVIDIA – Clara y agrega socios globales de atención de la salud para hacer frente a la pandemia de COVID-19

El día de hoy, BMW Group anunció que seleccionó la nueva plataforma robótica Isaac de NVIDIA para mejorar sus fábricas automotrices, mediante la utilización de robots de logística desarrollados con avanzadas tecnologías de visualización y computación por IA.

La colaboración se basa en implementar un sistema integral basado en las tecnologías de NVIDIA, desde el entrenamiento hasta las pruebas y la implementación, con robots que se desarrollaron con una sola arquitectura de software, que se ejecutan en Isaac, la plataforma de robótica abierta de NVIDIA. El objetivo de BMW Group es mejorar el flujo logístico de las fábricas para producir automóviles con configuraciones personalizadas de forma más rápida y eficiente. “BMW se compromete con el poder de elección de sus clientes de manera personalizada, dijo Jürgen Maidl, Vicepresidente Senior de Logística para BMW Group.

La colaboración usará los sistemas de IA NVIDIA DGX™ y la tecnología de simulación de Isaac para entrenar y probar los robots; las GPU con ray tracing NVIDIA Quadro® ray-tracing GPUs para renderizar piezas de máquinas sintéticas y así mejorar el entrenamiento, y una nueva línea de robots con IA desarrollados con el software de Isaac, con la tecnología de las computadoras en el extremo NVIDIA Jetson ™y EGX ™.

“En definitiva, todo el volumen de configuraciones posibles se convierte en un desafío para la producción de BMW Group en tres áreas fundamentales: procesamiento, planificación de la logística y análisis de datos”, dijo Maidl

Los robots desarrollados con el SDK Isaac de NVIDIA utilizan varias redes neuronales profundas y potentes para resolver la percepción, segmentación y estimación de poses humanas, para percibir su entorno, detectar y mover objetos, navegar de forma autónoma. Estos robots están entrenados con datos reales y usan las GPUs de NVIDIA para renderizar piezas de máquinas con ray tracing en diferentes condiciones de iluminación y oclusión, a fin de aumentar los datos reales.

NVIDIA expande NVIDIA – Clara y agrega socios globales de atención de la salud para hacer frente a la pandemia de COVID-19
El día de hoy se anuncia una nueva plataforma tecnológica NVIDIA Clara™ healthcare platform, NVIDIA anunció un aumento revolucionario del rendimiento, sociedades clave y nuevas capacidades para ayudar a la comunidad médica a mejorar el desempeño, las pruebas y el tratamiento de COVID-19.

Mediante la combinación de computación acelerada e IA, la plataforma ayuda a los investigadores de atención de la salud, a los proveedores de soluciones tecnológicas y a los hospitales a enfrentar la pandemia más rápido y de formas nuevas:

– Velocidad de secuenciamiento genómico récord, velocidad de La Luz.

– Para la detección de enfermedades, los nuevos modelos de IA para brindarles a los investigadores una herramienta más en la batalla contra el COVID-19, dado que les permite detectar y estudiar los pacientes infectados mediante los datos de tomografías de pecho.

– NVIDIA Clara Guardian para hospitales inteligentes: Los modelos están ya disponibles en la versión mas reciente de Clara Imaging en el centro de software NGC™

“La pandemia de COVID-19 ha potenciado la colaboración con la industria de la atención de la salud, la investigación y la tecnología, a fin de desarrollar nuevas soluciones de procesamiento para acelerar el entendimiento del alcance, la escala y la gravedad de esta enfermedad”, dijo Kimberly Powell, Vicepresidente de Atención de la Salud en NVIDIA.

Los modelos de IA se desarrollaron en el framework de aplicaciones NVIDIA Clara para la generación de imágenes médicas. NVIDIA Clara contiene herramientas de flujos de trabajo para la implementación y entrenamiento de IA específicas para cada dominio, que permiten a NVIDIA y NIH desarrollar los modelos en menos de tres semanas.

NVIDIA Clara Guardian ayuda a los hospitales en el frente de batalla
El nuevo framework de aplicaciones NVIDIA Clara Guardian permite un ecosistema muy necesario de soluciones de IA para la seguridad pública en hospitales y el monitoreo de pacientes, ya que transforma los sensores de uso en sensores inteligentes. Los casos de uso críticos incluyen la detección automatizada de temperatura corporal, la detección de máscaras protectoras, el distanciamiento social seguro y el monitoreo de pacientes de forma remota.

Los socios de negocio de todo el ecosistema usan los modelos entrenados previamente y transfieren aprendizaje para desarrollar e implementar aplicaciones de IA que fusionan el procesamiento de lenguajes naturales, habla y visión. La implementación con la plataforma EGX de IA en el extremo les brinda a los proveedores de soluciones la capacidad de implementar y administrar flotas de dispositivos en todo el entorno hospitalario.

# # #

Contacto de Prensa:

Carlos Valencia.

MKQ.

Cel. 55 39 64 96 00.

cvalencia@mkq.mx

Fuente Comunicae

Powered by WPeMatico

La nueva GPU de NVIDIA Ampere Data Center en plena producción

/COMUNICAE/

La nueva NVIDIA A100 GPU potencia hasta 20 veces la inferencia y entrenamiento de Inteligencia Artificial (IA). La primera GPU elástica y de múltiples instancias de NVIDIA unifica la capacitación, la inferencia y el análisis. Los principales fabricantes de servidores y proveedores de nube del mundo ya la adoptaron

El día de hoy, NVIDIA Enterprise anunció que la primera GPU basada en la arquitectura de Ampere de NVIDIA®: NVIDIA A100, se está fabricando y enviando a los clientes de todo el mundo, después de recibir la mayor cantidad de pedidos previos a un lanzamiento en toda la historia de la compañía.

La A100 se basa en los avances de diseño de la arquitectura NVIDIA Ampere, que ofrece el mayor salto de rendimiento de la compañía hasta la fecha dentro de sus ocho generaciones de GPUs, para unificar el entrenamiento y la inferencia de IA y aumentar el rendimiento hasta 20 veces más que los modelos precedentes. La A100 es un acelerador de carga de trabajo universal, que también está diseñado para el análisis de datos, la computación científica y los gráficos en la nube.

«Las poderosas tendencias de la computación en la nube y la IA están impulsando un cambio tectónico en los diseños de los centros de datos, de modo que lo que una vez fué un mar de servidores solo de CPUs, ahora es la computación acelerada por el GPU», dijo Jensen Huang, fundador y CEO de NVIDIA. «La GPU NVIDIA A100 es un salto cuántico en el rendimiento de IA de 20 veces y un acelerador del aprendizaje automático de principio a fín, desde el análisis de datos hasta la capacitación y la inferencia. Por primera vez, las cargas de trabajo de ampliación y escalabilidad pueden acelerarse en una sola plataforma. NVIDIA A100 aumentará simultáneamente el rendimiento y reducirá el costo de los centros de datos».

Las nuevas tecnologías elásticas de cómputo integradas en A100 permiten aportar la cantidad adecuada de potencia de procesamiento a cada trabajo. La capacidad de GPU de múltiples instancias permite que cada GPU A100 se divida en hasta siete instancias independientes de «mini-GPUs» para realizar tareas de inferencia más pequeñas, mientras que la tecnología de interconexión NVIDIA NVLink® interconnect technology de tercera generación, permite que múltiples GPUs A100 funcionen como una GPU gigante, para cumplir con las tareas de entrenamiento cada vez más grandes.

Adopción inmediata en todo el mundo
Entre las primeras empresas en aprovechar la potencia de las GPUs NVIDIA A100 está Microsoft, que aprovechará el rendimiento y la escalabilidad de A100.

«Microsoft entrenó Turing Natural Language Generation, el modelo de idiomas más grande del mundo, para usar la generación actual de GPUs de NVIDIA» dijo Mikhail Parakhin, corporate vice president, Microsoft Corp. “Azure planea entrenar modelos de IA mucho más grandes utilizando miles de GPUs NVIDIA A100 a escala para impulsar lo último en lenguaje, habla, visión y multimodalidad».

Otros de los primeros adoptadores incluyen laboratorios nacionales y algunas de las instituciones de educación superior e investigación más importantes del mundo, cada una de las cuales usa A100 para potenciar sus supercomputadoras de próxima generación.

Cinco avances de A100
La GPU NVIDIA A100 marca una revolución en el diseño técnico gracias a cinco innovaciones clave:

Arquitectura Ampere: En el corazón de A100 se encuentra la arquitectura de GPU NVIDIA Ampere, que contiene más de 54,000 millones de transistores, lo que la hace el procesador de 7 nanómetros más grande del mundo.

Third-generation Tensor Cores with TF32: Los núcleos Tensor de amplia adopción de NVIDIA ahora son más flexibles, rápidos y fáciles de usar. Sus capacidades expandidas incluyen nuevos TF32 for AI,, que permiten un rendimiento de IA de hasta 20 veces mayor, con precisión FP32, sin cambiar el código. Además, los núcleos Tensor ahora permiten FP64, para lograr hasta 2.5 veces más de procesamiento de datos que la generación anterior, para las aplicaciones de HPC.

GPU de múltiples instancias: MIG, una nueva función técnica, que permite que una sola GPU A100 se particione en hasta siete GPUs por separado, para poder proporcionar diferentes grados de procesamiento para trabajos de diferentes tamaños, lo que permite una utilización óptima y el máximo retorno de la inversión.

Third-generation NVIDIA NVLink ™: Duplica la conectividad de alta velocidad entre las GPUs para proporcionar escalabilidad de rendimiento eficiente en un servidor.

Baja densidad estructural: Esta nueva técnica de eficacia aprovecha la naturaleza ineherentemente escasa de los cálculos de IA para duplicar el rendimiento.

Juntas, estas nuevas características hacen que la NVIDIA A100 sea ideal para cargas de trabajo diversas y exigentes, que incluyen entrenamiento e inferencia de IA, así como simulación científica, IA conversacional, sistemas de recomendación, genómica, análisis de datos de alto rendimiento, modelos sísmicos y pronósticos financieros.

El modelo NVIDIA A100 está disponible en nuevos sistemas, y pronto llegará a la nube
El NVIDIA DGX A100 system, que también se presentó hoy, cuenta con ocho GPU NVIDIA A100 interconectadas con NVIDIA NVLink. Ya está disponible mediante NVIDIA y socios aprobados.

Alibaba Cloud, AWS, Baidu Cloud, Google Cloud, Oracle and Tencent Cloud están planeando ofrecer los servicios basados en la A100.

Además, se lanzará una amplia variedad de servidores con A100 mediante los principales fabricantes de sistemas del mundo, como: , including Atos, Dell Technologies, Fujitsu, GIGABYTE, H3C, HPE, Inspur, Lenovo, Quanta/QCT and Supermicro.

Para ayudar a acelerar el desarrollo de servidores de sus socios, NVIDIA ha creado HGX A100, un componente fundamental de servidores en la forma de bloques de construcción, en la forma de zócalos integrados en múltiples configuraciones de GPUs.

La HGX A100 de cuatro GPUs ofrece una interconexión completa entre las GPUs con NVLink, mientras que la configuración de ocho GPUs ofrece un ancho de banda completo de GPU a GPU, a través de NVIDIA NVSwitch. HGX A100, con la nueva tecnología MIG y su arquitectura de GPU de múltiples instancias, se puede configurar como 56 GPUs pequeñas, cada una más rápida que NVIDIA T4, hasta un servidor gigante de ocho GPUs con 10 petaflops de rendimiento de inteligencia artificial.

Acerca de NVIDIA
La invención de la GPU por parte de NVIDIA en 1999 generó el crecimiento del mercado de juegos para PC, redefinió los gráficos por computación modernos y revolucionó la computación en paralelo. Recientemente, el deep learning de GPU impulsó la inteligencia artificial moderna, la próxima era de la computación, ya que la GPU ocupa el papel del cerebro de las computadoras, los robots y los automóviles de conducción autónoma que pueden percibir y comprender al mundo. Encontrar más información en http://nvidianews.nvidia.com/.

Contacto para medios:
Carlos Valencia.
MKQ.
55 39 64 96 00.
cvalencia@mkq.mx

Fuente Comunicae

Powered by WPeMatico

NVIDIA lanza el sistema de IA más avanzado del mundo, NVIDIA DGX A100, para luchar contra el COVID-19

/COMUNICAE/

La tercera generación de DGX incluye 5 petaflops de rendimiento de IA. El entrenamiento, la inferencia y el análisis de datos se encuentran en la misma plataforma. Cada sistema se puede configurar con una de las 56 GPUs independientes para proporcionar una infraestructura elástica en el data center definido por el software

El día de hoy, NVIDIA presentó NVIDIA DGX™ A100, la tercera generación del más avanzado sistema de IA del mundo, con 5 petaflops de IA de desempeño, que consolida la potencia y las capacidades de todo un data center en una única plataforma flexible.

El primer pedido corresponde al Laboratorio Nacional Argonne del Departamento de Energía de los EE. UU., que usará la potencia de la computación y la IA del clúster para estudiar mejor el COVID-19 y luchar contra esta enfermedad.

«NVIDIA DGX A100 es la herramienta definitiva para la IA», dijo Jensen Huang, fundador y CEO de NVIDIA. «NVIDIA DGX es el primer sistema de IA creado para el flujo de trabajo de Aprendizaje Automatizado de punta a punta, desde análisis de datos hasta la capacitación y la inferencia. Y con el salto de rendimiento gigante de la nueva DGX, los ingenieros de aprendizaje automatizado pueden adelantarse al tamaño exponencialmente creciente de los modelos de datos de la IA».

Los sistemas DGX A100 integran ocho de las nuevas GPU NVIDIA® A100 con núcleos Tensor, que proporcionan 320 GB de memoria para entrenar los conjuntos de datos de IA más grandes y las últimas interconexiones NVIDIA Mellanox® HDR 200 Gbps de alta velocidad.

Las múltiples más pequeñas cargas de trabajo se pueden acelerar al dividir el DGX A100 en hasta 56 instancias por sistema, utilizando la función de multi-instance GPU de A100. La combinación de estas capacidades permite a las empresas optimizar la potencia de cómputo y los recursos bajo demanda para acelerar diversas cargas de trabajo, incluyendo el análisis de datos, el entrenamiento y la inferencia, en una única plataforma integrada y definida por el software.

Inmediata compatibilidad y adopción de DGX A100
Varias de las compañías, proveedores de servicios y agencias gubernamentales más grandes del mundo han realizado pedidos iniciales para el DGX A100. Los primeros sistemas se entregaron a Argonne a principios de este mes. «Se están utilizando las supercomputadoras más potentes de Estados Unidos en la lucha contra COVID-19, ejecutando modelos y simulaciones de inteligencia artificial con la última tecnología disponible, como el NVIDIA DGX A100», dijo Rick Stevens, director de laboratorio asociado para el Procesamiento, Medio Ambiente y Ciencias de la vida en Argonne.

Otros primeros adoptantes fueron:

El Centro de IA Biomédica: en Centro Médico Universitario Hamburg-Eppendorf, de Alemania, que aprovechará DGX A100 para avanzar en la toma de decisiones clínicas y la optimización de procesos.

La Universidad de Chulalongkorn, la principal universidad intensiva en investigación de Tailandia, utilizará DGX A100 para acelerar su investigación pionera, como el procesamiento del lenguaje natural tailandés (TNLP).

Element AI: un desarrollador de Montreal de soluciones y servicios de inteligencia artificial, está implementando DGX A100 para acelerar el rendimiento y la optimización de funciones para que Orkestrator, su programador de GPU, cumpla con las crecientes demandas de aplicaciones y entrenamiento de IA.

La Oficina de Inteligencia Artificial de los EAU, con el nuevo DGX A100 está construyendo una infraestructura nacional para acelerar la investigación, el desarrollo y la adopción de IA en los sectores público y privado.

El Centro de Investigación Alemán para la Inteligencia Artificial (DFKI) utilizará los sistemas DGX A100 para acelerar aún más su investigación sobre nuevos métodos de aprendizaje profundo y su explicabilidad.

NVIDIA desarrolla la DGX SuperPOD de 700 petaflops de próxima generación
NVIDIA también presentó su next-generation DGX SuperPOD, un grupo de 140 sistemas DGX A100 capaces de lograr 700 petaflops de potencia de cómputo de IA. Combinando 140 sistemas DGX A100 con interconexiones Mellanox HDR 200 Gbps InfiniBand, NVIDIA construyó su propia supercomputadora de IA DGX SuperPOD de próxima generación para la investigación interna en áreas como la IA conversacional, la genómica y conducción autónoma.

El clúster es una de las supercomputadoras de IA más rápidas del mundo, ya que logra un nivel de rendimiento que anteriormente requería miles de servidores. La arquitectura y el rendimiento listos para la empresa de DGX A100 permitieron a NVIDIA construir el sistema en un sólo mes, en lugar de tomar meses o años de planificación y adquisición de componentes especializados previamente requeridos para ofrecer estas capacidades de supercomputación.

Programa DGXpert, software DGX-Ready
NVIDIA también lanzó el programa NVIDIA DGXpert, que reúne a los clientes de DGX con los expertos en IA de la compañía, y el programa NVIDIA DGX-Ready Software, que ayuda a los clients que aprovechan el software certificado de nivel empresarial para los flujos de trabajo de IA.

El programa de software NVIDIA DGX-Ready ayuda a los clientes a identificar y aprovechar rápidamente el software MLOps de terceros probado por NVIDIA que puede ayudarlos a aumentar la productividad de la ciencia de datos, acelerar los flujos de trabajo de la IA y mejorar la accesibilidad y la utilización de la infraestructura de IA. Los primeros socios del programa certificados por NVIDIA son Allegro AI, cnvrg.io, Core Scientific, Domino Data Lab, Iguazio y Paperspace.

Especificaciones técnicas de DGX A100
● Ocho GPU NVIDIA A100 con núcleos Tensor, que ofrecen 5 petaflops de potencia de IA, con 320 GB de memoria total de GPU, con 12.4 TB por segundo de ancho de banda.

● Seis NVIDIA NVSwitch ™ de interconexión de fábrica, con tecnología NVIDIA NVLink® de tercera generación para transmitir 4.8 TB por segundo en el ancho de banda bi-direccional.

● Nueve interfaces de red NVIDIA Mellanox ConnectX-6 HDR, que ofrecen un total de 3.6 Tb por segundo de procesamiento en el ancho de banda bi-direccional.

● Los motores de aceleración de red y de procesamiento en red de Mellanox como RDMA, GPUDirect® y el protocolo de agregación y reducción jerárquica escalable (SHARP) ™ para permitir el mayor rendimiento y escalabilidad.

● 15 TB de almacenamiento interno Gen4 NVMe, que es 2 veces más rápido que los SSD Gen3 NVMe.

● Cuenta con la tecnología del conjunto de software NVIDIA DGX, que incluye software optimizado para IA y cargas de trabajo de ciencia de datos, para brindar un rendimiento maximizado, lo que permite a las empresas lograr un retorno más rápido de su inversión en infraestructura de IA.

Un solo rack de cinco sistemas DGX A100 reemplaza un data center de entrenamiento de IA e infraestructura de inferencia, con un vigésimo (1/20) de energía, un cuarto (1/25) del espacio y un décimo (1/10) del costo.

Acerca de NVIDIA
La invención de la GPU por parte de NVIDIA en 1999 generó el crecimiento del mercado de juegos para PC, redefinió los gráficos por computación modernos y revolucionó la computación en paralelo. Recientemente, el deep learning de GPU impulsó la inteligencia artificial moderna, la próxima era de la computación, ya que la GPU ocupa el papel del cerebro de las computadoras, los robots y los automóviles de conducción autónoma que pueden percibir y comprender al mundo. Encontrar más información en http://nvidianews.nvidia.com/.

Fuente Comunicae

Powered by WPeMatico

Más de 300 agencias estatales y federales de EU seleccionan NICE CXone

/COMUNICAE/

NICE expande sus servicios en todo el mundo en respuesta a COVID-19 para satisfacer la creciente demanda de los ciudadanos

NICE www.nice.com (NASDAQ: NICE) líder en soluciones de centros de contacto en la nube, anunció una rápida expansión de sus servicios en más de 300 sectores gubernamentales y sin fines de lucro para respaldar una mayor demanda en tiempos de coronavirus. La plataforma de experiencia en la nube de NICE inContact, CXone, permite a las organizaciones de todos los tamaños hacer una transición rápida de los agentes de sus centros de contacto al trabajo remoto, mover dinámicamente las llamadas entre ubicaciones y manejar volúmenes significativamente más altos de llamadas o interacciones digitales a medida que aumenta la demanda en las áreas afectadas.

Los gobiernos federales, estatales y locales de los Estados Unidos están recurriendo a la plataforma NICE inContact CXone para expandir rápidamente sus necesidades de agentes y su capacidad para satisfacer la creciente demanda de los ciudadanos. Además, muchos clientes nuevos del gobierno están recurriendo a la única plataforma autorizada por FedRAMP de la industria para llevar a sus agentes a casa en 48 horas: el NICE inContact CXone.

En los Estados Unidos, el número total de contactos aumentó de cinco a diez veces en varias divisiones del gobierno estatal en las últimas dos semanas de marzo. No solo las agencias federales y estatales, sino también los servicios 211, 311 así como los servicios de seguridad pública están utilizando CXone para acelerar las operaciones en solo unas pocas horas para servir a millones de ciudadanos y mantener a sus empleados trabajando de manera segura en casa.

Como plataforma principal en la nube para centros de contacto, la plataforma NICE inContact CXone, también disponible en mercados de América Latina, tiene una infraestructura de nube global y geográficamente redundante, con elasticidad integrada para aumentar o disminuir según la demanda. Monitorea y pronostica de manera proactiva la demanda, con reservas para picos de volumen inmediato, capacidad agregar datos y almacenamiento de inmediato. Los clientes pueden contar con una disponibilidad garantizada del 99.99% en la red del operador con centros de datos y puntos de presencia globales (POP), así como también monitorear las operaciones de la red 24/7/365. Los agentes del centro de contacto que usan NICE inContact CXone operan en más de 100 países.

En México, NICE también ofrece NICE inContact CXone a empresas que desean dar el salto en la transformación digital desde enero de este año. Consciente de las necesidades del mercado de Contact Center en tiempos de coronavirus, ofrece al sector CXone @ home, una oferta por tiempo limitado para apoyar a las organizaciones mientras buscan alternativas para contener la propagación de COVID-19. La oferta nativa de la nube permite a las empresas pasar de sus centros de contacto al modelo de oficina en casa en unos pocos días, incluso si aún no utilizan la plataforma CXone.

CXone @ home se ofrece sin compromiso, sin contrato y de forma gratuita durante 45 días. Equipada con la moderna plataforma en la nube CXone, la solución CXone @ home incluye características como DAC / URA y grabación de audio, 99.99% de disponibilidad además del e-learning para la integración de agentes.

Fuente Comunicae

Powered by WPeMatico

Gamelearn lanza Echo y Crypto, sus nuevos videojuegos sobre coaching y ciberseguridad

/COMUNICAE/

En un momento en que la capacitación online adquiere más relevancia que nunca, Gamelearn hace crecer su catálogo de ‘juegos serios’ para dotar a los profesionales de más herramientas que faciliten su desempeño actual y en el futuro, tras la crisis originada por el COVID-19

“Las temáticas de ambos títulos responden a las necesidades del mercado y de nuestros propios clientes. Una vez más, les escuchamos atentamente y buscamos dar solución a sus demandas formativas”, comenta Ibrahim Jabary, fundador de Gamelearn.

El líder como coach
Las técnicas de coaching aplicadas al entorno de la empresa son cada vez más solicitadas y en muchas compañías ya forman parte de los planes de capacitación de los mandos intermedios. El serious game Echo pretende contribuir a este impulso de los líderes de equipo desde el e-learning. Gracias a su simulador y a la interesante trama del videojuego, las sesiones de coaching virtuales se enmarcan en un contexto real que favorece la retención de lo aprendido por el jugador.

Hernán Luna, gerente de Capacitación y Desarrollo de GNP Seguros en México y coach certificado, tras probar Echo ha afirmado que se trata de “un simulador único en el mundo del coaching”. De alguna manera, Echo se convierte en el aliado perfecto para desarrollar las habilidades de un buen coach vía online, con una implicación por parte del alumno que nada tiene que envidiar a la de una sesión presencial.

Mantener la seguridad de los datos, la gran preocupación
A los riesgos habituales que cualquier organización puede encontrar en su seguridad informática, se suman ahora los derivados de un uso masivo del teletrabajo. En este contexto, la capacitación en ciberseguridad cobra especial relevancia. Crypto presenta en forma de videojuego los conocimientos básicos que cualquier usuario de dispositivos informáticos debería poseer para mantener la seguridad mínima esperada por cualquier empresa.

De nuevo, la trama del juego y su calidad gráfica es la que asegura que los contenidos se asimilan con éxito. El jugador se convierte en un analista de seguridad infiltrado en una compañía de biotecnología para cumplir una misión: detectar sus agujeros de seguridad informática. El juego consigue así concienciar y sensibilizar al usuario sobre los errores comunes y las malas prácticas cometidas con frecuencia, tanto a nivel personal como corporativo.

Sobre Gamelearn
Gamelearn es la compañía líder mundial en formación con videojuegos y gamificación para corporaciones e instituciones. La empresa, fundada por Ibrahim Jabary, Mai Apraiz y Eduardo Monfort, ha revolucionado el sector de la formación para empresas y la comunicación interna gracias a su plataforma de game-based learning, la más premiada de todo el mundo. A través de ella, las empresas pueden lanzar proyectos para comunicar, formar, sensibilizar y desarrollar a empleados, distribuidores, partners y colaboradores. En la actualidad, Gamelearn cuenta con más de 2.500 clientes corporativos de todos los sectores en más de 50 países.

Contacto: comunicacion@game-learn.com

Website: www.game-learn.com

*Conocer más sobre sus dos nuevos lanzamientos Echo y Crypto.

Vídeos
Echo – Juego sobre Coaching

Fuente Comunicae

Powered by WPeMatico

Telcel ofrece la mejor experiencia de usuario en redes celulares con las velocidades de descarga más rápidas de México

/COMUNICAE/

Según el último reporte de Tutela presentado hoy sobre el Estado del Celular en México 2020, Telcel ofreció la mejor experiencia celular a sus clientes*

De acuerdo con el informe, Telcel ofreció a sus usuarios los mejores datos de Calidad Excelente y Consistencia en el país. El 70,5% de las pruebas realizadas cumplieron con los umbrales de «Excelente» que Tutela utiliza para representar a los casos de uso de mayor intensidad, incluyendo streaming de video 1080p, video llamadas de alta definición o juegos móviles. Telcel también fue el único operador que alcanzó el umbral del 90% necesario para obtener el “Core Consistent Quality”, “Calidad Básica Consistente”, además de proporcionar las cargas y descargas más rápidas de México.

Tutela analizó más de 6.000 millones de registros en Áreas de Cobertura Común en todo México, incluyendo más de 39 millones de pruebas de velocidad y 676 millones de pruebas de latencia, recogidas entre el 1 de septiembre de 2019 y el 29 de febrero de 2020.

Los principales resultados de este reporte son:

– Telcel dominó a los otros operadores en cuatro de los cinco parámetros analizados, perdiendo por poco frente a AT&T, que es quien demostró ofrecer la mejor latencia en México según el estudio

– Telcel obtuvo un 70,5% en porcentaje de Calidad Consistente Excelente, el más alto del país y fue el único operador que alcanzó el umbral del 90% de Calidad Consistente Principal con un 92.9%.

– Aunque Movistar de Telefónica no ha conseguido ganar en ningún apartado, ha sido un gran rival ejerciendo una fuerte competencia para Telcel en el parámetro de Core Consistent Quality, con una diferencia de sólo 4,1%, así como en el de velocidad de descarga con una diferencia de 4,2 Mbps

Leandro Demarchi, Director de Ventas de Tutela en LATAM y Europa del Sur, señala: «En México todos los operadores muestran excelentes resultados, incluyendo a Movistar y AT&T, pero según nuestro estudio, Telcel dominó en 4 de las 5 categorías probadas. Esperamos que todos los operadores de telefonía que ofrecen sus productos y servicios en México utilicen la nueva tecnología e infraestructura como 5G para dar el mejor rendimiento posible a los suscriptores de todo el país».

Para más información, el informe completo está disponible aquí

*Tutela mide la calidad de la red basándose en la experiencia real de los abonados a la red, incluidas las ocasiones en las que una red o un plan pueden estar atascados o congestionados, o cuando un abonado se encuentra en itinerancia en la red de otro operador. Por ello, este informe es representativo de la experiencia móvil de una variedad de usuarios del mundo real ofrecida por cada proveedor de red, y no del mejor rendimiento de la propia red.

Fuente Comunicae

Powered by WPeMatico

NVIDIA concluye la adquisición de Mellanox creando un impulso a los centros de datos de próxima generación

/COMUNICAE/

La nueva compañía combinada proporciona el liderazgo en el conocimiento tecnológico de redes para Computación de Alto Rendimiento (HPC)

NVIDIA anunció hoy la finalización de su adquisición de Mellanox Technologies, Ltd., por un valor de transacción de $ 7 mil millones de dólares americanos.

La adquisición, anunciada inicialmente el 11 de marzo de 2019, une a dos de las compañías líderes mundiales en Cómputo de Alto Rendimiento (HPC) y Centros de Datos. Combinando la experiencia informática líder de NVIDIA con la tecnología de red de alto rendimiento de Mellanox, la medida permitirá a los clientes lograr un mayor rendimiento, una mayor utilización de los recursos informáticos y menores costos operativos.

«El uso en plena expansión de la Inteligencia Artificial y de la Ciencia de Datos está remodelando las arquitecturas de los Centros de Datos y de la Informática», dijo Jensen Huang, fundador y CEO de NVIDIA. «Con Mellanox, la nueva NVIDIA cuenta con tecnologías de principio a fin, desde computación con inteligencia artificial hasta redes, ofertas completas e integrales, desde procesadores hasta software y una escala significativa para avanzar en los centros de datos de la próxima generación. La experiencia combinada, respaldada por un rico ecosistema de socios de negocios, enfrentará el desafío de la creciente demanda global de servicios de Internet para el consumidor, y la aplicación de inteligencia artificial y ciencia de datos acelerada desde la nube hasta la robótica».

Eyal Waldman, fundador y CEO de Mellanox, dijo: «Esta es una fusión poderosa y complementaria de culturas organizacionales, tecnologías y ambiciones. Los empleados está muy entusiasmados con las nuevas oportunidades que del nuevo portafolios. A medida que Mellanox avanza a la próxima y emocionante fase de su experiencia corporativa, continuará ofreciendo soluciones de vanguardia y productos innovadores a sus clientes y socios de negocios. Espera traer productos y soluciones de NVIDIA a sus mercados, y traer productos y soluciones de Mellanox a los mercados de NVIDIA. Juntas, ambas tecnologías proporcionarán soluciones líderes en plataformas de cómputo y almacenamiento donde se requieran».

Se espera que la adquisición sea inmediata para el margen bruto no GAAP de NVIDIA, EPS no GAAP y con flujo de caja libre, incluidos los gastos de intereses incrementados relacionados con la reciente emisión de bonos de $ 5 mil millones de dólares de NVIDIA.

Para los accionistas de Mellanox
Para obtener más información sobre cómo obtener pagos y consideraciones impositivas importantes, los accionistas de Mellanox deben consultar las preguntas frecuentes en: NVIDIA’s investor relations website.

Acerca de NVIDIA
NVIDIA (NASDAQ: NVDA) La invención de la GPU por NVIDIA en 1999 provocó el crecimiento del mercado de juegos de PC, redefinió los gráficos modernos de la computadora y revolucionó la computación paralela. Más recientemente, el aprendizaje profundo de GPU encendió la inteligencia artificial moderna, la próxima era de la informática, con la GPU actuando como el cerebro de las computadoras, los robots y los automóviles autónomos que pueden percibir y comprender el mundo. Mas información en: http://nvidianews.nvidia.com/.

Contacto de Prensa:
Carlos Valencia
cvalencia@marketingq.com.mx

Fuente Comunicae

Powered by WPeMatico

NICE lanza WEM@home para ayudar a las organizaciones a mantener los niveles de servicio

/COMUNICAE/

Los supervisores que enfrentan el nuevo desafío de administrar cientos o miles de empleados, que ahora trabajan de manera remota, están equipados para mantener el compromiso del equipo y los KPIs en menos de 48 horas

NICE www.nice.com (NASDAQ: NICE) anunció hoy WEM@home, una nueva solución que brinda capacidades avanzadas de administración remota a las organizaciones a nivel mundial para mantener la productividad y los niveles de servicio.

Las empresas han cambiado a un entorno de trabajo desde el hogar, ahora requieren herramientas para administrar sus fuerzas de trabajo remotas e impulsar los comportamientos correctos, al mismo tiempo deben asegurar y mantener la satisfacción del cliente. Las empresas están experimentando picos sin precedentes en los volúmenes de interacción y están informando una creciente necesidad de responder a través de canales digitales. WEM@home ayuda a los supervisores a obtener el control y enfocar a los empleados en cambiar las prioridades de los clientes.

WEM@home se ofrece sin compromiso de contrato completo tanto para los clientes nuevos como para los ya existentes, esta herramienta de NICE ayuda a los centros de contacto en estos momentos de incertidumbre a responder y respaldar el aumento de tráfico. Las organizaciones pueden tener WEM@

La solución WEM @ home incluye:

– Paquete de visibilidad: captura datos y genera información sobre el comportamiento de los empleados en el escritorio. Una gran reserva de datos ricos y significativos, el escritorio tiene el potencial de generar información y medidas en torno a los puntajes de productividad de los empleados, las brechas de conocimiento e identificar procesos ineficientes tanto para los empleados de front-office como de back-office.

– Paquete de rendimiento: permite supervisar el comportamiento de los empleados y los clientes utilizando reportes avanzados e inteligencia artificial para proporcionar un análisis e ideas de opinión. Esto permite una mejor comprensión del pensamiento de los empleados e identificar cambios en su comportamiento a medida que interactúan con los clientes.

– Paquete de compromiso: proporciona a los empleados una forma estructurada para ofrecer aportes sobre su trabajo y establecer así, los parámetros de los posibles obstáculos que les impiden completar sus tareas con éxito utilizando encuestas previamente definidas. Este paquete viene con un informe personalizado del compromiso de los empleados de WEM@home, así como un informe de referencia de la industria.

Con el aumento de los entornos de trabajo remotos, las organizaciones se están dando cuenta rápidamente de la necesidad de capacidades de supervisión remota, dijo Barry Cooper, presidente de NICE Enterprise Group. Los supervisores que alguna vez caminaron por el piso del call center resolviendo las necesidades de los operadores de manera presencial, ahora pueden hacerlo de forma remota con WEM@home. Los supervisores pueden recuperar rápidamente el control de una manera sin precedentes, comprender mejor a los empleados y responder a las cambiantes necesidades de los clientes.

Fuente Comunicae

Powered by WPeMatico

NVIDIA amplía el acceso gratuito al software de virtualización de GPU para trabajar de manera remota

/COMUNICAE/

Las licencias de software vGPU están disponibles sin costo durante 90 días, con el objetivo de brindar seguridad y rendimiento esenciales para los trabajadores remotos

En tiempos difíciles, la fuerza proviene de trabajar juntos. Debido a que muchas empresas necesitan brindar su apoyo rápidamente a sus empleados que ahora trabajan de forma remota, NVIDIA está ampliando la evaluación gratuita del software de GPU virtual desde 30 a 90 días y de 128 a 500 licencias concurrentes.

«Con las licencias de software de vGPU, las empresas pueden utilizar sus GPU NVIDIA de sus instalaciones para proporcionar una infraestructura virtual acelerada y permitir que los empleados puedan trabajar y colaborar desde cualquier lugar. Las empresas también pueden readaptar temporalmente las GPU NVIDIA que se utilizan en otros proyectos para dar soporte a sus trabajadores remotos», mencionó Marcio Gomes de Aguiar, Gerente Senior de NVIDIA Enterprise para LATAM.

Todas las organizaciones están trabajando muy duro para abordar estas necesidades. Los proveedores de atención médica están brindando cuidados médicos desde nuevas ubicaciones. Las escuelas están ampliando sus aulas virtuales. Las oficinas gubernamentales están coordinando servicios esenciales de forma remota.

Ya sea mediante soporte a financieros que trabajan con datos en múltiples pantallas, científicos que realizan investigaciones o diseñadores que trabajan en aplicaciones con uso intensivo de gráficos, las empresas se enfrentan a diferentes requerimientos.

NVIDIA ofrece una variedad de software vGPU personalizado para satisfacer diversas necesidades. Los tres niveles del software vGPU especializado de NVIDIA están disponibles a través de la licencia gratuita ampliada:

El software NVIDIA GRID ofrece VDI con capacidad de respuesta mediante la virtualización de sistemas y aplicaciones para los empleados del conocimiento.

El software NVIDIA Quadro Virtual Data Center Workstation proporciona rendimiento de clase por cada estación de trabajo para los creadores que utilizan aplicaciones de gráficos de alta gama.

El software NVIDIA Virtual Compute Server acelera la virtualización de servidores con GPU para potenciar los flujos de trabajo de uso altamente intensivo de recursos informáticos, como la Artificial Inteligence (IA), el Deep Learning (DL) y Data Science (DC), en una máquina virtual.

Rendimiento virtualizado, seguridad empresarial y amplio soporte de ecosistemas
Además de dar un alto rendimiento y reducir la latencia para los trabajadores remotos, el software NVIDIA vGPU garantiza la protección de los activos digitales y los datos confidenciales, que permanecen en el centro de datos y no se guardan en los dispositivos locales del cliente. Este es un requisito de seguridad importante para el trabajo remoto en muchas industrias, incluidas las de efectos visuales y diseño y de I+D.

El software NVIDIA vGPU está certificado en un amplio ecosistema de hipervisores, plataformas, aplicaciones de usuario y software de gestión con el objetivo de ayudar a los equipos de TI a ampliar rápidamente el soporte para los empleados que trabajan de manera remota.

Las empresas pueden implementar computadoras, VDI y estaciones de trabajo virtuales desde sus centros de datos locales al instalar las licencias de software vGPU en todas las GPU NVIDIA con base en las arquitecturas Pascal, Volta y Turing, incluidas las GPU NVIDIA, Quadro RTX 6000 y RTX 8000, NVIDIA M10 y M60.

Si se requiere una evaluación digitar aquí: Evaluación de GPU virtual:

A los investigadores genómicos que estudian el virus COVID-19, NVIDIA también les proporciona acceso gratuito al software Parabricks durante 90 días. Para obtener más información, consultar la publicación en Parabricks.

Acerca de NVIDIA
La invención de la GPU de NVIDIA (NASDAQ: NVDA) en 1999, provocó el crecimiento del mercado de juegos de PC, redefinió los gráficos modernos y revolucionó la computación paralela. Más recientemente, el aprendizaje profundo de GPU encendió la Inteligencia Artificial moderna, la próxima era de computo con la GPU, actuando como el cerebro de las computadoras, los robots y los automóviles autónomos que pueden percibir y comprender el mundo. Más información en http://nvidianews.nvidia.com/.

Fuente Comunicae

Powered by WPeMatico