El Centro de Investigación en Tecnología Avanzada, A. C. (CIATEQ) elige a NVIDIA con la adquisición de DGX1

/COMUNICAE/

El DGX-1 se usa en la generación de un software para Reconocimiento de Rostros y la Capacitación de Personal de Alto Nivel en el uso de Tecnologías Disruptivas

El Centro de Investigación en Tecnología Avanzada, A.C. (CIATEQ) adquirió el NVIDIA DGX-1 para el uso de tecnologías nuevas y disruptivas para la Industria 4.0 y la Capacitación de Recursos Humanos de alto nivel en el aprendizaje y uso práctico de dichas tecnologías.

Perfil de cliente:

Nombre de la Institución: CIATEQ, A.C., organismo del Sector Público dependiente del CONACYT.

Industria: Materiales, Manufactura Avanzada (4.0) y Procesos Industriales.

Ubicación: Corporativo Queretaro, Ciudad de Querétaro, Qro.

Fundada en: 1978, en Queretaro, Qro.

Presencia en: 7 Estados de la República Mexicana.

Tamaño de la Compañía u Organización: 500 empleados.

Nombre del Cliente: Dr. Oscar Hernández Uribe.

Puesto del Cliente: Director de Tecnologías de Información, Electrónicas y de Comunicaciones.

Sitio Web: www.ciateq.mx

Áreas de especialidad del CIATEQ:

· Ingeniería virtual y manufactura.

· Ingeniería de plantas y construcción.

· Plásticos y materiales avanzados.

· Sistemas de medición.

· Sistemas mecánicos.

· Tecnologías de Información, Electrónica y Control Industrial.

El Centro de Investigación en Tecnología Avanzada, A.C. (CIATEQ) pertenece al Consejo Nacional de Ciencia y Tecnología, (CONACYT), tiene 40 años de existencia. Han desarrollado más de 5,000 Proyectos de Investigación, tienen más de 5,000 clientes en toda la República Mexicana; han realizado más de 51,000 Servicios Tecnológicos en México y tienen más de 500 personas colaborando con la industria en proyectos tecnológicos. Tiene más de 100,00 metros cuadrados de construcción en infraestructura, distribuídos en 7 Estados de la República: Estado de México, Querétaro, Jalisco, Hidalgo, San Luis Potosí, Aguascalientes y Tabasco; y dependiendo de la vocación industrial de cada Estado, son las industrias en las que va creciendo y se va especializando el Centro. Cuenta con un Programa de Repatriación de Doctorados (PhD) para traerlos a trabajar a los Centros de Investigación del CONACYT, que son alrededor de 27 centros. La Misión del Centro es doble: por un lado apoyar al Desarrollo Tecnológico de la Industria Nacional y por el otro apoyar la Formación de Personal de Alto Nivel capacitandolo en el uso de Nuevas Tecnologías.

Dr. Oscar Hernández Uribe es el líder de Investigación, Desarrollo e Innovación (I + D + I) y tiene el liderazgo tanto del desarrollo de Proyectos de Investigación como de la Capacitación de Recursos Humanos de alto nivel, es decir, Doctorantes y estudiantes de Maestría. Dentro del área de Formación de Recursos Humanos de Alto Nivel, él es parte de la Plantilla de Profesores de Post-Grado, y les imparte la Materia de Algoritmos de Aprendizaje Automático y Algoritmos de Aprendizaje Profundo (Deep Learning). Actualmente está dirigiendo Tesis de Docotorado y de Maestría en esas áreas.

Cuando él empezó a trabajar en el CIATEQ en 2013, como parte del Programa de Repatriación de Doctorados (PhD), comenzó a trabajar en un par de proyectos para los que requirió comprar una par de Tarjetas de NVIDIA: Quadro K5200 y GeForce GTX 1080, ambas de última generación de aquélla época, es decir, que durante un par de años y haciendo uso de Caffe, Torch y PyTorch, les permitieron adentrarse en las áreas de Aprendizaje Profundo (DL) e incursionar en el Aprendizaje Automátizado (AL), para desarrollar proyectos de Realidad Virtual y Realidad Aumentada.

La adquisición del DGX-1 de NVIDIA se eligió como una herramienta óptima para acelerar el procesamiento de datos y el acceso a los resultados, haciendo uso principalmente de TensorFlow y Keras, así como experimentar con otros contenedores como Rapids. Lo anterior se hizo para acelerar la innovación entre sus clientes y asociados, y para acelerar la innovación y la capacitación de recursos humanos en el uso de alta tecnología.

Ellos ya cuentan con una infraestructura suficiente para poder probar con mayor precisión procesos industriales, diseños y herramientas, antes de ser implementados o construidos en el Centro, ésto quiere decir que en adición a la DGX-1 y varios equipos con Gráficas de NVIDIA, tiene un Sistema de Captura de Movimiento, con una serie de cascos de realidad virtual y realidad aumentada, que les permite tener las especificaciones de una nueva herramienta por parte del cliente, y les facilita a ellos realizar algunos diseños de acuerdo a esas especificaciones, de tal forma que ellos lo puedan probar en realidad virtual, y verificar si está conforme a sus requerimientos industriales.

De igual manera también cuentan con herramientas de simulación, principalmente de eventos discretos, de forma tal que se puede hacer el Lay Out de una empresa, tomando en cuenta todas las restricciones, desde que entra la materia prima hasta que sale el producto final, de forma tal que el cliente puede medir el impacto de la herramienta sobre sus procesos productivos a través de la realidad virtual.

“La idea es fortalecer a México con tecnología e innovación y continuar con la formación de recursos humanos de alto nivel, así como atender las especialidades tecnológicas y generar conocimiento científico a través de la investigación aplicada. Así se empuja a los clientes a romper con la forma tradicional de trabajo, demostrando que se tienen las capacidades para probar con mayor precisión equipos, diseños de máquinas y herramientas, procesos, etc., antes de ser construidos o implementados”, dijo el Dr. Hernández.

“En el 2013 el CIATEQ ya estaba incursionando en el Deep Learning y en el Machine Learning, que es cuando me incorporo al Centro y es cuando se propone la adquisición de las dos trajetas mencionadas (NVIDIA Quadro K5200 y GeForce GTX 1080) para configurarlas como una Workstation para los frameworks de Deep Learning y Machine Learning, todo éso fué manual. Ahí fué donde se detectó la necesidad de adquirir un equipo más potente. Entre algunas de las opciones que se consultaron, se cae en cuenta que NVIDIA DGX-1 se podía configurar para tener hasta 8 tarjetas. Con el DGX-1 se hicieron las pruebas simultáneas para ajustar los pesos y poder obtener la aplicación final, de tal forma que lo que antes se hacía en tres o cuatro meses ahora se hace en una o dos semanas, es decir ahora se hacen más pruebas con mejores reultados”, dijo el Dr. Hernández.

La configuración de las 8 tarjetas de cómputo dentro de la DGX-1 les dio una potencia de cómputo que les permitió acceder a los resultados de Reconocimiento de Rostros de una forma más rápida. Además de haber podido consolidar su Aplicación de Identificación de Rostros de una manera más rápida y con mayor cobertura, por lo que también pueden poner a disposición de sus estudiantes de Post-Grado (Maestrías y Doctorados), esta herramienta para una mejor y mayor capacitación de personal de alto nivel, para que ellos puedan consolidar los conocimientos teóricos a nivel práctico; que es el otro de los objetivos del Centro. Actualmente la DGX-1 está repartiendo su uso entre proyectos de investigación y la capacitación de recursos de alto nivel. El DGX-1 les va apermitir desarrollar proyecto de investigación de un nivel muy superior al que estaban desarrollando anteriormente.

Fuente Comunicae

Powered by WPeMatico

Datalogic invierte en AWM Smart Shelf, una compañía de inteligencia artificial y visión por ordenador

/COMUNICAE/

La era de la automatización y tecnología de tiendas inteligentes está aquí

Datalogic, líder mundial en los mercados de captura automática de datos y automatización de procesos, anuncia su inversión en AWM Smart Shelf, una compañía de inteligencia artificial y visión por ordenador con sede en California

AWM ofrece una solución integral para el mundo retail, tanto de alimentación como de no alimentación, que incluye pago autónomo/sin caja (AWM Frictionless ™), Inteligencia de inventario automatizada (Aii®), demografía del consumidor y seguimiento del comportamiento del consumidor, así como Retail Analytics Engine (RAE), un paquete completo de software para análisis e informes en la tienda.

Dado que Datalogic es un jugador dominante en el mercado retail, esta inversión tiene como objetivo mantenerse al día con las tendencias emergentes en los campos mencionados anteriormente. Más específicamente, la atención se centra en las soluciones de inventario automatizado y las compras Frictionless Shopping, dos fronteras cada vez más relevantes para aumentar la eficiencia de los retailers, por un lado, y mejorar la experiencia del cliente, por el otro.

“Estamos muy contentos con esta business venture, especialmente en un momento en que los nuevos desafíos del escenario global eventual están impulsando cambios radicales en las actividades del entorno retail. Desde nuestro nacimiento, hemos estado a la vanguardia en las soluciones innovadoras en el comercio retail para tiendas de alimentación y no alimentación, siendo los primeros en presentar el primer escáner minorista para el pago de la historia. La inversión aporta un valor añadido a la búsqueda continua de innovación impulsada por los clientes que han distinguido nuestra oferta de productos de alta tecnología desde el nacimiento de Datalogic hace 48 años”, declara Valentina Volta, CEO del Grupo Datalogic.

«En AWM creemos que todas las organizaciones empresariales y gubernamentales debería centrar su atención en la automatización de procesos mediante el uso de la visión por ordenador, la inteligencia artificial y el aprendizaje automático. Estamos implementando entornos totalmente autónomos para el comercio minorista, los gobiernos, la educación, la atención médica y la fabricación», afirma Kevin Howard, CEO de AWM. «Visualizamos un mundo donde el acceso y la interacción son verdaderamente fluidos en todo el mundo. Asociarse con empresas como Datalogic fomenta nuestra visión y alcance a nivel global «.

«AWM está dirigido por un equipo altamente cualificado que ha desarrollado un conjunto de software exclusivo y patentado para abordar la creciente necesidad de los clientes de soluciones sin contacto y análisis en la tienda», declara Nicola Tedesco, Jefe de M&A y Desarrollo de Negocio en Datalogic.

AWM Smart Shelf ofrece soluciones de vanguardia para mejorar y agilizar la experiencia del retailer, como su herramienta de colocación de planogramas a nivel de SKU, Product Mapper, Retail Analytics Engine y pantallas LED dinámicas colocadas al borde de la estantería para promociones personalizadas, anuncios y etiquetas de precios digitales.

Datalogic Group
El Grupo es líder global en el Mercado de la captura automática de datos y automatización de procesos desde 1972. Las soluciones de Datalogic ayudan a aumentar la eficacia y calidad de los procesos de la industria Retail, Empresas Fabricantes, Transporte & Logística y Sanidad, a lo largo de toda la cadena de valor.

Datalogic S.p.A. cotiza en el segmento STAR de la Bolsa de Valores de Italia desde 2001 como DAL.MI

Datalogic y el logo Datalogic son marcas registradas de Datalogic S.p.A en multitud de países de Estados Unidos y Unión Europea.

Para más información visitar www.datalogic.com.

AWM Smart Shelf
AWM (Adroit Worldwide Media, Inc.) es una compañía de tecnología de visión con una solución integral para el entorno retail. Las tecnologías subyacentes se construyen utilizando inteligencia artificial, visión por ordenador, aprendizaje automático e ingeniería de aplicaciones para reinventar el espacio comercial como se conoce hoy en día. El ecosistema de soluciones mejora la eficiencia operativa, aumenta las ventas, proporciona nuevas fuentes de ingresos publicitarios en la tienda, reduce el desperdicio y más.

AWM fue nombrada recientemente por OCTANE como la Outstanding Small Technology Company de 2019 y fue reconocida por Gartner como un proveedor minorista transformador.

www.smartshelf.com

Fuente Comunicae

Powered by WPeMatico

Red satelital para servicios de emergencia en zonas remotas ante la Fase 3 de una pandemia: Globalstar

/COMUNICAE/

Una línea confiable de comunicación es esencial entre funcionarios de seguridad y la base de operaciones en medio de una pandemia. Los servicios de red satelital aseguran la conectividad continua de mensajería y datos a través de una red clara y segura

Ante la fase 3 de la pandemia de Covid-19 en México, las autoridades han activado los protocolos de seguridad y salud para mitigar los efectos de esta etapa que se caracteriza por el rápido ascenso en el número de contagios diarios y de máxima transmisión. Esta situación de crisis humanitaria requiere la coordinación de múltiples departamentos y autoridades para desarrollar y aplicar las medidas de protección. Para alcanzar este nivel de organización, la conectividad es esencial para el funcionamiento de las estrategias dictadas por las instituciones internacionales y así hacer frente a la pandemia.

Personal médico y de seguridad tiene que trasladarse continuamente para aplicar los protocolos de seguridad ante la crisis de emergencia actual a zonas de difícil acceso dentro del territorio mexicano. Ellos necesitan de equipo especializado que permita la comunicación total en sus operaciones y que salvaguarde su seguridad, una conexión confiable con los funcionarios y la base de operaciones es absolutamente esencial.

Los servicios de red satelital son una alternativa que asegura la comunicación confiable de mensajería y datos a través de una red excepcionalmente clara, segura y que conecta dispositivos en ubicaciones más allá de la cobertura celular. Las redes de satélite se construyen independientemente de la infraestructura local y, como resultado, suelen ser las únicas redes de comunicaciones confiables y operables disponibles.

“Hoy más que nunca, las organizaciones necesitan tecnología que permita agilizar las operaciones conectando personas a través de sus dispositivos desde cualquier lugar, y que proporcione seguridad personal y continua comunicación. Globalstar entiende lo importante que es atender esta necesidad en nuestros días y por ello se necesitan soluciones que resguarden la vida de las personas” explica Javier Pinilla, Director Comercial.

La importancia de las empresas en telecomunicaciones, se ha convertido en extremo necesario, por ejemplo; Globalstar ofrece servicios y equipos que utilizan tecnología satelital sin la necesidad de acceso a redes celulares. Esto garantiza el acceso a redes de comunicaciones operativas con los equipos en campo y las bases de operaciones en todo momento. Los satélites de esta compañía proporcionan operabilidad en todo el mundo conectando a los usuarios en áreas donde las redes tradicionales no son confiables o no están disponibles. Ante una situación de emergencia, la tecnología de sus equipos de la línea SPOT brinda un servicio confiable y asequible basado en rastreo de ubicaciones, mensajería y un botón de S.O.S para atender cualquier situación que requiera asistencia, resguardando la seguridad de las personas.

Al estar conectados a la red satelital, los dispositivos IoT de Globalstar pueden recopilar grandes cantidades de datos que ofrecen información valiosa a las organizaciones. La recolección de datos históricos sobre el recorrido de unidades puede ayudar a identificar rutas más eficientes y seguras para el personal médico y de seguridad, a optimizar recursos y a realizar ajustes en las estrategias de los centros de operaciones para mejorar su productividad.

Los servicios de conectividad son esenciales en la fase de prevención y mitigación de una pandemia, y también son fundamentales en la fase de salida de la crisis ya que la infraestructura también beneficia a industrias importantes como energía, transporte, logística, marítima a que impulsen y desarrollen el tejido productivo y la integración regional. Globalstar ofrece en sus dispositivos y soluciones digitales apoyo en diversas áreas de la actividad productiva, que además de contribuir a la reducción de la brecha digital, también contribuye directamente a la mejora de la calidad de vida de las personas.

Sobre Globalstar
Globalstar es un proveedor líder de soluciones IoT satelitales personalizables para clientes de todo el mundo en industrias como petróleo y gas, transporte, gestión de emergencias, gobierno, recreación marítima y al aire libre. Pionero de los servicios móviles de voz y datos satelitales, Globalstar permite a las empresas agilizar las operaciones conectando a las personas a sus dispositivos, brindando seguridad y comunicación personal y automatizando los datos para monitorear y administrar más fácilmente los activos móviles a través de la red satelital Globalstar. La cartera de productos IoT comerciales de la compañía incluye los productos de seguimiento de activos SmartOne aclamados por la industria, los transmisores satelitales Simplex y la línea de productos SPOT® de seguridad personal, activos y dispositivos de comunicación, todos compatibles con SPOT My Globalstar, una sólida solución de back office basada en la nube. Completan el conjunto de productos satelitales los módems de datos satelitales Dúplex, el innovador punto de acceso Wi-Fi satelital Sat-Fi2®, con todas las soluciones de productos que ofrecen una variedad de planes de servicios de datos. Obtenga más información en Globalstar.com.

Fuente Comunicae

Powered by WPeMatico

NICE presenta automatización de procesos robóticos que cambia el juego en los negocios y acelera el éxito

/COMUNICAE/

NEVA Unlimited ofrece la suite de soluciones RPA más completa de la industria en un solo paquete, lo que permite a las organizaciones automatizar sus negocios

NICE www.nice.com (NASDAQ: NICE) anunció hoy el lanzamiento de NEVA Unlimited, el primer paquete de automatización todo incluido, creado para impulsar las implementaciones de automatización exitosas.

NICE también dio a conocer que con NEVA Unlimited, las empresas que compran NEVA (NICE Employee Virtual Attendant) ahora reciben robots de automatización de cortesía. Esta oferta unificada incluye el conjunto completo de módulos RPA de NICE. Con estas nuevas soluciones los usuarios podrán beneficiarse del paquete de automatización más amplio disponible en la actualidad.

Barry Cooper, presidente de NICE Enterprise Group, comentó que con NEVA Unlimited, NICE desbloquea todo el potencial de los beneficios que ofrece la automatización. Al redefinir la forma en que se construyen los modelos comerciales en la industria, NICE proporciona transparencia y simplicidad que antes no estaba disponible. Esta oferta sin precedentes incluye el conjunto completo de soluciones de automatización robótica de NICE y se cree que acelerará el valor que la automatización brinda a las organizaciones y acortará el tiempo de retorno de la inversión.

NEVA es el primer asistente digital del mundo, se diseñó pensando en el empleado. La interfaz inteligente impulsada por la Inteligencia Artificial de NEVA responde a la comunicación de voz o texto de los empleados, ofreciendo orientación en el proceso en tiempo real y el siguiente mejor consejo de acción, además de ejecutar múltiples y variadas tareas en su nombre. Como integrador natural, NEVA interactúa con cualquier aplicación de escritorio y puede activar la automatización de procesos desatendida.

NEVA Unlimited incluye la gama completa de módulos de NICE para impulsar el éxito de la implementación de automatización e incluye Automation Studio, la herramienta de diseño avanzada de NICE, OCR (Reconocimiento Óptico de Caracteres) para manejar de manera efectiva datos no estructurados, un buscador de automatización para el descubrimiento inteligente automatizado de procesos y más.

 

Fuente Comunicae

Powered by WPeMatico

NVIDIA EGX Edge AI ofrece IA en tiempo real – Tarjeta Mellanox 25G SmartNIC con seguridad avanzada

/COMUNICAE/

NVIDIA lanza el sistema de IA más avanzado del mundo — NVIDIA DGX A100 — para luchar contra el COVID. La tercera generación de DGX incluye 5 petaflops de rendimiento de IA. El entrenamiento, la inferencia y el análisis de datos se encuentran en la misma plataforma. Mellanox ConnectX-6 Lx SmartNIC proporciona equilibrios de red avanzados para acelerar las cargas de trabajo empresariales y de nube

La plataforma NVIDIA EGX Edge IA ofrece inteligencia artificial en tiempo real para fabricación, venta minorista, telcos, salud y otras industrias
NVIDIA ha anunciado hoy dos potentes productos para su plataforma EGX Edge IA: el EGX A100 para servidores comerciales más grandes y el pequeño EGX Jetson Xavier NX para servidores microperiféricos que brindan un procesamiento de IA seguro y de alto rendimiento en el borde.

Con la plataforma NVIDIA EGX™ Edge AI, hospitales, tiendas, granjas y fábricas pueden llevar a cabo en tiempo real el procesamiento y la protección de grandes cantidades de transmisión de datos de billones de sensores en el borde. La plataforma permite desplegar, administrar y actualizar de forma remota flotas de servidores de forma segura.

El acelerador convergente EGX A100 y el servidor de micro-borde EGX Jetson Xavier NX están creados para servir diferentes necesidades de tamaño, costo y rendimiento. Los servidores con tecnología EGX A100 pueden gestionar cientos de cámaras en aeropuertos, mientras que el EGX Jetson Xavier NX está diseñado para administrar un puñado de cámaras en tiendas de conveniencia. El soporte nativo en la nube garantiza que toda la línea EGX pueda usar el mismo optimizado software de IA para construir e implementar fácilmente aplicaciones de IA.

EGX A100 desarrollado por NVIDIA Ampere Architecture
El EGX A100 es el primer producto de IA basado en la arquitectura NVIDIA Ampere. A medida que la IA avanza cada vez más hacia el extremo, las organizaciones pueden incluir EGX A100 en sus servidores para llevar a cabo en tiempo real el procesamiento y protección de las cantidades masivas de transmisión de datos desde los sensores en el borde.

Combina el innovador rendimiento informático de la arquitectura NVIDIA Ampere con el de redes aceleradas y capacidades críticas de seguridad de NVIDIA Mellanox® ConnectX-6 Dx SmartNIC para transformar servidores perimetrales estándar especialmente diseñados en IA segura, nativa de la nube de supercomputadoras.

La arquitectura NVIDIA Ampere, la arquitectura de GPUs de octava generación de la compañía, ofrece el mayor salto generacional en el rendimiento para una amplia gama de cargas de trabajo intensivas en cómputo, incluyendo inferencia de IA y aplicaciones 5G que se ejecutan en el borde. Esto permite que el EGX A100 procese transmisión de datos de alto volumen en tiempo real desde cámaras y otros sensores IoT para obtener información más rápida y mayor eficiencia empresarial.

Con una tarjeta de red NVIDIA Mellanox ConnectX-6 Dx integrada, la EGX A100 puede recibir hasta 200 Gbps de datos y enviarlos directamente a la memoria de la GPU para el procesamiento de señales de IA o 5G. Con la introducción de la tecnología de transporte disparada por el tiempo de NVIDIA Mellanox para telecomunicaciones (5T para 5G), EGX A100 es un acelerador definido por software nativo de la nube, que puede manejar los casos de uso más sensibles a la latencia para 5G. Esto proporciona la mejor plataforma de IA y 5G para tomar decisiones inteligentes en tiempo real en los puntos de acción: tiendas, hospitales y fábricas.

Pequeño pero poderoso EGX Jetson Xavier NX
El EGX Jetson Xavier NX es la supercomputadora de IA más pequeña y poderosa del mundo para microservidores y edge AIoT boxes, con más de 20 soluciones ahora disponibles de los socios del ecosistema. Empaca el potencial de un NVIDIA Xavier SoC en un módulo del tamaño de una tarjeta de crédito. EGX Jetson Xavier NX, ejecutando en el EGX la pila de software nativa de la nube que puede procesar rápidamente la transmisión de datos desde múltiples sensores de alta resolución.

El módulo de eficiencia energética ofrece hasta 21 TOPS a 15W o 14 TOPS a 10W. Como resultado, EGX Jetson Xavier NX abre la puerta a dispositivos de computación en el borde integrados, que exigen un mayor rendimiento para soportar cargas de trabajo de IA pero están limitadas por tamaño, peso, presupuesto de energía o costo.

Software completamente optimizado y nativo de la nube en toda la plataforma EGX Edge AI
La arquitectura nativa de la nube de la plataforma EGX Edge IA le permite ejecutar software en contenedores para soportar una gama de cargas de trabajo aceleradas por GPUs.

Los marcos de aplicación de NVIDIA incluyen Clara para el cuidado de la salud, Antena para empresas de telecomunicaciones, Jarvis para conversaciones AI, Isaac para robótica y Metropolis para ciudades inteligentes, comercio minorista, transporte y más. Pueden ser utilizados juntos o individualmente y abren nuevas posibilidades para una variedad de casos de usos en el borde.

NVIDIA anuncia la primera Tarjeta Mellanox 25G SmartNIC con seguridad avanzada.
NVIDIA presentó Mellanox ConnectX-6® Lx SmartNIC, un controlador de interfaz de red Ethernet inteligente de 25/50 Gigabits por segundo (Gb/s) muy seguro y eficiente, que cumple con el aumento del crecimiento de las cargas de trabajo de escalabilidad horizontal en la nube y en las empresas.

ConnectX-6 Lx, el producto de la 11ª. generación en la familia ConnectX, está diseñado para satisfacer las necesidades de los data centers modernos, donde las conexiones de 25 Gb/s se están convirtiendo en el estándar para manejar flujos de trabajo exigentes, como aplicaciones empresariales, IA y análisis en tiempo real.

El nuevo SmartNIC extiende el procesamiento acelerado, dado que aprovecha los motores definidos por software y acelerados por hardware para equilibrar más trabajos de procesamiento de seguridad y red de las CPU.

Seguridad avanzada
Las características de seguridad acelerada, como la criptografía en línea IPsec y la raíz de confianza de hardware, y un aumento de hasta 10 veces el rendimiento para el seguimiento de conexiones, permiten la seguridad de confianza cero en todo el data center. El mejor RDMA en Ethernet convergente (RoCE), la virtualización y contenedorización avanzada, y las descargas de almacenamiento de NVMe sobre Fabrics proporcionan una red altamente escalable y de alto rendimiento.

Aspectos clave
ConnectX-6 Lx proporciona lo siguiente:

– Dos puertos de 25 Gb/s, o un solo puerto de 50 Gb/s, conectividad Ethernet con conectividad de 8 host PCIe Gen 3.0/4.0.

– Funciones de seguridad que incluyen la raíz de confianza del hardware, el seguimiento de conexiones para firewalls L4 con estado y la aceleración de la criptografía IPSec en línea.

– La aceleración de RDMA directa con GPU para el almacenamiento NVMe sobre Fabrics (NVMe-oF), procesamiento acelerado escalable y aplicaciones de transferencia de video de alta velocidad.

– Zero Touch RoCE (ZTR) para lograr el mejor RoCE escalable y fácil de implementar, sin configurar el conmutador.

– La conmutación acelerada y el procesamiento de paquetes (ASAP2), con transferencias de hardware SR-IOV y VirtIO incorporadas para la virtualización y la contenedorización, a fin de acelerar la red definida por software y el seguimiento de conexiones para los servicios de firewall de próxima generación.

Fuente Comunicae

Powered by WPeMatico

Apache Spark principal plataforma líder en análisis de datos. NVIDIA Jarvis para crear IA conversacional

/COMUNICAE/

NVIDIA acelera Apache Spark, la principal plataforma líder en el de análisis de datos del mundo.Procesamiento de ETL y SQL de alta velocidad para miles de terabytes de datos. NVIDIA Jarvis simplifica la creación de servicios de inteligencia artificial conversacionales de última generación. La nueva aplicación permite la creación de servicios personalizados de inteligencia artificial basados en el lenguaje, desde la atención al cliente hasta realizar transcripciones en tiempo real

Apache Spark principal plataforma líder en análisis de datos
NVIDIA anunció que está colaborando con los líderes de la comunidad de código abierto para incorporar la aceleración por GPU integral a Apache Spark 3.0, un motor de análisis para el procesamiento de big data que utilizan más de 500,000 científicos de datos alrededor de todo el mundo.

Con el lanzamiento anticipado de Spark 3.0 por primera vez, los científicos de datos y los ingenieros de machine learning podrán aplicar una revolucionaria aceleración del GPU a las cargas de trabajo de procesamiento de datos de ETL que se llevan a cabo en las operaciones con bases de datos SQL.

Otro aspecto revolucionario es que la capacitación del modelo de IA podrá procesarse en el mismo clúster de Spark, en lugar de ejecutar las cargas de trabajo como procesos separados en una infraestructura separada. Este avance permite el análisis de datos de alto rendimiento en todo el proceso de la ciencia de datos, para acelerar decenas a miles de terabytes de datos, desde el conjunto de datos hasta el entrenamiento del modelo, sin realizar ningún cambio en el código existente utilizado por las aplicaciones Spark, que se ejecutan en las instalaciones y en la nube.

El avance en el rendimiento en Spark 3.0 mejora la precisión del modelo ya que permite a los científicos entrenar modelos con conjuntos de datos más grandes y repetir los entrenamientos con mayor frecuencia. Esto proporciona nuevas y poderosas capacidades para aquellos que necesitan procesar terabytes de datos nuevos todos los días, como los científicos de datos que respaldan los sistemas de recomendación en línea o analizan nuevos datos de investigación. Además, un procesamiento más rápido significa que se necesitan menos recursos de hardware para entregar resultados, lo que proporciona un ahorro de costos significativo.

Databricks y NVIDIA aportan más velocidad a Spark.
Apache Spark es una creación de los fundadores de Databricks, cuya plataforma de análisis de datos unificada y basada en la nube, se ejecuta en más de un millón de máquinas virtuales cada día. NVIDIA y Databricks también han colaborado para optimizar el conjunto de software RAPIDSTM para Databricks, que ejecuta cargas de trabajo de ciencia de datos y machine learning para la atención de la salud, las finanzas, la venta minorista y muchas otras industrias.

Transferencias de datos y ETL más rápidos en Spark con las GPUs de NVIDIA.
NVIDIA aporta un nuevo acelerador de RAPIDS con código abierto para Apache Spark para ayudar a los científicos de datos a aumentar el rendimiento de sus procesos de forma integral. El acelerador intercepta funciones previamente realizadas por las CPUs y, en su lugar, utiliza las GPUs para hacer lo siguiente:

– Acelerar los procesos de ETL en Spark mejorando drásticamente el rendimiento de las operaciones de Spark SQL y DataFrame sin requerir ningún cambio de código.

– Acelerar la preparación de datos y la capacitación de modelos en el mismo conjunto de infraestructura, donde no se requiere un clúster separado para machine learning y deep learning.

– Acelerar el rendimiento de la transferencia de datos a través de nodos en un clúster distribuido de Spark. Estas bibliotecas aprovechan el marco de trabajo de código abierto UCX (Unified Communication X) y minimizan la latencia, ya que permiten que los datos se muevan directamente entre la memoria de la GPU.

###

NVIDIA Jarvis simplifica la creación de servicios de inteligencia artificial conversacionales de última generación
El día de hoy, NVIDIA anunció hoy el lanzamiento de NVIDIA Jarvis, un marco de aplicación acelerado por GPU que permite a las empresas utilizar datos de video y voz para construir servicios de IA conversacionales de última generación, personalizados para su propia industria, productos y clientes.

El cambio hacia el trabajo desde el hogar, la telemedicina y el aprendizaje remoto han creado un aumento en la demanda de servicios de IA personalizados basados en el lenguaje, que van desde la atención al cliente hasta transcripciones en tiempo real y resumen de videollamadas para mantener a las personas productivas y conectadas.

Entre las primeras compañías en aprovechar los productos y servicios de IA conversacionales basados en Jarvis para sus clientes están Voca, un agente de inteligencia IA automátizadas de voz para la industria financiera y Square, con su asistente virtual para la programación de citas.

Las aplicaciones creadas con Jarvis pueden aprovechar las innovaciones en el nuevo NVIDIA A100 Tensor Core GPU para computación de IA y las últimas optimizaciones en NVIDIA TensorRT ™ para inferencia. Por el primera vez, ahora, es posible ejecutar una aplicación multimodal completa, utilizando la visión más poderosa y modelos de voz, más rápidos que el umbral de 300 milisegundos para interacciones en tiempo real.

Jarvis proporciona una pila completa de software acelerado por GPU y herramientas que facilitan a los desarrolladores crear, implementar y ejecutar aplicaciones de IA de conversación de principio a fín en tiempo real, que puedan entender la terminología exclusiva de cada empresa y de sus clientes.

Primeros adoptantes: Voca, Kensho, Square.

Las empresas de todo el mundo están utilizando la plataforma de conversación de IA de NVIDIA para mejorar sus servicios
Los agentes virtuales de IA de Voca, que usan NVIDIA para realizar compromisos más rápidos, más interactivos y humanos, son utilizados por Toshiba, AT&T y otras compañías líderes mundiales. Voca usa IA para comprender toda la intención de la conversación hablada y el discurso de un cliente. Esto hace posible que los agentes identifiquen automáticamente diferentes tonos y pistas vocales para discernir entre lo que dice un cliente y lo que quiere decir un cliente. Además, utilizando las funciones de escalabilidad integradas en la plataforma de IA de NVIDIA, se puede reducir drásticamente el tiempo de espera de un cliente.

Kensho, el centro de innovación para S&P Global ubicado en Cambridge, Massachusetts, que implementa escalabilidad en los sistemas de análisis y de aprendizaje automátizado, han utilizado la IA conversacional de NVIDIA para desarrollar Scribe, una solución de reconocimiento de voz para la industria financiera y los negocios. Con NVIDIA, Scribe supera a otras soluciones comerciales en llamadas de ganancias y audio financiero similar en términos de precisión por un margen de hasta un 20 por ciento.

Square, una empresa conocida por las terminales de pago, creó un asistente virtual de AI que permite a las empresas usar la IA para confirmar, cancelar o cambiar citas con sus clientes automáticamente, y los libera para realizer mejores relaciones con sus clientes y compromisos más estratégicas.

Fuente Comunicae

Powered by WPeMatico

Automotrices usan robots desarrollados plataforma Isaac y NVIDIA expande Clara para enfrentar al COVID-19

/COMUNICAE/

Las fábricas automotrices incorporan robots de IA desarrollados con la nueva plataforma Isaac de NVIDIA. NVIDIA expande NVIDIA – Clara y agrega socios globales de atención de la salud para hacer frente a la pandemia de COVID-19

El día de hoy, BMW Group anunció que seleccionó la nueva plataforma robótica Isaac de NVIDIA para mejorar sus fábricas automotrices, mediante la utilización de robots de logística desarrollados con avanzadas tecnologías de visualización y computación por IA.

La colaboración se basa en implementar un sistema integral basado en las tecnologías de NVIDIA, desde el entrenamiento hasta las pruebas y la implementación, con robots que se desarrollaron con una sola arquitectura de software, que se ejecutan en Isaac, la plataforma de robótica abierta de NVIDIA. El objetivo de BMW Group es mejorar el flujo logístico de las fábricas para producir automóviles con configuraciones personalizadas de forma más rápida y eficiente. “BMW se compromete con el poder de elección de sus clientes de manera personalizada, dijo Jürgen Maidl, Vicepresidente Senior de Logística para BMW Group.

La colaboración usará los sistemas de IA NVIDIA DGX™ y la tecnología de simulación de Isaac para entrenar y probar los robots; las GPU con ray tracing NVIDIA Quadro® ray-tracing GPUs para renderizar piezas de máquinas sintéticas y así mejorar el entrenamiento, y una nueva línea de robots con IA desarrollados con el software de Isaac, con la tecnología de las computadoras en el extremo NVIDIA Jetson ™y EGX ™.

“En definitiva, todo el volumen de configuraciones posibles se convierte en un desafío para la producción de BMW Group en tres áreas fundamentales: procesamiento, planificación de la logística y análisis de datos”, dijo Maidl

Los robots desarrollados con el SDK Isaac de NVIDIA utilizan varias redes neuronales profundas y potentes para resolver la percepción, segmentación y estimación de poses humanas, para percibir su entorno, detectar y mover objetos, navegar de forma autónoma. Estos robots están entrenados con datos reales y usan las GPUs de NVIDIA para renderizar piezas de máquinas con ray tracing en diferentes condiciones de iluminación y oclusión, a fin de aumentar los datos reales.

NVIDIA expande NVIDIA – Clara y agrega socios globales de atención de la salud para hacer frente a la pandemia de COVID-19
El día de hoy se anuncia una nueva plataforma tecnológica NVIDIA Clara™ healthcare platform, NVIDIA anunció un aumento revolucionario del rendimiento, sociedades clave y nuevas capacidades para ayudar a la comunidad médica a mejorar el desempeño, las pruebas y el tratamiento de COVID-19.

Mediante la combinación de computación acelerada e IA, la plataforma ayuda a los investigadores de atención de la salud, a los proveedores de soluciones tecnológicas y a los hospitales a enfrentar la pandemia más rápido y de formas nuevas:

– Velocidad de secuenciamiento genómico récord, velocidad de La Luz.

– Para la detección de enfermedades, los nuevos modelos de IA para brindarles a los investigadores una herramienta más en la batalla contra el COVID-19, dado que les permite detectar y estudiar los pacientes infectados mediante los datos de tomografías de pecho.

– NVIDIA Clara Guardian para hospitales inteligentes: Los modelos están ya disponibles en la versión mas reciente de Clara Imaging en el centro de software NGC™

“La pandemia de COVID-19 ha potenciado la colaboración con la industria de la atención de la salud, la investigación y la tecnología, a fin de desarrollar nuevas soluciones de procesamiento para acelerar el entendimiento del alcance, la escala y la gravedad de esta enfermedad”, dijo Kimberly Powell, Vicepresidente de Atención de la Salud en NVIDIA.

Los modelos de IA se desarrollaron en el framework de aplicaciones NVIDIA Clara para la generación de imágenes médicas. NVIDIA Clara contiene herramientas de flujos de trabajo para la implementación y entrenamiento de IA específicas para cada dominio, que permiten a NVIDIA y NIH desarrollar los modelos en menos de tres semanas.

NVIDIA Clara Guardian ayuda a los hospitales en el frente de batalla
El nuevo framework de aplicaciones NVIDIA Clara Guardian permite un ecosistema muy necesario de soluciones de IA para la seguridad pública en hospitales y el monitoreo de pacientes, ya que transforma los sensores de uso en sensores inteligentes. Los casos de uso críticos incluyen la detección automatizada de temperatura corporal, la detección de máscaras protectoras, el distanciamiento social seguro y el monitoreo de pacientes de forma remota.

Los socios de negocio de todo el ecosistema usan los modelos entrenados previamente y transfieren aprendizaje para desarrollar e implementar aplicaciones de IA que fusionan el procesamiento de lenguajes naturales, habla y visión. La implementación con la plataforma EGX de IA en el extremo les brinda a los proveedores de soluciones la capacidad de implementar y administrar flotas de dispositivos en todo el entorno hospitalario.

# # #

Contacto de Prensa:

Carlos Valencia.

MKQ.

Cel. 55 39 64 96 00.

cvalencia@mkq.mx

Fuente Comunicae

Powered by WPeMatico

La nueva GPU de NVIDIA Ampere Data Center en plena producción

/COMUNICAE/

La nueva NVIDIA A100 GPU potencia hasta 20 veces la inferencia y entrenamiento de Inteligencia Artificial (IA). La primera GPU elástica y de múltiples instancias de NVIDIA unifica la capacitación, la inferencia y el análisis. Los principales fabricantes de servidores y proveedores de nube del mundo ya la adoptaron

El día de hoy, NVIDIA Enterprise anunció que la primera GPU basada en la arquitectura de Ampere de NVIDIA®: NVIDIA A100, se está fabricando y enviando a los clientes de todo el mundo, después de recibir la mayor cantidad de pedidos previos a un lanzamiento en toda la historia de la compañía.

La A100 se basa en los avances de diseño de la arquitectura NVIDIA Ampere, que ofrece el mayor salto de rendimiento de la compañía hasta la fecha dentro de sus ocho generaciones de GPUs, para unificar el entrenamiento y la inferencia de IA y aumentar el rendimiento hasta 20 veces más que los modelos precedentes. La A100 es un acelerador de carga de trabajo universal, que también está diseñado para el análisis de datos, la computación científica y los gráficos en la nube.

«Las poderosas tendencias de la computación en la nube y la IA están impulsando un cambio tectónico en los diseños de los centros de datos, de modo que lo que una vez fué un mar de servidores solo de CPUs, ahora es la computación acelerada por el GPU», dijo Jensen Huang, fundador y CEO de NVIDIA. «La GPU NVIDIA A100 es un salto cuántico en el rendimiento de IA de 20 veces y un acelerador del aprendizaje automático de principio a fín, desde el análisis de datos hasta la capacitación y la inferencia. Por primera vez, las cargas de trabajo de ampliación y escalabilidad pueden acelerarse en una sola plataforma. NVIDIA A100 aumentará simultáneamente el rendimiento y reducirá el costo de los centros de datos».

Las nuevas tecnologías elásticas de cómputo integradas en A100 permiten aportar la cantidad adecuada de potencia de procesamiento a cada trabajo. La capacidad de GPU de múltiples instancias permite que cada GPU A100 se divida en hasta siete instancias independientes de «mini-GPUs» para realizar tareas de inferencia más pequeñas, mientras que la tecnología de interconexión NVIDIA NVLink® interconnect technology de tercera generación, permite que múltiples GPUs A100 funcionen como una GPU gigante, para cumplir con las tareas de entrenamiento cada vez más grandes.

Adopción inmediata en todo el mundo
Entre las primeras empresas en aprovechar la potencia de las GPUs NVIDIA A100 está Microsoft, que aprovechará el rendimiento y la escalabilidad de A100.

«Microsoft entrenó Turing Natural Language Generation, el modelo de idiomas más grande del mundo, para usar la generación actual de GPUs de NVIDIA» dijo Mikhail Parakhin, corporate vice president, Microsoft Corp. “Azure planea entrenar modelos de IA mucho más grandes utilizando miles de GPUs NVIDIA A100 a escala para impulsar lo último en lenguaje, habla, visión y multimodalidad».

Otros de los primeros adoptadores incluyen laboratorios nacionales y algunas de las instituciones de educación superior e investigación más importantes del mundo, cada una de las cuales usa A100 para potenciar sus supercomputadoras de próxima generación.

Cinco avances de A100
La GPU NVIDIA A100 marca una revolución en el diseño técnico gracias a cinco innovaciones clave:

Arquitectura Ampere: En el corazón de A100 se encuentra la arquitectura de GPU NVIDIA Ampere, que contiene más de 54,000 millones de transistores, lo que la hace el procesador de 7 nanómetros más grande del mundo.

Third-generation Tensor Cores with TF32: Los núcleos Tensor de amplia adopción de NVIDIA ahora son más flexibles, rápidos y fáciles de usar. Sus capacidades expandidas incluyen nuevos TF32 for AI,, que permiten un rendimiento de IA de hasta 20 veces mayor, con precisión FP32, sin cambiar el código. Además, los núcleos Tensor ahora permiten FP64, para lograr hasta 2.5 veces más de procesamiento de datos que la generación anterior, para las aplicaciones de HPC.

GPU de múltiples instancias: MIG, una nueva función técnica, que permite que una sola GPU A100 se particione en hasta siete GPUs por separado, para poder proporcionar diferentes grados de procesamiento para trabajos de diferentes tamaños, lo que permite una utilización óptima y el máximo retorno de la inversión.

Third-generation NVIDIA NVLink ™: Duplica la conectividad de alta velocidad entre las GPUs para proporcionar escalabilidad de rendimiento eficiente en un servidor.

Baja densidad estructural: Esta nueva técnica de eficacia aprovecha la naturaleza ineherentemente escasa de los cálculos de IA para duplicar el rendimiento.

Juntas, estas nuevas características hacen que la NVIDIA A100 sea ideal para cargas de trabajo diversas y exigentes, que incluyen entrenamiento e inferencia de IA, así como simulación científica, IA conversacional, sistemas de recomendación, genómica, análisis de datos de alto rendimiento, modelos sísmicos y pronósticos financieros.

El modelo NVIDIA A100 está disponible en nuevos sistemas, y pronto llegará a la nube
El NVIDIA DGX A100 system, que también se presentó hoy, cuenta con ocho GPU NVIDIA A100 interconectadas con NVIDIA NVLink. Ya está disponible mediante NVIDIA y socios aprobados.

Alibaba Cloud, AWS, Baidu Cloud, Google Cloud, Oracle and Tencent Cloud están planeando ofrecer los servicios basados en la A100.

Además, se lanzará una amplia variedad de servidores con A100 mediante los principales fabricantes de sistemas del mundo, como: , including Atos, Dell Technologies, Fujitsu, GIGABYTE, H3C, HPE, Inspur, Lenovo, Quanta/QCT and Supermicro.

Para ayudar a acelerar el desarrollo de servidores de sus socios, NVIDIA ha creado HGX A100, un componente fundamental de servidores en la forma de bloques de construcción, en la forma de zócalos integrados en múltiples configuraciones de GPUs.

La HGX A100 de cuatro GPUs ofrece una interconexión completa entre las GPUs con NVLink, mientras que la configuración de ocho GPUs ofrece un ancho de banda completo de GPU a GPU, a través de NVIDIA NVSwitch. HGX A100, con la nueva tecnología MIG y su arquitectura de GPU de múltiples instancias, se puede configurar como 56 GPUs pequeñas, cada una más rápida que NVIDIA T4, hasta un servidor gigante de ocho GPUs con 10 petaflops de rendimiento de inteligencia artificial.

Acerca de NVIDIA
La invención de la GPU por parte de NVIDIA en 1999 generó el crecimiento del mercado de juegos para PC, redefinió los gráficos por computación modernos y revolucionó la computación en paralelo. Recientemente, el deep learning de GPU impulsó la inteligencia artificial moderna, la próxima era de la computación, ya que la GPU ocupa el papel del cerebro de las computadoras, los robots y los automóviles de conducción autónoma que pueden percibir y comprender al mundo. Encontrar más información en http://nvidianews.nvidia.com/.

Contacto para medios:
Carlos Valencia.
MKQ.
55 39 64 96 00.
cvalencia@mkq.mx

Fuente Comunicae

Powered by WPeMatico

NVIDIA lanza el sistema de IA más avanzado del mundo, NVIDIA DGX A100, para luchar contra el COVID-19

/COMUNICAE/

La tercera generación de DGX incluye 5 petaflops de rendimiento de IA. El entrenamiento, la inferencia y el análisis de datos se encuentran en la misma plataforma. Cada sistema se puede configurar con una de las 56 GPUs independientes para proporcionar una infraestructura elástica en el data center definido por el software

El día de hoy, NVIDIA presentó NVIDIA DGX™ A100, la tercera generación del más avanzado sistema de IA del mundo, con 5 petaflops de IA de desempeño, que consolida la potencia y las capacidades de todo un data center en una única plataforma flexible.

El primer pedido corresponde al Laboratorio Nacional Argonne del Departamento de Energía de los EE. UU., que usará la potencia de la computación y la IA del clúster para estudiar mejor el COVID-19 y luchar contra esta enfermedad.

«NVIDIA DGX A100 es la herramienta definitiva para la IA», dijo Jensen Huang, fundador y CEO de NVIDIA. «NVIDIA DGX es el primer sistema de IA creado para el flujo de trabajo de Aprendizaje Automatizado de punta a punta, desde análisis de datos hasta la capacitación y la inferencia. Y con el salto de rendimiento gigante de la nueva DGX, los ingenieros de aprendizaje automatizado pueden adelantarse al tamaño exponencialmente creciente de los modelos de datos de la IA».

Los sistemas DGX A100 integran ocho de las nuevas GPU NVIDIA® A100 con núcleos Tensor, que proporcionan 320 GB de memoria para entrenar los conjuntos de datos de IA más grandes y las últimas interconexiones NVIDIA Mellanox® HDR 200 Gbps de alta velocidad.

Las múltiples más pequeñas cargas de trabajo se pueden acelerar al dividir el DGX A100 en hasta 56 instancias por sistema, utilizando la función de multi-instance GPU de A100. La combinación de estas capacidades permite a las empresas optimizar la potencia de cómputo y los recursos bajo demanda para acelerar diversas cargas de trabajo, incluyendo el análisis de datos, el entrenamiento y la inferencia, en una única plataforma integrada y definida por el software.

Inmediata compatibilidad y adopción de DGX A100
Varias de las compañías, proveedores de servicios y agencias gubernamentales más grandes del mundo han realizado pedidos iniciales para el DGX A100. Los primeros sistemas se entregaron a Argonne a principios de este mes. «Se están utilizando las supercomputadoras más potentes de Estados Unidos en la lucha contra COVID-19, ejecutando modelos y simulaciones de inteligencia artificial con la última tecnología disponible, como el NVIDIA DGX A100», dijo Rick Stevens, director de laboratorio asociado para el Procesamiento, Medio Ambiente y Ciencias de la vida en Argonne.

Otros primeros adoptantes fueron:

El Centro de IA Biomédica: en Centro Médico Universitario Hamburg-Eppendorf, de Alemania, que aprovechará DGX A100 para avanzar en la toma de decisiones clínicas y la optimización de procesos.

La Universidad de Chulalongkorn, la principal universidad intensiva en investigación de Tailandia, utilizará DGX A100 para acelerar su investigación pionera, como el procesamiento del lenguaje natural tailandés (TNLP).

Element AI: un desarrollador de Montreal de soluciones y servicios de inteligencia artificial, está implementando DGX A100 para acelerar el rendimiento y la optimización de funciones para que Orkestrator, su programador de GPU, cumpla con las crecientes demandas de aplicaciones y entrenamiento de IA.

La Oficina de Inteligencia Artificial de los EAU, con el nuevo DGX A100 está construyendo una infraestructura nacional para acelerar la investigación, el desarrollo y la adopción de IA en los sectores público y privado.

El Centro de Investigación Alemán para la Inteligencia Artificial (DFKI) utilizará los sistemas DGX A100 para acelerar aún más su investigación sobre nuevos métodos de aprendizaje profundo y su explicabilidad.

NVIDIA desarrolla la DGX SuperPOD de 700 petaflops de próxima generación
NVIDIA también presentó su next-generation DGX SuperPOD, un grupo de 140 sistemas DGX A100 capaces de lograr 700 petaflops de potencia de cómputo de IA. Combinando 140 sistemas DGX A100 con interconexiones Mellanox HDR 200 Gbps InfiniBand, NVIDIA construyó su propia supercomputadora de IA DGX SuperPOD de próxima generación para la investigación interna en áreas como la IA conversacional, la genómica y conducción autónoma.

El clúster es una de las supercomputadoras de IA más rápidas del mundo, ya que logra un nivel de rendimiento que anteriormente requería miles de servidores. La arquitectura y el rendimiento listos para la empresa de DGX A100 permitieron a NVIDIA construir el sistema en un sólo mes, en lugar de tomar meses o años de planificación y adquisición de componentes especializados previamente requeridos para ofrecer estas capacidades de supercomputación.

Programa DGXpert, software DGX-Ready
NVIDIA también lanzó el programa NVIDIA DGXpert, que reúne a los clientes de DGX con los expertos en IA de la compañía, y el programa NVIDIA DGX-Ready Software, que ayuda a los clients que aprovechan el software certificado de nivel empresarial para los flujos de trabajo de IA.

El programa de software NVIDIA DGX-Ready ayuda a los clientes a identificar y aprovechar rápidamente el software MLOps de terceros probado por NVIDIA que puede ayudarlos a aumentar la productividad de la ciencia de datos, acelerar los flujos de trabajo de la IA y mejorar la accesibilidad y la utilización de la infraestructura de IA. Los primeros socios del programa certificados por NVIDIA son Allegro AI, cnvrg.io, Core Scientific, Domino Data Lab, Iguazio y Paperspace.

Especificaciones técnicas de DGX A100
● Ocho GPU NVIDIA A100 con núcleos Tensor, que ofrecen 5 petaflops de potencia de IA, con 320 GB de memoria total de GPU, con 12.4 TB por segundo de ancho de banda.

● Seis NVIDIA NVSwitch ™ de interconexión de fábrica, con tecnología NVIDIA NVLink® de tercera generación para transmitir 4.8 TB por segundo en el ancho de banda bi-direccional.

● Nueve interfaces de red NVIDIA Mellanox ConnectX-6 HDR, que ofrecen un total de 3.6 Tb por segundo de procesamiento en el ancho de banda bi-direccional.

● Los motores de aceleración de red y de procesamiento en red de Mellanox como RDMA, GPUDirect® y el protocolo de agregación y reducción jerárquica escalable (SHARP) ™ para permitir el mayor rendimiento y escalabilidad.

● 15 TB de almacenamiento interno Gen4 NVMe, que es 2 veces más rápido que los SSD Gen3 NVMe.

● Cuenta con la tecnología del conjunto de software NVIDIA DGX, que incluye software optimizado para IA y cargas de trabajo de ciencia de datos, para brindar un rendimiento maximizado, lo que permite a las empresas lograr un retorno más rápido de su inversión en infraestructura de IA.

Un solo rack de cinco sistemas DGX A100 reemplaza un data center de entrenamiento de IA e infraestructura de inferencia, con un vigésimo (1/20) de energía, un cuarto (1/25) del espacio y un décimo (1/10) del costo.

Acerca de NVIDIA
La invención de la GPU por parte de NVIDIA en 1999 generó el crecimiento del mercado de juegos para PC, redefinió los gráficos por computación modernos y revolucionó la computación en paralelo. Recientemente, el deep learning de GPU impulsó la inteligencia artificial moderna, la próxima era de la computación, ya que la GPU ocupa el papel del cerebro de las computadoras, los robots y los automóviles de conducción autónoma que pueden percibir y comprender al mundo. Encontrar más información en http://nvidianews.nvidia.com/.

Fuente Comunicae

Powered by WPeMatico

Más de 300 agencias estatales y federales de EU seleccionan NICE CXone

/COMUNICAE/

NICE expande sus servicios en todo el mundo en respuesta a COVID-19 para satisfacer la creciente demanda de los ciudadanos

NICE www.nice.com (NASDAQ: NICE) líder en soluciones de centros de contacto en la nube, anunció una rápida expansión de sus servicios en más de 300 sectores gubernamentales y sin fines de lucro para respaldar una mayor demanda en tiempos de coronavirus. La plataforma de experiencia en la nube de NICE inContact, CXone, permite a las organizaciones de todos los tamaños hacer una transición rápida de los agentes de sus centros de contacto al trabajo remoto, mover dinámicamente las llamadas entre ubicaciones y manejar volúmenes significativamente más altos de llamadas o interacciones digitales a medida que aumenta la demanda en las áreas afectadas.

Los gobiernos federales, estatales y locales de los Estados Unidos están recurriendo a la plataforma NICE inContact CXone para expandir rápidamente sus necesidades de agentes y su capacidad para satisfacer la creciente demanda de los ciudadanos. Además, muchos clientes nuevos del gobierno están recurriendo a la única plataforma autorizada por FedRAMP de la industria para llevar a sus agentes a casa en 48 horas: el NICE inContact CXone.

En los Estados Unidos, el número total de contactos aumentó de cinco a diez veces en varias divisiones del gobierno estatal en las últimas dos semanas de marzo. No solo las agencias federales y estatales, sino también los servicios 211, 311 así como los servicios de seguridad pública están utilizando CXone para acelerar las operaciones en solo unas pocas horas para servir a millones de ciudadanos y mantener a sus empleados trabajando de manera segura en casa.

Como plataforma principal en la nube para centros de contacto, la plataforma NICE inContact CXone, también disponible en mercados de América Latina, tiene una infraestructura de nube global y geográficamente redundante, con elasticidad integrada para aumentar o disminuir según la demanda. Monitorea y pronostica de manera proactiva la demanda, con reservas para picos de volumen inmediato, capacidad agregar datos y almacenamiento de inmediato. Los clientes pueden contar con una disponibilidad garantizada del 99.99% en la red del operador con centros de datos y puntos de presencia globales (POP), así como también monitorear las operaciones de la red 24/7/365. Los agentes del centro de contacto que usan NICE inContact CXone operan en más de 100 países.

En México, NICE también ofrece NICE inContact CXone a empresas que desean dar el salto en la transformación digital desde enero de este año. Consciente de las necesidades del mercado de Contact Center en tiempos de coronavirus, ofrece al sector CXone @ home, una oferta por tiempo limitado para apoyar a las organizaciones mientras buscan alternativas para contener la propagación de COVID-19. La oferta nativa de la nube permite a las empresas pasar de sus centros de contacto al modelo de oficina en casa en unos pocos días, incluso si aún no utilizan la plataforma CXone.

CXone @ home se ofrece sin compromiso, sin contrato y de forma gratuita durante 45 días. Equipada con la moderna plataforma en la nube CXone, la solución CXone @ home incluye características como DAC / URA y grabación de audio, 99.99% de disponibilidad además del e-learning para la integración de agentes.

Fuente Comunicae

Powered by WPeMatico