Cámaras WizMind ideales para solventar problemas en el retail

/COMUNICAE/

La videovigilancia es imprescindible para cualquier retail. Puede ayudar a prevenir posibles robos y garantizar la precisión de las transacciones en el punto de venta (POS)

Sin embargo, además de la seguridad, existen otras tareas desafiantes a las que los minoristas tradicionales se enfrentan a diario: ¿Cómo crear perfiles de clientes con datos precisos fuera de línea y permitir un mayor retorno la inversión? ¿Cómo controlar el flujo de clientes en la tienda? ¿Cómo proteger la privacidad del cliente? Y la lista sigue así. Gracias al desarrollo continuo de la tecnología moderna, varios dispositivos de monitoreo equipados con funciones inteligentes están ahora disponibles en el mercado para abordar estos desafíos de monitoreo.

La firma china Dahua Technology, explicó que a través de su solución Dahua WizMind, ofrece una variedad de algoritmos de inteligencia artificial basados en humanos, incluidos Conteo de Personas y Mapa de Calor. Estas funciones pueden ayudar a los propietarios minoristas a optimizar sus operaciones diarias mediante un análisis inteligente del flujo de clientes. Los usuarios también pueden personalizar las funciones de los dispositivos para adaptarse a diferentes necesidades y proteger la privacidad de las personas al mismo tiempo, explicó la compañía a través de un comunicado.

Usando tecnologías de conteo de personas y mapas de calor, existen diversas formas en que se puede mejorar la operación comercial y el servicio al cliente en el retail, por ejemplo: limitar el aforo en la tienda, bajo la nueva normalidad, los retailers, desde las tiendas de abarrotes hasta los grandes supermercados y centros comerciales, se ven abrumados por las restricciones de flujo de clientes obligatorias. Se puede solucionar este problema, calculando el número de personas que entran y salen de la tienda basándose en la detección de objetivos humanos en movimiento. Una vez que el número total de personas en la tienda alcance el umbral preestablecido, se activará una alarma y se enviarán notificaciones al administrador. Además, la cantidad de personas en tiempo real dentro de la tienda se puede mostrar en una señalización digital en la puerta, lo que ayuda a mejorar la experiencia del cliente y ahorrar costos laborales.

Otra usabilidad es la gestión en las filas en las cajas registradoras, en este sentido, una cámara de conteo de personas puede discernir cuántas personas se están reuniendo en un área determinada, lo que la hace ideal para monitorear las líneas de pago. Al mismo tiempo, también puede realizar un seguimiento de cuánto tiempo han estado en la fila. Por ejemplo, al establecer reglas que pueden activar la alarma, al identificar que tres o más personas hacen fila durante más de tres minutos, los gerentes de las tiendas pueden recibir alertas instantáneas cuando necesitan enviar más personal a las cajas registradoras para reducir el tiempo de espera de los clientes.

Finalmente, otro casos de utilidad son: comparar el número de visitantes contra el de compradores, reducir los merodeadores fuera de la tienda, y seguimiento en horas pico.

Fuente Comunicae

Powered by WPeMatico

Presenta SonicWall portafolio de soluciones de seguridad más grande en su historia

/COMUNICAE/

SonicWall anunció hoy las últimas incorporaciones de su evolución de ciberseguridad de la Generación 7, la más grande en los 30 años de historia de la compañía. Impulsado por esta innovación, SonicWall unifica las ofertas de hardware, virtuales y de nube en una plataforma única y totalmente integrada basada en la nube

El logro de SonicWall está marcado por la introducción de tres nuevos modelos de firewall de alto rendimiento, NSa 5700, NSsp 10700 y NSsp 11700, diseñados para proteger a las empresas, agencias gubernamentales y MSSP más grandes y complejas de ataques cibernéticos avanzados, incluidos nuevas variantes de ransomware y malware, sin sacrificar el rendimiento de la red.

“Hace más de dos años, SonicWall se propuso evolucionar su portafolio de ciberseguridad para satisfacer las diversas necesidades de nuestros clientes y socios en una variedad de entornos complejos en las instalaciones, de nube híbrida y de múltiples nubes”, dijo el presidente y director ejecutivo de SonicWall, Bill Conner.

“Como muestra de ese compromiso, nos enorgullece anunciar la finalización de una base unificada que ayuda a proteger a nuestros clientes con más simplicidad, flexibilidad y rentabilidad que nunca. Como siempre, nuestra misión sigue siendo proteger a nuestros usuarios, organizaciones y datos leales, sin importar el entorno. Esta es la siguiente fase de muchas para superar esos objetivos “.

La oferta de ciberseguridad más avanzada de la empresa no podría llegar en un mejor momento. SonicWall Capture Labs registró un aumento del 148% en los ataques de ransomware globales durante el tercer trimestre de 2021. Con 495 millones de ataques de ransomware registrados por la compañía este año hasta la fecha, 2021 será el año más costoso y peligroso registrado.

El portafolio avanzado de la compañía que incluye 17 firewall virtuales y físicos en la plataforma Generation 7, garantiza que las organizaciones de cualquier tamaño, en cualquier industria, puedan implementar el modelo Boundless Cybersecurity de SonicWall.

Toda la línea de firewalls TZ, NSa, NSsp y NSv (virtual) de SonicWall se puede administrar rápidamente mediante el Network Security Manager (NSM) nativo de la nube, que brinda a las empresas distribuidas una interfaz en la nube única y fácil de usar para una administración y análisis de informes optimizados.

Los nuevos firewalls SonicWall NSsp 10700 y NSsp 11700 están diseñados para proteger las redes de clase empresarial, así como para proporcionar opciones más potentes para los MSSP, al brindar hasta cuatro veces la protección contra amenazas que la generación anterior de SonicWall. Esto incluye altas calificaciones para firewall en su totalidad (42 Gbps para 10700, 47 Gbps para 11700), rendimiento de amenazas (27, 35 Gbps), IPS (28, 37 Gbps) y rendimiento de VPN (23, 27 Gbps).

Tanto el NSsp 10700 como el NSsp 11700 ofrecen conectividad 100G, 25G y 10G, lo que brinda protección contra amenazas de varios gigabits para entornos grandes.

Con la incorporación de los nuevos modelos NSsp, SonicWall ofrece ahora cuatro firewalls de nivel gubernamental y empresarial: NSsp 10700, 11700, 13700 y 15700. Esta variedad ofrece a las grandes organizaciones opciones para escalar la seguridad de alto rendimiento: hasta 105 Gbps de rendimiento del firewall; el NSsp 15700 es ideal incluso para los entornos más exigentes y complejos.

 

Fuente Comunicae

Powered by WPeMatico

NVIDIA establece el futuro de la IA Edge y las máquinas autónomas con la nueva Jetson AGX Orin Robotics

/COMUNICAE/

NVIDIA establece el camino para el futuro de la Inteligencia Artificial Edge y las máquinas autónomas con la nueva computadora Jetson AGX Orin Robotics. La arquitectura NVIDIA Ampere llega a Jetson, para ofrecer hasta 200 TOPS y un rendimiento 6 veces superior

NVIDIA presentó NVIDIA Jetson AGX Orin™, la supercomputadora de IA más pequeña, potente y energéticamente eficiente del mundo para la robótica, las máquinas autónomas, instrumental médico y otras formas de computación integradas en el edge.

Desarrollada con la arquitectura NVIDIA Ampere, Jetson AGX Orin proporciona 6 veces más de potencia de procesamiento y mantiene el formato y la compatibilidad de pines con su predecesora, Jetson AGX Xavier™. Ofrece 200 billones de operaciones por segundo, similar a la de un servidor habilitado para GPU, pero en un tamaño que cabe en la palma de la mano.

La nueva computadora Jetson acelera la pila completa de software de IA de NVIDIA, lo que permite a los desarrolladores implementar los modelos más grandes y complejos necesarios para resolver los desafíos de robótica e IA en el edge, como la comprensión de idiomas naturales, la percepción 3D, la fusión de múltiples sensores y más.

“A medida que la robótica y la computación integrada transforman la fabricación, el comercio minorista, las ciudades inteligentes y otros sectores esenciales de la economía, la demanda por procesamiento continúa aumentando”, dijo Deepu Talla, Vicepresidente y Gerente General de Computación Integrada y de Edge de NVIDIA. “Jetson AGX Orin aborda esta necesidad, ya que permite a los 850,000 desarrolladores con Jetson y más de 6,000 compañías que la usan para desarrollar productos comerciales crear e implementar máquinas autónomas y aplicaciones de IA en el edge que alguna vez parecieron imposibles”.

Jetson AGX Orin cuenta con una GPU de arquitectura NVIDIA Ampere y varias CPU Arm Cortex-A78AE junto con aceleradores de visión y de deep learning de próxima generación. Las interfaces de alta velocidad, el ancho de banda de memoria más rápido y la compatibilidad con sensores multimodales proporcionan la capacidad de potenciar múltiples procesos de aplicaciones de IA en simultáneo.

Soporte Integral para el Software y para el Ecosistema.

Los clientes que utilizan Jetson AGX Orin pueden aprovechar las últimas herramientas de NVIDIA, la pila de computación acelerada NVIDIA CUDA-X™ y el SDK NVIDIA JetPack™ para el desarrollo y la optimización de aplicaciones, incluidos los workflows de desarrollo nativos de cloud. Los modelos previamente entrenados del catálogo NVIDIA NGC™ están optimizados y listos para ajustarse con el kit de herramientas NVIDIA TAO y los conjuntos de datos de los clientes. Esto reduce el tiempo y el costo de las implementaciones de IA de calidad de producción, mientras que las tecnologías nativas de cloud permiten actualizaciones perfectas a lo largo de la vida útil de un producto.

El ecosistema de socios informáticos integrados de Jetson abarca una amplia gama de servicios y productos, que incluyen cámaras y otros sensores multimodales, placas portadoras, servicios de diseño de hardware, inteligencia artificial y software de sistemas, herramientas de desarrollo y desarrollo de software personalizado.

“Impulsado por los avances en IA, el mercado de la robótica está creciendo exponencialmente”, dijo Jim McGregor, analista principal de TIRIAS Research. “NVIDIA es el líder reconocido en IA y continúa aprovechando esta experiencia para avanzar en la robótica a través de un ecosistema robusto y soluciones completas e integrales, incluida una gama de plataformas de hardware que aprovechan herramientas comunes y modelos de redes neuronales. La nueva plataforma Jetson aporta el rendimiento y la versatilidad de la arquitectura NVIDIA Ampere para permitir aún más avances en robots móviles autónomos para una amplia gama de aplicaciones que van desde la agricultura y la fabricación hasta el área de la salud y las ciudades inteligentes”.

Para casos de uso específicos, los frameworks de software incluyen NVIDIA Isaac Sim™ en Omniverse para robótica, NVIDIA Clara HoloscanSDK para atención médica y NVIDIA DRIVE™ para conducción autónoma. La última versión de Isaac incluye un soporte significativo para la comunidad de desarrolladores de Robot Operating System (ROS). NVIDIA también ha lanzado el nuevo Omniverse Replicator para la generación de datos sintéticos y Isaac GEMs, paquetes de software acelerados por hardware que facilitan a los desarrolladores de ROS la construcción de robots habilitados para IA de alto rendimiento en la plataforma Jetson.

Plataforma informática para instrumentos de detección en tiempo real, dispositivos médicos.

Jetson AGX Orin impulsa NVIDIA Clara Holoscan, una nueva plataforma informática para la industria de la salud que permite a los desarrolladores crear dispositivos médicos definidos por software que ejecutan aplicaciones de transmisión de baja latencia en el borde. Esta potencia de procesamiento es necesaria para que los dispositivos, como los escáneres de TC y las cámaras de la unidad de cuidados intensivos, muevan los datos del sensor a la canalización de datos, lo que permite el soporte de decisiones de inteligencia artificial. Esto permite a los desarrolladores crear microservicios de IA que ejecutan aplicaciones de transmisión de baja latencia en dispositivos mientras pasan tareas más complejas al centro de datos.

Nueva era de transporte basada en NVIDIA DRIVE Orin.

DRIVE AGX Orin, también impulsado por la arquitectura NVIDIA Ampere como Jetson AGX Orin, es la plataforma elegida plataforma elegida para la industria del transporte. Es el procesador avanzado detrás de NVIDIA DRIVE Concierge and DRIVE Chauffeur, dos plataformas de inteligencia artificial dedicadas a redefinir la experiencia del pasajero dentro del automóvil a través de asistentes de inteligencia artificial y a impulsar la conducción segura y autónoma, respectivamente. Docenas de fabricantes mundiales de automóviles y camiones, nuevas empresas de vehículos de nueva energía y empresas de robotaxi están utilizando su cómputo de inteligencia artificial de alto rendimiento para su próxima generación de soluciones de movilidad inteligentes definidas por software.

Disponibilidad de Jetson AGX Orin
El módulo NVIDIA Jetson AGX Orin y el kit de desarrollo estarán disponibles en el primer trimestre de 2022. Registrarse para recibir notificaciones sobre la disponibilidad, acceder a especificaciones detalladas y descargar el documento técnico.

Regístrarse de forma gratuita para obtener más información sobre Jetson AGX Orin durante NVIDIA GTC, que se realizará en línea hasta el 11 de noviembre. Mirar el discurso destacado de GTC a cargo de Jensen Huang, fundador y CEO de NVIDIA, que se transmitirá en vivo el 9 de noviembre y estará disponible en repetición.

Fuente Comunicae

Powered by WPeMatico

NVIDIA Quantum-2 lleva la supercomputación a nuevas alturas y a la nube

/COMUNICAE/

El nuevo Switch InfiniBand de 400 Gbps y la Plataforma de Red Cuentan con un rendimiento Seguro, nativo de Cloud, con clientes múltiples y Bare-Metal para la IA, el análisis de datos y las aplicaciones HPC

El día de hoy, NVIDIA presentó NVIDIA Quantum 2, la próxima generación de su plataforma de red InfiniBand, que ofrece el rendimiento extremo, la accesibilidad amplia y la seguridad robusta que necesitan los proveedores de computación de cloud y los centros de supercomputación.

NVIDIA Quantum-2 es la plataforma de red integral más avanzada jamás construida: una plataforma de red InfiniBand de 400 Gbps que consta del switch NVIDIA Quantum-2, el adaptador de red ConnectX-7®, la unidad de procesamiento de datos (DPU) BlueField-3® y todo el software que admite la nueva arquitectura.

El lanzamiento de NVIDIA Quantum-2 se produce cuando los centros de supercomputación se abren cada vez más a multitudes de usuarios, muchos de ellos de fuera de sus organizaciones. Al mismo momento, los proveedores de servicios de cloud están comenzando a ofrecer más servicios de supercomputación a sus millones de clientes.

NVIDIA Quantum 2 incluye las funciones clave necesarias para cargas de trabajo exigentes que se ejecutan en cualquier ámbito. Súper cargados con la potencia de las tecnologías nativas de la nube, proporciona un alto rendimiento con 400 gigabits por segundo de rendimiento, y clientes múltiples avanzados para admitir muchos usuarios.

“Los requisitos de los centros de supercomputación y las instancias públicas de hoy en día están convergiendo”, dijo Gilad Shainer, Vicepresidente Senior de Redes de NVIDIA. “Deben proporcionar el mayor rendimiento posible para los desafíos de la HPC, la IA y el análisis de datos de próxima generación, al tiempo que aíslan de forma segura las cargas de trabajo y responden a las diferentes demandas del tráfico de usuarios. Esta visión del data center moderno ahora es real con NVIDIA Quantum-2 InfiniBand”.

Rendimiento de NVIDIA Quantum 2 y Capacidades Nativas de Cloud.
Con 400 Gbps, NVIDIA Quantum 2 InfiniBand duplica la velocidad de red y triplica el número de puertos de red. Acelera el rendimiento 3 veces y reduce la necesidad de usar switches de estructura de data centers en 6 veces, al tiempo que reduce el consumo de energía de cada data center y reduce su espacio en un 7 por ciento para cada uno.

El aislamiento de clientes múltiples de NVIDIA Quantum 2 y las capacidades avanzadas nativas de cloud para el control de congestión garantizan un rendimiento confiable, más allá de los picos en la cantidad de usuarios o las demandas de las cargas de trabajo.

La tecnología de Computación en Red NVIDIA Quantum-2 SHARPv3™ proporciona 32 veces más motores de aceleración para aplicaciones de IA en comparación con la generación anterior. La gestión avanzada de la estructura InfiniBand para data centers, incluido el mantenimiento predictivo, está habilitada con la plataforma NVIDIA UFM® Cyber-AI.

Un sistema de temporización de precisión de nanosegundos integrado en NVIDIA Quantum-2 puede sincronizar aplicaciones distribuidas, como el procesamiento de bases de datos, lo que ayuda a reducir la sobrecarga de tiempos de espera e inactividad. La sincronización en nanosegundos es una nueva capacidad que permite que los data centers en el cloud se conviertan en parte de la red de telecomunicaciones y albergar servicios de radio 5G definidos por software.

Switch Quantum-2 InfiniBand
En el corazón de la plataforma Quantum-2 se encuentra el nuevo switch Quantum-2 InfiniBand. Con 57,000 millones de transistores en silicio de 7 nanómetros, es un poco más grande que la GPU NVIDIA A100 con 54,000 millones de transistores.

Cuenta con 64 puertos a 400 Gbps o 128 puertos a 200 Gbps y se ofrecerá en una variedad de sistemas de switch de hasta 2,048 puertos, más de 5 veces la capacidad de switch con respecto a la generación anterior, Quantum-1.

La velocidad de red combinada, la capacidad de switch y la escalabilidad son ideales para construir la próxima generación de sistemas HPC gigantes.

El switch NVIDIA Quantum 2 ahora está disponible en una amplia gama de proveedores líderes de infraestructura y sistemas de todo el mundo, incluidos Atos, DataDirect Networks (DDN), Dell Technologies, Excelero, GIGABYTE, HPE, IBM, Inspur, Lenovo, Penguin Computing, QCT, Supermicro, VAST Data y WekaIO.

Quantum-2 ConnectX-7 y BlueField-3
La plataforma NVIDIA Quantum-2 proporciona dos opciones de terminal de red: NVIDIA ConnectX-7 NIC y NVIDIA BlueField-3 DPU InfiniBand.

ConnectX-7, con 8,000 millones de transistores en un diseño de 7 nanómetros, duplica la velocidad de datos del chip de red HPC líder en el mundo, el NVIDIA ConnectX-6. También duplica el rendimiento de RDMA, GPUDirect® Storage, GPUDirect RDMA y la Computación en Red. Una muestra del ConnectX-7 estará disponible en enero.

BlueField-3 InfiniBand, con 22,000 millones de transistores en un diseño de 7 nanómetros, ofrece 16 CPU Arm de 64 bits para descargar y aislar la pila de infraestructura del data center. Las muestras del BlueField-3 estarán disponibles en mayo.

Fuente Comunicae

Powered by WPeMatico

NVIDIA anuncia una plataforma para crear avatares de IA

/COMUNICAE/

NVIDIA Omniverse Avatar permite asistentes de IA Conversacionales en tiempo real

El día de hoy, NVIDIA presentó NVIDIA Omniverse Avatar, una plataforma tecnológica para generar avatares interactivos de Inteligencia Artificial.

Omniverse Avatar conecta las tecnologías de la compañía en IA de habla, visión de computación, comprensión de idiomas naturales, motores de recomendación y tecnologías de simulación. Los avatares creados en la plataforma son personajes interactivos con gráficos 3D con ray tracing que pueden ver, hablar, conversar sobre una amplia gama de temas y comprender la intención hablada naturalmente.

Omniverse Avatar abre la puerta a la creación de asistentes de IA que pueden aprender de los humanos y son fácilmente personalizables para cualquier industria. Estos podrían ayudar con los miles de millones de interacciones diarias de servicio al cliente (pedidos de restaurantes, transacciones bancarias, citas personales y reservas, y más), lo que genera mayores oportunidades comerciales y mejorar la satisfacción del cliente.

“El amanecer de los asistentes virtuales inteligentes ha llegado”, dijo Jensen Huang, fundador y CEO de NVIDIA. “Omniverse Avatar combina los gráficos funcionales, la simulación y las tecnologías de IA de NVIDIA para lograr algunas de las aplicaciones en tiempo real más complejas jamás creadas. Los casos de uso de robots colaborativos y asistentes virtuales son increíbles y de gran alcance”.

Omniverse Avatar es parte de NVIDIA Omniverse™, una plataforma de colaboración y simulación de mundo virtual para flujos de trabajo 3D. En su discurso de Apertura en NVIDIA GTC, Huang compartió dos ejemplos de Omniverse Avatar: Proyecto Tokkio para la atención al cliente, NVIDIA DRIVE Concierge para servicios inteligentes siempre activos en vehículos y Proyecto Maxine para las videoconferencias.

En la primera demostración del Proyecto Tokkio, Huang mostró a sus colegas participando en una conversación en tiempo real con un avatar creado como una réplica de juguete de sí mismo, mientras conversaban sobre temas como el diagnóstico de Biología y la Ciencia del Clima.

En la siguiente demostración del Proyecto Tokkio, destacó un avatar de servicio al cliente en un quiosco de restaurante, capaz de ver, conversar y entender a dos clientes mientras pedían hamburguesas vegetarianas, papas fritas y bebidas. Las demostraciones fueron impulsadas por el software de IA de NVIDIA y Megatron-Turing NLG 530B, el modelo de lenguaje generativo de NVIDIA, que actualmente es el más grande del mundo.

En una demostración de la plataforma DRIVE Concierge AI, un asistente digital en la pantalla del tablero central ayuda al conductor a seleccionar el mejor modo de conducción para llegar a su destino a tiempo, y luego sigue su solicitud de establecer un recordatorio una vez que el alcance del automóvil desciende por debajo de las 100 millas.

Por separado, Huang mostró la capacidad del Proyecto Maxine para agregar funciones de video y audio de última generación a las aplicaciones de colaboración virtual y creación de contenido. Un hablante de inglés se muestra en una videollamada en un café ruidoso, pero se puede escuchar claramente sin ruido de fondo. Mientras habla, sus palabras se transcriben y traducen en tiempo real al francés, alemán y español con su misma voz y entonación.

Elementos Clave de Omniverse Avatar.

Omniverse Avatar utiliza elementos de la IA de habla, visión de computación, comprensión de idiomas naturales, motores de recomendación, animación facial y gráficos entregados a través de las siguientes tecnologías:

● Su reconocimiento de voz se proporciona a través de NVIDIA Riva, un conjunto de desarrollo de software que reconoce el habla en varios idiomas. Riva también se utiliza para generar respuestas de voz similares a las humanas utilizando capacidades de texto a voz.

● Su comprensión del lenguaje natural se basa en el modelo de grande de idioma Megatron 530B de NVIDIA que puede reconocer, comprender y generar lenguaje humano. Megatron 530B es un modelo previamente entrenado que puede, con poco o ningún entrenamiento, completar oraciones, responder preguntas de un gran dominio de temas, resumir historias largas y complejas, traducir a otros idiomas y manejar muchos dominios para los que no está entrenado específicamente.

● Su motor de recomendación es proporcionado por NVIDIA Merlin™, un framework que permite a las empresas desarrollar sistemas de recomendación de deep learning capaces de manejar grandes cantidades de datos para hacer sugerencias más inteligentes.

● Sus capacidades de percepción están habilitadas por NVIDIA Metropolis, un framework de visión de computación para análisis de videos.

● Su animación de avatar está impulsada por tecnologías de renderizado, de animación facial 2D y 3D impulsadas por IA, NVIDIA Video2Face y Audio2Face™.

Estas tecnologías se componen en una aplicación y se procesan en tiempo real utilizando el Framework NVIDIA Unified Compute.

Obtén más información sobre Omniverse Avatar aquí.

Registrarse de forma gratuita para obtener más información sobre NVIDIA Omniverse durante NVIDIA GTC, que se realizará en línea hasta el 11 de noviembre. Mirar el discurso destacado de GTC a cargo de Huang, que se transmitirá en vivo el 9 de noviembre y estará disponible en repetición.

Fuente Comunicae

Powered by WPeMatico

SonicWall ayuda a las organizaciones a migrar a la nube de manera segura

/COMUNICAE/

SonicWall, líder mundial en soluciones de ciberseguridad físicas, virtuales y centradas en la nube, hace énfasis en regresar al cliente la libre elección para asegurar y escalar su seguridad con una combinación de entornos de nube, híbridos o tradicionales

La innovación en la nube de SonicWall está impulsada por la necesidad de resolver desafíos complejos de seguridad y conectividad al brindar potencia, flexibilidad y opciones a clientes y socios. SonicWall ha colaborado con organizaciones para construir algunas de las redes híbridas más seguras y robustas en todo el mundo.

Con el crecimiento del trabajo desde casa, las empresas requieren una forma simple y segura de conectar a su fuerza laboral con los recursos que necesitan, donde sea que se encuentren.

SonicWall adopta la seguridad Zero-Trust como un principio de ciberseguridad en una realidad sin perímetro y basada en la nube. En este sentido, SonicWall ayuda a las organizaciones a conectar fácil y rápidamente a los usuarios remotos con recursos locales, aplicaciones alojadas en la nube, diferentes locaciones y nubes públicas.

En tan solo 15 minutos, SonicWall Cloud Edge Secure Access, la solución de acceso a la red Zero-Trust (ZTNA), cualquier organización escala rápidamente la seguridad más allá del perímetro a través de principios modernos de Zero-Trust. Esto da como resultado zonas de confianza sincronizadas que autentican a cada usuario, dispositivo y ubicación para un acceso seguro solo a los servicios y recursos específicos que requieren.

“Muchas veces las organizaciones se han visto obligadas a cambiar la forma en que operan para asegurar el acceso a sus redes, datos, dispositivos y personas”, dijo el presidente y CEO de SonicWall, Bill Conner. “Hemos estado muy ocupados innovando en la nube y en soluciones virtuales que ayuden a las organizaciones a proteger combinaciones complejas de redes, incluidas implementaciones virtuales, híbridas, en la nube y locales”.

Las crecientes ofertas virtuales, en la nube e híbridas de SonicWall aprovechan lo mejor del enfoque de ciberseguridad ilimitada de la empresa para devolver las opciones de implementación al cliente mientras resuelven los casos de uso del mundo real que enfrentan las pymes, las empresas, los gobiernos y los MSSP. Las soluciones en la nube de SonicWall ofrecen:

  • Resuelve los desafíos de seguridad y conectividad para entornos híbridos y nativos de la nube.
  • Acceso seguro a aplicaciones en la nube y locales y cargas de trabajo virtualizadas a través de capacidades actuales zero-trust.
  • Protege a las fuerzas de trabajo cada vez más distribuidas y remotas a través de potentes capas de seguridad virtualizadas y capacidades sin intervención.
  • Simplifica la detección de amenazas y la respuesta unificando los eventos de seguridad y el análisis en un solo panel de control basado en la nube, lo que permite una fácil visualización y administración de alertas de alto riesgo.

Fuente Comunicae

Powered by WPeMatico

Control financiero impulsa al 82% de los mexicanos a optar por servicios telefónicos de prepago: DIng

/COMUNICAE/

Un nuevo estudio realizado por Ding, plataforma líder de recarga móvil, encontró que cuatro de cada cinco mexicanos utilizan servicios telefónicos de prepago, lo que coloca al país entre los mayores usuarios a nivel mundial en comparación con otros principales mercados

De acuerdo con la segunda edición del Índice Global de Prepago de Ding, el 82% de los mexicanos usa servicios de prepago, muy por encima del promedio de 77% en los nueve principales mercados estudiados.

El uso del servicio telefónico prepago en México está incluso por encima de las economías comparables internacionalmente como Indonesia (76%), India (76%) y Filipinas (67%). A pesar de este porcentaje, el análisis revela que hay espacio para que crezca la tendencia de prepago, como lo demuestra el uso en Arabia Saudita (89%) y Brasil en América Latina (86%), economía que está liderando el camino en el uso de prepago en la región.

“Las opciones móviles de prepago son la preferencia número uno en México”, señaló Mark Roden, fundador y director ejecutivo de Ding. “La flexibilidad que ofrecen es mucho más atractiva para la mayoría de los consumidores que las costosas opciones de contratos a largo plazo, particularmente derivadas de la incertidumbre económica nacional y personal”.

El factor más importante que mencionaron los mexicanos al optar por las opciones de prepago fue el pagar solo por lo que usan o necesitan (38%). A esto le siguió la preferencia de poder elegir qué y cuánto gastan (30%). Esto se relaciona con la percepción de desconfianza hacia una economía actual estable incluida en el propio estudio. Solo dos de cada cinco (38%) de los mexicanos se sienten positivos sobre la economía, muy por detrás de los más optimistas de los países estudiados, donde se encuentran los Emiratos Árabes Unidos (53%) e India (52%), aunque más positivos que los brasileños (28%).

“Un mayor control financiero significa que la gente no deja sus finanzas al azar”, dijo Roder. “Por eso no es de extrañar que las opciones de prepago sean la primera opción para muchos. La crisis económica provocada por la pandemia ha aumentado definitivamente el sentido de precaución financiera entre las comunidades. Asegurarse de que sólo se paga por lo que se usa o se necesita sin despilfarrar es primordial”.

Según la encuesta, tres de cada cuatro mexicanos (76%) confían en las plataformas de redes sociales. Sin embargo, se encontró que México es el quinto de los nueve países encuestados en términos de confianza depositada en las redes sociales, muy por detrás del país más confiable, Indonesia (86%). En cuanto a las aplicaciones más populares, WhatsApp se destaca como la aplicación más utilizada por los mexicanos (83%). Le siguen Facebook (75%), Instagram (59%) y Netflix (57%). De hecho, WhatsApp fue citado como el método preferido para mantenerse en contacto por tres de cada cinco mexicanos (59%).

La encuesta global se realizó bajo encargo de Ding, el servicio de recarga móvil más grande del mundo, la encuesta examina las opiniones de más de 6,250 encuestados en nueve mercados principales: México, Brasil, India, Indonesia, Filipinas, Emiratos Árabes Unidos, Arabia Saudita, Alemania y Nigeria.

Fuente Comunicae

Powered by WPeMatico

Dahua ayuda a descifrar dónde colocar cámaras panorámicas

/COMUNICAE/

Cuando se trata de cámaras panorámicas, hay varias opciones en el mercado para elegir, algunas incluyen múltiples sensores en una sola carcasa, otras producen imágenes panorámicas con un solo sensor. Cada una de ellas tiene sus puntos fuertes que le permiten brillar en situaciones particulares

El desafío es saber cuál es el más adecuado y para qué aplicación en particular, por esta razón Dahua Technology responderá esta pregunta para asegurarse de que se puedan aprovechar al máximo este tipo de cámaras.

Tecnología Stitched Multi-sensor
Las cámaras multisensor Stitched combinan secuencias de video de múltiples sensores para producir una imagen panorámica de alta resolución de un área de 180 o 360º. Las imágenes unidas son la opción óptima para escenas concurridas donde se necesita vigilancia de área amplia, como estadios, centros comerciales o vigilancia de la ciudad.

Para los operadores de seguridad, la fatiga mental puede aparecer rápidamente cuando deben cambiar constantemente el enfoque entre varias vistas de cámara para monitorear una escena. En este tipo de aplicaciones, las cámaras Stitched alivian esa tensión al proporcionar una imagen única que abarca todo. Dahua ofrece cámaras de cuatro u ocho sensores que se alinean con precisión dentro de una sola carcasa para producir una vista panorámica de 180 a 360º sin interrupciones con un mínimo de puntos ciegos.

Cámaras Unstitched Multi-Sensor
Las cámaras multisensor unstitched se componen de dos o más cámaras de un solo sensor en una carcasa para aumentar la eficiencia de la vigilancia de área amplia. Cada sensor proporciona una salida única y se puede colocar de forma independiente en función de los requisitos específicos de una escena o aplicación.

Cuando se requiere personalización, las imágenes unstitched son la mejor opción, ya que brindan la funcionalidad de múltiples cámaras de un solo sensor con la conveniencia de usar una sola cámara. Estas cámaras se destacan por proporcionar una vista multi-cámaras de una escena sin el desorden de varias cámaras, lo que reduce el costo total de propiedad y ofrece una solución más flexible. Son ideales para la intersección de pasillos y escenarios con múltiples puntos de monitoreo específicos.

Cámaras Fisheye
A diferencia de los dos primeros tipos de cámara, las cámaras ojo de pez de Dahua cuentan con un solo sensor CMOS con opciones de resolución de 5MP, 8MP o 12MP dentro de una carcasa compacta. Estas cámaras utilizan una lente especial ojo de pez o panomórfica para producir video ram en una forma circular que está ópticamente distorsionada. Como resultado, la imagen debe corregirse con software para proporcionar una variedad de opciones de vista previa y experiencia de visualización.

Ideal para capturar escenas de tamaño pequeño a mediano sin puntos ciegos en un campo de visión de 180 o 360 °, las cámaras de ojo de pez como la cámara de red de ojo de pez WizMind de 12 MP de Dahua (número de modelo: DH-IPC-EBW81242-AS-S2) están diseñadas para reemplazar múltiples cámaras de sensor único, que proporcionan un mayor retorno de inversión. Otros beneficios que ofrecen los ojos de pez incluyen un menor riesgo de fallas, un tamaño compacto y una cobertura real de 360 °.

Fuente Comunicae

Powered by WPeMatico

Nueva encuesta de DigiCert 2021: El estado de la automatización de la infraestructura PKI en las empresas

/COMUNICAE/

Las empresas que no utilizan funciones de automatización y detección se encuentran con diversos problemas, como certificados de origen dudoso, certificados sin gestionar e interrupciones originadas por certificados que caducan de forma inesperada. La encuesta estuvo a cargo de ReRez Research e incluyó a profesionales de TI de 400 empresas con al menos 1000 empleados en América del Norte, EMEA, Asia-Pacífico y América Latina

DigiCert, Inc., el proveedor número uno del mundo de soluciones TLS/SSL, IoT y PKI, ha publicado hoy su encuesta de 2021 sobre el estado de la automatización de la infraestructura PKI, que revela que la empresa media gestiona más de 50 000 certificados de PKI públicos y privados. Si no se hace bien, la gestión manual de tal volumen de certificados puede acarrear costosas interrupciones. Dos tercios de las empresas ya han sufrido interrupciones provocadas por certificados que caducan de forma inesperada, y el 25 % experimentó entre cinco y seis interrupciones de este tipo solo en los últimos seis meses. Estos problemas, entre otros, están haciendo que cada vez haya más interés por automatizar la PKI.

La probabilidad de haber implementado ya la automatización de la PKI es seis veces mayor en las empresas más importantes, en las que, por otro lado, se cumplen los SLA y se tiene un mayor conocimiento de las propias carencias.

A casi dos tercios de las empresas les falta visibilidad y les preocupa el tiempo que dedican a gestionar certificados. El 37 % de las empresas tienen más de tres departamentos a cargo de la gestión de los certificados, lo que genera confusión. En promedio, estas empresas tienen hasta 1200 certificados sin gestionar, y casi la mitad (el 47 %) afirma detectar con frecuencia certificados de origen dudoso, que son aquellos que se implementaron sin el consentimiento o la intervención del equipo de TI.

“El volumen de certificados se ha disparado” —declara Brian Trzupek, vicepresidente sénior de productos de DigiCert—. Además, desde 2018, los períodos de validez de los certificados TLS públicos pasaron de tres años a solo uno. Debido a esto, a las empresas les cuesta cada vez más gestionar los certificados digitales de forma manual y les interesa automatizar sus procesos, pero quieren tener la certeza de que saben cómo hacerlo y de que son conscientes de los costos y las ventajas a largo plazo en términos de seguridad».

“En cualquier empresa, existe el riesgo constante de sufrir interrupciones de servicio por culpa de certificados de PKI caducados, y más ahora que hay que renovarlos más a menudo” —señala Michele Liberman, responsable de operaciones SaaS de Smart Communications—. El costo de gestionar los certificados es elevado, ya que hay que supervisar cada uno de ellos en términos de caducidad, solicitud, creación e implementación. Por eso las empresas salen ganando con la automatización, ya que se reducen tanto los riesgos como la carga de trabajo de los técnicos internos.

La mayor parte de las empresas se están planteando adoptar la automatización de la PKI. De hecho, el 91 % está, al menos, debatiéndolo. Solo el 9 % afirma no estar evaluando esta alternativa y confiesa no tener planes de hacerlo. La mayoría (el 70 %) espera implementar una solución en los próximos 12 meses. Un cuarto (25 %) de las empresas ya están implementando una solución o incluso ya lo hicieron.

 

Cada empresa es un mundo

La encuesta incluía una serie de preguntas destinadas a conocer el rendimiento de cada empresa con respecto a diversas métricas de PKI. Una vez combinados todos los resultados, se dividió a las empresas participantes en tres grupos:

  • Líderes: aquellas que no lo podrían estar haciendo mejor
  • Rezagadas: aquellas que siguen unas prácticas muy desaconsejables
  • Intermedias: aquellas que no lo están haciendo mal, pero podrían hacerlo mejor

Luego, se comparó a las empresas líderes y las rezagadas para estudiar las diferencias entre ambas y analizar en qué ámbitos lo estaban haciendo mejor las primeras.

¿El resultado? El rendimiento de las empresas líderes es entre dos y tres veces mayor que el de las rezagadas en cualquier ámbito (p. ej., minimización de los riesgos para la seguridad de la PKI, eliminación de las interrupciones del servicio de PKI o cumplimiento de los SLA en materia de PKI). Las empresas rezagadas, por su parte, acusan una gran variedad de desventajas, como caídas de la productividad, problemas relacionados con el cumplimiento de la normativa o la pérdida de clientes e ingresos.

Qué se puede aprender de los líderes en PKI
Los líderes en PKI tienden a considerar que esta tecnología es importante para el futuro de su negocio. Además, a estas empresas les preocupa dos veces más que al resto el tiempo que lleva gestionar los certificados de PKI. Lea el informe para obtener más información sobre lo que están haciendo las empresas líderes y sobre las ventajas que esas prácticas reportan a su negocio.

Recomendaciones
DigiCert recomienda a las empresas empezar a trabajar cuanto antes en automatizar sus procesos de gestión de certificados (incluidos los flujos de trabajo empresariales) de cara a garantizar que sigan las prácticas recomendadas para las implementaciones de PKI. Estas son algunas de las medidas recomendadas:

Certificados:

  • Identificar todos y cada uno de los certificados del entorno (TLS, de firma de código, de cliente, etc.) y hacer inventario de ellos.
  • Reparar las claves y los certificados que no se ajusten a la política empresarial.
  • Proteger el entorno siguiendo las prácticas recomendadas para la emisión y la revocación. Estandarizar y automatizar los procesos de inscripción, emisión y renovación.

Procesos de gestión de certificados: automatizar los procesos de certificados manuales o no gestionados (como los de firma de código o de documentos, de correo electrónico, etc.) o de otras soluciones de gestión de accesos e identidades con un software que, además, centralice la visibilidad y el control.

La encuesta estuvo a cargo de ReRez Research e incluyó a profesionales de TI de 400 empresas con al menos 1000 empleados en América del Norte, EMEA, Asia-Pacífico y América Latina.

Consultar más información y el informe completo en https://www.digicert.com/campaigns/es-pki-automation

Fuente Comunicae

Powered by WPeMatico

NVIDIA amplía su liderazgo en Rendimiento de Inferencias de IA, con resultados de MLPerf

/COMUNICAE/

NVIDIA Amplía su Liderazgo en Rendimiento de Inferencias de IA, con Resultados de Debut en Servidores Basados en Arm. Los últimos puntos de referencia de MLPerf muestran que NVIDIA ha extendido sus altas marcas de agua en rendimiento y eficiencia energética para la inferencia de inteligencia artificial para Arm, así como para computadoras x86.

Es la tercera vez consecutiva que NVIDIA establece récords en rendimiento y eficiencia energética en las pruebas de inferencia de MLPerf, un grupo de evaluación comparativa de la industria formado en mayo de 2018.

Y es la primera vez que las pruebas de la categoría del data center se ejecutan en un sistema basado en Arm, lo que brinda a los usuarios más opciones para implementar la IA, la tecnología más transformadora de nuestro tiempo.

Cuento de la Cinta
Los sistemas impulsados por la plataforma de IA de NVIDIA superaron las siete pruebas de rendimiento de inferencia en la última ronda con sistemas de NVIDIA y nueve de sus socios del ecosistema, incluidos Alibaba, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro.

La inferencia es lo que sucede cuando una computadora ejecuta un software de inteligencia artificial para reconocer un objeto o hacer una predicción. Es un proceso que utiliza un modelo de deep learning para filtrar datos y encontrar resultados que ningún ser humano podría capturar.

Los puntos de referencia de inferencia de MLPerf se basan en las cargas de trabajo y los escenarios de IA más populares de la actualidad, que abarcan la visión por computadora, las imágenes médicas, el procesamiento del lenguaje natural, los sistemas de recomendación, el aprendizaje por refuerzo y más. Por lo tanto, independientemente de las aplicaciones de inteligencia artificial que implementen, los usuarios pueden establecer sus propios registros con NVIDIA.

¿Por qué es importante el Rendimiento?
Los modelos y conjuntos de datos de IA continúan creciendo a medida que los casos de uso de IA se expanden desde el data center hasta el edge y más allá. Es por eso que los usuarios necesitan un rendimiento que sea confiable y flexible de implementar.

MLPerf brinda a los usuarios la confianza para tomar decisiones de compra informadas. Cuenta con el respaldo de docenas de líderes de la industria, incluidos: Alibaba, Arm, Baidu, Google, Intel y NVIDIA, por lo que las pruebas son transparentes y objetivas.

Flexionando Arm para la IA Empresarial
La arquitectura Arm está comenzando a abrirse paso en los data centers de todo el mundo, en parte gracias a su eficiencia energética, incrementos de desempeño y expandiendo el ecosistema de software.

De hecho, el servidor basado en Arm que se usó, fue incluso más rápido que un sistema x86 similar en una de las pruebas.

NVIDIA tiene una larga tradición de compatibilidad con todas las arquitecturas de CPU, por lo que están orgullosos de haber ayudado a Arm a demostrar su destreza en inteligencia artificial en un punto de referencia de la industria revisado por sus pares.

“Arm, como miembro fundador de MLCommons, está comprometido con el proceso de creación de estándares y puntos de referencia para abordar mejor los desafíos e inspirar la innovación en la industria de la computación acelerada”, dijo David Lecomber, Director Senior de HPC y Herramientas en Arm.

“Los últimos resultados de inferencia demuestran la preparación de los sistemas basados en Arm impulsados por CPUs basadas en Arm y GPUs de NVIDIA para abordar una amplia gama de cargas de trabajo de IA en el centro de datos”, agregó.

Los Socios Muestran sus Poderes de IA
La tecnología de IA de NVIDIA está respaldada por un ecosistema grande y en continuo crecimiento.

Siete fabricantes de equipos originales presentaron un total de 22 plataformas aceleradas por GPUs en los últimos puntos de referencia. La mayoría de estos modelos de servidor están certificados por NVIDIA y están validados para ejecutar una amplia gama de cargas de trabajo aceleradas. Y muchos de ellos son compatibles con NVIDIA AI Enterprise, software lanzado oficialmente el mes pasado.

Sus socios que participaron en esta ronda fueron Dell Technologies, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro, así como el proveedor de servicios en el cloud Alibaba.

El Poder del Software
Un ingrediente clave del éxito de la IA de NVIDIA en todos los casos de éxito es la batería de software completa de NVIDIA.

Para la inferencia, eso incluye modelos de IA previamente entrenados para una amplia variedad de casos de éxito. El Kit de Herramientas NVIDIA TAO personaliza esos modelos para aplicaciones específicas mediante el aprendizaje por transferencia.

El software NVIDIA TensorRT optimiza los modelos de IA para que hagan un mejor uso de memoria y se ejecuten más rápido. Se habitualmente para las pruebas de MLPerf y está disponible tanto para sistemas x86 como para los basados ​​en Arm.

También se empleó el software para el Servidor de Inferencia NVIDIA Triton y la capacidad de GPU de Instancias Múltiples (MIG) en estos puntos de referencia. Ofrecen a todos los desarrolladores el tipo de rendimiento que normalmente requiere de codificadores expertos.

Gracias a las mejoras continuas en esta bateríaa de software, NVIDIA logró ganancias de hasta un 20 por ciento en rendimiento y un 15 por ciento en eficiencia energética con respecto a los anteriores puntos de referencia de inferencia de MLPerf hace solo cuatro meses.

Todo el software que se usó en las últimas pruebas está disponible en el repositorio MLPerf, por lo que cualquiera puede reproducir los resultados de referencia. Continuamente se agrega este código a los frameworks y contenedores de deep learning disponibles en NGC, el centro de software para aplicaciones de GPUs.

Es parte de una oferta de IA de batería completa, compatible con todas las arquitecturas de un procesador, probada en los últimos puntos de referencia de la industria y disponible para abordar trabajos reales de IA en la actualidad.

“Es muy gratificante ver cómo la División Enterprise de NVIDIA ha emergido como líder en soluciones de inteligencia artificial en todo el mundo. NVIDIA seguirá innovando en otras plataformas que aportan a diferentes sectores”, enfatizó Marcio Aguiar, Director de la División Enterprise de NVIDIA para Latinoamérica.

Para obtener más información sobre la plataforma de inferencia de NVIDIA, consultar su descripción general de la tecnología de inferencia de NVIDIA.

Por Dave Salvator

Fuente Comunicae

Powered by WPeMatico