Siete pasos para mejorar la analítica de las organizaciones basadas en datos

Cuando los responsables ejecutivos dicen que quieren ser una organización impulsada por los datos, un objetivo clave es capacitar a los responsables de negocios para utilizar datos, modelos predictivos, capacidades de IA generativa y visualizaciones de datos para mejorar la toma de decisiones.

Los líderes buscan decisiones más inteligentes que produzcan beneficios empresariales positivos, una toma de decisiones más rápida para responder a las oportunidades, decisiones más seguras que minimicen los riesgos y disciplinas de gestión del cambio para aumentar el número de empleados que utilizan herramientas analíticas en toda la organización. También buscan soluciones escalables que utilicen los últimos modelos de aprendizaje automático, capacidades de IA y nuevos activos de datos, garantizando que los datos cumplan las normativas, estén protegidos y sean seguros.

“Para competir mejor, debes innovar mejor que tus competidores, lo que se basa en tomar decisiones rápidas y efectivas”, afirma Wayne Jackson, CEO de Sonatype. “Los líderes necesitan una visión completa para tomar decisiones informadas, y obtener ese nivel de visibilidad requiere datos exhaustivos. Pero los datos por sí solos no mejorarán ni acelerarán el proceso, y hay que ser capaz de dar sentido a esos datos.”

Aunque muchas organizaciones han invertido en arquitecturas de datos, desplegado herramientas de análisis, construido modelos de aprendizaje automático y desplegado capacidades de visualización de datos, la adopción por parte del usuario final puede retrasarse, y los impactos empresariales pueden ser decepcionantes. Por ejemplo, The State of Data Science and Machine Learning informa de que el 45% de las organizaciones despliegan menos del 25% de sus modelos de aprendizaje automático en producción.

En este artículo se analizan siete pasos para ayudar a abordar las diferencias entre el mero despliegue de análisis y la adopción de análisis para la toma de decisiones por parte del usuario final. Los cuatro primeros pasos se centran en cómo los equipos individuales, los departamentos y las empresas pueden mejorar su proceso de desarrollo de análisis, mientras que los tres últimos se refieren a su ampliación a empresas más grandes.

Comprender a los usuarios finales y sus flujos de decisión

Es importante llevar a cabo un trabajo previo de descubrimiento de un nuevo conjunto de datos o un dominio analítico. Pero es fácil llevar estos esfuerzos demasiado lejos y desplegar pruebas de concepto en producción, omitiendo pasos clave en la definición de los usuarios finales, la revisión de sus flujos de trabajo y la discusión de las decisiones y acciones que requieren análisis.

“Históricamente, la forma en que se ha desarrollado la analítica ha consistido en empezar con datos bien organizados, aplicarles un montón de algoritmos bien pensados, revisar lo que confiesan los datos y exponer recomendaciones en forma de gráficos”, afirma Soumendra Mohanty, director de Estrategia de Tredence. “Este enfoque pasa por alto captar las aportaciones del usuario final que tomará las decisiones en su actividad diaria, ya sea un gestor de inventarios, un director de campaña o un capataz de almacén de fábrica, y que busca recomendaciones y directrices en tiempo real cada hora para ponerlas en práctica.”
He aquí varias preguntas que conviene plantearse a los usuarios finales.

  • ¿Cómo, cuándo y con qué frecuencia toman hoy los usuarios finales y los directivos decisiones clave?
  • ¿Cuál es el impacto de una decisión equivocada o lenta frente al valor de tomar decisiones más rápidas y precisas?
  • ¿Qué datos e información utilizan para tomar decisiones y qué pasos siguen para acceder a ellos?
  • ¿Qué herramientas utilizan para tomar decisiones?

La clave es comprender cómo encajan los análisis en los flujos de trabajo, qué integraciones hay que tener en cuenta y dónde es posible la automatización.

Definir los requisitos de calidad de los datos y las soluciones

Por supuesto, muchos usuarios finales no serán capaces de distinguir entre el análisis estadístico, el aprendizaje automático y las soluciones de IA generativa, pero pueden ver fácilmente cuándo los datos son incorrectos o las soluciones producen recomendaciones erróneas. Mejorar la calidad de los datos es un proceso iterativo, pero si no se aborda lo suficientemente pronto en el proceso de desarrollo, los usuarios finales perderán la confianza y volverán a cómo trabajaban antes.

“Los datos empresariales de alta calidad listos para usar son esenciales para garantizar una analítica empresarial precisa y aprovechar las ventajas de la IA generativa”, afirma Irfan Khan, presidente y director de Producto de SAP HANA Database and Analytics. “Solo con una base de datos sólida y una visión unificada de los datos en sus complejos entornos, las empresas están capacitadas para facilitar procesos de negocio totalmente digitalizados y un intercambio de datos sin fisuras en toda la empresa. Sin datos empresariales limpios, la mayor parte de la información derivada de la IA no es fiable ni se puede utilizar con eficacia“.

Las mejores organizaciones para equipos ágiles de ciencia de datos asumen los requisitos de integración y calidad de datos para ofrecer capacidades analíticas. Definirán las métricas de calidad de datos como requisitos no funcionales, publicarán los esfuerzos de mejora y actualizarán a las partes interesadas a medida que mejoren las métricas.

Acelerar la obtención de datos y la toma de decisiones

Además de la calidad de los datos, los equipos deben centrarse en otras dos métricas analíticas relacionadas con la velocidad. El tiempo hasta la obtención de los datos tiene en cuenta los retrasos en la recepción y el procesamiento de los datos, mientras que el tiempo hasta la toma de decisiones tiene en cuenta los factores humanos, la facilidad de uso, la integración y el nivel de automatización desde que los datos están disponibles hasta que los usuarios finales toman decisiones.

“Hace años, el time-to-data era un privilegio de las plataformas de negociación de alta frecuencia”, afirma Nikolaos Vasiloglou, vicepresidente de Investigación de ML en RelationalAI. “Ahora cualquiera puede acceder a herramientas baratas e infinitas de almacenamiento, computación y software para consumir datos en tiempo real”.

Aunque cada vez más organizaciones pueden adquirir infraestructura escalable, optimizar la gestión de datos y desarrollar canalizaciones de datos sólidas requiere planificación y diseño de arquitectura. Una forma de evitar escollos es empezar con objetivos analíticos de menor alcance y validar el rendimiento de la arquitectura mientras se amplían el uso, los datos y las capacidades.

Implantar la protección de datos en una fase temprana

Las prisas por crear prototipos de soluciones analíticas y garantizar canalizaciones de datos de baja latencia pueden suponer un riesgo y un coste significativos si los datos regulados se ven comprometidos. A menudo es más rentable abordar las protecciones de datos necesarias en las canalizaciones de datos y las plataformas de gestión de datos que implementarlas en las soluciones analíticas.

“Todos los datos regulados deben estar protegidos criptográficamente (cifrados, enmascarados o tokenizados) en una fase temprana de la cadena de datos, cuando se crean o capturan”, afirma Ameesh Divatia, CEO y cofundador de Baffle. “Una vez hecho esto, el uso de datos podría ir mucho más rápido para todos los casos de uso, ya que no es necesario descubrir o revisar datos adicionales antes de usar esos datos”. Implementar la protección de datos al principio del proceso también crea la oportunidad de involucrar a los usuarios finales y las partes interesadas en las mejores prácticas de seguridad de datos.

Ampliar los programas de gobierno de datos

Los pasos que he dado hasta ahora pueden ayudar a mejorar las implementaciones analíticas y la toma de decisiones para casos de uso individuales. La ampliación de la toma de decisiones basada en el análisis a múltiples empresas, departamentos o dominios requiere la evolución de un modelo operativo de análisis y el establecimiento de políticas y prácticas de gobierno de datos. Felix Van de Maele, CEO de Collibra, me explicó cómo incluso las grandes empresas pueden establecer prácticas de gobierno de datos rápidamente. “La gobernanza de datos es la base para desbloquear el verdadero potencial de la IA”, afirma. “McDonald’s, una de las marcas más reconocidas del mundo, estableció una base de datos de confianza en solo 60 días con más de 570 usuarios en 21 países ya a bordo. Estos avances han transformado la forma en que McDonald’s utiliza los datos, lo que lleva a una mayor transparencia, confianza y velocidad para sus usuarios de negocios globales.”

Una herramienta de gobierno de datos clave para las organizaciones basadas en datos es el catálogo de datos, que ayuda a implementar políticas de acceso, configurar autorizaciones, permitir la detección y mantener diccionarios de datos. Entre los principales proveedores de catálogos de datos y calidad se encuentran Alation, Collibra, Informatica, Google, Hitachi Vantara, IBM, Microsoft, Oracle, Precisely, SAP, SAS y Talend.

“Los catálogos de datos que proporcionan una sólida gobernanza de los datos y una supervisión proactiva de la calidad permiten tomar decisiones empresariales con confianza”, afirma Emily Washington, vicepresidenta senior de Gestión de Productos de Precisely. “Dados los mayores riesgos de los datos no gobernados o inexactos en la era de la IA, priorizar los catálogos de datos que empoderan a los usuarios con una comprensión integral de sus datos y su salud subyacente les permitirá aprovechar los datos de manera efectiva, impulsando los ingresos y el aumento de las ganancias a través de la confianza en las decisiones comerciales derivadas de la IA y el análisis avanzado”.

Gartner informó recientemente que el 78% de los directores de datos y análisis (CDAO) están evolucionando sus modelos operativos para apoyar mejor la innovación, y el 61% dijo que las interrupciones del mercado, incluido ChatGPT, eran un motor. Un aspecto fundamental de la evolución del modelo operativo es acelerar las prácticas proactivas de gobierno de datos, como la creación de catálogos de datos, la centralización de los recursos de datos y la mejora de la calidad de los datos.

Establecer y mejorar las normas de aplicación

En ocasiones, la creación de normas de implantación se incluye en el ámbito de la gobernanza de datos, pero las herramientas, el ciclo de vida de desarrollo, las pruebas, los requisitos de implantación, la documentación y las normas de usabilidad abarcan un conjunto más amplio de disciplinas. Las organizaciones impulsadas por los datos crean y desarrollan normas para que los equipos de ciencia de datos se centren en el usuario final y ofrezcan beneficios. Un manual de normas ayuda a acelerar la entrega, escalar las mejores prácticas y establecer los requisitos de despliegue.

Marty Andolino, vicepresidente de Ingeniería de Capital One, comparte estas recomendaciones sobre la creación de estándares de datos y sus ventajas. “Los estándares de datos, como metadatos, calidad, formatos, SLA y observabilidad, garantizan la integridad, la facilidad de uso y la seguridad durante todo el ciclo de vida de los datos. La incorporación de estas normas en experiencias unificadas y de autoservicio permite a los usuarios confiar en los datos y utilizarlos a medida que se comparten en toda la empresa“.

Otra de las mejores prácticas para lograr visualizaciones de datos más inteligentes es definir una guía de estilo que abarque diseños, tipos de gráficos, esquemas de color, convenciones de nomenclatura y otras consideraciones de usabilidad. Los cuadros de mando pueden infrautilizarse cuando son demasiado lentos, no están orientados a resolver problemas específicos o cuando varios cuadros de mando carecen de normas de usabilidad.

Otra consideración es cómo se prueban las herramientas analíticas, los cuadros de mando y los modelos de ML. Giovanni Lanzani, director general de Xebia Data, recomienda que los equipos de datos “empiecen a probar los datos desde la fuente a través de todas las transformaciones que en última instancia generan la información en la que confía la empresa, detectando los problemas a medida que surgen en lugar de ofrecer información incorrecta a los usuarios empresariales”.
Las grandes empresas con conjuntos de datos operativos, analíticos y no estructurados a gran escala también deberían definir normas de gestión y arquitectura de datos. Aislinn Wright, vicepresidenta de Gestión de Productos de EDB, afirma: “Las organizaciones deben adoptar una plataforma de datos que unifique los datos transaccionales, analíticos y de IA, y otras que implementen estándares abiertos y portátiles para desplegar rápidamente nuevos proyectos analíticos y de ciencia de datos”.

Otro objetivo clave debería ser simplificar cómo los usuarios finales autorizados pueden acceder y descubrir los datos empresariales. “Si los datos viven en docenas de sistemas y no hay estándares y patrones para facilitar la rápida accesibilidad y utilización de los datos, cualquier esfuerzo para tomar medidas con esos datos va a ser agotador”, dice Krishna Sudhakar, director de Asesoramiento de socios en Pricefx.

Daniel Fallmann, CEO de Mindbreeze, comparte un enfoque para simplificar el acceso a los datos y su descubrimiento. “Los empresarios pueden simplificar el proceso de búsqueda de fuentes de datos relevantes implementando índices semánticos (gráficos) y una gestión de metadatos inteligente y altamente automatizada, que permita descubrir y comprender fácilmente los conjuntos de datos internos y externos”.

Fomentar una cultura basada en los datos

Las capacidades tecnológicas, la gobernanza de los datos y los estándares de prácticas analíticas son los elementos básicos, pero los pioneros digitales deben hacer evolucionar la cultura para transformarse realmente en organizaciones impulsadas por los datos. La transformación también debe ser continua porque la IA generativa, el análisis en tiempo real y otras tecnologías emergentes están proporcionando mayores capacidades para aumentar la inteligencia humana con capacidades de toma de decisiones más inteligentes, rápidas y seguras.

Un punto de partida cultural es mejorar la comunicación y la colaboración en toda la organización. “Las empresas deben centrarse en romper los silos entre unidades de negocio, funciones y tecnologías que dificultan el intercambio de información y la toma de decisiones informadas”, afirma John Castleman, CEO de Bridgenext. “Con demasiada frecuencia, estas construcciones internas se interponen en el camino para lograr la eficiencia operativa, el crecimiento de los ingresos y la innovación”.

Una victoria fácil es programar demostraciones frecuentes en toda la empresa de las capacidades analíticas nuevas y actualizadas, los tipos de decisiones que se toman con ellas, las repercusiones empresariales y la forma en que los usuarios finales celebran su éxito. Aunque puede haber cierto temor inicial a utilizar nuevas herramientas y análisis para la toma de decisiones, los usuarios finales satisfechos y que han tenido éxito ayudan a promover las ventajas de la adopción.

La adopción de capacidades analíticas puede generar beneficios empresariales competitivos y un cambio cultural. Empiece pensando en el usuario final, genere confianza en los datos y las capacidades, desarrolle la gobernanza de los datos y mejore los estándares de implementación para impulsar la transformación.

© Foundry