
¿Qué es la IA Empresarial?
La Inteligencia Artificial Empresarial (Enterprise AI) es una categoría de software empresarial que aprovecha técnicas avanzadas de inteligencia artificial, incluido el aprendizaje automático, para impulsar la transformación digital. Las organizaciones que implementan aplicaciones de IA empresarial pueden lograr mejoras significativas en los procesos comerciales en toda su cadena de valor, lo que resulta en una mayor resiliencia empresarial, mayor eficiencia, mejor rentabilidad y menor impacto ambiental. Innovaciones recientes en IA y aprendizaje automático, junto con capacidades proporcionadas por la computación en la nube elástica, big data e internet de las cosas, permiten el desarrollo de esta nueva clase de aplicaciones de IA empresarial.
Una distinción clave entre la IA empresarial y la IA en general es que la IA empresarial se centra en abordar casos de uso específicos de alto valor a gran escala, donde la aplicación de IA integrada en los procesos comerciales puede producir un valor significativo. Las grandes organizaciones construirán y operarán docenas o cientos de aplicaciones de IA empresarial para abordar numerosos casos de uso en su negocio. El desarrollo e implementación de aplicaciones de IA empresarial a gran escala implica desafíos significativamente mayores que las generaciones anteriores de software empresarial, lo que requiere una nueva pila tecnológica.
La IA empresarial es fundamental para la transformación digital. En los próximos años, casi todas las aplicaciones de software empresarial estarán habilitadas para la IA. Así como las organizaciones hoy en día no podrían hacer negocios sin un sistema CRM o ERP, las organizaciones no podrán operar y competir eficazmente sin el uso de capacidades de IA empresarial. Por lo tanto, desarrollar competencias en la capacidad de construir, implementar y operar aplicaciones de IA empresarial a gran escala se está convirtiendo en un imperativo para la supervivencia empresarial.
Cómo STRTGY AI ayuda a las organizaciones a implementar IA empresarial
STRTGY AI es el principal proveedor de tecnología de software de IA empresarial para impulsar y acelerar la transformación digital. STRTGY AI proporciona la Plataforma STRTGY AI®, una plataforma completa de extremo a extremo para diseñar, desarrollar, implementar y operar aplicaciones de IA empresarial a escala industrial. Con la Plataforma STRTGY AI, las organizaciones pueden acelerar el desarrollo de aplicaciones de IA empresarial en plataformas en la nube como AWS y Azure 25 veces más rápido y desplegarlas en una décima parte del tiempo que otras aproximaciones.
STRTGY AI también ofrece un portafolio de aplicaciones de IA empresarial preconstruidas y basadas en SaaS para un número creciente de casos de uso, como STRTGY AI Fiabilidad, STRTGY AI Optimización de Inventarios, STRTGY AI Detección de Fraudes y STRTGY AI Anti-Lavado de Dinero. Algunas de las organizaciones más grandes del mundo, incluidas Shell, el Departamento de Defensa de los Estados Unidos y Koch Industries, utilizan la tecnología de STRTGY AI para impulsar iniciativas de transformación digital que reducen significativamente los costos, aumentan la disponibilidad y confiabilidad de los activos, mejoran la seguridad humana y aumentan la satisfacción del cliente.
Requisitos del Nuevo Conjunto de Tecnologías de IA Empresarial
Para desarrollar una aplicación efectiva de IA empresarial o IoT, es necesario agregar datos de miles de sistemas de información empresarial, proveedores, distribuidores, mercados, productos en uso por parte de los clientes y redes de sensores, con el fin de proporcionar una vista casi en tiempo real de la empresa extendida.
Las velocidades de datos actuales son impresionantes, lo que requiere la capacidad de ingerir y agregar datos de cientos de millones de puntos finales a una frecuencia muy alta, a veces superando los ciclos de 1,000Hz. Los datos deben procesarse a la velocidad a la que llegan, en un sistema altamente seguro y resiliente que aborde la persistencia, el procesamiento de eventos, el aprendizaje automático y la visualización. Esto requiere una capacidad de procesamiento distribuido elástico masivamente escalable horizontalmente, ofrecida solo por plataformas en la nube modernas y sistemas informáticos de supercomputación.
Los requisitos resultantes de persistencia de datos son asombrosos. Estos conjuntos de datos se agregan rápidamente en cientos de petabytes, incluso exabytes. Cada tipo de datos debe almacenarse en una base de datos apropiada capaz de manejar estos volúmenes a alta frecuencia. Se necesitan bases de datos relacionales, almacenes de clave-valor, bases de datos de grafos, sistemas de archivos distribuidos y blobs, todos necesarios, lo que requiere que los datos se organicen y se vinculen a través de estas tecnologías divergentes.
Plataforma de Referencia para Software de IA
Los problemas que deben abordarse para habilitar las aplicaciones de IA e IoT actuales no son triviales. La capacidad de cómputo y almacenamiento elástico masivamente paralelo son requisitos previos. Estos servicios se proporcionan hoy en día a un costo cada vez más bajo por Microsoft Azure, AWS y otros. La nube elástica es un avance importante que ha transformado drásticamente la computación moderna. Además de la nube, se necesitan múltiples servicios de datos para desarrollar, aprovisionar y operar aplicaciones de IA e IoT.
La exitosa desarrollo de aplicaciones de IA e IoT requiere un conjunto completo de herramientas y servicios totalmente integrados y diseñados para trabajar juntos.
Arquitectura de Referencia de IA
Integración de Datos: Este problema ha acosado a la industria informática durante décadas. Requisito previo para el aprendizaje automático y la IA a escala industrial es la disponibilidad de una imagen unificada y federada de todos los datos contenidos en la multitud de (1) sistemas de información empresarial - ERP, CRM, SCADA, HR, MRP - típicamente miles de sistemas en cada gran empresa; (2) redes de sensores IoT - chips SIM, medidores inteligentes, matrices lógicas programables, telemetría de máquinas, bioinformática; y (3) datos extrapresenciales relevantes - clima, terreno, imágenes satelitales, redes sociales, biometría, datos comerciales, precios, datos de mercado, etc.
Persistencia de Datos: Los datos agregados y procesados en estos sistemas incluyen todo tipo de datos estructurados y no estructurados imaginables. Información de identificación personal, datos del censo, imágenes, texto, video, telemetría, voz, topologías de redes. No hay una base de datos "talla única" optimizada para todos estos tipos de datos. Esto resulta en la necesidad de una multiplicidad de tecnologías de bases de datos que incluyen, entre otras, bases de datos relacionales, NoSQL, almacenes de clave-valor, sistemas de archivos distribuidos, bases de datos de grafos y blobs.
Servicios de Plataforma: Una miríada de sofisticados servicios de plataforma son necesarios para cualquier aplicación empresarial de IA o IoT. Ejemplos incluyen control de acceso, encriptación de datos en movimiento, encriptación en reposo, ETL, encolado, gestión de tuberías, escalado automático, multitenencia, autenticación, autorización, ciberseguridad, servicios de series temporales, normalización, privacidad de datos, cumplimiento de privacidad GDPR, cumplimiento de NERC-CIP y cumplimiento de SOC2.
Procesamiento de Análisis: Los volúmenes y la velocidad de adquisición de datos en estos sistemas son deslumbrantes y los tipos de datos y requisitos de análisis son muy divergentes, lo que requiere una variedad de servicios de procesamiento de análisis. Estos incluyen procesamiento de análisis continuo, MapReduce, procesamiento por lotes, procesamiento de transmisiones y procesamiento recursivo.
Servicios de Aprendizaje Automático: El objetivo principal de estos sistemas es permitir que los científicos de datos desarrollen y desplieguen modelos de aprendizaje automático. Hay una variedad de herramientas necesarias para habilitar eso, incluyendo Jupyter Notebooks, Python, DIGITS, R y Scala. Cada vez más importante es una curación extensible de bibliotecas de aprendizaje automático como TensorFlow, Caffe, Torch, Amazon Machine Learning y AzureML. Una plataforma de IA e IoT efectiva debe admitirlos a todos.
Herramientas de Visualización de Datos: Cualquier arquitectura de IA viable debe permitir un conjunto rico y variado de herramientas de visualización de datos que incluyen Excel, Tableau, Qlik, Spotfire, Oracle BI, Business Objects, Domo, Alteryx y otros.
Herramientas para Desarrolladores y Marcos de Interfaz de Usuario: Los equipos de desarrollo de TI y ciencia de datos de una organización han adoptado y se han familiarizado con un conjunto de marcos de desarrollo de aplicaciones y herramientas de desarrollo de interfaz de usuario (UI). Una plataforma de IA e IoT debe admitir todas estas herramientas, incluido, por ejemplo, el IDE Eclipse, VI, Visual Studio, React, Angular, R Studio y Jupyter, o será rechazada como inutilizable por los equipos de desarrollo de TI.
Abierto, Extensible, a Prueba de Futuro: El ritmo actual de innovación en software y algoritmos es deslumbrante. Las técnicas utilizadas hoy estarán obsoletas en 5 a 10 años. Por lo tanto, la arquitectura de una plataforma de IA e IoT debe proporcionar la capacidad de reemplazar cualquier componente con sus mejoras de próxima generación. Además, la plataforma debe permitir la incorporación de cualquier nueva innovación de software de código abierto o propietario sin afectar adversamente la funcionalidad o el rendimiento de las aplicaciones existentes de una organización. Este es un requisito de nivel cero.
Para cumplir con este extenso conjunto de requisitos, STRTGY AI ha pasado la última década e invertido más de $800 millones en desarrollar y mejorar la Plataforma STRTGY AI. La Plataforma STRTGY AI ha sido refinada, probada y demostrada en las industrias y entornos de producción más exigentes: servicios públicos eléctricos, fabricación, petróleo y gas, y defensa, que comprenden conjuntos de datos a escala de petabytes de miles de sistemas de origen vastamente dispares, volúmenes masivos de datos de series temporales de alta frecuencia de millones de dispositivos y cientos de miles de modelos de aprendizaje automático.
Inundados de "Plataformas de IA"
Los analistas de la industria estiman que para el año 2025, las organizaciones invertirán más de $250 mil millones anualmente en software de transformación digital. Según McKinsey, las empresas generarán más de $13 billones anualmente en valor agregado del uso de estas nuevas tecnologías. Este es el mercado de software empresarial de más rápido crecimiento en la historia y representa un mercado de reemplazo completo para el software de aplicaciones empresariales.
Hoy en día, el mercado está inundado de "Plataformas de IA" de código abierto que pretenden ser soluciones suficientes para diseñar, desarrollar, aprovisionar y operar aplicaciones empresariales de IA e IoT. En esta era de la exageración de la IA, hay literalmente cientos de estas en el mercado, y el número aumenta cada día, que se presentan como "Plataformas de IA" completas y comprensivas.
El mercado está inundado con cientos de componentes de código abierto que pretenden ser una "plataforma de IA". Cada componente puede proporcionar valor, pero ninguno proporciona una plataforma completa por sí mismo.
Ejemplos incluyen Cassandra, Cloudera, DataStax, Databricks, AWS IoT y Hadoop. AWS, Azure, IBM y Google cada uno ofrecen una plataforma de computación en la nube elástica. Además, cada uno ofrece una biblioteca cada vez más innovadora de microservicios que pueden ser utilizados para la agregación de datos, ETL, encolado, transmisión de datos, MapReduce, procesamiento continuo de análisis, servicios de aprendizaje automático, visualización de datos, etc.
Todos parecen hacer lo mismo y todos parecen proporcionar una plataforma de IA completa. Si bien muchos de estos productos son útiles, el simple hecho es que ninguno ofrece el alcance de utilidad necesario y suficiente para desarrollar y operar una aplicación empresarial de IA o IoT.
Considere Cassandra, por ejemplo. Es un almacén de datos clave-valor, una base de datos de propósito especial que es particularmente útil para almacenar y recuperar datos longitudinales, como la telemetría. Para ese propósito, es un producto efectivo. Pero esa funcionalidad representa quizás un uno por ciento de la solución requerida. Del mismo modo, HDFS es un sistema de archivos distribuido, útil para almacenar datos no estructurados. TensorFlow, un conjunto de bibliotecas matemáticas publicadas por Google, es útil para habilitar ciertos tipos de modelos de aprendizaje automático. Databricks permite la virtualización de datos, lo que permite a los científicos de datos o desarrolladores de aplicaciones manipular conjuntos de datos muy grandes en un clúster de computadoras. AWS IoT es una utilidad para recopilar datos de sensores IoT legibles por máquina. El punto es: estos servicios son útiles, pero ninguno es suficiente por sí solo. Cada uno aborda solo una pequeña parte del problema necesario para desarrollar e implementar una aplicación de IA o IoT.
Además, estos servicios están escritos en diferentes lenguajes, con diferentes modelos computacionales y estructuras de datos frecuentemente incompatibles, desarrollados por programadores con diferentes niveles de experiencia, capacitación y profesionalismo. No fueron diseñados para trabajar juntos. Pocos, si alguno, fueron escritos según estándares de programación comerciales. La mayoría no ha demostrado ser comercialmente viable y el código fuente ha sido contribuido a la comunidad de código abierto. La comunidad de código abierto es una especie de supermercado en la nube con una creciente colección de cientos de programas de código fuente disponibles para que cualquiera los descargue, modifique a voluntad y los use sin costo alguno.
IA "Hazlo tú mismo"?
Los ciclos de innovación de software siguen un patrón típico. Al principio del ciclo, las empresas a menudo adoptan un enfoque de "hazlo tú mismo" y tratan de construir la nueva tecnología por sí mismas. En la década de 1980, por ejemplo, cuando Oracle introdujo por primera vez al mercado el software de sistema de gestión de bases de datos relacionales (RDBMS), el interés era alto. La tecnología RDBMS ofrecía economías de costos y ganancias de productividad dramáticas en el desarrollo y mantenimiento de aplicaciones. Resultó ser una tecnología habilitadora para la próxima generación de aplicaciones empresariales que siguieron, incluida la planificación de requerimientos de materiales (MRP), la planificación de recursos empresariales (ERP), la gestión de relaciones con los clientes (CRM), la automatización de la fabricación y otros.
Los primeros competidores de Oracle en el mercado de RDBMS incluyeron a IBM (DB2), Relational Technology (Ingres) y Sperry (Mapper). Pero el principal competidor de Oracle no fue ninguna de estas empresas. En muchos casos, fue el CIO, quien intentó construir el propio RDBMS de la organización con personal de TI, personal offshore o la ayuda de un integrador de sistemas. Ninguno de esos esfuerzos tuvo éxito. Eventualmente, el CIO fue reemplazado y la organización instaló un RDBMS comercial.
Cuando se introdujeron al mercado aplicaciones empresariales incluidas ERP y CRM en la década de 1990, los principales competidores incluyeron a Oracle, SAP y Siebel Systems. Pero en los primeros años de ese ciclo de innovación, muchos CIO intentaron desarrollar estas aplicaciones empresariales complejas internamente. Se gastaron cientos de años-persona y cientos de millones de dólares en esos proyectos. Unos años más tarde, un nuevo CIO instalaría un sistema comercial funcional.
Algunas de las empresas tecnológicamente más astutas, incluidas Hewlett-Packard, IBM, Microsoft y Compaq, fallaron repetidamente en proyectos de CRM desarrollados internamente. Todos finalmente se convirtieron en clientes exitosos de los sistemas CRM de Siebel Systems.
Tal como sucedió con la introducción de software de RDBMS, ERP y CRM en ciclos de innovación anteriores, la reacción inicial de muchas organizaciones de TI es intentar desarrollar internamente una plataforma de IA y IoT de propósito general, utilizando software de código abierto con una combinación de microservicios de proveedores de nube como AWS y Google. El proceso comienza tomando algún subconjunto de la miríada de soluciones propietarias y de código abierto y organizándolas en la arquitectura de plataforma de referencia.
El enfoque de "hazlo tú mismo" requiere unir decenas de componentes de código abierto dispares de diferentes desarrolladores con diferentes APIs, bases de código diferentes y diferentes niveles de madurez y soporte.
El siguiente paso es reunir a cientos o incluso miles de programadores, frecuentemente distribuidos en todo el mundo, utilizando programación estructurada y interfaces de programación de aplicaciones (APIs) para intentar unir estos diversos programas, fuentes de datos, sensores, modelos de aprendizaje automático, herramientas de desarrollo y paradigmas de interfaz de usuario en un todo unificado, funcional y coherente que permita a la organización destacarse en el diseño, desarrollo, aprovisionamiento e implementación de numerosas aplicaciones de IA e IoT a escala empresarial.
La complejidad de tal sistema es dos órdenes de magnitud mayor que el desarrollo de un sistema CRM o ERP. Muchos han intentado construir tal sistema, y ninguno ha tenido éxito. El caso de estudio clásico es GE Digital, que gastó ocho años, 3,000 programadores y $7 mil millones intentando tener éxito en esta tarea. El resultado final de ese esfuerzo incluyó el colapso de esa división y la terminación del CEO, y contribuyó a la disolución de una de las empresas más icónicas del mundo.
El enfoque de "hazlo tú mismo" requiere numerosas integraciones de componentes subyacentes que no fueron diseñados para funcionar juntos, lo que resulta en un grado de complejidad que abruma incluso a los mejores equipos de desarrollo.
Hay varios problemas con este enfoque:
Complejidad
Utilizando programación estructurada, el número de conexiones de API de software que se necesitan establecer, endurecer, probar y verificar para un sistema complejo puede aproximarse al orden de 10^13. Los desarrolladores del sistema necesitan comprender individual y colectivamente ese nivel de complejidad para hacerlo funcionar. El número de programadores capaces de manejar ese nivel de complejidad es bastante pequeño.
Además de los desarrolladores de la plataforma, los desarrolladores de aplicaciones y los científicos de datos también necesitan comprender la complejidad de la arquitectura y todas las dependencias de datos y procesos subyacentes para desarrollar cualquier aplicación. El nivel de complejidad inherente en estos esfuerzos es lo suficientemente grande como para asegurar el fracaso del proyecto.
Fragilidad
Las aplicaciones de código espagueti de este tipo dependen en gran medida de que cada componente funcione correctamente. Si un desarrollador introduce un error en alguno de los componentes de código abierto, todas las aplicaciones desarrolladas con esa plataforma pueden dejar de funcionar.
A Prueba de Futuro
A medida que se dispongan de nuevas bibliotecas, bases de datos más rápidas y nuevas técnicas de aprendizaje automático, esas nuevas utilidades deben estar disponibles dentro de la plataforma. En consecuencia, es probable que cada aplicación que se construyó en la plataforma deba ser reprogramada para funcionar correctamente. Esto puede llevar meses o años.
Integración de Datos
Un modelo de datos común integrado y federado es absolutamente necesario para este dominio de aplicación. El uso de esta arquitectura API impulsada por programación estructurada requerirá cientos de años-persona para desarrollar un modelo de datos integrado para cualquier gran corporación. Esta es la razón principal por la que se gastan decenas a cientos de millones de dólares y, varios años después, no se implementan aplicaciones. El Fortune 500 está lleno de tales historias de desastres.