2025年 será el año en que la inteligencia artificial generativa(AI) se convierta en el tema central de la industria y marque el inicio de la “Renovación de los Datos”. Pero para 2026, su importancia habrá superado la simple adquisición de datos de alta calidad, y surgirán de manera integral las cuestiones relacionadas con cómo hacer que los modelos de IA realmente comprendan y utilicen la capa de significado(semantic layers) de los datos. Esto marca el comienzo de la era del diseño de datos semánticos, que incluye gráficos de conocimiento y ontologías, capaces de aclarar el contexto, el significado y la identidad comercial de los datos.
El año pasado, la tendencia de “agentes inteligentes” AI recorrió toda la industria, con muchas empresas esperando lograr automatización y optimización en la toma de decisiones mediante ello. Sin embargo, la mayoría de los agentes inteligentes AI no alcanzaron las expectativas, y la calidad de los datos utilizados y la adecuación del contexto comenzaron a considerarse las causas fundamentales. Investigaciones de la Universidad Carnegie Mellon señalaron que los agentes inteligentes actuales aún no han recibido suficiente entrenamiento para manejar tareas complejas, y los errores de razonamiento provocados por el contexto de los datos pueden disminuir el rendimiento en general.
En este contexto, la precisión de los datos(Data Quality) y el sistema de gobernanza(Data Governance) se convierten en temas importantes para determinar si han alcanzado un nivel de madurez. Aunque principales proveedores de la nube como Amazon Web Services(AWS) todavía ofrecen un vasto ecosistema de datos, las innovaciones en tecnologías y plataformas relacionadas con datos que han sido lanzadas recientemente son limitadas en comparación con el año anterior. En contraste, eventos como la adquisición de Confluent por parte de IBM y el lanzamiento de HorizonDB por parte de Microsoft, basado en PostgreSQL, simbolizan una tendencia de reconstrucción de la pila tecnológica de datos.
La arquitectura sin ETL y las tecnologías de compartición de datos ya son tendencia en 2025. Se trata de simplificar las canalizaciones de datos complejas y frágiles, como plataformas Snowflake y Databricks, que mejoran significativamente la accesibilidad a los datos comerciales mediante soporte para integración de datos de SAP o Salesforce.
Otra tendencia es la popularización de las tecnologías de procesamiento de datos vectoriales. La mayoría de las plataformas de datos principales han mejorado sus funciones de búsqueda y análisis vectorial, Oracle ha lanzado funciones de consulta que integran datos estructurados/no estructurados, y AWS también ha introducido capas de almacenamiento S3 optimizadas para vectores. Esto sienta las bases para la aplicación completa de IA en documentos, imágenes e incluso datos dispersos dentro de las empresas.
El cambio más destacado es la reevaluación del valor de la capa semántica. Originalmente utilizada en herramientas de BI o sistemas ERP, esta capa, centrada en conceptos clave como “indicadores”, “dimensiones” y “detalles”, estandariza el significado y la interpretación de los datos. Empresas como Tableau, Databricks, Snowflake y Microsoft están acelerando la incorporación de capas semánticas, donde Microsoft Fabric IQ incluso integra conceptos ontológicos empresariales en la capa semántica existente, buscando garantizar la precisión del contexto en análisis de IA en tiempo real.
Bajo esta tendencia, la iniciativa de intercambio semántico abierto liderada por Snowflake busca establecer un estándar universal que garantice la interoperabilidad de las capas semánticas entre plataformas de IA y datos. Esta arquitectura, basada en MetricFlow de dbt Labs, define indicadores y dimensiones mediante archivos de configuración YAML. Sin embargo, aún no está claro si los proyectos de código abierto podrán gestionar activos semánticos de alto valor, especialmente en función de la voluntad de los proveedores de aplicaciones para compartir estos recursos.
Además, tecnologías como gráficos de conocimiento independientes y GraphRAG están siendo consideradas como infraestructura fundamental para que la IA comprenda con precisión el contexto. Neo4J, el motor RAG de Vertex AI de Google, y LazyGraphRAG de Microsoft, trabajan en construir la base tecnológica para activar estos patrones, y los casos de uso reales están aumentando gradualmente. Empresas como Deloitte y AdaptX ya están promoviendo ampliamente aplicaciones de IA impulsadas por gráficos de conocimiento en campos complejos como la medicina y la seguridad.
Sin embargo, el mayor desafío sigue siendo la escasez de talento en modelado ontológico. En un escenario donde la IA no puede diseñar estructuras semánticas de forma autónoma, la demanda de ingenieros de conocimiento y arquitectos semánticos se ha disparado. Esto recuerda las dificultades de la práctica de “gestión del conocimiento” hace décadas. En la tendencia actual, la interpretación semántica precisa y la relación con el negocio son más cruciales que la simple recopilación de datos.
En definitiva, el núcleo de la era de la IA no es solo la acumulación de datos, sino la capacidad de comprender con precisión el significado y el contexto de los datos. Se espera que 2026 sea un punto de inflexión en la formación de círculos de influencia semántica y en la competencia por el dominio entre plataformas y aplicaciones. Los modelos de colaboración y compartición de empresas como Snowflake, Databricks y SAP están configurando un panorama competitivo centrado en estándares y ecosistemas, lo que indica que las empresas que puedan proporcionar datos “correctos” para la IA finalmente tendrán el control supremo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La guerra por los "datos correctos" en la inteligencia artificial de 2026 ha comenzado... El diseño basado en semántica determinará el resultado
2025年 será el año en que la inteligencia artificial generativa(AI) se convierta en el tema central de la industria y marque el inicio de la “Renovación de los Datos”. Pero para 2026, su importancia habrá superado la simple adquisición de datos de alta calidad, y surgirán de manera integral las cuestiones relacionadas con cómo hacer que los modelos de IA realmente comprendan y utilicen la capa de significado(semantic layers) de los datos. Esto marca el comienzo de la era del diseño de datos semánticos, que incluye gráficos de conocimiento y ontologías, capaces de aclarar el contexto, el significado y la identidad comercial de los datos.
El año pasado, la tendencia de “agentes inteligentes” AI recorrió toda la industria, con muchas empresas esperando lograr automatización y optimización en la toma de decisiones mediante ello. Sin embargo, la mayoría de los agentes inteligentes AI no alcanzaron las expectativas, y la calidad de los datos utilizados y la adecuación del contexto comenzaron a considerarse las causas fundamentales. Investigaciones de la Universidad Carnegie Mellon señalaron que los agentes inteligentes actuales aún no han recibido suficiente entrenamiento para manejar tareas complejas, y los errores de razonamiento provocados por el contexto de los datos pueden disminuir el rendimiento en general.
En este contexto, la precisión de los datos(Data Quality) y el sistema de gobernanza(Data Governance) se convierten en temas importantes para determinar si han alcanzado un nivel de madurez. Aunque principales proveedores de la nube como Amazon Web Services(AWS) todavía ofrecen un vasto ecosistema de datos, las innovaciones en tecnologías y plataformas relacionadas con datos que han sido lanzadas recientemente son limitadas en comparación con el año anterior. En contraste, eventos como la adquisición de Confluent por parte de IBM y el lanzamiento de HorizonDB por parte de Microsoft, basado en PostgreSQL, simbolizan una tendencia de reconstrucción de la pila tecnológica de datos.
La arquitectura sin ETL y las tecnologías de compartición de datos ya son tendencia en 2025. Se trata de simplificar las canalizaciones de datos complejas y frágiles, como plataformas Snowflake y Databricks, que mejoran significativamente la accesibilidad a los datos comerciales mediante soporte para integración de datos de SAP o Salesforce.
Otra tendencia es la popularización de las tecnologías de procesamiento de datos vectoriales. La mayoría de las plataformas de datos principales han mejorado sus funciones de búsqueda y análisis vectorial, Oracle ha lanzado funciones de consulta que integran datos estructurados/no estructurados, y AWS también ha introducido capas de almacenamiento S3 optimizadas para vectores. Esto sienta las bases para la aplicación completa de IA en documentos, imágenes e incluso datos dispersos dentro de las empresas.
El cambio más destacado es la reevaluación del valor de la capa semántica. Originalmente utilizada en herramientas de BI o sistemas ERP, esta capa, centrada en conceptos clave como “indicadores”, “dimensiones” y “detalles”, estandariza el significado y la interpretación de los datos. Empresas como Tableau, Databricks, Snowflake y Microsoft están acelerando la incorporación de capas semánticas, donde Microsoft Fabric IQ incluso integra conceptos ontológicos empresariales en la capa semántica existente, buscando garantizar la precisión del contexto en análisis de IA en tiempo real.
Bajo esta tendencia, la iniciativa de intercambio semántico abierto liderada por Snowflake busca establecer un estándar universal que garantice la interoperabilidad de las capas semánticas entre plataformas de IA y datos. Esta arquitectura, basada en MetricFlow de dbt Labs, define indicadores y dimensiones mediante archivos de configuración YAML. Sin embargo, aún no está claro si los proyectos de código abierto podrán gestionar activos semánticos de alto valor, especialmente en función de la voluntad de los proveedores de aplicaciones para compartir estos recursos.
Además, tecnologías como gráficos de conocimiento independientes y GraphRAG están siendo consideradas como infraestructura fundamental para que la IA comprenda con precisión el contexto. Neo4J, el motor RAG de Vertex AI de Google, y LazyGraphRAG de Microsoft, trabajan en construir la base tecnológica para activar estos patrones, y los casos de uso reales están aumentando gradualmente. Empresas como Deloitte y AdaptX ya están promoviendo ampliamente aplicaciones de IA impulsadas por gráficos de conocimiento en campos complejos como la medicina y la seguridad.
Sin embargo, el mayor desafío sigue siendo la escasez de talento en modelado ontológico. En un escenario donde la IA no puede diseñar estructuras semánticas de forma autónoma, la demanda de ingenieros de conocimiento y arquitectos semánticos se ha disparado. Esto recuerda las dificultades de la práctica de “gestión del conocimiento” hace décadas. En la tendencia actual, la interpretación semántica precisa y la relación con el negocio son más cruciales que la simple recopilación de datos.
En definitiva, el núcleo de la era de la IA no es solo la acumulación de datos, sino la capacidad de comprender con precisión el significado y el contexto de los datos. Se espera que 2026 sea un punto de inflexión en la formación de círculos de influencia semántica y en la competencia por el dominio entre plataformas y aplicaciones. Los modelos de colaboración y compartición de empresas como Snowflake, Databricks y SAP están configurando un panorama competitivo centrado en estándares y ecosistemas, lo que indica que las empresas que puedan proporcionar datos “correctos” para la IA finalmente tendrán el control supremo.