Don't miss your chance to take the Fabric Data Engineer (DP-700) exam on us!
Learn moreThe FabCon + SQLCon recap series starts April 14th at 8am Pacific. If you’re tracking where AI is going inside Fabric, this first session is a can't miss. Register now
Hola a todos
Tengo 4 modelos semánticos y tablas que se usan en estos 4 modelos semánticos son duplicados (es decir, las mismas tablas se usan en 4 modelos semánticos).
Debido a la estructura anterior, cuando actualizamos los modelos, la misma tabla se actualiza varias veces al día. Eso supone una carga y coste innecesarios respecto al procesamiento de datos, ya que mi base de datos está en la nube.
Para evitar el problema anterior, ¿podrías sugerir el mejor enfoque de diseño donde podamos crear un modelo semántico centtralizado que debería servir para todos los informes y evitar el uso de tablas duplicadas?
Estoy usando la licencia PPU en mi entorno. Mi objetivo es que si consumo la tabla de clientes en los modelos semánticos, la estructura de esta tabla debería estar en un solo lugar y referiremos a la misma tabla de clientes en los modelos semánticos. Así que esos datos frescos en la misma tabla ocurren una vez en vez de varias ejecuciones cuando revisamos el auto refresh en los otros modelos semánticos.
Gracias
Sri.
Hola @Koritala ,
Explora los modelos compuestos, son el caso de uso ideal para you.in modelo compuesto, puedes construir un modelo central con tablas comunes que se usarán como modelo remoto. Luego se pueden crear otros 4 modelos usando este modelo como referencia más tables.in modelo compuesto adicional; RLS/OLS deben definirse solo en el modelo remoto. También puedes aplicar actualización incremental en modelos remotos para tener una actualización eficiente de datos durante 15 años de datos.
Referencias:
https://learn.microsoft.com/en-us/power-bi/transform-model/desktop-composite-models
https://learn.microsoft.com/en-us/power-bi/guidance/composite-model-guidance
Por favor, dale kudos o márcalo como solución una vez confirmado.
Gracias y un saludo,
Polvo
Hola @Koritala,
Solo hago un seguimiento para ver si la respuesta proporcionada por los miembros de la comunidad ha sido útil para abordar el problema. si el problema persiste, no dudes en contactarme si necesitas más aclaraciones o ayuda.
Saludos
Prasanna Kumar
Hola @Koritala,
Gracias por contactar con la comunidad del Foro Microsoft Fabric, y un agradecimiento especial a @d_m_LNK , @Nabha-Ahmed y @danextian por sus respuestas rápidas y útiles.
Solo hago un seguimiento para ver si la respuesta proporcionada por los miembros de la comunidad ha sido útil para abordar el problema. si el problema persiste, no dudes en contactarme si necesitas más aclaraciones o ayuda.
Saludos
Prasanna Kumar
¿Has pensado en usar los flujos de datos como fuente de datos intermedia en lugar de conectarte directamente a tu sistema en la nube? Este enfoque consulta la fuente de la nube solo una vez a través del flujo de datos, reduciendo las llamadas de salida repetidas. En mi configuración, divido los datos en partes históricas y actuales. Los datos históricos solo se actualizan cuando ocurren cambios, mientras que los datos actuales se actualizan según un calendario. Con PPU, puedes encadenar estos flujos de datos a diario para que se combinen en otro flujo de datos.
Hola danextian,
Intenté replicar la solución con tus aportaciones. Pero como mis tablas tienen un gran volumen de datos y el cliente quiere los datos de los últimos 15 años, incluso yo intento crear flujos de datos para los años individuales, y el flujo de datos lanza el error diciendo que la memoria máxima ha superado.
¿Podrías sugerirme cómo superar esto en este caso? ¿Puedes compartir cualquier ejemplo de flujo de datos para que lo entienda mejor? Tenemos licencia PPU en nuestro proyecto.
Gracias,
Sri
Hola @Koritala,
Los errores de memoria de flujo de datos ocurren porque las transformaciones se realizan completamente en memoria. Para 15+ años de gran volumen de datos, filtrado y conformado a la fuente, separa datos históricos y actuales usando vistas de base de datos, minimiza las transformaciones en los flujos de datos y actualiza los datos históricos solo cuando sea necesario. Para tablas de hechos muy grandes, la actualización incremental en el modelo semántico suele ser más fiable que los flujos de datos.
Gracias y saludos,
Prasanna Kumar
Creo que una solución para ti sería crear un conjunto de datos "maestro" que publiques en tu espacio de trabajo. Crea todas las medidas y relaciones necesarias en este modelo (idealmente este modelo no tendrá visuales). Luego, para tus informes, crea informes "delgados" sobre este modelo semántico. Para crear el informe "delgado", en Escritorio, cuando empieces a crear tu informe, en lugar de empezar con "Obtener datos" y construir el modelo, empiezas yendo al catálogo de OneLake y seleccionando "Modelos semánticos de Power BI":
Luego puedes seleccionar tu modelo de datos publicado y construir tus visuales sobre ese modelo usando todas las mismas medidas. Entonces solo tienes un modelo para actualizar y varios informes pueden usar ese modelo. Esto eliminará los modelos semánticos duplicados y las copias de datos.
Hola d_m_LNK,
Gracias por tu respuesta.
El proceso que explicaste en tu respuesta, es decir, con Fabric y no con el Power BI normal que creo. ¿Puedes confirmarlo?
Gracias,
Sri
Esto es tanto con el servicio Power BI como con Fabric. Funcionaba antes de cambiar a tela y seguía funcionando después. Los modelos compuestos que explica @Praful_Potphode son esencialmente una extensión de lo que decía y un gran caso de uso para tu problema.
Hola d_m_LNK,
Gracias por tu rápida respuesta.
Como sugeriste, intenté importar todas las tablas a Master Model. Pero mi problema es que tengo muy pocas tablas muy grandes y no me permitieron importarlas al modelo Master. ¿Podrías sugerir cómo superar este escenario? Tenemos licencia PPU. En el escritorio, cuando intento importar tablas muy grandes, dice que hay problema de memoria y no puedo usar el modo Importación.
Gracias
Sri.
Quizá puedas configurar un refresh incramental dependiendo de tu mesa grande. Esto creará particiones a la cadencia que establezcas en la política de refresco. Aquí hay documentación: Configurar la actualización incremental para modelos semánticos de Power BI - Power BI | Microsoft L...
Esto te permitirá establecer parámetros para los datos que se cargan en el modelo, así al menos podrás publicarlos.
¿Necesitas todos los datos del modelo? ¿Es posible que escribas SQL personalizado en tu tabla grande para extraer solo datos recientes? No sé exactamente el escenario, solo doy opciones con las que he trabajado.
Hola @Koritala
¡Espero que estés bien!
Aquí tienes los mejores métodos de práctica:
1. Construir un modelo semántico central "dorado"
Crea un modelo semántico principal que contenga todas las tablas compartidas o reutilizables (por ejemplo, Cliente, Fecha, Producto).
Este modelo se convierte en tu única fuente de verdad.
2. Utilizar "DirectQuery para modelos semánticos de Power BI"
En tus otros modelos semánticos, en lugar de importar las tablas de nuevo, usa: Home → Get data → modelos semánticos de Power BI → DirectQuery
Esto permite que los modelos y reportes posteriores consulten el modelo central sin refrescar los datos.
Beneficios:
El refresco ocurre una vez en el modelo central.
No hay procesamiento de datos duplicados.
Las tablas se mantienen consistentes en todos los modelos.
Menor coste + mejor gobernanza.
3. Considerar el uso de dominios (Fabric) para una mejor organización
Si estás en un entorno PPU, puedes seguir el mismo principio y organizar tu modelo dorado bajo un espacio de trabajo compartido para que todos los desarrolladores de informes puedan conectarse.
4. Opcionalmente usar "modelos compuestos"
Si algunos modelos necesitan tablas adicionales, aún pueden importar solo las tablas únicas y reutilizar las tablas compartidas mediante DirectQuery desde el modelo centralizado.
Hola Nabha-Ahmed,
Gracias por tu rápida respuesta.
Como sugeriste, intenté importar todas las tablas a Master Model. Pero mi problema es que tengo muy pocas tablas muy grandes y no me permitieron importarlas al modelo Master. ¿Podrías sugerir cómo superar este escenario? Tenemos licencia PPU. En el escritorio, cuando intento importar tablas muy grandes, dice que hay problema de memoria y no puedo usar el modo Importación.
Gracias
Sri.
Gracias por la actualización.
Cuando se trabaja con tablas muy grandes en un entorno PPU, es normal alcanzar límites de memoria al intentar usar el modo Importación en un modelo centralizado.
Aún puedes construir un Modelo Maestro sin importar todo.
Aquí tienes el enfoque recomendado para superar el problema:
1. Importar solo tablas pequeñas/compartidas al Modelo Maestro
Mantén tus dimensiones o cualquier tabla ligera en modo Importación — normalmente no son un problema para la memoria PPU.
2. Mantener las tablas muy grandes en modo DirectQuery
En lugar de importar las tablas de datos grandes, conéctalas usando DirectQuery.
Esto evita la presión de la memoria y aún permite que el Modelo Maestro actúe como tu fuente central.
3. Construir un modelo semántico compuesto (híbrido)
Tu Modelo Maestro puede combinar:
Mesas pequeñas importadas
Tablas grandes de DirectQuery
Esto está totalmente soportado en PPU y es un patrón de diseño común para grandes conjuntos de datos.
4. Que todos los demás modelos semánticos reutilicen el Modelo Maestro
Desde tus modelos posteriores, conéctate al Modelo Maestro usando:
Obtener datos → modelos semánticos de Power BI → DirectQuery
Esto garantiza que las tablas grandes solo se refresquen una vez y no se dupliquen entre modelos.
5. Si es necesario, aplicar refresco incremental en tablas grandes
Si es necesario importar una tabla grande (parcialmente), utiliza la actualización incremental para reducir el uso de memoria durante la actualización.
Hola Nabha-Ahmad,
En el modelo Maestro, si conecto tablas grandes usando el modo de consulta directa, creo que no podemos configurar una actualización incremental para tablas grandes porque utiliza consulta directa en el modelo maestro.
Como has dicho, en los modelos posteriores, nos conectamos al modelo Master y extraemos las tablas requeridas.
y desactivar la opción de habilitar carga para todas las tablas en los modelos hijos.
Por favor, decidme si lo entiendo correctamente o no.
Las tablas DirectQuery no pueden usar Actualización Incremental.
Este es el mismo punto que mencioné antes, pero me alegra repetirlo:
Si una tabla está en DirectQuery, la actualización incremental no está disponible.
La actualización incremental solo funciona cuando la tabla está en modo Importación o Híbrido.
Para modelos posteriores, sí: conectarse al Modelo Maestro y desactivar Enable Load en tablas locales es el enfoque correcto.
Avísame si necesitas un ejemplo rápido o un diagrama; Encantado de ayudar.
Utiliza modelos compuestos en Power BI Desktop
https://learn.microsoft.com/power-bi/transform-model/desktop-composite-models
If you have recently started exploring Fabric, we'd love to hear how it's going. Your feedback can help with product improvements.
A new Power BI DataViz World Championship is coming this June! Don't miss out on submitting your entry.
Share feedback directly with Fabric product managers, participate in targeted research studies and influence the Fabric roadmap.