-
Total de itens
582 -
Registro em
-
Última visita
Tipo de Conteúdo
Perfis
Fóruns
Desafios
Calendário
Downloads
Galeria
Posts postados por Alex Pereira
-
-
49 minutos atrás, Victor Aparecido Albuquerque Dos Reis disse:
Ao obter dados via ODBC com o símba athena que conecta na fonte de dados do serviço athena da aws, tanto obtendo a tabela inteira quanto a query pronta no power query a cada clique feito o power BI envia uma consulta para o athena, ou seja qualquer clique de transformação do dado é enviada uma nova consulta pro athena gerando custo para o serviço, tem alguma forma de configurar o power BI para ele reaproveitar a primeira consulta feita a partir da obtenção do dado via ODBC, armazenamento em cache ou reuso da consulta?
Ou então tem como otimizar para usar esse tipo de fonte de dado sem gerar consulta excessiva na aws?
Todas as consultas em anexo foram geradas a partir de cliques no power query gerando multiplas consutas para a mesma fonte de dadosDa uma olhada neste video talvez possa ajudar:
-
2 horas atrás, Henrique Marsal disse:
Na licença PPU o fluxo de dados possui mais recursos de processamento ?
Sim, na licença PPU (Premium Per User), o fluxo de dados possui mais recursos de processamento. Isso permite realizar operações mais complexas, como referência cruzada de grandes volumes de dados e a aplicação de atualizações incrementais, proporcionando uma performance superior e maior flexibilidade na gestão dos dados.
Obs.: Você não consegue compartilhar esse fluxo com usuários pro, será necessário ele ser ppu também para consumir! -
1 hora atrás, Diego França De Souza . disse:
Pessoal, tenho uma tabela no BI onde acrescentei a consulta de vários arquivos para carregar o histórico desde 2023. Geralmente, os últimos dois meses são os que ainda sofrem algumas alterações de dados onde concentro somente em um arquivo, onde todos os dias atualizo a base no excel para carregar para o BI.
Meu problema é que a consulta está lenta e gostaria de saber se tem alguma alternativa para eu ter essa base consolidada no BI, mas atualizando somente os últimos 2 meses para tornar o processo mais rápido. Existe alguma alternativa para eu não ter que carregar todo o histórico todos os dias sem perder os dados dos meses mais antigos (Arquivos que não sofrem alteração)?Você pode usar atualização incremental no power bi!
- 1
-
Funciona da seguinte maneira:
- Se você evoluir sua licença para PPU, você terá acesso aos recursos premium e poderá configurar workspaces para utilizar a capacidade PPU.
- Os usuários com licença PRO ainda terão acesso aos workspaces na capacidade comum, mas não aos recursos premium nos workspaces configurados para PPU.
- Você pode habilitar ou desabilitar a capacidade premium para cada workspace individualmente. Se um workspace for habilitado como premium, apenas os usuários com licença PPU poderão compartilhar e acessar os recursos premium desse workspace.
Portanto, se você configurar um workspace para utilizar a capacidade PPU, os usuários com licença PRO não terão acesso aos recursos premium desse workspace. Se o workspace continuar na capacidade comum, eles manterão o acesso normal. A diferença crucial é quando o workspace está na capacidade premium por usuário.
Para mais informações acesse: https://learn.microsoft.com/pt-br/power-bi/consumer/end-user-license
-
Em 20/08/2024 em 10:32, Jeferson Ferreira Monteiro disse:
Olá pessoal,
já vi várias formas de resolver esse erro, mas até então nenhuma se adapta ao meu modelo.
Infelizmente não vou poder enviar o .PBIX e não consigo simular.
O erro ocorre logo após a tentativa de atualização. Sei qual é a consulta e a coluna e consegui até (pelo visto) saber em qual arquivo que é uma base Excel, onde está o erro, mas não achei nada de erro no arquivo. Alguém tem uma ideia?Você tentou carregar o arquivo em seu local e selecionar todas as colunas e manter linhas com erro.
-
Dê uma olhada neste tópico do fórum da Microsoft: https://community.fabric.microsoft.com/t5/Service/Dataflow-suddenly-couldn-t-be-refreshed/m-p/831972
Pelo que entendi, isso parece ser um erro conhecido do Power BI durante o processo de atualização. Algumas pessoas resolveram o problema recriando a entidade—ou seja, duplicaram o Dataflow e o configuraram novamente, o que funcionou.
Esses erros no Power BI podem ser realmente estranhos às vezes! 😅
-
Pedro você poderia fornecer mais informações sobre a api? por exemplo qual a api está utilizando e a documentação dela !
-
tente asssim:
CorMapaCalor = VAR PercentualHorario = DIVIDE( [ViewReport], CALCULATE( [ViewReport], ALLEXCEPT(fActivities, fActivities[Faixa Horário]) ) ) VAR PercentualDiaSemana = DIVIDE( [ViewReport], CALCULATE( [ViewReport], ALLEXCEPT(dCalendario, dCalendario[Dia da Semana]) ) ) VAR PercentualDiaHorario = DIVIDE( [ViewReport], CALCULATE( [ViewReport], ALLEXCEPT(dCalendario, dCalendario[Dia da Semana]), KEEPFILTERS(fActivities[Faixa Horário]) ) ) VAR CorHorario = SWITCH( TRUE(), PercentualHorario <= 0.30, "#D1C2E6", // Tom mais claro de #9071CE PercentualHorario <= 0.60, "#B299D9", // Tom intermediário de #9071CE "#9071CE" // Tom padrão para percentuais maiores que 0.60 ) VAR CorDiaSemana = SWITCH( TRUE(), PercentualDiaSemana <= 0.30, "#D1C2E6", // Tom mais claro de #9071CE PercentualDiaSemana <= 0.60, "#B299D9", // Tom intermediário de #9071CE "#9071CE" // Tom padrão para percentuais maiores que 0.60 ) VAR CorDiaHorario = SWITCH( TRUE(), PercentualDiaHorario <= 0.30, "#D1C2E6", // Tom mais claro de #9071CE PercentualDiaHorario <= 0.60, "#B299D9", // Tom intermediário de #9071CE "#9071CE" // Tom padrão para percentuais maiores que 0.60 ) RETURN SWITCH( TRUE(), ISINSCOPE(fActivities[Faixa Horário]) && NOT ISINSCOPE(dCalendario[Dia da Semana]) , CorHorario, // Aplica a cor baseada no Percentual por Faixa de Horário ISINSCOPE(dCalendario[Dia da Semana]) && NOT ISINSCOPE(fActivities[Faixa Horário]), CorDiaSemana, // Aplica a cor baseada no Percentual por Dia da Semana ISINSCOPE(dCalendario[Dia da Semana]) && ISINSCOPE(fActivities[Faixa Horário]) , CorDiaHorario, // Aplica a cor baseada no Percentual por Dia da Semana e Faixa de Horário BLANK() )
-
Se pode criar algo tente olhar o escopro aplicado e retornar a cor.
CorMapaCalor := VAR PercentualHorario = DIVIDE( SUM('SuaTabela'[Valor]), CALCULATE(SUM('SuaTabela'[Valor]), ALLEXCEPT('SuaTabela', 'SuaTabela'[FaixaHorario])) ) VAR PercentualDiaSemana = DIVIDE( SUM('SuaTabela'[Valor]), CALCULATE(SUM('SuaTabela'[Valor]), ALLEXCEPT('SuaTabela', 'SuaTabela'[DiaSemana])) ) VAR PercentualDiaHorario = DIVIDE( SUM('SuaTabela'[Valor]), CALCULATE(SUM('SuaTabela'[Valor]), ALLEXCEPT('SuaTabela', 'SuaTabela'[DiaSemana], 'SuaTabela'[FaixaHorario])) ) VAR CorHorario = SWITCH( TRUE(), PercentualHorario <= 0.30, "#D1C2E6", // Tom mais claro de #9071CE PercentualHorario <= 0.60, "#B299D9", // Tom intermediário de #9071CE "#9071CE" // Tom padrão para percentuais maiores que 0.60 ) VAR CorDiaSemana = SWITCH( TRUE(), PercentualDiaSemana <= 0.30, "#D1C2E6", // Tom mais claro de #9071CE PercentualDiaSemana <= 0.60, "#B299D9", // Tom intermediário de #9071CE "#9071CE" // Tom padrão para percentuais maiores que 0.60 ) VAR CorDiaHorario = SWITCH( TRUE(), PercentualDiaHorario <= 0.30, "#D1C2E6", // Tom mais claro de #9071CE PercentualDiaHorario <= 0.60, "#B299D9", // Tom intermediário de #9071CE "#9071CE" // Tom padrão para percentuais maiores que 0.60 ) RETURN SWITCH( TRUE(), ISINSCOPE('SuaTabela'[FaixaHorario]) && NOT ISINSCOPE('SuaTabela'[DiaSemana]), CorHorario, // Aplica a cor baseada no Percentual por Faixa de Horário ISINSCOPE('SuaTabela'[DiaSemana]) && NOT ISINSCOPE('SuaTabela'[FaixaHorario]), CorDiaSemana, // Aplica a cor baseada no Percentual por Dia da Semana ISINSCOPE('SuaTabela'[DiaSemana]) && ISINSCOPE('SuaTabela'[FaixaHorario]), CorDiaHorario, // Aplica a cor baseada no Percentual por Dia da Semana e Faixa de Horário BLANK() // Caso padrão, retorna em branco )
-
Booom Diaaaa, não sei se entendi direito, mas uma forma de fazer isso seria usando um switch:
Esse é mais ou menos um exemplo ajuste conforme suas necessidades!Medida = SWITCH( TRUE(), -- Condição para nível G e cargo diferente de Garantista SELECTEDVALUE(dcargos[NivelH]) = "G" && SELECTEDVALUE(dcargos[Cargo]) <> "Garantista", [OSVFaturada] - 1220594, -- Condição para cargo igual a Garantista SELECTEDVALUE(dcargos[Cargo]) = "Garantista", [OSVFaturada] - [Garantia] - 1172438, -- Condição padrão para OSVFaturada por mecanicoid SUMX( VALUES(fServicos[mecanicoid]), [OSVFaturada] ) )
-
Ela é uma coluna que tem o ano concatenado com numero do mês, serve para classificar coluna ano mes como a coluna contador ano
-
Custo Compra TESTE = VAR UltimoMesAno = CALCULATE( MAX(dCalendario[AnoMes]), FILTER( ALLSELECTED(dCalendario), dCalendario[AnoMes] < MAX(dCalendario[AnoMes]) ) ) VAR vResultado = CALCULATE( [CUSTO COMPRA&BONIF.], FILTER( ALL(dCalendario), dCalendario[AnoMes] = UltimoMesAno ) ) RETURN IF( ISBLANK([CUSTO COMPRA&BONIF.]), // Se o mês atual estiver em branco vResultado, // Usa o custo calculado para o último mês válido [CUSTO COMPRA&BONIF.] // Caso contrário, usa o valor do mês atual )
Seria isso?
-
"Hmmm... Será que você poderia disponibilizar uma base de exemplo ou compartilhar como os seus dados estão estruturados? Isso me ajudaria a criar uma simulação mais precisa!"
-
1 minuto atrás, Alex Pereira disse:
VAR UltimoCusto = CALCULATE( MAXX( FILTER( ALL(dCalendario), // Remove os filtros do calendário para buscar em todos os meses dCalendario[AnoMes] < MAX(dCalendario[AnoMes]) && NOT(ISBLANK([CUSTO COMPRA&BONIF.])) ), [CUSTO COMPRA&BONIF.] ) ) RETURN IF( ISBLANK([CUSTO COMPRA&BONIF.]), // Se não houver valor de custo para o mês atual UltimoCusto, // Usa o valor da variável UltimoCusto [CUSTO COMPRA&BONIF.] // Caso contrário, usa o valor da medida atual )
Muda para ano mes que ai acho que vai dar certo!
-
VAR UltimoCusto = CALCULATE( MAXX( FILTER( ALL(dCalendario), // Remove os filtros do calendário para buscar em todos os meses dCalendario[AnoMes] < MAX(dCalendario[AnoMes]) && NOT(ISBLANK([CUSTO COMPRA&BONIF.])) ), [CUSTO COMPRA&BONIF.] ) ) RETURN IF( ISBLANK([CUSTO COMPRA&BONIF.]), // Se não houver valor de custo para o mês atual UltimoCusto, // Usa o valor da variável UltimoCusto [CUSTO COMPRA&BONIF.] // Caso contrário, usa o valor da medida atual )
-
Tenta essa
Custo Compra/Bonfic = VAR UltimoCusto = CALCULATE( MAXX( FILTER( ALL(dCalendario), // Remove os filtros do calendário para buscar em todos os meses dCalendario[Data] < MAX(dCalendario[Data]) && NOT(ISBLANK([CUSTO COMPRA&BONIF.])) ), [CUSTO COMPRA&BONIF.] ) ) RETURN IF( ISBLANK([CUSTO COMPRA&BONIF.]), // Se não houver valor de custo para o mês atual UltimoCusto, // Usa o valor da variável UltimoCusto [CUSTO COMPRA&BONIF.] // Caso contrário, usa o valor da medida atual )
-
Eu sugiro que você tente algo semelhante ao que foi mostrado neste vídeo, usando um gráfico de dispersão. Nesse caso, você poderia criar uma imagem que mostre a localização de cada lugar, definindo a largura e a altura como os eixos X e Y. Em seguida, as vendas seriam representadas pelo tamanho dos pontos no gráfico. Dessa forma, você conseguiria visualizar quais áreas têm maior volume de vendas com base na localização.
Seria algo semelhante a isso aqui.
-
Tente isso:
Custo Compra/Bonfic = VAR UltimoCusto = // Calcula o valor do custo usando a última data em que não há um valor em branco // para a medida [CUSTO COMPRA&BONIF.]. // A função LASTNONBLANK retorna a última data onde a condição foi atendida. CALCULATE( [CUSTO COMPRA&BONIF.], // A medida que queremos calcular LASTNONBLANK(Dcalendario[Data], [CUSTO COMPRA&BONIF.]) // Retorna a última data com um valor não nulo ) RETURN // A função IF avalia se a condição é verdadeira ou falsa. // Neste caso, verifica se o valor da medida [CUSTO COMPRA&BONIF.] para o mês atual é em branco. IF( ISBLANK([CUSTO COMPRA&BONIF.]), // Verifica se a medida está em branco para o mês atual UltimoCusto, // Se estiver em branco, retorna o valor calculado na variável UltimoCusto [CUSTO COMPRA&BONIF.] // Caso contrário, retorna o valor da medida atual )
-
18 minutos atrás, Edsonsouza disse:
Olá @Alex Pereira, fiz conforme orientado mas ele acabou repetindo os mesmos valores na matriz
Seu filtro não deve estar sendo aplicado para o visual de tabela. Neste caso, você deve fazer seguintes coisas:
1 - habilitar o filtro para tabela.
2 - Caso queira ver todos os Mês/ Ano crie uma medida personalizada que ignore os filtros de Mês nesta coluna.
-
Veja se esse video ajuda
-
Em 04/08/2024 em 00:12, Jamilson disse:
Caros colegas
Companheiros, venho solisitar ajuda em um trabalho com mapa, tenho que motar uma roda onde tenho que colocar localidade de cada ocorrencia em uma rodovia.
já tentei mais não onsigo determinar corretamente local.
Tenho uma base teste
BASE_TESTE.xlsx 2.93 MB · 0 downloads teste_GPS.pbix 4.55 MB · 1 download
Da uma olhada nesse video momento 9:38:
Você deve deixar os dados de lagitude e longitude em sua base como texto para deixar o "." e ele conseguir localizar!
-
-
Tenta conectar via power bi deskktop no mesmo ambiente que ta gateway e vê se ta fazendo conexão!
-
16 horas atrás, Marcelo Kniss disse:
Pessoal, tudo bem?
Eu criei um servidor que será responsável por gerenciar o gateway do Power BI mas venho enfrentando alguns problemas.
Criei um relatório que possui somente arquivos .csv e publiquei no Power BI service.
Quando o arquivo termina de ser publicado, recebo a mensagem abaixo:
Ao acessar a configuração do Gateway no Power BI service me deparo com isso:
Eu criei algumas conexões de teste, salvei e tentei rodar novamente:
Porém na hora que eu tento executar um refresh do relatório eu estou recebendo um erro:
Pelo que pude entender o Gateway tá tendo problemas para se conectar aos arquivos, eu só não tô entendo o porquê.
Eu tentei conectar em uma base de dados SQL e conectou tranquilo, aparentemente o problema são com arquivos.
Alguém tem alguma ideia? Eu não sei mais oque fazer
Esses arquivos eles estão no mês ambiente que o gateway foi instalado? caso não estiver você deve mapear esses arquivos lá ou colocá - los no servidor de sua rede!
Acrescentar consulta com Atualização diária (Processo Lento)
em Conexão com dados
Postado
Você consegue fazer via assinatura pro também, você só não consegue aplicar no fluxo de dados (data flow) para fluxo de dados necessita de uma conta premium!