Ir para conteúdo

Michele

Alunos
  • Total de itens

    543
  • Registro em

  • Última visita

Sobre Michele

  • Data de Nascimento 01-01-1900

Perfil

Informações adicionais

  • Sexo
    ♀ Feminino
  • Mora em
    SC

Últimos Visitantes

O bloco dos últimos visitantes está desativado e não está sendo visualizado por outros usuários.

Michele's Achievements

  1. Olá @Cleinilton Souza! Tenta criar uma coluna de ordem e utilizar a função "Classificar coluna por" mandando ordenar por essa coluna da ordem, com isso é para resolver. Se por acaso "bagunçar" a ordem de mês, cria uma coluna de ordenação do mês também.
  2. Olá @Alvaro Rangel Faz muito tempo que não faço conexões com API então posso falar bobagem, mas não seria ali na opção "API da Web"? Pelo print está selecionada a opção "Básico".
  3. Oi @Joao Raulino Essa alteração no Conjunto de Dados que você fala seria uma alteração normal? Não deveria dar problema nisso não, estranho, a gente nunca teve isso. Será que não é a forma da conexão? Sobre a nossa estrutura, quando eu comecei na empresa cada relatório era plugado diretamente no SQL, em tabelas "brutas", mas também eram apenas 4 relatórios, hoje são mais de 300 (considerando os modelos "padrão" com N clientes publicados). Então estruturei tabelas tratadas no SQL e no começo também puxava cada relatório, daí foi dando problema as vezes no SQL e as vezes no Sharepoint, então criei o DataFlow principal e por um tempo ele atendeu bem. Dessa forma, não deu mais problema enquanto não tínhamos muitos relatórios e com isso também buscamos tudo uma única vez, tanto do SharePoint quanto do SQL. Daí com o passar do tempo a quantidade de relatórios só foi crescendo e chegou num ponto que para melhor organização e também balanceamento das atualizações acabamos criando esses DFs "filhos". Temos 2 DFs, um para relatório das áreas internas e outro para relatórios de clientes (este tem relatórios personalizados e Conjuntos de Dados de relatórios "padrão"), daí podemos agendar atualização de Conjuntos de Dados/Relatórios ao mesmo tempo, cada um no seu DF "filho" correspondente. Na nossa estrutura depois ainda defini uso de Conjunto para os relatórios "padrões" de clientes, pois assim ao atualizar o Conjunto todos os relatórios dos clientes eram atualizados, agendar cada um estava ficando inviável também, além de que queriam que todos atualizassem logo no começo do mês e agendar todos para o mesmo dia era impossível. Hoje essa estrutura toda funciona muito bem, temos sofrido agora apenas com concorrência de uso, das atualizações, etc. e tivemos que migrar para o A2 do Embbeded, mas faz parte, sabíamos que uma hora isso ia ser necessário.
  4. Olá @Joao Raulino! Não sei sobre o erro que aconteceu com você, pois conosco isso nunca ocorreu. Já sobre a necessidade de configurar uma conexão de gateway no dataflow eu acho que é loucura do PBI, porque faz parte da estrutura, mas aqui a gente apenas desativa a necessidade do gateway e seguimos a vida, funciona normalmente justamente porque já está tudo online. Sobre mesclar as conexões não entendi bem o questionamento, mas na nossa estrutura temos um DataFlow "pai" que busca as coisas da nossa fonte no SQL e das fontes no SharePoint, então a necessidade de conexão/gateway fica apenas nele, acho que até evita dar erros. Daí nos DataFlows "filhos" apenas conectamos desse DataFlow "pai" e que já tá tudo na nuvem. A partir desses DataFlows "filhos" conectamos nossos Conjuntos de Dados. Posso dizer que a ocorrência de erros nessa nossa estrutura não chega a 1%, tudo funciona bem redondinho, quando dá problema é lá da fonte inicial (banco de produção do sistema) para a nossa ETL no SQL. Espero ter ajudado de alguma forma, qualquer novidade coloca aqui pra gente 🙂
  5. Oi @Andre Fortuna Não sei se entendi a sua dúvida, mas se você tem o link da imagem publicada e quer que um visual apresente essa imagem bastaria definir esse campo como "URL da Imagem" e usar nos visuais. Aqui utilizamos isso para carregar de forma dinâmica a logo do cliente, conforme trocamos o Id do cliente já muda a logo dinamicamente.
  6. Olá @Rodrigo Jorrin! Sobre juntar os arquivos isso não é para ser um problema, você pode usar a opção de importar os arquivos a partir de uma pasta e, eles tendo o mesmo layout, vai "anexar" tudo em uma mesma tabela. Tem aulas no curso falando em como importar dessa forma, quando você vai ter N arquivos com dados incrementais das suas tabelas. Sobre a demanda em si, no texto são citados 3 imóveis, como você vai identificar esses imóveis, você pode escolher qualquer um deles na planilha? Percebi que na coluna de quartos tem opções até 5, mas todos com opção de 1 quarto podem ser entendidos como o "mesmo imóvel", por exemplo? Acho que essa pergunta é importante conseguir responder. Outra coisa, sobre chegar no valor, foi definido nesse desafio que métrica é para seguir? Se não, vejo duas formas de definir o preço (claro que podem ter mais, pensei nessas 2 agora): Chegar no preço com base em média, podendo até se for o caso colocar peso para os anos mais recentes, que em teoria são os preços mais atualizados. Identificar um padrão de % de aumento de um ano para o outro, ou de um período para o outro e aplicar essa % em cima do último preço existente, até a data atual? Não sei se te ajudei de alguma forma, mas se tiveres mais detalhes da tua necessidade, regras de negócio a serem aplicadas já facilita.
  7. Olá a todos, Apenas para deixar registrado algumas coisas que definimos fazer e que podem ajudar alguém futuramente: Passar validações que estávamos fazendo no PQ para a ETL no banco de dados, deixando no PQ o mínimo possível de transformações. Removendo validações nas medidas e que dava para já fazer na ETL no banco de dados. Criaremos uma tabela sumarizada da nossa maior tabela, que tem 8M de linhas, para usar em relatórios onde não precisemos de nominais e onde precisar de nominais ainda vamos ter que estudar como fazer isso, se vamos conseguir reduzir essa tabela de 8M de linhas ou vamos precisar continuar usando ela nesses casos. Nossa intenção era conseguir manter a utilização do nível A1 da licença Embedded, mas por enquanto isso não está sendo possível e estamos tendo que usar a A2. Depois que aplicarmos todas essas otimizações vamos fazer teste novamente se conseguimos regredir, caso contrário, pelo menos, que não precisemos escalar tão cedo novamente. Por enquanto foi isso que identificamos que é possível fazer, considerando o nosso cenário. Estamos também tentando usar o App Microsoft Fabric Capacity, alinhando com o suporte da Microsoft como ler os gráficos, para saber onde há gargalos, para então analisarmos o relatório/conjunto de dados e poder avaliar o que tem de diferente nele e que possa ser otimizado. Espero estar ajudando alguém futuramente que possa passar pela mesma situação.
  8. Olá @Joao Raulino e @Edson Igari! A parte de carregamento dos fluxos está ok, tem uma performance boa, o problema está no carregamento dos visuais, na demora e por consequência no ponto de esgotamento que acabou acontecendo e tivemos que passar nossa licença Embedded para o nível 2. Atualização incremental e modelo composto não creio que vá ajudar muito, pois se não estou muito enganada isso é mais quando o carregamento dos dados para o BI está sofrendo. Se for isso mesmo, este não é nosso caso, é na ponta do usuário mesmo, na utilização dos relatórios e na ida do relatório ao conjunto de dados para apresentar as informações. Agregações entendo que ajudariam se nosso problema fosse no cálculo das medidas, mas não é, é ter que apresentar "nominal" de cada indicador, listar as pessoas, atendimentos, etc. e todas as informações envolvidas, que nos fazem precisar de muitas colunas nas tabelas Fatos e, obviamente, deixa nossos modelos fora das melhores práticas, mas infelizmente ainda não conseguir achar uma solução que atenda isso sem gerar esse custo de processamento e memória. Além das colunas nas fatos, para não virem linhas indevidas, a gente acaba colocando no filtro lateral a medida do indicador e pedindo para listar apenas linhas onde o resultado da medida seja > 0, que pesa ainda mais, mas também ainda não achamos forma de fazer sem isso. Quanto à redução dos dados, essa é uma das partes que vamos "atacar", hoje nos reunimos para definir um corte na base histórica, de modo a trazer apenas dados dos últimos 24 meses, porém ainda precisamos definir se todas as tabelas são passíveis essa ação, senão teremos alguma coisa nesses anos anteriores que precisa ser trazida. Com isso eu creio que vai dar uma melhorada para, pelo menos, podermos estudar se existe outra forma de entregar esses nominais sem ser tão custoso para os modelos. Eu queria era saber se alguém já passou por isso, precisou ter no modelo essas várias colunas nas Fatos para criar visuais de detalhamento dos indicadores e como fez para ficar otimizado. Depois que fizermos esses cortes na base histórica para trazer apenas dados dos últimos 24 meses, voltar nossa licença para o nível 1 e testar se vai atender por enquanto, vamos focar em tentar achar uma solução para esse problema dos "nominais", se achar alguma solução conto aqui. Fico aguardando se alguém tem alguma sugestão para testarmos 😁
  9. Pessoal, Sabemos que as tabelas Fato não devem conter muitas colunas, pois isso prejudica a otimização do modelo, assim como não devemos ter Dimensões com muitas linhas. Porém no cenário da minha empresa para tudo precisa de "nominal", dizer detalhes do que aconteceu, quem foi a pessoa, datas, etc. Primeiro tentamos fazer uma dimensão Pessoa, mas aí temos milhões de linhas numa dimensão, não era performático, então começamos a colocar as colunas nas Fatos, mas daí começamos a ter muitas colunas nas Fatos, é bem mais performático, mas estamos começando a sofrer com lentidão e erro ao acessar relatórios, dependendo da quantidade de pessoas usando simultaneamente. Outro dificultador é que precisamos ficar criando campos personalizados, com última resposta disso quando tal cenário acontecer, etc. e são mais colunas nas Fatos. E por fim temos centenas de relatórios, mais de 300, pois temos um modelo do programa de saúde vendido para as empresas e aí, claro, uma publicação para cada empresa, filtrando pela empresa em questão. Queria saber se alguém passa pelo mesmo problema e quais foram as ações tomadas para melhorar isso. No nosso cenário usamos a licença Embedded e, até hoje, tínhamos o nível 1, paliativamente/emergencialmente passamos para o nível 2, até identificar o que conseguiremos otimizar. Uma coisa que estou sugerindo (quase que dizendo que não tem outra opção) é a redução da base histórica, pois hoje trazemos todas as linhas, estou sugerindo um corte para apenas dados dos últimos 24 meses. Nossa estrutura geral é: SERVIDOR PRODUÇÃO > SERVIDOR BI (tabelas com dados resumidos e estruturados já em forma mais macro) SERVIDOR BI: faz a ETL tratando os campos e criando as tabelas com os dados tratados. POWER BI ONLINE: Fluxo de Dados "principal" que busca os dados no SERVIDOR BI Fluxo de dados "secundários" que separa as bases de clientes e relatórios internos, para ficar mais performático o agendamento das atualizações. Conjuntos de Dados: que busca dados dos Fluxos de Dados para cada modelo de relatório, de modo que quando atualizar aquele conjunto atualize os relatórios de todos os clientes que usam aquele modelo. Relatórios: os que usam Conjunto de Dados precisam apenas da atualização do Conjunto. os que são gerenciais internos e personalizados de clientes cada um possui um Conjunto próprio e é agendado de forma separada. Exemplo:
  10. @Joao Raulino Eu me conecto na pasta do usuário do BI e para mim nunca deu problema de credenciais, já usamos assim há mais de 3 anos:
  11. Olá @Joao Raulino! Eu utilizo dessa forma abaixo, para mim nunca deu problema de conexão/credenciais e é super performático: Fonte = SharePoint.Files("https://dominio-my.sharepoint.com/personal/usuario_dominio/", [ApiVersion = 15]), #"Linhas Filtradas" = Table.SelectRows(Fonte, each [Extension] = ".xlsx" and [Name] = "Nome_Arquivo.xlsx"), #"Nome_Arquivo" = #"Linhas Filtradas"{[Name = "Nome_Arquivo.xlsx", #"Folder Path" = "https://dominio-my.sharepoint.com/personal/usuario_dominio/Documents/_Nome_Pasta/"]}[Content], #"Excel Importado" = Excel.Workbook(#"Nome_Arquivo"), #"Planilha" = #"Excel Importado"{[Item = "Planilha", Kind = "Sheet"]}[Data], #"Cabeçalhos Promovidos" = Table.PromoteHeaders(#""Planilha", ", [PromoteAllScalars = true]),
  12. Olá @mateusorlando! Pelo que vi aqui funciona sim, quando você começa a digitar o nome do parâmetro o PQ já sugere para adicionar essa variável, só não sei se a performance para atualizar os dados será a mesma, em teoria deveria ser, mas daí precisa testar este ponto. Testei aqui no meu relatório e carregou os dados certinho.
  13. Olá @victorcastro_a! Então, mas se todos eles tem dados iguais poderia ser um único Conjunto de Dados, com uma coluna de IdCliente nas tabelas e com esse filtro lateral por IdCliente, é assim que fazemos, pelo menos facilita um pouco a manutenção. Fora isso teria RLS mesmo, mas daí precisa ver se é ok para cada cliente ter uma licença PRO, se é ok para acessar o Power Bi Online (caso já não façam). Você citou que troca a fonte de dados, você fala do Conjunto de Dados do Power BI mesmo ou é uma fonte no SQL? Porque usamos Conjunto de Dados mas não conseguimos trocar o Conjunto no .pbix. Sobre Fluxo de Dados acho que não precisa ser PPU, tínhamos apenas a PRO e eu criei os Fluxos para melhor organização do nosso processo, mas também não sei se vai facilitar muito no teu caso, vais ter que trocar de fonte de dados igual, ou junta as suas fontes num único Fluxo de dados, e faz esse filtro no modelo por IdCliente. Se conseguir a solução posta aqui e marca a resposta que mais te ajudou para fechar o tópico 🙂
  14. Olá @Cayo AR! Conseguiu resolver? Se sim e puder marcar como solução a resposta que mais te ajudou, para ser concluído o tópico.
  15. Olá @EDSONFT! Você ainda está precisando de ajuda nisso aqui? Caso sim, conseguirias montar um arquivo com exemplo completo de como você precisa das novas colunas? Exatamente como você espera o resultado? Confesso que com o exemplo dado não ficou 100% clara a necessidade, você precisa apenas do próximo código e descrição ou precisa de mais que isso?
×
×
  • Criar Novo...