Monday 3 July 2017

Moving Average Query


Confira se é o momento certo para comprar um estoque, vender um estoque, entrar no mercado ou qualquer Stock Market consultas relacionadas. Se sim, por favor, sinta-se livre para publicá-lo na forma de um comentário. Vou tentar dar-lhe a melhor estratégia possível em seu estoque ou mercado, mas ao mesmo tempo, eu também espero que você leia nossa renúncia. Então sinta-se livre para ir em frente e escrever uma consulta. Se você deseja receber um e-mail assim que sua consulta for respondida, tudo o que você precisa fazer é se inscrever no nosso recurso de e-mail automático. 419,597 Respostas Pesquisar Nossos Arquivos Research Desk Stocks Negociação acima de sua média móvel de 50 dias - DMA Em Stock Research Baixe gratuitamente Ebooks com base em Análise Técnica Em Personal Training TOP 100 ações com o PE mais elevado em 14 de julho de 2013 Em Stock Research TOP 100 Stocks with O menor PE como em 14 de julho de 2013 Em Stock Research Charting Pathsala - Seu guia para Techincals Em Análise Técnica Comentários Recentes SANJIV shill i comprar relince futuro. Em chamadas Intraday para 23-02-17 Prathmesh Boa tarde CB senhor, muitos thnx. In Intraday calls for 23-02-17 CB Oi mayank, sim, está enfrentando resi forte. Em chamadas Intraday para 23-02-17 CB Oi Prashant, é uma espera. Pode testar 455. Em Intraday chama para 23-02-17 mayank Senhor sua opinião no ongc Como assim muitos bons. In Intraday calls for 23-02-17 Prashant Caro Sirji Tem motores Tata curtos. Em chamadas Intraday para 23-02-17 Prathmesh Bom dia CB senhor que os níveis podem se. Em chamadas Intraday para 23-02-17 seema Qual poderia ser a meta de confiança agora. Em chamadas Intraday para 23-02-17 Prathmesh CB sir boa tarde, Kotak banco sust. In Intraday calls for 23-02-17 Disclaimer SuggestionsMost pessoas estão familiarizadas com a frase, quotthis vai matar dois pássaros com um stonequot. Se você não estiver, a fase se refere a uma abordagem que aborda dois objetivos em uma ação. (Infelizmente, a expressão em si é bastante desagradável, como a maioria de nós não queremos atirar pedras em animais inocentes) Hoje I39m vai cobrir algumas noções básicas sobre dois grandes recursos no SQL Server: o índice Columnstore (disponível somente no SQL Server Enterprise) e O SQL Query Store. A Microsoft implementou o índice Columnstore no SQL 2012 Enterprise, embora o tenha aprimorado nas últimas duas versões do SQL Server. A Microsoft lançou o Query Store no SQL Server 2016. Então, quais são esses recursos e por que eles são importantes? Bem, eu tenho uma demo que apresentará os dois recursos e mostrar como eles podem nos ajudar. Antes de eu ir mais longe, eu também cobrir este (e outros recursos SQL 2016) no meu artigo revista CODE sobre novos recursos SQL 2016. Como uma introdução básica, o índice Columnstore pode ajudar a acelerar as consultas que scanaggregate sobre grandes quantidades de dados e O Query Store controla as execuções de consultas, os planos de execução e as estatísticas de tempo de execução que você normalmente precisa coletar manualmente. Confie em mim quando eu digo, estas são grandes características. Para esta demonstração, usarei o banco de dados de demonstração do Microsoft Contoso Retail Data Warehouse. Falando francamente, Contoso DW é como quota realmente grande AdventureWorksquot, com tabelas contendo milhões de linhas. (A maior tabela AdventureWorks contém aproximadamente 100.000 linhas no máximo). Você pode baixar o banco de dados Contoso DW aqui: microsoften-usdownloaddetails. aspxid18279. Contoso DW funciona muito bem quando você quer testar o desempenho em consultas contra tabelas maiores. O Contoso DW contém uma tabela de fatos de data warehouse padrão chamada FactOnLineSales, com 12,6 milhões de linhas. Isso certamente não é a maior tabela de data warehouse do mundo, mas também não é uma criança. Suponha que eu quero resumir o montante das vendas de produtos para 2009 e classificar os produtos. Eu poderia consultar a tabela de fatos e juntar-se à tabela de dimensão do produto e usar uma função RANK, assim: Aqui há um conjunto de resultados parciais das 10 linhas superiores, por Vendas totais. No meu laptop (i7, 16 GB de RAM), a consulta leva em qualquer lugar 3-4 segundos para ser executado. Isso pode não parecer o fim do mundo, mas alguns usuários podem esperar resultados quase instantâneos (da maneira que você pode ver resultados quase instantâneos ao usar o Excel contra um cubo OLAP). O único índice que eu tenho atualmente nesta tabela é um índice agrupado em uma chave de vendas. Se eu olhar para o plano de execução, o SQL Server faz uma sugestão para adicionar um índice de cobertura para a tabela: Agora, apenas porque o SQL Server sugere um índice, doesn39t significa que você deve cegamente criar índices em cada quotmissing indexquot mensagem. No entanto, nesta instância, o SQL Server detecta que estamos a filtrar com base no ano e utilizando a chave de produto eo montante de vendas. Assim, o SQL Server sugere um índice de cobertura, com o DateKey como o campo de chave de índice. A razão pela qual chamamos isso de índice de quotcoveringquot é porque o SQL Server irá quotbring ao longo dos campos não-chave que usamos na consulta, quotfor o ridequot. Dessa forma, o SQL Server não precisa usar a tabela ou o índice em cluster em todo o mecanismo de banco de dados pode simplesmente usar o índice de cobertura para a consulta. Os índices de cobertura são populares em determinados cenários de armazenamento de dados e de banco de dados de relatórios, embora tenham um custo de manutenção do mecanismo de banco de dados. Nota: Os índices de cobertura têm sido em torno de um longo tempo, por isso eu haven39t ainda cobriu o índice Columnstore eo Query Store. Então, vou adicionar o índice de cobertura: Se eu re-execute a mesma consulta que eu corri há um momento (aquela que agregou o valor de vendas para cada produto), a consulta às vezes parece correr cerca de um segundo mais rápido, e eu recebo um Um plano de execução diferente, que usa um Index Seek em vez de um Index Scan (usando a chave de data no índice de cobertura para recuperar as vendas para 2009). Assim, antes do índice Columnstore, esta poderia ser uma forma de optimizar esta consulta em versões mais antigas do SQL Server. Ele é executado um pouco mais rápido do que o primeiro, e eu recebo um plano de execução com um Index Seek em vez de um Index Scan. No entanto, existem alguns problemas: Os dois operadores de execução quotIndex Seekquot e quotHash Match (Aggregate) quot ambos essencialmente operam quotrow por rowquot. Imagine isso em uma tabela com centenas de milhões de linhas. Relacionados, pense no conteúdo de uma tabela de fatos: neste caso, um único valor de chave de data e um único valor de chave de produto podem ser repetidos em centenas de milhares de linhas (lembre-se, a tabela de fatos também tem chaves para geografia, promoção, vendedor , Etc.) Assim, quando o quotIndex Seekquot e o quotHash Matchquot trabalham linha por linha, eles estão fazendo isso sobre valores que podem ser repetidos em muitas outras linhas. Isso é normalmente onde I39d segue para o SQL Server Columnstore índice, que oferece um cenário para melhorar o desempenho desta consulta de maneiras surpreendentes. Mas antes de eu fazer isso, vamos voltar no tempo. Vamos voltar ao ano de 2010, quando a Microsoft introduziu um add-in para o Excel conhecido como PowerPivot. Muitas pessoas provavelmente se lembram de ver demonstrações do PowerPivot para Excel, onde um usuário poderia ler milhões de linhas de uma fonte de dados externa para o Excel. O PowerPivot comprimiria os dados e forneceria um mecanismo para criar tabelas dinâmicas e gráficos dinâmicos que funcionassem a velocidades incríveis em relação aos dados compactados. O PowerPivot usou uma tecnologia em memória que a Microsoft denominou quotVertiPaqquot. Essa tecnologia em memória do PowerPivot basicamente levaria valores de chave de negócios duplicados e os comprimia para um único vetor. A tecnologia em memória também digitalizaria esses valores em paralelo, em blocos de várias centenas de cada vez. A linha de fundo é que a Microsoft assou uma grande quantidade de aprimoramentos de desempenho no recurso VertiPaq em memória para usarmos, logo depois da caixa proverbial. Porque estou fazendo exame deste passeio pequeno para baixo a pista da memória Porque no SQL Server 2012, Microsoft executou um dos recursos os mais importantes no history de seu motor do banco de dados: o índice do Columnstore. O índice é realmente um índice somente no nome: é uma maneira de tomar uma tabela do SQL Server e criar um columnstore compactado na memória que comprime valores de chave estrangeira duplicados para valores de vetor simples. A Microsoft também criou um novo pool de buffer para ler esses valores vetoriais compactados em paralelo, criando o potencial para ganhos de desempenho enormes. Assim, I39m vai criar um índice columnstore na tabela, e I39ll ver quanto melhor (e mais eficientemente) a consulta é executada, versus a consulta que é executado contra o índice de cobertura. Então, eu criarei uma cópia duplicada de FactOnlineSales (I39ll chamá-lo de FactOnlineSalesDetailNCCS), e I39ll criará um índice columnstore na tabela duplicada dessa maneira eu won39t interferir com a tabela original eo índice de cobertura de qualquer maneira. Em seguida, I39ll criar um índice columnstore na nova tabela: Observe várias coisas: I39ve especificado várias colunas de chave estrangeira, bem como o montante de vendas. Lembre-se de que um índice columnstore não é como um índice tradicional de armazenamento em fila. Não há quotkeyquot. Estamos simplesmente indicando quais colunas SQL Server deve compactar e colocar em um columnstore in-memory. Para usar a analogia do PowerPivot para Excel quando criamos um índice columnstore, estamos dizendo ao SQL Server que faça essencialmente a mesma coisa que o PowerPivot fez quando importamos 20 milhões de linhas para o Excel usando o PowerPivot. Então, I39ll re-executa a consulta, desta vez usando A tabela duplicada FactOnlineSalesDetailNCCS que contém o índice columnstore. Esta consulta é executada instantaneamente em menos de um segundo. E eu também posso dizer que mesmo que a mesa tivesse centenas de milhões de linhas, ela ainda funcionaria com o proverbial quotbat de um cílio. Podemos olhar para o plano de execução (e em alguns momentos, vamos), mas agora é hora de cobrir o recurso Query Store. Imagine por um momento que executamos ambas as consultas durante a noite: a consulta que usou a tabela regular de FactOnlineSales (com o índice de cobertura) e, em seguida, a consulta que usou a tabela duplicada com o índice Columnstore. Quando iniciamos a sessão na manhã seguinte, gostaríamos de ver o plano de execução para ambas as consultas à medida que elas ocorreram, assim como as estatísticas de execução. Em outras palavras, gostaríamos de ver as mesmas estatísticas que seríamos capazes de ver se executamos ambas as consultas interativamente no SQL Management Studio, transformadas em TIME e IO Statistics e visualizamos o plano de execução logo após a execução da consulta. Bem, isso é o que o Query Store nos permite fazer, podemos ativar (habilitar) o Query Store para um banco de dados, que acionará o SQL Server para armazenar a execução da consulta e planejar as estatísticas para que possamos visualizá-las mais tarde. Então, I39m vai habilitar o Query Store no banco de dados Contoso com o seguinte comando (e I39ll também limpar qualquer cache): Então I39ll executar as duas consultas (e quotpretendquot que eu os corri há horas): Agora vamos fingir que correram horas atrás. De acordo com o que eu disse, o Query Store irá capturar as estatísticas de execução. Então, como faço para vê-los Felizmente, isso é muito fácil. Se eu expandir o banco de dados Contoso DW, ver uma pasta Query Store. O Query Store tem uma enorme funcionalidade e I39ll tentar cobrir grande parte dela em postagens de blog subseqüentes. Mas para agora, eu quero ver as estatísticas de execução sobre as duas consultas e examinar especificamente os operadores de execução para o índice columnstore. Então, clique com o botão direito do mouse no Top Resource Consuming Queries e execute essa opção. Isso me dá um gráfico como o abaixo, onde eu posso ver o tempo de duração da execução (em milissegundos) para todas as consultas que foram executadas. Nesse caso, a Consulta 1 era a consulta contra a tabela original com o índice de cobertura e a Consulta 2 estava contra a tabela com o índice columnstore. Os números não são o índice columnstore superou o índice tablecovering original por um fator de quase 7 para 1. Eu posso mudar a métrica para olhar para o consumo de memória em vez disso. Nesse caso, observe que a consulta 2 (a consulta de índice columnstore) usou muito mais memória. Isso demonstra claramente por que o índice columnstore representa a tecnologia quotin-memoryquot O SQL Server carrega todo o índice columnstore na memória e usa um pool de buffer completamente diferente com operadores de execução aprimorados para processar o índice. OK, então temos alguns gráficos para ver as estatísticas de execução podemos ver o plano de execução (e operadores de execução) associados a cada execução Sim, nós podemos Se você clicar na barra vertical para a consulta que usou o índice columnstore, você verá a execução Abaixo. A primeira coisa que vemos é que o SQL Server executou uma varredura de índice columnstore, e que representou quase 100 do custo da consulta. Você pôde dizer, quotWait um minuto, a primeira consulta usou um índice de coberta e executou um índice procura assim que como pode uma varredura do índice do columnstore ser mais rápida que uma pergunta legitimate, e felizmente there39s uma resposta. Mesmo quando a primeira consulta executou um index seek, ela ainda executou quotrow por rowquot. Se eu colocar o mouse sobre o operador de varredura de índice columnstore, eu vejo uma dica de ferramenta (como a abaixo), com uma configuração importante: o Modo de Execução é BATCH (em oposição a ROW.), Que é o que tínhamos com a primeira consulta usando o Índice de cobertura). Esse modo BATCH informa-nos que o SQL Server está processando os vetores compactados (para quaisquer valores de chave externa duplicados, como a chave do produto e a chave de data) em lotes de quase 1.000, em paralelo. Assim, o SQL Server ainda é capaz de processar o índice columnstore muito mais eficientemente. Além disso, se eu colocar o mouse sobre a tarefa Hash Match (Aggregate), também vejo que o SQL Server está agregando o índice columnstore usando o modo Batch (embora o próprio operador represente uma pequena porcentagem do custo da consulta) SQL Server comprime os valores nos dados, trata os valores como vetores, e lê-los em blocos de quase mil valores em paralelo, mas a minha consulta só queria dados para 2009. Assim é o SQL Server digitalização sobre o Conjunto de dados Uma vez mais, uma boa pergunta. A resposta é, quotNot reallyquot. Felizmente para nós, o novo pool de buffer de índice columnstore executa outra função chamada quotsegment eliminationquot. Basicamente, o SQL Server examinará os valores de vetor para a coluna de chave de data no índice columnstore e eliminará os segmentos que estão fora do escopo do ano 2009. I39ll parar aqui. Em postagens subseqüentes, o I39ll cobre o índice columnstore eo Query Store com mais detalhes. Essencialmente, o que vimos aqui hoje é que o índice Columnstore pode acelerar significativamente as consultas que scanaggregate sobre grandes quantidades de dados eo Query Store irá capturar execuções de consulta e nos permitir examinar as estatísticas de execução e desempenho mais tarde. No final, gostaríamos de produzir um conjunto de resultados que mostre o seguinte. Observe três coisas: As colunas essencialmente pivô todas as Razões de retorno possíveis, depois de mostrar o valor de vendas O conjunto de resultados contém um total de subtotais pela semana (domingo) data em todos os clientes (onde o cliente é NULL) Linha (onde o cliente ea data são ambos NULL) Primeiro, antes de eu entrar no final do SQL que poderia usar o dynamic dynamicmatrix capacidade no SSRS. Simplesmente precisaríamos combinar os dois conjuntos de resultados por uma coluna e então poderíamos alimentar os resultados para o controle de matriz SSRS, que irá espalhar as razões de retorno através do eixo colunas do relatório. No entanto, nem todos usam SSRS (embora a maioria das pessoas deve). Mas mesmo assim, às vezes os desenvolvedores precisam consumir conjuntos de resultados em algo que não seja uma ferramenta de geração de relatórios. Assim, para este exemplo, vamos assumir que queremos gerar o conjunto de resultados para uma página de grade da web e, possivelmente, o desenvolvedor quer quotstrip outquot as linhas subtotal (onde eu tenho um ResultSetNum valor de 2 e 3) e colocá-los em uma grade de resumo. Então, linha de fundo, precisamos gerar a saída acima diretamente de um procedimento armazenado. E como uma torção adicionada na próxima semana poderia haver Return Reason X e Y e Z. Então nós don39t saber quantas razões de retorno poderia haver. Nós simples queremos que a consulta pivote sobre os possíveis valores distintos para a razão de retorno. Aqui é onde o T-SQL PIVOT tem uma restrição que precisamos para fornecer-lhe os valores possíveis. Como não sabemos que até o tempo de execução, precisamos gerar a seqüência de consulta dinamicamente usando o padrão SQL dinâmico. O padrão SQL dinâmico envolve gerar a sintaxe, peça por peça, armazená-lo em uma seqüência de caracteres e, em seguida, executar a seqüência de caracteres no final. SQL dinâmico pode ser complicado, pois temos de incorporar sintaxe dentro de uma seqüência de caracteres. Mas, neste caso, é nossa única opção verdadeira se quisermos lidar com um número variável de razões de retorno. Sempre achei que a melhor maneira de criar uma solução SQL dinâmica é descobrir o quotidealquot gerado-consulta seria no final (neste caso, dadas as razões de retorno que conhecemos) e, em seguida, engenharia reversa-lo por piecing Juntos uma parte de cada vez. E assim, aqui está o SQL que precisamos se soubéssemos que as razões de retorno (de A a D) eram estáticas e não mudariam. A consulta faz o seguinte: Combina os dados de SalesData com os dados de ReturnData, onde nós quothard-wirequot a palavra Sales como um tipo de ação forma a tabela de vendas e, em seguida, use a razão de retorno dos dados de retorno na mesma coluna ActionType. Isso nos dará uma coluna de ActionType limpa na qual girar. Estamos combinando as duas instruções SELECT em uma expressão de tabela comum (CTE), que é basicamente uma subconsulta de tabela derivada que usamos posteriormente na próxima instrução (para PIVOT) Uma declaração PIVOT contra o CTE, que somar os dólares para o Action Type Estar em um dos possíveis valores do Tipo de Ação. Observe que este não é o conjunto de resultados final. Estamos colocando isso em um CTE que lê a partir do primeiro CTE. A razão para isso é porque nós queremos fazer vários agrupamentos no final. A instrução SELECT final, que lê a partir do PIVOTCTE e combina com uma consulta subseqüente contra o mesmo PIVOTCTE, mas onde também implementar dois agrupamentos no recurso GROUPING SETS em SQL 2008: GRUPO pela data de fim de semana (dbo. WeekEndingDate) GRUPO para todas as linhas () Então, se soubéssemos com certeza que nunca teríamos mais códigos de razão de retorno, então essa seria a solução. No entanto, precisamos considerar outros códigos de razão. Portanto, precisamos gerar essa consulta inteira acima como uma grande seqüência onde construímos as possíveis razões de retorno como uma lista separada por vírgulas. I39m vai mostrar todo o código T-SQL para gerar (e executar) a consulta desejada. E então eu dividi-lo em partes e explicar cada passo. Então primeiro, aqui está o código inteiro para gerar dinamicamente o que eu tenho acima. Existem basicamente cinco etapas que precisamos cobrir. Passo 1 . Nós sabemos que em algum lugar na mistura, precisamos gerar uma seqüência de caracteres para isso na consulta: SalesAmount, razão A, razão B, razão C, razão D0160016001600160 O que podemos fazer é construído uma expressão de tabela comum temporária que combina o hard wired quotSales Coluna de quantidade com a lista exclusiva de possíveis códigos de razão. Uma vez que temos que em um CTE, podemos usar o pequeno truque de FOR XML PATH (3939) para recolher essas linhas em uma única seqüência de caracteres, coloque uma vírgula na frente de cada linha que a consulta lê e, em seguida, use STUFF para substituir A primeira instância de uma vírgula com um espaço vazio. Este é um truque que você pode encontrar em centenas de blogs SQL. Então, esta primeira parte constrói uma string chamada ActionString que podemos usar mais abaixo. Passo 2 . Também sabemos que we39ll quer somar as colunas de razão geradas geradas, juntamente com a coluna de vendas padrão. Portanto, precisamos de uma string separada para isso, que eu chamo SUMSTRING. I39ll simplesmente usar o ActionString original e, em seguida, substituir os colchetes externos com sintaxe SUM, mais os suportes originais. Passo 3: Agora começa o verdadeiro trabalho. Usando essa consulta original como um modelo, queremos gerar a consulta original (começando com o UNION das duas tabelas), mas substituindo quaisquer referências a colunas articuladas com as strings geradas dinamicamente acima. Além disso, embora não seja absolutamente necessário, também criei uma variável para simplesmente qualquer combinação de feed de retorno de carro que desejamos incorporar na consulta gerada (para legibilidade). Então we39ll construir toda a consulta em uma variável chamada SQLPivotQuery. Passo 4. Continuamos construindo a consulta novamente, concatenando a sintaxe que podemos quothard-wire com o ActionSelectString (que geramos dinamicamente para manter todos os possíveis valores de razão de retorno) Passo 5. Finalmente, we39ll gera a parte final da Pivot Query, que lê a partir da 2ª expressão de tabela comum (PIVOTCTE, a partir do modelo acima) e gera o SELECT final para ler a partir do PIVOTCTE e combiná-lo com uma 2ª leitura contra PIVOTCTE para Implementar os conjuntos de agrupamento. Finalmente, nós podemos quotexecutequot a seqüência usando o sistema SQL armazenado proc spexecuteSQL Então espero que você pode ver que o processo para seguir para este tipo de esforço é Determine qual seria a consulta final, com base em seu conjunto atual de dados e valores Um modelo de consulta) Escreva o código T-SQL necessário para gerar esse modelo de consulta como uma string. Posivelmente, a parte mais importante é determinar o conjunto único de valores em que você PIVOT e, em seguida, colapso-los em uma Cadeia de caracteres usando a função STUFF eo truque FOR XML PATH (3939) Então, o que está na minha mente hoje Bem, pelo menos 13 itens Dois Eu escrevi um projecto de BDR que se concentrou (em parte) sobre o papel da educação e do valor de um bom fundo de artes liberais não apenas para a indústria de software, mas mesmo para outras indústrias também. Um dos temas deste particular BDR enfatizou um ponto de vista fundamental e esclarecido do renomado arquiteto de software Allen Holub sobre as artes liberais. Parafraseando fielmente a sua mensagem: destacou os paralelos entre a programação e o estudo da história, lembrando a todos que a história é leitura e escrita (e acrescentam, identificando padrões), eo desenvolvimento de software também é leitura e escrita (e, novamente, identificação de padrões ). E assim eu escrevi um pedaço de opinião que focalizou isto e outros tópicos relacionados. Mas até hoje, eu nunca cheguei perto de publicá-lo. De vez em quando eu penso em revisá-lo, e eu até me sento por alguns minutos e faço alguns ajustes. Mas então a vida em geral iria ficar no caminho e Id nunca terminá-lo. Então, o que mudou Algumas semanas atrás, o colunista CoDe Magazine e o líder da indústria, Ted Neward, escreveram um artigo em sua coluna regular, Managed Coder, que chamou minha atenção. O título do artigo é On Liberal Arts. E eu recomendo que todos lê-lo. Ted discute o valor de um fundo de artes liberais, a falsa dicotomia entre um fundo de artes liberais e sucesso no desenvolvimento de software, ea necessidade de escrever bem. Ele fala sobre alguns de seus próprios encontros anteriores com o gerenciamento de pessoal de RH em relação a sua formação educacional. Ele também enfatiza a necessidade de aceitar e se adaptar às mudanças em nosso setor, bem como as características de um profissional de software bem-sucedido (ser confiável, planejar com antecedência e aprender a superar o conflito inicial com outros membros da equipe). Portanto, é uma ótima leitura, como são Teds outros CoDe artigos e entradas de blog. Também me fez voltar a pensar sobre minhas opiniões sobre este (e outros tópicos) também, e finalmente me motivou a terminar meu próprio editorial. Então, melhor tarde do que nunca, aqui estão os meus atuais Bakers Dúzia de Reflexões: Eu tenho um ditado: A água congela em 32 graus. Se você está em um papel de formação, você pode pensar que você está fazendo tudo no mundo para ajudar alguém, quando na verdade, theyre apenas sentindo uma temperatura de 34 graus e, portanto, as coisas arent solidificação para eles. Às vezes leva apenas um pouco mais de esforço ou outro catalizador ideachemical ou uma nova perspectiva que significa que aqueles com educação prévia pode recorrer a diferentes fontes. A água congela a 32 graus. Algumas pessoas podem manter altos níveis de concentração, mesmo com um quarto cheio de pessoas barulhentas. Eu não sou um deles ocasionalmente eu preciso de alguma privacidade para pensar através de uma questão crítica. Algumas pessoas descrevem isso como você tem que aprender a andar longe dele. Dito de outra forma, é uma busca pelo ar rarefeito. Na semana passada passei horas em um quarto semi-iluminado e quieto com um quadro branco, até que compreendi um problema. Foi só então que eu poderia ir falar com outros desenvolvedores sobre uma solução. A mensagem aqui não é para pregar como você deve ir sobre o seu negócio de resolver problemas, mas sim para todos saberem os seus pontos fortes eo que funciona, e usá-los para sua vantagem, tanto quanto possível. Algumas frases são como unhas no quadro-negro para mim. Use-o como um momento de ensino é um. (Por que é como as unhas em um quadro-negro Porque se você estiver em um papel de mentor, você normalmente deve estar no modo de momento de ensino de qualquer maneira, no entanto sutilmente). Heres outro eu não posso realmente explicar isto nas palavras, mas eu compreendo-o. Isso pode soar um pouco frio, mas se uma pessoa verdadeiramente não pode explicar alguma coisa em palavras, talvez eles não entendem. Claro, uma pessoa pode ter uma sensação fuzzy de como funciona algo Eu posso blefar meu caminho através de descrever como funciona uma câmera digital, mas a verdade é que eu realmente não entendo tudo isso bem. Existe um campo de estudo conhecido como epistemologia (o estudo do conhecimento). Uma das bases fundamentais para entender se é uma câmera ou um padrão de design - é a capacidade de estabelecer contexto, identificar a cadeia de eventos relacionados, os atributos de quaisquer componentes ao longo do caminho, etc Sim, a compreensão é por vezes muito trabalho árduo , Mas mergulhar em um tópico e quebrá-lo aparte vale a pena o esforço. Mesmo aqueles que evitam a certificação reconhecerá que o processo de estudar para os testes de certificação ajudará a preencher lacunas no conhecimento. Um gerente de banco de dados é mais provável contratar um desenvolvedor de banco de dados que pode falar extemporaneamente (e sem esforço) sobre níveis de isolamento de transação e acionadores, em oposição a alguém que tipo de sabe sobre ele, mas luta para descrever o seu uso. Há outro corolário aqui. Ted Neward recomenda que os desenvolvedores ocupam falar em público, blogs, etc Concordo 100. O processo de falar em público e blogs vai praticamente obrigá-lo a começar a pensar sobre os temas e quebrar as definições que você pode ter tomado por certo. Alguns anos atrás, eu pensei que eu entendia a declaração T-SQL MERGE muito bem. Mas só depois de escrever sobre isso, falando, colocando questões de outros que tinham perspectivas que nunca me ocorreu que o meu nível de compreensão aumentou exponencialmente. Eu conheço uma história de um gerente de contratação que uma vez entrevistou um autor de desenvolvedor para uma posição contratual. O gerente de contratação foi desdenhoso das publicações em geral, e latiu ao candidato, Então, se você está indo para o trabalho aqui, você prefere escrever livros ou escrever código Sim, doente conceder que em qualquer indústria haverá alguns acadêmicos pura. Mas o que o gerente de contratação perdeu foi as oportunidades para reforçar e afiar conjuntos de habilidades. Enquanto limpava uma velha caixa de livros, me deparei com um tesouro dos anos 80: Programmers at Work. Que contém entrevistas com um muito jovem Bill Gates, Ray Ozzie, e outros nomes bem conhecidos. Cada entrevista e cada insight vale o preço do livro. Na minha opinião, a entrevista mais interessante foi com Butler Lampson. Que deu alguns conselhos poderosos. Para o inferno com a informática. É absolutamente ridículo. Estudar matematica. Aprenda a pensar. Ler. Escreva. Essas coisas são de valor mais duradouro. Aprenda a provar teoremas: Muitas provas se acumulam ao longo dos séculos, o que sugere que essa habilidade é transferível para muitas outras coisas. Butler fala a verdade. Ill acrescentar a esse ponto aprender a jogar diabos advogado contra si mesmo. Quanto mais você pode verificar a realidade de seus próprios processos e de trabalho, melhor será youll ser. O grande scientistauthor de computador Allen Holub fez a conexão entre o desenvolvimento de software e as artes liberais especificamente, o assunto da história. Aqui estava o seu ponto: o que é história Leitura e escrita. O que é desenvolvimento de software Entre outras coisas, ler e escrever. Eu costumava dar a meus alunos T-SQL ensaio perguntas como testes de prática. Um aluno brincou dizendo que eu agia mais como um professor de direito. Bem, assim como o treinador Donny Haskins disse no filme Glory Road, meu caminho é difícil. Acredito firmemente em uma base intelectual forte para qualquer profissão. Assim como as aplicações podem se beneficiar de estruturas, indivíduos e seus processos de pensamento podem se beneficiar de estruturas humanas também. Essa é a base fundamental da erudição. Há uma história que nos anos 70, a IBM expandiu seus esforços de recrutamento nas grandes universidades, focalizando os melhores e mais brilhantes graduados em artes liberais. Mesmo assim, eles reconheceram que os melhores leitores e escritores poderiam algum dia se tornar analistas de programadores de sistemas fortes. (Sinta-se livre para usar essa história para qualquer tipo de RH que insiste que um candidato deve ter um grau de ciência da computação) E falando de história: se por nenhuma outra razão, é importante lembrar o histórico de lançamentos de produtos se eu estou trabalhando em um Site do cliente thats ainda usando o SQL Server 2008 ou mesmo (gasp) SQL Server 2005, tenho que lembrar quais recursos foram implementados nas versões ao longo do tempo. Sempre tem um médico favorito que você gostou porque heshe explicou as coisas em Inglês simples, deu-lhe a verdade reta, e ganhou sua confiança para operar em você Essas são habilidades loucas. E são o resultado da experiência e do TRABALHO DURO que fazem exame de anos e mesmo de décadas para cultivar. Não há garantias de foco no sucesso do trabalho sobre os fatos, tomar alguns riscos calculados quando você tem certeza de que você pode ver o seu caminho para a linha de chegada, deixe as fichas cair onde eles podem, e nunca perder de vista ser exatamente como aquele médico que ganhou sua confiança. Mesmo que alguns dias eu ficar aquém, eu tento tratar o meu cliente e seus dados como um médico iria tratar os pacientes. Mesmo que um médico faz mais dinheiro Existem muitos clichês que eu detesto, mas heres um que eu não odeio: Não existe tal coisa como uma pergunta ruim. Como ex-instrutor, uma coisa que atraiu a minha ira foi ouvir alguém criticar outra pessoa por fazer uma pergunta supostamente estúpida. Uma pergunta indica que uma pessoa reconhece que tem alguma lacuna no conhecimento que eles estão procurando preencher. Sim, algumas perguntas são formuladas melhor do que outras, e algumas perguntas exigem a moldação adicional antes que possam ser respondidas. Mas a viagem de formar uma pergunta a uma resposta é provável gerar um processo mental ativo em outros. Há todas as boas coisas. Muitas discussões boas e frutíferas se originam com uma pergunta estúpida. Eu trabalho em toda a linha no SSIS, SSAS, SSRS, MDX, PPS, SharePoint, Power BI, DAX todas as ferramentas na pilha Microsoft BI. Eu ainda escrevo algum código de vez em quando. Mas acho que eu ainda gastar tanto tempo fazendo escrever código T-SQL para dados de perfil como parte do processo de descoberta. Todos os desenvolvedores de aplicativos devem ter bom T-SQL chops. Ted Neward escreve (corretamente) sobre a necessidade de se adaptar às mudanças tecnológicas. Ill acrescentar que a necessidade de se adaptar às mudanças clientemployer. As empresas mudam as regras de negócios. As empresas adquirem outras empresas (ou se tornam o alvo de uma aquisição). Empresas cometem erros na comunicação de requisitos de negócios e especificações. Sim, às vezes podemos desempenhar um papel em ajudar a gerenciar essas mudanças e às vezes foram a mosca, não o pára-brisa. Estes, por vezes, causar grande dor para todos, especialmente o I. T. pessoas. É por isso que o termo fato da vida existe, temos de lidar com ele. Just like no developer writes bug-free code every time, no I. T. person deals well with change every single time. One of the biggest struggles Ive had in my 28 years in this industry is showing patience and restraint when changes are flying from many different directions. Here is where my prior suggestion about searching for the rarified air can help. If you can manage to assimilate changes into your thought process, and without feeling overwhelmed, odds are youll be a significant asset. In the last 15 months Ive had to deal with a huge amount of professional change. Its been very difficult at times, but Ive resolved that change will be the norm and Ive tried to tweak my own habits as best I can to cope with frequent (and uncertain) change. Its hard, very hard. But as coach Jimmy Duggan said in the movie A League of Their Own: Of course its hard. If it wasnt hard, everyone would do it. The hard, is what makes it great . A powerful message. Theres been talk in the industry over the last few years about conduct at professional conferences (and conduct in the industry as a whole). Many respected writers have written very good editorials on the topic. Heres my input, for what its worth. Its a message to those individuals who have chosen to behave badly: Dude, it shouldnt be that hard to behave like an adult. A few years ago, CoDe Magazine Chief Editor Rod Paddock made some great points in an editorial about Codes of Conduct at conferences. Its definitely unfortunate to have to remind people of what they should expect out of themselves. But the problems go deeper. A few years ago I sat on a five-person panel (3 women, 2 men) at a community event on Women in Technology. The other male stated that men succeed in this industry because the Y chromosome gives men an advantage in areas of performance. The individual who made these remarks is a highly respected technology expert, and not some bozo making dongle remarks at a conference or sponsoring a programming contest where first prize is a date with a bikini model. Our world is becoming increasingly polarized (just watch the news for five minutes), sadly with emotion often winning over reason. Even in our industry, recently I heard someone in a position of responsibility bash software tool XYZ based on a ridiculous premise and then give false praise to a competing tool. So many opinions, so many arguments, but heres the key: before taking a stand, do your homework and get the facts . Sometimes both sides are partly rightor wrong. Theres only one way to determine: get the facts. As Robert Heinlein wrote, Facts are your single clue get the facts Of course, once you get the facts, the next step is to express them in a meaningful and even compelling way. Theres nothing wrong with using some emotion in an intellectual debate but it IS wrong to replace an intellectual debate with emotion and false agenda. A while back I faced resistance to SQL Server Analysis Services from someone who claimed the tool couldnt do feature XYZ. The specifics of XYZ dont matter here. I spent about two hours that evening working up a demo to cogently demonstrate the original claim was false. In that example, it worked. I cant swear it will always work, but to me thats the only way. Im old enough to remember life at a teen in the 1970s. Back then, when a person lost hisher job, (often) it was because the person just wasnt cutting the mustard. Fast-forward to today: a sad fact of life is that even talented people are now losing their jobs because of the changing economic conditions. Theres never a full-proof method for immunity, but now more than ever its critical to provide a high level of what I call the Three Vs (value, versatility, and velocity) for your employerclients. I might not always like working weekends or very late at night to do the proverbial work of two people but then I remember there are folks out there who would give anything to be working at 1 AM at night to feed their families and pay their bills. Always be yourselfyour BEST self. Some people need inspiration from time to time. Heres mine: the great sports movie, Glory Road. If youve never watched it, and even if youre not a sports fan I can almost guarantee youll be moved like never before. And Ill close with this. If you need some major motivation, Ill refer to a story from 2006. Jason McElwain, a high school student with autism, came off the bench to score twenty points in a high school basketball game in Rochester New York. Heres a great YouTube video. His mother said it all . This is the first moment Jason has ever succeeded and is proud of himself. I look at autism as the Berlin Wall. He cracked it. To anyone who wanted to attend my session at todays SQL Saturday event in DC I apologize that the session had to be cancelled. I hate to make excuses, but a combination of getting back late from Detroit (client trip), a car thats dead (blown head gasket), and some sudden health issues with my wife have made it impossible for me to attend. Back in August, I did the same session (ColumnStore Index) for PASS as a webinar. You can go to this link to access the video (itll be streamed, as all PASS videos are streamed) The link does require that you fill out your name and email address, but thats it. And then you can watch the video. Feel free to contact me if you have questions, at kgoffkevinsgoff November 15, 2013 Getting started with Windows Azure and creating SQL Databases in the cloud can be a bit daunting, especially if youve never tried out any of Microsofts cloud offerings. Fortunately, Ive created a webcast to help people get started. This is an absolute beginners guide to creating SQL Databases under Windows Azure. It assumes zero prior knowledge of Azure. You can go to the BDBI Webcasts of this website and check out my webcast (dated 11102013). Or you can just download the webcast videos right here: here is part 1 and here is part 2. You can also download the slide deck here. November 03, 2013 Topic this week: SQL Server Snapshot Isolation Levels, added in SQL Server 2005. To this day, there are still many SQL developers, many good SQL developers who either arent aware of this feature, or havent had time to look at it. Hopefully this information will help. Companion webcast will be uploaded in the next day look for it in the BDBI Webcasts section of this blog. October 26, 2013 Im going to start a weekly post of T-SQL tips, covering many different versions of SQL Server over the years Heres a challenge many developers face. Ill whittle it down to a very simple example, but one where the pattern applies to many situations. Suppose you have a stored procedure that receives a single vendor ID and updates the freight for all orders with that vendor id. create procedure dbo. UpdateVendorOrders update Purchasing. PurchaseOrderHeader set Freight Freight 1 where VendorID VendorID Now, suppose we need to run this for a set of vendor IDs. Today we might run it for three vendors, tomorrow for five vendors, the next day for 100 vendors. We want to pass in the vendor IDs. If youve worked with SQL Server, you can probably guess where Im going with this. The big question is how do we pass a variable number of Vendor IDs Or, stated more generally, how do we pass an array, or a table of keys, to a procedure Something along the lines of exec dbo. UpdateVendorOrders SomeListOfVendors Over the years, developers have come up with different methods: Going all the way back to SQL Server 2000, developers might create a comma-separated list of vendor keys, and pass the CSV list as a varchar to the procedure. The procedure would shred the CSV varchar variable into a table variable and then join the PurchaseOrderHeader table to that table variable (to update the Freight for just those vendors in the table). I wrote about this in CoDe Magazine back in early 2005 (code-magazinearticleprint. aspxquickid0503071ampprintmodetrue. Tip 3) In SQL Server 2005, you could actually create an XML string of the vendor IDs, pass the XML string to the procedure, and then use XQUERY to shred the XML as a table variable. I also wrote about this in CoDe Magazine back in 2007 (code-magazinearticleprint. aspxquickid0703041ampprintmodetrue. Tip 12)Also, some developers will populate a temp table ahead of time, and then reference the temp table inside the procedure. All of these certainly work, and developers have had to use these techniques before because for years there was NO WAY to directly pass a table to a SQL Server stored procedure. Until SQL Server 2008 when Microsoft implemented the table type. This FINALLY allowed developers to pass an actual table of rows to a stored procedure. Now, it does require a few steps. We cant just pass any old table to a procedure. It has to be a pre-defined type (a template). So lets suppose we always want to pass a set of integer keys to different procedures. One day it might be a list of vendor keys. Next day it might be a list of customer keys. So we can create a generic table type of keys, one that can be instantiated for customer keys, vendor keys, etc. CREATE TYPE IntKeysTT AS TABLE ( IntKey int NOT NULL ) So Ive created a Table Typecalled IntKeysTT . Its defined to have one column an IntKey. Nowsuppose I want to load it with Vendors who have a Credit Rating of 1..and then take that list of Vendor keys and pass it to a procedure: DECLARE VendorList IntKeysTT INSERT INTO VendorList SELECT BusinessEntityID from Purchasing. Vendor WHERE CreditRating 1 So, I now have a table type variable not just any table variable, but a table type variable (that I populated the same way I would populate a normal table variable). Its in server memory (unless it needs to spill to tempDB) and is therefore private to the connectionprocess. OK, can I pass it to the stored procedure now Well, not yet we need to modify the procedure to receive a table type. Heres the code: create procedure dbo. UpdateVendorOrdersFromTT IntKeysTT IntKeysTT READONLY update Purchasing. PurchaseOrderHeader set Freight Freight 1 FROM Purchasing. PurchaseOrderHeader JOIN IntKeysTT TempVendorList ON PurchaseOrderHeader. VendorID Te mpVendorList. IntKey Notice how the procedure receives the IntKeysTT table type as a Table Type (again, not just a regular table, but a table type). It also receives it as a READONLY parameter. You CANNOT modify the contents of this table type inside the procedure. Usually you wont want to you simply want to read from it. Well, now you can reference the table type as a parameter and then utilize it in the JOIN statement, as you would any other table variable. So there you have it. A bit of work to set up the table type, but in my view, definitely worth it. Additionally, if you pass values from , youre in luck. You can pass an ADO data table (with the same tablename property as the name of the Table Type) to the procedure. For developers who have had to pass CSV lists, XML strings, etc. to a procedure in the past, this is a huge benefit. Finally I want to talk about another approach people have used over the years. SQL Server Cursors. At the risk of sounding dogmatic, I strongly advise against Cursors, unless there is just no other way. Cursors are expensive operations in the server, For instance, someone might use a cursor approach and implement the solution this way: DECLARE VendorID int DECLARE dbcursor CURSOR FASTFORWARD FOR SELECT BusinessEntityID from Purchasing. Vendor where CreditRating 1 FETCH NEXT FROM dbcursor INTO VendorID WHILE FETCHSTATUS 0 EXEC dbo. UpdateVendorOrders VendorID FETCH NEXT FROM dbcursor INTO VendorID The best thing Ill say about this is that it works. And yes, getting something to work is a milestone. But getting something to work and getting something to work acceptably are two different things. Even if this process only takes 5-10 seconds to run, in those 5-10 seconds the cursor utilizes SQL Server resources quite heavily. Thats not a good idea in a large production environment. Additionally, the more the of rows in the cursor to fetch and the more the number of executions of the procedure, the slower it will be. When I ran both processes (the cursor approach and then the table type approach) against a small sampling of vendors (5 vendors), the processing times where 260 ms and 60 ms, respectively. So the table type approach was roughly 4 times faster. But then when I ran the 2 scenarios against a much larger of vendors (84 vendors), the different was staggering 6701 ms versus 207 ms, respectively. So the table type approach was roughly 32 times faster. Again, the CURSOR approach is definitely the least attractive approach. Even in SQL Server 2005, it would have been better to create a CSV list or an XML string (providing the number of keys could be stored in a scalar variable). But now that there is a Table Type feature in SQL Server 2008, you can achieve the objective with a feature thats more closely modeled to the way developers are thinking specifically, how do we pass a table to a procedure Now we have an answer Hope you find this feature help. Feel free to post a comment. DAX includes a few statistical aggregation functions, such as average, variance, and standard deviation. Outros cálculos estatísticos típicos exigem que você escreva expressões DAX mais longas. Excel, deste ponto de vista, tem uma linguagem muito mais rica. Os Padrões Estatísticos são uma coleção de cálculos estatísticos comuns: mediana, modo, média móvel, percentil e quartil. Gostaríamos de agradecer a Colin Banfield, Gerard Brueckl e Javier Guilln, cujos blogs inspiraram alguns dos seguintes padrões. Exemplo de padrão básico As fórmulas neste padrão são as soluções para cálculos estatísticos específicos. Você pode usar funções padrão DAX para calcular a média (média aritmética) de um conjunto de valores. MÉDIA . Retorna a média de todos os números em uma coluna numérica. AVERAGEA. Retorna a média de todos os números em uma coluna, manipulando texto e valores não numéricos (valores de texto não-numérico e vazio são contados como 0). AVERAGEX. Calcular a média de uma expressão avaliada sobre uma tabela. Média móvel A média móvel é um cálculo para analisar pontos de dados, criando uma série de médias de diferentes subconjuntos do conjunto de dados completo. Você pode usar muitas técnicas DAX para implementar esse cálculo. A técnica mais simples é usar AVERAGEX, iterando uma tabela da granularidade desejada e calculando para cada iteração a expressão que gera o único ponto de dados a ser usado na média. Por exemplo, a fórmula a seguir calcula a média móvel dos últimos 7 dias, supondo que você está usando uma tabela Data no seu modelo de dados. Usando AVERAGEX, você calcula automaticamente a medida em cada nível de granularidade. Ao usar uma medida que pode ser agregada (como SUM), então outra abordagem baseada em CALCULATE pode ser mais rápida. Você pode encontrar essa abordagem alternativa no padrão completo de Moving Average. Você pode usar funções padrão DAX para calcular a variação de um conjunto de valores. VAR. S. Retorna a variância de valores em uma coluna que representa uma população de amostra. VAR. P. Retorna a variância de valores em uma coluna que representa toda a população. VARX. S. Retorna a variância de uma expressão avaliada sobre uma tabela representando uma população de amostra. VARX. P. Retorna a variância de uma expressão avaliada sobre uma tabela representando a população inteira. Desvio padrão Você pode usar funções DAX padrão para calcular o desvio padrão de um conjunto de valores. STDEV. S. Retorna o desvio padrão de valores em uma coluna que representa uma população de amostra. STDEV. P. Retorna o desvio padrão de valores em uma coluna que representa toda a população. STDEVX. S. Retorna o desvio padrão de uma expressão avaliada sobre uma tabela representando uma população de amostra. STDEVX. P. Retorna o desvio padrão de uma expressão avaliada sobre uma tabela representando a população inteira. A mediana é o valor numérico que separa a metade superior de uma população da metade inferior. Se houver um número ímpar de linhas, a mediana é o valor médio (ordenando as linhas do valor mais baixo ao valor mais alto). Se houver um número par de linhas, é a média dos dois valores médios. A fórmula ignora os valores em branco, que não são considerados parte da população. O resultado é idêntico à função MEDIAN no Excel. A Figura 1 mostra uma comparação entre o resultado retornado pelo Excel ea fórmula DAX correspondente para o cálculo da mediana. Figura 1 Exemplo de cálculo mediano no Excel e no DAX. O modo é o valor que aparece mais frequentemente em um conjunto de dados. A fórmula ignora os valores em branco, que não são considerados parte da população. O resultado é idêntico às funções MODE e MODE. SNGL no Excel, que retornam apenas o valor mínimo quando existem vários modos no conjunto de valores considerados. A função Excel MODE. MULT retornaria todos os modos, mas você não pode implementá-lo como uma medida no DAX. A Figura 2 compara o resultado retornado pelo Excel com a fórmula DAX correspondente para o cálculo de modo. Figura 2 Exemplo de cálculo de modo em Excel e DAX. Percentil O percentil é o valor abaixo do qual uma dada porcentagem de valores em um grupo cai. A fórmula ignora os valores em branco, que não são considerados parte da população. O cálculo no DAX requer várias etapas, descritas na seção Padrão completo, que mostra como obter os mesmos resultados das funções Excel PERCENTILE, PERCENTILE. INC e PERCENTILE. EXC. Os quartis são três pontos que dividem um conjunto de valores em quatro grupos iguais, cada grupo compreendendo um quarto dos dados. Você pode calcular os quartis usando o padrão Percentile, seguindo estas correspondências: Primeiro quartil quartil inferior 25º percentil Segundo quartil mediano 50º percentil Terceiro quartil quartil superior 75 percentil Padrão Completo Alguns cálculos estatísticos têm uma descrição mais longa do padrão completo, porque Você pode ter diferentes implementações dependendo de modelos de dados e outros requisitos. Média móvel Geralmente, você avalia a média móvel referenciando o nível de granularidade do dia. O modelo geral da seguinte fórmula tem estes marcadores: ltnumberofdaysgt é o número de dias para a média móvel. Ltdatecolumngt é a coluna de data da tabela de datas se você tiver uma ou a coluna de data da tabela contendo valores se não houver tabela de datas separada. Ltmeasuregt é a medida a calcular como a média móvel. O padrão mais simples usa a função AVERAGEX no DAX, que automaticamente considera apenas os dias para os quais há um valor. Como alternativa, você pode usar o modelo a seguir em modelos de dados sem uma tabela de datas e com uma medida que pode ser agregada (como SUM) durante todo o período considerado. A fórmula anterior considera um dia sem dados correspondentes como uma medida que tem 0 valor. Isso pode acontecer somente quando você tiver uma tabela de datas separada, que pode conter dias para os quais não há transações correspondentes. Você pode fixar o denominador para a média usando apenas o número de dias para o qual há transações usando o seguinte padrão, em que: ltfacttablegt é a tabela relacionada à tabela de datas e que contém valores calculados pela medida. Você pode usar as funções DATESBETWEEN ou DATESINPERIOD em vez de FILTER, mas elas funcionam somente em uma tabela de data regular, enquanto que você pode aplicar o padrão descrito acima também para tabelas de datas não-regular e para modelos que não têm uma tabela de datas. Por exemplo, considere os diferentes resultados produzidos pelas duas medidas a seguir. Na Figura 3, você pode ver que não há vendas em 11 de setembro de 2005. No entanto, essa data está incluída na tabela Data, portanto, há 7 dias (de 11 de setembro a 17 de setembro) que têm apenas 6 dias com dados. Figura 3 Exemplo de cálculo da média móvel considerando e ignorando datas sem vendas. A medida Moving Average 7 Days tem um número menor entre 11 de setembro e 17 de setembro, porque considera 11 de setembro como um dia com 0 vendas. Se você quiser ignorar dias sem vendas, use a medida Moving Average 7 Days No Zero. Esta pode ser a abordagem certa quando você tem uma tabela de datas completa, mas você quer ignorar dias sem transações. Usando a fórmula Moving Average 7 Days, o resultado está correto porque AVERAGEX automaticamente considera apenas valores não em branco. Lembre-se de que você pode melhorar o desempenho de uma média móvel, persistindo o valor em uma coluna calculada de uma tabela com a granularidade desejada, como data ou data e produto. No entanto, a abordagem de cálculo dinâmico com uma medida oferece a capacidade de usar um parâmetro para o número de dias da média móvel (por exemplo, substituir ltnumberofdaysgt por uma medida implementando o padrão de Tabela de Parâmetros). A mediana corresponde ao percentil 50, que você pode calcular usando o padrão Percentile. No entanto, o padrão Median permite otimizar e simplificar o cálculo mediano usando uma única medida, em vez das várias medidas exigidas pelo padrão Percentile. Você pode usar essa abordagem ao calcular a mediana dos valores incluídos no ltvaluecolumngt, como mostrado abaixo: Para melhorar o desempenho, você pode querer persistir o valor de uma medida em uma coluna calculada, se você deseja obter a mediana para os resultados de Uma medida no modelo de dados. No entanto, antes de fazer essa otimização, você deve implementar o cálculo MedianX com base no modelo a seguir, usando esses marcadores: ltgranularitytablegt é a tabela que define a granularidade do cálculo. Por exemplo, pode ser a tabela Data se você deseja calcular a mediana de uma medida calculada no nível do dia ou pode ser VALUES (8216DateYearMonth) se você quiser calcular a mediana de uma medida calculada no nível do mês. Ltmeasuregt é a medida a calcular para cada linha de ltgranularitytablegt para o cálculo mediano. Ltmeasuretablegt é a tabela que contém os dados utilizados por ltmeasuregt. Por exemplo, se o ltgranularitytablegt é uma dimensão como 8216Date8217, então o ltmeasuretablegt será 8216Internet Sales8217 que contém a coluna Internet Sales Amount somado pela medida Internet Total Sales. Por exemplo, você pode escrever a mediana de Vendas totais da Internet para todos os clientes no Adventure Works da seguinte maneira: Dica O seguinte padrão: é usado para remover linhas do ltgranularitytablegt que não têm dados correspondentes na seleção atual. É uma maneira mais rápida do que usar a seguinte expressão: No entanto, você pode substituir toda a expressão CALCULATETABLE com apenas ltgranularitytablegt se você quiser considerar valores em branco do ltmeasuregt como 0. O desempenho da fórmula MedianX depende do número de linhas no Tabela iterada e sobre a complexidade da medida. Se o desempenho for ruim, você pode persistir o resultado de ltmeasuregt em uma coluna calculada do lttablegt, mas isso removerá a capacidade de aplicar filtros ao cálculo mediano no momento da consulta. O Percentile Excel tem duas implementações diferentes de cálculo de percentis com três funções: PERCENTILE, PERCENTILE. INC e PERCENTILE. EXC. Todos eles retornam o percentil K de valores, onde K está na faixa de 0 a 1. A diferença é que PERCENTILE e PERCENTILE. INC considerar K como um intervalo inclusivo, enquanto PERCENTILE. EXC considera a gama K 0 a 1 como exclusiva . Todas essas funções e suas implementações DAX recebem um valor percentil como parâmetro, que chamamos de valor de percentil K. ltKgt está na faixa de 0 a 1. As duas implementações DAX de percentil exigem algumas medidas que são semelhantes, mas diferentes o suficiente para exigir Dois conjuntos diferentes de fórmulas. As medidas definidas em cada padrão são: KPerc. O valor percentil corresponde a ltKgt. PercPos. A posição do percentil no conjunto de valores ordenados. ValueLow. O valor abaixo da posição percentil. Valor Alto. O valor acima da posição percentil. Percentil. O cálculo final do percentil. Você precisa das medidas ValueLow e ValueHigh no caso do PercPos contém uma parte decimal, porque então você tem que interpolar entre ValueLow e ValueHigh, a fim de retornar o valor percentil correto. A Figura 4 mostra um exemplo dos cálculos feitos com fórmulas Excel e DAX, usando ambos os algoritmos de percentil (inclusive e exclusivo). Figura 4 Cálculos de percentil usando fórmulas do Excel eo cálculo DAX equivalente. Nas seções a seguir, as fórmulas Percentile executam o cálculo em valores armazenados em uma coluna de tabela, DataValue, enquanto as fórmulas PercentileX executam o cálculo em valores retornados por uma medida calculada em uma determinada granularidade. Percentile Inclusive A implementação de Percentile Inclusive é a seguinte. Percentile Exclusive A implementação do Percentile Exclusive é a seguinte. PercentileX Inclusive A implementação PercentileX Inclusive é baseada no seguinte modelo, usando esses marcadores: ltgranularitytablegt é a tabela que define a granularidade do cálculo. Por exemplo, pode ser a tabela Data se você quiser calcular o percentil de uma medida no nível do dia ou pode ser VALUES (8216DateYearMonth) se você quiser calcular o percentil de uma medida no nível do mês. Ltmeasuregt é a medida para calcular para cada linha de ltgranularitytablegt para o cálculo do percentil. Ltmeasuretablegt é a tabela que contém os dados utilizados por ltmeasuregt. Por exemplo, se o ltgranularitytablegt é uma dimensão tal como 8216Date, 8217 então o ltmeasuretablegt será 8216Sales8217 contendo a coluna Amount somada pela medida Total Amount. Por exemplo, você pode escrever o PercentileXInc do Valor Total de Vendas para todas as datas na tabela Data da seguinte forma: PercentileX Exclusive A implementação do PercentileX Exclusive é baseada no seguinte modelo, usando os mesmos marcadores usados ​​no PercentileX Inclusive: Por exemplo, você Pode escrever o PercentileXExc do montante total de vendas para todas as datas na tabela Data da seguinte forma: Mantenha-me informado sobre os próximos padrões (newsletter). Desmarque para baixar livremente o arquivo. Publicado em 17 de março de 2014 por

No comments:

Post a Comment