Estou há um tempo enfrentando a seguinte dificuldade: eu rodo um fluxo diariamente, o qual, publico os dados no Tableau server. No entanto, algumas vezes preciso reprocessar o histórico, seja para inclusão de novos campos ou para atualização daqueles existentes, mas quando extraio o hyper do tableau e insiro em um novo fluxo, o arquivo que tem 25GB, chega a crescer a mais de 400GB e desse modo, não consigo fazer a republicação. (Exemplo abaixo)
Os erros mais comuns são: #252 e #238.
Alguém sabe me ajudar com essa questão?
Olá Layane.
Eu utilizo sempre esse modelo para fazer histórico, é muito prático e fácil de se utilizar e fazer manutenção.
Se você utilizar datas como histórico, esse modelo irá funcionar bem.
MODELO EM PRODUÇÃO
Basicamente recebemos os dados e cruzamos com a base Histórico.yxdb, no meu caso eu utilizo datas como chave para o relacionamento.
Todas as datas que são encontradas na base Histórico.yxdb ficam no JOIN.
Na sequencia unimos o que está em execução com a saída R do relacionamento, que são os casos que não foram localizados na execução atual.
Em seguida a base é salva com o incremento do que estiver sendo executado.
Separadamente eu gero a Base_Tableau.hyper
O primeiro passo é criar a base inicial do histórico (de preferência e .yxdb visando a performance) para que ele possa nas próximas vezes consultar esta mesma base.
Espero que funcione pra você.
Até mais.
Thiago Belarmino
Obrigada pela ajuda, @thsoares_.
@LayaneCamara, nos avise se conseguiu dar uma olhada nas recomendações do Thiago e se ajudou com a sua questão.