Files
apitdn/fluig_rag_docs/Plataforma Documentação técnica/Recurso de Analytics/Importação de dados históricos.md
T
2026-05-06 13:35:47 -03:00

9.6 KiB

title, source, path
title source path
Importação de dados históricos https://tdn.totvs.com/pages/viewpage.action?pageId=126717843 \Plataforma Documentação técnica\Recurso de Analytics\Importação de dados históricos.md

Pré-requisitos


  • Estar em uma atualização do TOTVS Fluig Plataforma 1.6.3 - EP 15, 1.6.4-180606 ou superior;

  • Acesso ao servidor onde a plataforma TOTVS Fluig está instalada (leitura);

  • Analytics habilitado e configurado. Para mais informações, clique aqui;

  • Java 8 instalado;

Plataforma em Cloud

Clientes cloud precisam entrar em contato com o time de Cloud informando a empresa (Produção ou homologação) código do projeto Analytics (Recebido no convite de ativação), tenant da empresa e período desejado para que seja realizado a importação dos dados.

Atenção!

Para a correta importação dos dados das solicitações de processos customizados que possuem mais de uma versão, o importador fará a verificação da existência do evento beforeSendData().

Caso o importador encontre na implementação desse evento, respectivamente, a declaração de campos ou fatos personalizados, ele criará os arquivo necessários para o envio destes dados automaticamente. O código dentro do evento deve seguir o formato abaixo:

Exemplo de declaração de campos e fatos personalizados no evento beforeSendData

customFields[0] = hAPI.getCardValue("fieldname");
customFacts[0] = java.lang.Double.parseDouble(hAPI.getCardValue("fieldname"));

Sendo que "customFields[0]" é responsável pelo envio de dados tipo texto, e "customFacts[0]" pelo envio de dados do tipo numérico.

Caso existam campos que utilizem funções específicas (split, por exemplo) para a definição do seu valor, o campo não será considerado nesta criação automática do arquivo.

Consulta do dia e hora do seu último envio de dados da plataforma ao Analytics

Para a consulta do envio de dados, siga os passos abaixo:

  • Acesse o endereço analytics.fluig.com

  • Clique sobre Manage > Solicitação

  • Para verificar se houve alguma interrupção no envio de dados do TOTVS Fluig Plataforma para o Analytics, procure por um intervalo de tempo onde os dados não foram sincronizados. No exemplo abaixo a última atualização foi no dia 25/05/2018 retornando no dia 07/06/2018. -Data em que este exemplo foi incluído na documentação.

Download do importador


Para o processo de importação, não é preciso parar o serviço do fluig (este procedimento pode ser realizado enquanto o TOTVS Fluig Plataforma está em execução).

Primeiramente, será necessário efetuar o download do artefato correspondente à atualização da plataforma para o qual o importador será executado, disponível aqui.

Atenção!

Informamos que este importador de dados é compatível com as versões: 1.7.1 e inferiores.

Para as versões 1.8.0 e superiores o importador compatível pode ser baixado aqui.

Execução do Importador


Após efetuar o download, a importação de dados históricos pode ser realizada de duas formas. Segue abaixo:

Fique atento!

Caso o erro abaixo seja exibido na execução do importador, significa que o arquivo de validação do modo de startup do Wildfly não foi gerado e será necessário cria-lo manualmente.

java.io.FileNotFoundException: /appserver/bin/  wildfly-config (No such file or directory)

Para isso:

  • Acesse a pasta /appserver/bin/
  • Crie o arquivo wildfly-config, e informe se o modo de inicialização do Fluig é "domain" ou "standalone" incluindo apenas um dos dois modos de inicialização.
  • Após isso, execute novamente o importador.

Observação

Não é oferecido suporte à campos pai x filho nos eventos beforeSendData, quando realizada a extração manual.

Execução simples (gera e envia todos os dados em modo visual)

  1. Coloque o importador dentro do diretório raiz da instalação da plataforma.

  2. Execute o importador com um duplo clique ou via linha de comando (substituindo pele versão do importador):

    java -jar analytics-import-<VERSION>.jar
    
  3. Informe o diretório onde a plataforma está instalada, o código do tenant (empresa), o código do projeto no Analytics para onde os dados serão enviados, e o período (data inicial e final) dos dados a serem importados. O código do projeto no Analytics é o mesmo inserido na configuração da empresa, com a chave analytics.gd.project.id.

  4. Clique no botão Iniciar importação e aguarde o processo de importação

Execução modo texto (gera e envia todos os dados)


  1. Coloque o importador dentro do diretório raiz da instalação da plataforma
  2. Execute o importador informando os seguintes parâmetros na linha de comando:
java -jar analytics-import-<VERSION>.jar  <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL>

Exemplo

java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017

ATENÇÃO

O formato da data informada deverá ser DD/MM/AAAA

Execução modo texto (somente gera dados)


1.Coloque o importador dentro do diretório raiz da instalação da plataforma.

2.Execute o importador informando os seguintes parâmetros na linha de comando:

java -jar analytics-import-<VERSION>.jar  <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL>  gerar

Exemplo

 java -jar analytics-import-1.6-v3.jar  c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017 gerar

ATENÇÃO

O formato da data informada deverá ser DD/MM/AAAA

Execução modo texto (somente enviar dados)


1.Coloque o importador dentro do diretório raiz da instalação da plataforma.

2.Execute o importador informando os seguintes parâmetros na linha de comando:

java -jar analytics-import-<VERSION>.jar <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL>  enviar

Exemplo

java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017 enviar

ATENÇÃO

O formato da data informada deverá ser DD/MM/AAAA

Execução modo texto (deletar dados)


1.Coloque o importador dentro do diretório raiz da instalação da plataforma.

2.Execute o importador informando os seguintes parâmetros na linha de comando:

java -jar analytics-import-<VERSION>.jar  <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> deletar <DATASET>

Exemplo

java -jar analytics-import-1.6-v3.jar  c:\fluig 1 abc123def456ghi789jkl012mno345pq deletar dataset.solicitacao

Segue datasets válidos:

  • dataset.solicitacao
  • dataset.documento
  • dataset.pagehit
  • dataset.events
  • dataset.author
  • dataset.place

Ao término da execução do processo de importação, será gerado um log no diretório onde o arquivo analytics-import.jar foi executado.

Execução modo texto (executando eventos e conferindo log)


1.Coloque o importador dentro do diretório raiz da instalação da plataforma.

2.Execute o importador informando os seguintes parâmetros na linha de comando:

java -jar analytics-import-<VERSION>.jar  <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL>  gerar true SCHEMA

Exemplo

 java -jar analytics-import-1.6-v3.jar  c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017 gerar true SCHEMA

Este recurso faz com que os eventos beforeSendData das solicitações sejam executados mapeando os campos dos formulários. Os eventos só irão simular a execução de eventos com hAPI.getCardValue("Campo") e hAPI.getCardData() e gerar logs, outros métodos não serão executados.

O parâmetro SCHEMA só é necessário em bases ORACLE, caso contrário há a possibilidade de causar erro nos importadores.

Após a execução neste modo, um log contendo quais eventos foram executados com sucesso e com erro serão exibidos, bem como o select para pesquisar cada registro que o importador utilizou para enviar dados de formulários, sendo bem mais fácil verificar o acontecimento de erros e inconsistências.