232 lines
9.6 KiB
Markdown
232 lines
9.6 KiB
Markdown
|
|
---
|
|||
|
|
title: Importação de dados históricos
|
|||
|
|
source: https://tdn.totvs.com/pages/viewpage.action?pageId=126717843
|
|||
|
|
path: \Plataforma Documentação técnica\Recurso de Analytics\Importação de dados históricos.md
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
- [Pré-requisitos](#Importaçãodedadoshistóricos-Pré-requisitos)
|
|||
|
|
- [Consulta do dia e hora do seu último envio de dados da plataforma ao Analytics](#Importaçãodedadoshistóricos-ConsultadodiaehoradoseuúltimoenviodedadosdaplataformaaoAnalytics)
|
|||
|
|
- [Download do importador](#Importaçãodedadoshistóricos-Downloaddoimportador)
|
|||
|
|
- [Execução do Importador](#Importaçãodedadoshistóricos-ExecuçãodoImportador)
|
|||
|
|
- [Execução simples (gera e envia todos os dados em modo visual)](#Importaçãodedadoshistóricos-Execuçãosimples(geraeenviatodososdadosemmodovisual))
|
|||
|
|
- [Execução modo texto (gera e envia todos os dados)](#Importaçãodedadoshistóricos-Execuçãomodotexto(geraeenviatodososdados))
|
|||
|
|
- [Execução modo texto (somente gera dados)](#Importaçãodedadoshistóricos-Execuçãomodotexto(somentegeradados))
|
|||
|
|
- [Execução modo texto (somente enviar dados)](#Importaçãodedadoshistóricos-Execuçãomodotexto(somenteenviardados))
|
|||
|
|
- [Execução modo texto (deletar dados)](#Importaçãodedadoshistóricos-Execuçãomodotexto(deletardados))
|
|||
|
|
- [Execução modo texto (executando eventos e conferindo log)](#Importaçãodedadoshistóricos-Execuçãomodotexto(executandoeventoseconferindolog))
|
|||
|
|
|
|||
|
|
# Pré-requisitos
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
- Estar em uma atualização do TOTVS Fluig Plataforma 1.6.3 - EP 15, 1.6.4-180606 ou superior;
|
|||
|
|
|
|||
|
|
- Acesso ao servidor onde a plataforma TOTVS Fluig está instalada (leitura);
|
|||
|
|
|
|||
|
|
- Analytics habilitado e configurado. Para mais informações, [clique aqui](http://tdn.totvs.com/pages/viewpage.action?pageId=107381593#enable-analytics-steps-2);
|
|||
|
|
|
|||
|
|
- Java 8 instalado;
|
|||
|
|
|
|||
|
|
Plataforma em Cloud
|
|||
|
|
|
|||
|
|
Clientes cloud precisam entrar em contato com o time de Cloud informando a empresa (Produção ou homologação) código do projeto Analytics (Recebido no convite de ativação), tenant da empresa e período desejado para que seja realizado a importação dos dados.
|
|||
|
|
|
|||
|
|
Atenção!
|
|||
|
|
|
|||
|
|
Para a correta importação dos dados das solicitações de processos customizados que possuem mais de uma versão, o importador fará a verificação da existência do evento beforeSendData().
|
|||
|
|
|
|||
|
|
Caso o importador encontre na implementação desse evento, respectivamente, a declaração de campos ou fatos personalizados, ele criará os arquivo necessários para o envio destes dados automaticamente. O código dentro do evento deve seguir o formato abaixo:
|
|||
|
|
|
|||
|
|
**Exemplo de declaração de campos e fatos personalizados no evento beforeSendData**
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
customFields[0] = hAPI.getCardValue("fieldname");
|
|||
|
|
customFacts[0] = java.lang.Double.parseDouble(hAPI.getCardValue("fieldname"));
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
Sendo que "customFields[0]" é responsável pelo envio de dados tipo texto, e "customFacts[0]" pelo envio de dados do tipo numérico.
|
|||
|
|
|
|||
|
|
Caso existam campos que utilizem funções específicas (*split*, por exemplo) para a definição do seu valor, o campo não será considerado nesta criação automática do arquivo.
|
|||
|
|
|
|||
|
|
## Consulta do dia e hora do seu último envio de dados da plataforma ao Analytics
|
|||
|
|
|
|||
|
|
Para a consulta do envio de dados, siga os passos abaixo:
|
|||
|
|
|
|||
|
|
- Acesse o endereço analytics.fluig.com
|
|||
|
|
|
|||
|
|

|
|||
|
|
|
|||
|
|
- Clique sobre Manage > Solicitação
|
|||
|
|
|
|||
|
|

|
|||
|
|
|
|||
|
|
- Para verificar se houve alguma interrupção no envio de dados do TOTVS Fluig Plataforma para o Analytics, procure por um intervalo de tempo onde os dados não foram sincronizados. No exemplo abaixo a última atualização foi no dia 25/05/2018 retornando no dia 07/06/2018. -Data em que este exemplo foi incluído na documentação.
|
|||
|
|
|
|||
|
|

|
|||
|
|
|
|||
|
|
# Download do importador
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
Para o processo de importação, não é preciso parar o serviço do fluig (este procedimento pode ser realizado enquanto o TOTVS Fluig Plataforma está em execução).
|
|||
|
|
|
|||
|
|
Primeiramente, será necessário efetuar o *download* do artefato correspondente à atualização da plataforma para o qual o importador será executado, disponível **[aqui](https://suporte.totvs.com/portal/p/10098/download?e=987523)**.
|
|||
|
|
|
|||
|
|
Atenção!
|
|||
|
|
|
|||
|
|
Informamos que este importador de dados é compatível com as versões: **1.7.1** e **inferiores**.
|
|||
|
|
|
|||
|
|
Para as versões **1.8.0** e **superiores** o importador compatível pode ser baixado **[aqui](https://suporte.totvs.com/portal/p/10098/customer-portal-dashboard/services/downloads)**.
|
|||
|
|
|
|||
|
|
# Execução do Importador
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
Após efetuar o *download*, a importação de dados históricos pode ser realizada de duas formas. Segue abaixo:
|
|||
|
|
|
|||
|
|
Fique atento!
|
|||
|
|
|
|||
|
|
Caso o erro abaixo seja exibido na execução do importador, significa que o arquivo de validação do modo de startup do Wildfly não foi gerado e será necessário cria-lo manualmente.
|
|||
|
|
|
|||
|
|
java.io.FileNotFoundException: <fluig-installation>/appserver/bin/ wildfly-config (No such file or directory)
|
|||
|
|
|
|||
|
|
Para isso:
|
|||
|
|
|
|||
|
|
- Acesse a pasta <fluig-installation>/appserver/bin/
|
|||
|
|
- Crie o arquivo wildfly-config, e informe se o modo de inicialização do Fluig é "domain" ou "standalone" incluindo apenas um dos dois modos de inicialização.
|
|||
|
|
- Após isso, execute novamente o importador.
|
|||
|
|
|
|||
|
|
Observação
|
|||
|
|
|
|||
|
|
Não é oferecido suporte à campos pai x filho nos eventos beforeSendData, quando realizada a extração manual.
|
|||
|
|
|
|||
|
|
## Execução simples (gera e envia todos os dados em modo visual)
|
|||
|
|
|
|||
|
|
1. Coloque o importador dentro do diretório raiz da instalação da plataforma.
|
|||
|
|
2. Execute o importador com um duplo clique ou via linha de comando (substituindo <VERSION> pele versão do importador):
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-<VERSION>.jar
|
|||
|
|
```
|
|||
|
|
3. Informe o diretório onde a plataforma está instalada, o código do tenant (empresa), o código do projeto no Analytics para onde os dados serão enviados, e o período (data inicial e final) dos dados a serem importados. O código do projeto no Analytics é o mesmo inserido na configuração da empresa, com a chave analytics.gd.project.id.
|
|||
|
|
4. Clique no botão **Iniciar importação** e aguarde o processo de importação
|
|||
|
|
|
|||
|
|

|
|||
|
|
|
|||
|
|
## Execução modo texto (gera e envia todos os dados)
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
1. Coloque o importador dentro do diretório raiz da instalação da plataforma
|
|||
|
|
2. Execute o importador informando os seguintes parâmetros na linha de comando:
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-<VERSION>.jar <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL>
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
**Exemplo**
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
ATENÇÃO
|
|||
|
|
|
|||
|
|
O formato da data informada deverá ser **DD/MM/AAAA**
|
|||
|
|
|
|||
|
|
## Execução modo texto (somente gera dados)
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
1.Coloque o importador dentro do diretório raiz da instalação da plataforma.
|
|||
|
|
|
|||
|
|
2.Execute o importador informando os seguintes parâmetros na linha de comando:
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-<VERSION>.jar <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL> gerar
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
**Exemplo**
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017 gerar
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
ATENÇÃO
|
|||
|
|
|
|||
|
|
O formato da data informada deverá ser **DD/MM/AAAA**
|
|||
|
|
|
|||
|
|
## Execução modo texto (somente enviar dados)
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
1.Coloque o importador dentro do diretório raiz da instalação da plataforma.
|
|||
|
|
|
|||
|
|
2.Execute o importador informando os seguintes parâmetros na linha de comando:
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-<VERSION>.jar <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL> enviar
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
**Exemplo**
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017 enviar
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
ATENÇÃO
|
|||
|
|
|
|||
|
|
O formato da data informada deverá ser **DD/MM/AAAA**
|
|||
|
|
|
|||
|
|
## Execução modo texto (deletar dados)
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
1.Coloque o importador dentro do diretório raiz da instalação da plataforma.
|
|||
|
|
|
|||
|
|
2.Execute o importador informando os seguintes parâmetros na linha de comando:
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-<VERSION>.jar <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> deletar <DATASET>
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
**Exemplo**
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq deletar dataset.solicitacao
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
Segue datasets válidos:
|
|||
|
|
|
|||
|
|
- dataset.solicitacao
|
|||
|
|
- dataset.documento
|
|||
|
|
- dataset.pagehit
|
|||
|
|
- dataset.events
|
|||
|
|
- dataset.author
|
|||
|
|
- dataset.place
|
|||
|
|
|
|||
|
|
Ao término da execução do processo de importação, será gerado um *log* no diretório onde o arquivo *analytics-import.jar* foi executado.
|
|||
|
|
|
|||
|
|
## Execução modo texto (executando eventos e conferindo log)
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
1.Coloque o importador dentro do diretório raiz da instalação da plataforma.
|
|||
|
|
|
|||
|
|
2.Execute o importador informando os seguintes parâmetros na linha de comando:
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-<VERSION>.jar <INSTALACAO_FLUIG> <ID_TENANT> <ID_PROJETO> <DATA_INICIAL> <DATA_FINAL> gerar true SCHEMA
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
**Exemplo**
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
java -jar analytics-import-1.6-v3.jar c:\fluig 1 abc123def456ghi789jkl012mno345pq 10/01/2017 10/02/2017 gerar true SCHEMA
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
Este recurso faz com que os eventos beforeSendData das solicitações sejam executados mapeando os campos dos formulários. Os eventos só irão simular a execução de eventos com hAPI.getCardValue("Campo") e hAPI.getCardData() e gerar logs, outros métodos não serão executados.
|
|||
|
|
|
|||
|
|
O parâmetro SCHEMA só é necessário em bases ORACLE, caso contrário há a possibilidade de causar erro nos importadores.
|
|||
|
|
|
|||
|
|
Após a execução neste modo, um log contendo quais eventos foram executados com sucesso e com erro serão exibidos, bem como o select para pesquisar cada registro que o importador utilizou para enviar dados de formulários, sendo bem mais fácil verificar o acontecimento de erros e inconsistências.
|