Parece que ya has informado un Incidente de Soporte, el cual está siendo investigado por el Equipo de Desarrollo. Por favor, continúa en el incidente.
Avalados por :
Olá a todos!
A consulta do Painel de Controle estava funcionando bem no HANA 1.0 e estava sendo executada com 88 GB a partir do Console SQL do HANA Studio. A mesma consulta do Painel de Controle foi executada a partir da aplicação Spotfire e está funcionando, mas após um tempo falha com o seguinte erro.
(Erro ao obter dados: SAP DBTech JDBC: [4]: não é possível alocar memória suficiente: erro de falta de memória retornado do CFL (HRESULT: 80131500)).
Ao revisarmos a operação de Fetch da declaração custosa, está consumindo mais de 225 GB e devido a isso está falhando no lado do Spotfire para a atualização do IL, pois há um limite de memória de 225 GB para que o ID execute a consulta.
Por favor, avise-me se alguém enfrentou problemas de memória com a operação de Fetch no SAP HANA 2.0.
Saudações,
Chandu
Parece que ya has informado un Incidente de Soporte, el cual está siendo investigado por el Equipo de Desarrollo. Por favor, continúa en el incidente.
Não encontrei nenhuma nota de apoio ou solução para isso.
Há informações insuficientes aqui para determinar a causa do OOM. Compartilhar os dados necessários aqui provavelmente seria melhor feito em um incidente de suporte.
No entanto, algumas observações:
- Executar uma consulta no SAP HANA Studio geralmente resulta em uma execução de consulta
limitada
Seja usando a visualização de dados; então uma cláusula LIMIT é injetada no SELECT e o conjunto de resultados é reduzido em conformidade, já durante o processamento da consulta. Alternativamente, o SAP HANA Studio não recupera todos os registros de resultados, mas apenas os primeiros x (x=1000 por padrão).
Isso significa que a observação "funciona no HANA Studio, mas não no Spotfire" provavelmente não fornece informações sobre a causa do problema.
- Sua consulta do painel falha porque está tentando alocar 225 GB de dados. Pense nisso por um momento... Essa não pode ser a quantidade de dados que você deseja trazer de volta para o painel. (ou seja, a recuperação não é a causa do problema, mas apenas a operação que causou o erro). Vamos supor que o DV realmente não retorne essa quantidade de dados ao cliente, então significa que durante a execução do CV, essa quantidade de dados é necessária para o processamento intermediário.
Isso deve ser analisado e corrigido revisando o modelo e tentando filtrar e agregar o mais cedo possível durante o processamento.
Mudar o driver JDBC ou usar ODBC em seu lugar não resolverá o modelo com defeito.
contacto@primeinstitute.com
(+51) 1641 9379
(+57) 1489 6964
© 2024 Copyright. Todos los derechos reservados.
Desarrollado por Prime Institute