Última pergunta sobre Tensorflow

0
Responda

Visualizando pesos de autoatenção para o problema de adição de sequência com LSTM?

Estou usando o Self Attention camada de here para um problema simples de adicionar todos os números em uma sequência que vem antes de um delimitador. Com o treinamento, espero que a rede neural aprenda quais números adicionar e, usando a camada de Autoatenção, espero visualizar onde o modelo está se concentrando. O código para reproduzir os resultados é o seguinte

lstm attention model tensorflow keras deep learning

0
Responda

É possível mascarar os valores NaN no conjunto de rótulos do Keras LSTM?

Tenho um conjunto de dados LSTM. Alguns rótulos contêm NaNs no final, que não podem ser preenchidos de trás para frente (porque não há valores depois deles) e preenchê-los antecipadamente não faria sentido (já que o carimbo de data/hora dos rótulos será descontinuado em um carimbo de data/hora 'futuro mais próximo' (=valor ausente locatoin) em comparação com seu timeindex acutal)

keras python lstm machine learning tensorflow

Etiquetas quentes

© 2021   OlaMundo.Org