Última pergunta sobre Machine Learning

1
Responda

A pesquisa de grade não fornece os melhores parâmetros

Ao executar a pesquisa em grade no parâmetro Inverso da força de regularização e no parâmetro de número de vizinhos mais próximos para regressão logística, classificador linear SVM e K de vizinhos mais próximos, os melhores parâmetros obtidos na pesquisa em grade não são realmente os melhores ao verificar manualmente por treinamento no mesmo treinamento conjunto de dados. Código abaixo

machine learning scikit learn python google colaboratory grid search

0
Responda

Jetson Nano continua travando ao executar o modelo Frozen

Meu jetson nano continua pendurado. Depois de algum tempo, ele me dá o aviso de pouca memória e logo depois meu computador congela. Isso só acontece ao executar o código e o modelo abaixo no meu jetson nano, no meu computador funciona bem e até mostra uma redução na taxa de quadros quando comparado ao meu modelo h5. O código que usei para executar meu modelo congelado é mostrado abaixo:

nvidia jetson nano machine learning keras nvidia jetson

0
Responda

Como usar o modelo StackingRegressor para a montagem do modelo

Tenho um problema de previsão de preços de casas em que estou tentando implementar um modelo StackingRegressor para agrupar modelos de regressão múltipla. Alguém pode me ajudar a entender como usar regressores e parâmetro metaregressor no modelo StackingRegressor. Encontrei alguns fóruns onde empilharam modelos diferentes, mas não consigo entender com que base temos que empilhar os modelos sob regressores e metaregressor?

machine learning regression python

0
Responda

É possível mascarar os valores NaN no conjunto de rótulos do Keras LSTM?

Tenho um conjunto de dados LSTM. Alguns rótulos contêm NaNs no final, que não podem ser preenchidos de trás para frente (porque não há valores depois deles) e preenchê-los antecipadamente não faria sentido (já que o carimbo de data/hora dos rótulos será descontinuado em um carimbo de data/hora 'futuro mais próximo' (=valor ausente locatoin) em comparação com seu timeindex acutal)

keras python lstm machine learning tensorflow

0
Responda

Arquivo não encontrado ou corrompido ao carregar o conjunto de dados CUB-200-2011

import os import pandas as pd import numpy as np from torchvision.datasets.folder import default_loader from torchvision.datasets.utils import download_url from torch.utils.data import Dataset class Cub2011(Dataset): base_folder='CUB_200_2011/images' url='http://www.vision.caltech.edu/visipedia-data/CUB-200-2011/CUB_200_2011.tgz' filename='CUB_200_2011.tgz' tgz_md5='97eceeb196236b17998738112f37df78' def __init__(self, root, train=True, transform=None, loader=default_loader, download=True): self.root=os.path.expanduser(root) self.transform=transform self.loader=default_loader self.train=train if download: self._download() def _load_metadata(self): images=pd.read_csv(os.path.join(self.root, 'CUB_200_2011', 'images.txt'), sep=' ', names=['img_id', 'filepath']) image_class_labels=pd.read_csv(os.path.join(self.root, 'CUB_200_2011', 'image_class_labels.txt'), sep=' ', names=['img_id', 'target']) train_test_split=pd.read_csv(os.path.join(self.root, 'CUB_200_2011', 'train_test_split.txt'), sep=' ', names=['img_id', 'is_training_img']) data=images.merge(image_class_labels, on='img_id') self.data=data.merge(train_test_split, on='img_id') if self.train: self.data=self.data[self.data.is_training_img==1] else: self.data=self.data[self.data.is_training_img==0] def _download(self): import tarfile download_url(self.url, self.root, self.filename, self.tgz_md5) with tarfile.open(os.path.join(self.root, self.filename),"r:gz") as tar: tar.extractall(path=self.root) def __len__(self): return len(self.data) def __getitem__(self, idx): sample=self.data.iloc[idx] path=os.path.join(self.root, self.base_folder, sample.filepath) target=sample.target -1 img=self.loader(path) if self.transform is not None: img=self.transform(img) return img, target import os import pandas as pd import numpy as np from torchvision.datasets.folder import default_loader from torchvision.datasets.utils import download_url from torch.utils.data import Dataset class Cub2011(Dataset): base_folder='CUB_200_2011/images' url='http://www.vision.caltech.edu/visipedia-data/CUB-200-2011/CUB_200_2011.tgz' filename='CUB_200_2011.tgz' tgz_md5='97eceeb196236b17998738112f37df78' def __init__(self, root, train=True, transform=None, loader=default_loader, download=True): self.root=os.path.expanduser(root) self.transform=transform self.loader=default_loader self.train=train if download: self._download() def _load_metadata(self): images=pd.read_csv(os.path.join(self.root, 'CUB_200_2011', 'images.txt'), sep=' ', names=['img_id', 'filepath']) image_class_labels=pd.read_csv(os.path.join(self.root, 'CUB_200_2011', 'image_class_labels.txt'), sep=' ', names=['img_id', 'target']) train_test_split=pd.read_csv(os.path.join(self.root, 'CUB_200_2011', 'train_test_split.txt'), sep=' ', names=['img_id', 'is_training_img']) data=images.merge(image_class_labels, on='img_id') self.data=data.merge(train_test_split, on='img_id') if self.train: self.data=self.data[self.data.is_training_img==1] else: self.data=self.data[self.data.is_training_img==0] def _download(self): import tarfile download_url(self.url, self.root, self.filename, self.tgz_md5) with tarfile.open(os.path.join(self.root, self.filename),"r:gz") as tar: tar.extractall(path=self.root) def __len__(self): return len(self.data) def __getitem__(self, idx): sample=self.data.iloc[idx] path=os.path.join(self.root, self.base_folder, sample.filepath) target=sample.target -1 img=self.loader(path) if self.transform is not None: img=self.transform(img) return img, target import os importar pandas como pd importar numpy como np de torchvision.datasets.folder import default_loader de torchvision.datasets.utils import download_url from torch.utils.data import Dataset classe Cub2011 (conjunto de dados): base_folder='CUB_200_2011/imagens' url='http://www.vision.caltech.edu/visipedia-data/CUB-200-2011/CUB_200_2011.tgz' filename='CUB_200_2011.tgz' tgz_md5='97eceeb196236b17998738112f37df78' def __init __ (self, root, train=True, transform=None, loader=default_loader, download=True): self.root=os.path.expanduser (root) self.transform=transform self.loader=default_loader self.train=train se baixar: self._download () def _load_metadata (self): images=pd.read_csv (os.path.join (self.root, 'CUB_200_2011', 'images.txt'), sep='', nomes=['img_id', 'caminho do arquivo']) image_class_labels=pd.read_csv (os.path.join (self.root, 'CUB_200_2011', 'image_class_labels.txt'), sep='', nomes=['img_id', 'destino']) train_test_split=pd.read_csv (os.path.join (self.root, 'CUB_200_2011', 'train_test_split.txt'), sep='', nomes=['img_id', 'is_training_img']) data=images.merge (image_class_labels, on='img_id') self.data=data.merge (train_test_split, on='img_id') se self.train: self.data=self.data[self.data.is_training_img==1] outro: self.data=self.data[self.data.is_training_img==0] def _download (self): importar tarfile download_url (self.url, self.root, self.filename, self.tgz_md5) com tarfile.open (os.path.join (self.root, self.filename),"r: gz") como tar: tar.extractall (path=self.root) def __len __ (self): return len (self.data) def __getitem __ (self, idx): amostra=self.data.iloc[idx] path=os.path.join (self.root, self.base_folder, sample.filepath) target=sample.target -1 img=self.loader (caminho) se self.transform não for Nenhum: img=self.transform (img) return img, target Tentei carregar o conjunto de dados CUB-200-2011 pelo código acima,

machine learning computer vision deep learning pytorch torchvision

0
Responda

Queda acentuada no erro de treinamento após a primeira época

Estou treinando um codificador automático LSTM para recriar a entrada que consiste em oito recursos (números de ponto flutuante entre 0 e 1). Atualmente, estou utilizando um tamanho de janela de dois e estou treinando o modelo para 50 épocas. No entanto, durante o treinamento da rede, observei que o erro de treinamento (erro quadrático médio) cai significativamente após a primeira época. Por exemplo, durante a primeira época, o erro de treinamento foi de 17,25. Caiu para 1,8 logo a seguir e estagna após a sétima época. Eu queria saber se a inicialização aleatória de pesos pode estar causando isso, portanto, treinei mais uma rede e o mesmo fenômeno se repetiu.

pytorch lstm machine learning autoencoder

Etiquetas quentes

© 2021   OlaMundo.Org