-
Notifications
You must be signed in to change notification settings - Fork 5
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Batching in common model training #79
Batching in common model training #79
Conversation
fix bug in the wrapper for dataset creating
…dation fix bug with two devices usage, new model's format
fix bug in autotuner fix bug with two devices
…in model_modified
…pport dict as model's output. Add function for last layer adding
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Я пару вещей не понял, на пару вещей не ответила, запросил изменения еще раз
Обычно при ревью отвечают на все комментарии, так я буду знать, на что ты обратила внимание, а что нет. Можно даже ставить
- вот такие галочки
и ими отмечать то, что ты сделала. мне сейчас пришлось заново пересматривать весь реквест, чтобы понять что ты поправила, а что нет
+ еще просьба: пожалуйста сначала влей мои изменения, потом делай коммит, иначе мне снова придется решать конфликты
def get_model(path_to_weights: Path, model: torch.nn.Module): | ||
weights = torch.load(path_to_weights) | ||
weights["lin_last.weight"] = torch.tensor(np.random.random([1, 8])) | ||
weights["lin_last.bias"] = torch.tensor(np.random.random([1])) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
тык (это про прошлый коммент: lin_last можно убрать, выставив в Linear атрибут bias=False)
разобрались
best_model_score[map_name], | ||
best_model_name, | ||
) | ||
return best_models |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
вот этот return заканчивается когда заканчивается первая эпоха, а цикл 48: for epoch_num in range(1, len(os.listdir(csv_path)) + 1):
еще не истощился, почему так? посмотри пожалуйста
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
надо пофиксить
- пофиксить
|
||
import torch | ||
import torch.nn as nn | ||
import numpy as np |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
зачем второй раз импортировать numpy? найди пожалуйста оптимизатор импортов
тут я пока ребейзил поковырялся, импорты поправил, забей
Сохранение моделек и рефакторинг
Add new way to train models with generated dataset divided into batches in order to have the opportunity to shuffle steps.
The process consists of three parts: