Skip to content

Conversation

@Timoniche
Copy link
Owner

No description provided.

"d_kv": 64,
"dropout": 0.1,
"activation": "relu",
"num_beams": 100,

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Можно уменьшить до 30, это ускорит код и результаты должны не сильно поменяться

"sampler_type": "tiger"
},
"dataloader": {
"train_batch_size": 256,

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

В твоих экспах ты можешь брать больший batch size, чтобы лучше gpu утилизировать, главное чтобы на всех экспах он был один

Comment on lines +44 to +46
if item_frequency_counts is None:
# We do not yet know final max, so start conservatively and grow if needed
item_frequency_counts = {}

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Непонятно почему это бы не убрать? В чем логика делать выше None?

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Пожалуйста отредачь ноутбуки чтобы их можно было корректно сравнивать, убери свою метаинформацию о выходах и запусках.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

3 participants