На arxiv.org выложен интересный препринт: Every Model Learned by Gradient Descent Is Approximately a Kernel Machine.
Как видно из названия, исследователи утверждают, что нейронные сети, обученные методом градиентного спуска (один из самых распространённых вариантов обучения) близки такой штуке как kernel machines — одной из техник машинного обучения «предыдущего поколения».
У kernel machines есть несколько интересных особенностей:
Из этого может неслучиться несколько интересных вещей.
Оба варианта выглядят довольно интересно.
Поговорили про новости ММО игр, некоторые вопросы их дизайна и особенности опыта, который они дают игрокам.
Меня в подкасте не очень много, но что-то полезное вроде говорю :-)
Хронометраж можно найти на странице ролика в YouTube, на сайте mmozg.net и в этом посте (украден с mmozg.net).
На mmozg.net появился любопытный пост о динамике поведения разработчиков и игроков в EVE, по крайней мере я так его тему увидел. Пост хорош сам по себе, но затрагивает куда более широкую тему, которую я и вынес в заголовок.
А поскольку я разрабатываю как раз мини аналог EVE — ММО с единственным игровым сервером без ресетов — мне есть чего добавить по теме. Это эссе развивает мои комментарии к оригинальному посту.
Следующие соображения справедливы для всех игр, но сильнее всего относятся к ММО. Через призму разработки многопользовательской песочницы с персистентным миром я и буду рассказывать.
На mmozg.net случилось обсуждение механик сбора ресурсов: какие нравятся, какие не нравятся и так далее. Вынесу в отдельный пост своё веское мнение по этому поводу.
Думаю неправильно ставить вопрос о механиках сбора ресурсов: мы играем не чтобы собирать ресурсы, мы собираем ресурсы, чтобы усиливать игровой опыт.
Поэтому вопрос не в том, какие механики для сбора ресурсов делать, а в том, какие механики сопровождать сбором ресурсов и какие сопутствующие механики-спутники для этого подходят.
Сбер выпусти свой генератор текста, основанный на GPT-2. Я попробовал скормить ему сказочные описания действий героев. Проверял на jupiter note, опубликованной в вебе, так что вы тоже можете с ней поиграть.
Обновлено: говорят, использовали на GPT-3, а GPT-2 с доработками.
Получилось средненько — не на тех текстах всё-таки нейронка обучалась. Вот если бы ей фэнтези скормили… Текст получается осмысленный, но чувствуется явная нехватка контекста.
Самые интересные примеры под катом.