Эссе о разработке игр, мышлении и книгах

Делаем вымышленную вселенную: месяц 1

ChatGPT: "Draw an image of a producer working on semantic neighborhood analysis of a new fictional universe IP."

ChatGPT: "Draw an image of a producer working on semantic neighborhood analysis of a new fictional universe IP."

Прошёл первый месяц занятий в Product Vision Masters. Посвящён он был «категорийному анализу» (внутренняя практика школы, на основе опыта преподавателей) вымышленной вселенной, над которой каждый из участников будет работать. Один участник — одна вселенная, потом обещают объединить нас в команды.

Далее

OpenAI Chat для геймдева

Vrubel-style painting of how a game designer work on game texts (c) DALL-E

Vrubel-style painting of how a game designer work on game texts (c) DALL-E

Раз поигрался с DALL-E и смотрел предыдущие текстовые нейронки для Сказки, то надо и OpenAI Chat посмотреть.

Глубоко не копал, так как концептуально возможности и ограничения были понятны уже из экспериментов с DALL-E.

Приведу пример, как одну из следующих версий этой сетки можно будет использовать для Сказки.

Если вам интересны более детальные демонстрации и выводы, смотрите пост про DALL-E для геймдева.

Далее

Заметки о контейнеризации

Не о всей конечно, о кусочке.

Забавно, но я за карьеру мало взаимодействовал с контейнерами. Максимум — писал код, который в них работал. Контейнеры либо особо не требовались, либо готовились другими людьми.

В конце прошлого года решил обновить инфраструктуру Сказки, заодно посмотреть чего да как с контейнерами. Взял Docker, как самую популярную штуку.

Далее

Неожиданно поучаствовал в подкасте портала mmozg.net

Подкаст с моим участимем.

Поговорили про новости ММО игр, некоторые вопросы их дизайна и особенности опыта, который они дают игрокам.

Меня в подкасте не очень много, но что-то полезное вроде говорю :-)

Хронометраж можно найти на странице ролика в YouTube, на сайте mmozg.net и в этом посте (украден с mmozg.net).

Далее

Русскоязычная GPT-2+ от Сбера vs «Сказка»

Сбер выпусти свой генератор текста, основанный на GPT-2. Я попробовал скормить ему сказочные описания действий героев. Проверял на jupiter note, опубликованной в вебе, так что вы тоже можете с ней поиграть.

Обновлено: говорят, использовали на GPT-3, а GPT-2 с доработками.

Получилось средненько — не на тех текстах всё-таки нейронка обучалась. Вот если бы ей фэнтези скормили… Текст получается осмысленный, но чувствуется явная нехватка контекста.

Самые интересные примеры под катом.

Далее