Архив метки: Практика

Ищу работу: CTO, Tech/Team Lead, R&D

Обновлено 16 сентября.

15 лет в разработке ПО, 13 — в геймдеве, 9 — в топ геймдев компаниях. 

Специализируюсь на решении нетипичных задач, наведении порядка, разработке backend. 

Не привязан к технологиям, легко переключаюсь на выгодные для текущего проекта.

Резюме: ru, en.

Рассматриваю позиции CTO, Tech/Team Lead или R&D разработчика. 

С интересом рассмотрю разовое сотрудничество: 

  • Консультации по коду, архитектуре.
  • Помогу наладить процессы в небольших командах / стартапах.
  • Сдельные проекты: разработка библиотек, middleware, etc.

Не рассматриваю:

  1. аутсорс, аутстаф — совсем-совсем;
  2. криптопроекты, ориентированные на продажу токенов на хайпе;
  3. низкоуровневый линукс и всё, близкое к железу;
  4. работу, заточеную на обеспечение security.
  5. работу, сконцентрированную на devops, настройке инфраструктуры, etc.

Отвожу на поиск 2-3 месяца, то есть принять офер смогу только к декабрю. 

Рассматриваю только продуктовые компании. 

Важно наличие бонусов / опционов / процентов от прибыли с чёткими критериями их получения. Если такого нет, то буду рассчитывать на прямую компенсацию в зарплате.

Планирую уезжать из Беларуси на запад. Поэтому либо релокация в течение года, либо возможность удалённой работы. 

P.S. Из всего могут быть исключения, но для каждого исключения нужен повод.

Итоги творческого отпуска 2019-2021 годов

A-a-ay, I'm on vacation
Every single day 'cause I love my occupation
A-a-ay, I'm on vacation
If you don't like your life, then you should go and change it

Или как написать том «Войны и мира» за 2 года.

В июне 2019 я уволился из Melsoft и ушёл в творческий отпуск, который длится вот уже 2 года и 2 месяца. Пора подводить итоги.

Расскажу зачем я это сделал, чем занимался, что получилось, что не получилось, какие впечатления остались.

Кратко: всем рекомендую.

Читать далее

Реализация Generative Adversarial Network

В завершение разбирательства с Deep Learning решил посмотреть что-нибудь более интересное и ориентированное на генерацию контента — реализовать GAN.

По правде говоря, большую часть времени с GAN (и Autoencoder) я экспериментировал на спрайтах карты Сказки. Ожидаемо, на таком мизере обучающих данных ничего интересного не получилось. Хотя польза и была. Поэтому для поста я подготовил отдельный notebook с более наглядными результатами — генерацией обуви по набору данных Fashion MNIST.

Ноутбук с реализацией GAN и комментариями.

Про архитектуру GAN лучше почитать в вики, интернетах или моём ноутбуке.

Краткая суть:

  • Тренируются две сети: generator & discriminator.
  • Генератор учится создавать картинки из шума.
  • Дискриминатор учится отличать поддельные картинки от настоящих.
  • Ошибка дискриминатора определяется качеством предсказания фейковости изображения.
  • Ошибка генератора определяется качеством обмана дискриминатора.

Если правильно подобрать топологии сетей и параметры обучения, то в итоге генератор научается создавать картинки неотличимые от оригинальных. ??????. Profit.

Ссылки на курсы по Machine Learning & Deep Learning

Перед началом разбирательства с темой собрал для себя список курсов, которые могут быть интересны.

Публикую, чтобы не пропадал зря.

Только ссылки. Свои комментарии вырезал — в исходном виде они никому кроме меня не помогут :-)

Читать далее

Kaggle: Digit Recognizer (MNIST) точность 0.99585

Продолжаю путешествие по занимательным землям Deep Learning.

В прошлый раз я учился заводить deep learning на локальной машине и делал совсем детскую, искусственную и неспецифическую для DL задачу.

В этот раз решил попробовать что-то более диплёрничное — научиться решать задачи на Kaggle. Есть предположение, что Kaggle — самый простой и интересный способ учить DL.

На этом сервисе есть задачи для новичков, одну такую — Digit Recognizer — я выбрал для тренировки. Соревнование по распознаванию рукописных цифр из набора MNIST. Этот набор должны были встречать даже люди далёкие от ML.

Notebook с решением и комментариями опубликован на github. 

На момент отправки решение занимало 467 место из ~7000. На мой взгляд неплохой результат, учитывая, что первые мест 150 занимают читерские решения. MNIST — общедоступный набор данных, их можно скачать вне kaggle и залить в качестве решения готовые ответы, или переобучить сеть на полном наборе.

Читать далее