Эссе о разработке игр, мышлении и книгах

Конспект по статистике

Юля — моя половинка, сейчас учится на курсах переподготовки Института Биоинформатики.

За прошлый семестр у неё получился хороший конспект по статистике, которым и делимся.

Осторожно, долго грузится.

Почему мне не нравится Rust

Во второй раз перелистал документацию Rust, прошлый заход случился лет 5 назад.

Думал, что-нибудь изменится в моём восприятии этого языка, но нет. Как и в прошлый раз, начинается всё хорошо — норм язык, а потом он начинает нравиться всё меньше и меньше.

И похоже я понял, что меня в нём задевает.

Далее

Топология игры

Оптимальная стратегия за крестики в крестиках и ноликах. [Изображение взято из википедии](https://en.wikipedia.org/wiki/Tic-tac-toe).

Оптимальная стратегия за крестики в крестиках и ноликах. Изображение взято из википедии.

Или почему в Сказке игроки не могут создавать города самостоятельно. Хотя могут прокладывать дороги и менять ландшафт.

Заголовок звучит заумно, но суть проста: интересность игры зависит от вариативности геймплея, которая определяется связями между элементами игры.

Далее

Feature Programming

Эссе по итогам нырка в Deep Learning, но не о DL и даже не совсем о Machine Learning, а о новой парадигме программирования, которая рождается из него.

Собственно, нейронные сети я смотрел не потому, что интересуюсь именно ими, а потому что они сейчас демонстрируют наибольший прогресс и характерные черты этой парадигмы.

В следствие выбранной темы, эссе получилось футурологическим и абстрактным. Например, я не буду перечислять области применения DL и достигнутые в них результаты — этим итак всё инфопространство забито.

Оговорка раз: я определённо не эксперт в машинном обучении. Эссе в большей степени отражает мой опыт и картину мира, нежели знания и понимание ML и DL.

Оговорка два: термины «признак», «feature» будут использоваться достаточно вольно.

Далее

Просто о связи линейной алгебры и нейронных сетей

Нашёл серию статей с детальным рассказом о принципах работы нейронных сетей. Начиная от векторного произведения, через матрицы к персептрону и нейронам, Понятно, доступно и последовательно — без скачков через куски теории. С примерами на Python.

  1. Linear Algebra
  2. Inner Product Spaces
  3. The Perceptron, and All the Things it Can’t Perceive
  4. Neural Networks and the Backpropagation Algorithm

Остальной блог тоже интересен. У автора много вводных статей на математические и программистские темы.